일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
- AI
- javascirpt
- queue
- LLM
- 코딩테스트
- 스택/큐
- DP
- InfluxDB
- dfs
- data platform
- python
- javascript
- 완전탐색
- VectoreStore
- React
- Two Pointer
- set활용
- 파이썬
- 인베딩
- Stack
- typescript
- retriever
- Weaviate
- 좌표이동
- modbus
- frontend
- 개발브로그
- 프로그래머스
- 알고리즘
- Algorithm
- Today
- Total
목록2025/09/06 (3)
DM Log
컴퓨터의 텍스트 이해 방식사람은 "사과"를 보면 과일을 떠올리고, "애플"을 보면 회사나 아이폰을 연상한다. 하지만 컴퓨터는 "사과"를 단순한 문자열로 인식한다.텍스트 의미적 관계를 이해하기 위해서는 텍스트를 수학적 공간의 좌표 즉, 벡터 공간의 좌표로 변환이 필요하며, 이를 임베딩이라고 한다.임베딩은 RAG, 추천 시스템, 검색 엔진, 챗봇 등 AI 서비스의 기반이 되는 핵심 개념이다.백터 표현의 필요성텍스트는 문자나 단어 나열 (그대로 비교 불가능)단순한 방법: 원-핫 인코딩(one-hot encoding)사과: [1,0,0,0,...]바나나: [0,1,0,0,...]한계:차원이 단어 수만큼 커짐사과와 배의 의미적 유사성을 표현 불가추후, 단어 / 문장을 저차원 벡터 공간에 배치해 의미적 거리로 비교..
LLM의 중요성 LLM은 자연어를 이해하고 생각하는 법용 엔진검색, 요약, 번역, 코딩 보조, 지식질의 등 텍스트가 있는 곳이면 적용 가능"어떻게 동작하는지"를 모르면, 환각 / 최신성 / 프롬프트 민감성 같은 한계를 제대로 다룰수 없음언어 모델의 개념LLM은 다음에 올 단어를 예측 하는 것확률적 정의문장 w1, w2, …, wT의 확률을 최대화즉, 매 순간 이전까지의 문맥을 보고 다음 토큰의 분포를 출력 학습은 대규모 텍스트 말뭉치에서 정답(실제 다음 토큰)과 모델 예측 분포의 차이를 줄이는 방향으로 진행 (교차 엔트로피 손실)[확률 기반 언어 모델의 등장 (n-gram 등)]1) n-gram 모델개념: 바로 앞의 n-1개만 보고 다음 단어 예측 (마코프 가정)장점: 단순하고 빠름한계: 장기 의존성 ..
문제 링크 - https://school.programmers.co.kr/learn/courses/30/lessons/43162 프로그래머스SW개발자를 위한 평가, 교육의 Total Solution을 제공하는 개발자 성장을 위한 베이스캠프programmers.co.kr[문제 간단 요약]n대의 컴퓨터가 있고, computers[i][j] = 1이면 i와 j가 직접 연결됨.네트워크(연결 요소)의 개수를 구해야 한다.즉, 연결된 노드들의 그룹 수를 찾는 문제.[문제 해결 방안]그래프의 연결 요소 개수를 찾는 전형적인 문제.모든 노드에 대해 아직 방문하지 않은 경우 DFS/BFS 탐색을 수행.탐색을 시작할 때마다 네트워크 수를 +1 증가.인접 행렬이므로 각 노드마다 모든 노드를 확인 → 시간 복잡도는 O(n^2..