🎯 Projects (지금 하는 일)
📝 Areas (매일 관리)
📚 Resources (가끔 참고)
📦 Archives (끝난 것들)
PARA는 집 구조와 비슷하다:
1. Projects (프로젝트) = 지금 일하는 책상
현재 진행 중인 일들만 올려두는 곳
"오늘/이번 주에 해야 하는 일" 전부
2. Areas (영역) = 매일 들여다보는 냉장고
매일매일 관리하고 신경 써야 하는 것들
자주 확인하고 업데이트가 필요한 것들
3. Resources (자료) = 주방 서랍
필요할 때마다 꺼내 쓰는 것들
지금 당장은 안 봐도 되지만 나중에 유용한 것들
4. Archives (보관함) = 창고
다 끝나서 치워둔 것들
혹시 몰라 버리긴 아깝지만 당장은 안 보는 것들
지금 하고 있는 일이면 → Projects (책상)
매일 봐야 하면 → Areas (냉장고)
나중에 쓸 거면 → Resources (서랍)
다 끝난 거면 → Archives (창고)
Projects: "지금 당장" 해야 하는 일
예) 이번 주 발표 자료, 이사 준비 체크리스트
Areas: "계속 신경 써야" 하는 일
예) 운동 기록, 가계부
Resources: "나중에 쓸 수 있는" 것들
예) 관심 있는 레시피들, 좋은 글귀 모음
Archives: "일단 보관" 해둘 것들
예) 끝난 프로젝트, 옛날 영수증
자세한 예시
🎯 Projects (지금 하는 일)
- 12월 회사 발표자료 만들기
- 이번 주말 제주도 여행 계획
- 이사 준비 체크리스트
- 연말 모임 장소 예약하기
- 1월 팀 예산안 작성
📝 Areas (매일 관리)
- 운동 기록 (매일 체크)
- 식단 관리 (매끼 기록)
- 업무 일지 (매일 작성)
- 가계부 (매일 지출 기록)
- 독서 일기 (읽은 책 기록)
- 건강 체크리스트 (수면, 약 복용)
- 주간 업무 계획표
📚 Resources (가끔 참고)
- 운동 방법 모음집
- 자주 가는 맛집 리스트
- 좋아하는 영화/도서 목록
- 업무 관련 참고자료
- 나중에 가볼 여행지 목록
- 집 인테리어 아이디어
- 유용한 회의 템플릿
- 요리 레시피 모음
- 쇼핑 위시리스트
📦 Archives (끝난 것들)
- 2023년 프로젝트 보고서
- 지난 여행 기록/사진
- 이전 회사 업무 자료
- 완료된 이사 준비 목록
- 끝난 계약서/영수증
- 옛날 일기/메모
- 지난 달력/스케줄
- 예전 집 사진
from langchain_community.document_loaders import TextLoader
from langchain_community.vectorstores import Chroma
from langchain_community.embeddings import OpenAIEmbeddings
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain_community.llms import OpenAI
from langchain.chains import RetrievalQA
from typing import List
from langchain.schema import Document
import os
여기는 임포트부터 뭐 처음 보는 것들이 많다.
일단 랭체인이 뭔지부터 알아보자.
LangChain(랭체인)
랭체인은 사실 그냥 LLM을 가지고
어플리케이션을 개발하는 프레임 워크임 (안드로이드 , ios 앱 말고 더 큰 의미의어플리케이션)
대표적인 기능은 이런 게 있음
프롬프트 관리: 효과적인 프롬프트를 작성, 최적화, 재사용하는 도구를 제공.
langchain.prompts
체인: 여러 LLM 또는 다른 구성 요소를 연결하여 복잡한 작업을 수행.
langchain.chains
에이전트: LLM을 의사 결정 엔진으로 사용하여 작업을 자동으로 수행.
langchain.agents
메모리: 대화나 작업 간의 정보를 유지하고 관리.
langchain.memory
인덱서와 벡터 저장소: 대규모 데이터셋에서 관련 정보를 효율적으로 검색.
langchain.vectorstores, langchain.embeddings
이렇게 5개가 대표적인 기능임
그리고노란색으로 칠해둔 애들은 이번 코드에 사용되는 애들임
근데 import문을 자세히 본 사람은 눈치챘겠지만
점마들 말고도 훨씬 많은 모듈을 씀.
+α
문서 로더: 다양한 형식의 문서를 로드하고 처리함.
langchain.document_loaders
텍스트 분할기: 긴 문서를 더 작은 청크로 분할함.
langchain.text_splitter
언어 모델: 다양한 왕짱큰 언어 모델(LLMs)을 사용할 수 있게 함.
langchain.llms
스키마: LangChain의 기본 구조를 정의함.
langchain.schema
이건 좀 다른 녀석들에 비해 설명을 들었을 때 이해가 직관적이지 못함.(내가 그랬음)
쉽게 말하면 LangChain의 "설계도"라고 생각하면 됨.
'문서'가 뭔지, '언어 모델'이 어떤 기능을 해야 할지 정의함.
새로운 기능을 추가할 때 기존 기능들과 잘 호환되도록 규칙을 제공하는 역할도 함.
지금은 이 정도로만 가볍게 알고 자세한 건 추후 설명
근데 렝체인 뒤에 _community가 붙어 있는데 이건 머임?
LangChain Community
요거는 걍 랭체인 커뮤니티에서 관리하는 통합 패키지임
주로 서드파티 도구, API, DB 등과의 연동을 담당함.
우리가 쓰는 Chroma같은게 서드파티 도구임.
요런거 쓸라믄 커뮤를 써야한다는것.
실험적이고 새로운 기능들이 먼저 이곳에서 많이 시도됨.
(LangChain의 카카오톡실험실 ㄷㄷ)
커뮤니티에서 검증된 기능들이 나중에 핵심 Langchain 패키지로 이동되기도 함.
암튼 이런 특징 때문에 더 많은 외부 서비스, 도구, 데이터베이스 등과의 통합을 제공하게 됨.
그래서 이 코드에서는 더 최신 기능 더 다양한 기능을 위해 커뮤니티 모듈을 사용함.
클래스 알아보기
from langchain_community.document_loaders import TextLoader
위에 언급한 문서 로더 기능을 사용하기 위한 준비 단계다.
langchain_community.document_loaders
랭체인 뒤에 커뮤니티가 붙었다는 점만 다름.
TextLoader
document_loaders 모듈에서
TextLoader라는 특정클래스를 '좀 쓸게요' 하고 가져옴.
인마는 텍스트 파일을 읽어 들이는 기능을 함.
예시 코드
from langchain_community.document_loaders import TextLoader
# 텍스트 파일 경로
file_path = "example.txt"
# TextLoader를 사용하여 파일 로드
loader = TextLoader(file_path)
# 문서 내용 읽기
documents = loader.load()
# 문서 내용 출력
print(documents)
이 작업을 하면 documents에 다음과 같은 documents 객체가 들어있을 거임.(출력 시)
documents = [
Document(
page_content="파일의 전체 내용...(매우 긴 문자열)",
metadata={
"source": "2024-10-16_17-20-28.txt"
}
)
]
documents(변수)는 리스트인데 그 안에
단 하나의 Document 객체가 포함되어 있을 거임. (적어도 우리가 분석하는 코드에서는)
Document 객체가 먼디용?
Document는 LangChain 라이브러리에 정의된 클래스임.
from langchain.schema import Document
우리가 여기서 임포트 해옴.
근데 안해도 작동 잘할거임 (내 코드 아님)
from langchain.schema import Document
class Document:
def __init__(self, page_content: str, metadata: dict = None):
self.page_content = page_content
self.metadata = metadata or {}
이렇게 생김.
document.page_content 이런 식으로 쓸 수 있는 거임.
정리
TextLoader
얘는 그냥 파일 읽을 준비만 하는클래스임
경로랑 인코딩 정보만 저장하고 실제로 파일 안 읽음
load()인마가 진짜로 파일을 읽는 메소드임
(TextLoader의 인스턴스 메소드.)
촤라라락 읽고 읽은 내용을 Document 객체로 변환
from langchain_community.vectorstores import Chroma
위에 설명해서 이제 이해가 쉬울 텐데
langchain_community.vectorstores 라는 모듈에서
Chroma를 쓰겠다는 거임
그렇다는 건 당연히 LangChain에서 지원하는
다른 벡터 DB도 쓸 수 있다는 뜻! (벡터 DB 개념은 바로 밑에 설명)
짧게 살펴보고 가자면 이런 게 있다
Chroma: 간단하고 빠르게 설정할 수 있어 프로토타이핑에 좋음.
FAISS: 대규모 데이터셋에서 빠른 검색이 필요할 때 유용함. (페북 AI에서 만듦)
Pinecone: 클라우드 기반 설루션이 필요하고 확장성이 중요할 씀.
Qdrant: 고성능이 필요하고 복잡한 필터링 기능이 필요할 때 씀.
Weaviate: 그래프 데이터 구조와 벡터 검색을 결합하고 싶을 때 유용함.
Milvus: 대규모 분산 시스템에서 벡터 검색이 필요할 때 씀.
우리도 간단한 설정과 빠른 프로토타이핑을 위해
Chroma를 공부하는 거임.
이 코드 만든 아저씨도 그 목적으로 쓴 거일 테고
FAISS랑 Chorma는 인터페이스가 유사해서
모델만 바꿔 끼우면 쉽게 교체 가능 할지도?
(하고 싶은 사람 라이브러리 설치하고 실행 후 후기점.)
결론 :Chroma는 빠르다
잠만 근데 벡터 DB가 머임?
벡터 DB
벡터는 숫자들의 리스트임.
[1,2,3]뭐 막 일케 생겼음.
인공지능에서는 텍스트나 이미지 같은 복잡한 데이터를
저 위에 예시처럼숫자 리스트로 표현함.
그래서 저런 애들이 모여있어서벡터.데이터베이스. 임
그냥 텍스트 파일에서 정보 찾으면 안 됨? 왜 저렇게 변환함?
1. 일단 속도부터 차이가남.
예를 들어 :
1GB 크기의텍스트 파일에서 정보를 찾는 데몇 분이 걸릴 수 있지만,
벡터 DB를 사용하면 같은 양의 데이터에서몇 초만에 찾을 수 있는겨.
근데 그냥 속도만 빠르다고 쓰는 게 아님.
2. 의미 기반 검색
벡터 DB는 검색을 할 때 crtl + f 로 키워드 찾듯이 정보를 찾는 게 아님.
훨씬 지능적이게 검색을 함.
예를 들어 :
"지구 온난화의 영향" 을 검색한다면
"기후 변화로 인한 해수면 상승"같은 관련 정보도 찾아옴.
키워드가 정확히 매칭되지 않아도 문맥을 고려해서 찾아옴.
3. 유사성 측정
벡터 DB는 정보 간의 유사성을 수치화함.
뭔 말이고?
"사과의 영양성분" 이라는 질문에 대해
가장 관련 높은 정보부터 순서대로
사과의 비타민 함량
사과의 식이섬유
과일의 일반적인 영양가
요로코로미 찾아온다는 거임.
4. 다차원 데이터 처리
텍스트가 아닌 이미지나 소리를 검색해와야 하면 어칼 거임.
벡터 DB는 이미지, 소리도 컴터가 이해하는 방식으로 저장을 할 수가 있음.
결론:
벡터 DB를 쓰면 더 지능적이고 효율적인 정보 검색 처리가 가능함.
특히 데이터가 킹왕짱 커지거나 복잡한 질문을 답할 때 매우 유용해짐.
from langchain_community.embeddings import OpenAIEmbeddings
from은 이제 다 알 테니 생략하고
먼저 embeddings가 뭔지 알아보자
임베딩(embedding)
위에 언급했듯이
데이터들은 벡터 DB에 들어갈 때
숫자로 변환되어 벡터가 되어 들어감.
데이터 -> 벡터(숫자) -> 벡터 DB
근데 여기서 생각해봐야 할게
누가 데이터를 벡터로 바꿔주냐 이거임.
임베딩 모델 : 저요
ㅇㅇ 임베딩 모델이 그걸 하는 놈임.
얘가 대량의 데이터로 학습되어서 데이터의 의미와 관계를 포착함.
그리고 그걸 숫자로 표현하는 거임.
여기서 하나 더 알고 가면 좋은 점 있는데
이 벡터들은 의미나 관계를 다차원 공간상의 위치로 나타냄.
ㄷㄷ 뭐소리고
대충 후려쳐서 말하면
단어끼리 의미가 가까우면 서로 가까운데 위치함.
쉬운 예시로 ㄱ
3차원 공간이 있다고 생각해 보자
[2,3,1]이런 좌표가 있음.
이게벡터임
계란말이라는 단어가 임베딩되어벡터 [2,3,1]이 된 거임
그럼 이벡터 [2,3,1](계란 말이)는
3차원 공간에서 좌표
x=2
y=3
z=1
위치에 있는 거임
근데 갑자기 계란찜이 임베딩 되어서 들어옴.
그럼 임마는벡터 [2,3,1](계란 말이)와 가까운
x=3
y=3
z=1
계란찜 [3,3,1]쯤에 위치하게 되는 거임
둘 다 계란으로 만들었고 음식이니깐 유사성이 높아서 가까운데 위치하게 됨.
결국벡터에 들어가 있는숫자들은
데이터의 특성을 고차원 공간에서 표현하는 수치들이라고 보면 됨
이 차원은 천차만별임 GPT-3는 무슨 12,000 이상 차원까지 사용하고
몇백 따리차원도 있고 그럼.
근데 재밌는 건 인간이 각 차원에 대해서 정확한 의미는 해석할 수 없음
일단 12,000차원 이상의 공간을 직관적으로 이해하기 어렵고
임베딩 모델이 인간이 명시적으로 정의한 규칙이 아니라
블랙박스 안에서 데이터 지지고 볶으면서 지 꼬운 대로
학습한 패턴을 기반으로 작동해서 그럼
이게 인터레스팅 하다면
AI의 '설명 가능성(explainability)' 문제를 찾아보도록
다시 코드로 돌아와서
from langchain_community.embeddings import OpenAIEmbeddings
임베딩을 아니깐 이제 이 코드는 그냥 귀요미 중에 귀요미 코드.
embeddings패키지에서 OpenAIEmbeddings모델 꺼내 쓰겠다는 거임.
그게 끝임.
참고로 이런 애들도 쓸 수 있
HuggingFaceEmbeddings (킹깅갓이스)
VertexAIEmbeddings (구글이 만듦)
CohereEmbeddings (다국어 처리 잘함)
TensorflowHubEmbeddings
참고로OpenAIEmbeddings얘는 유료임.
API 키 필요함
참고로 OpenAI는 비영리 단체임.
(비영리 단체도 수익산업 가능함. 임마들이 증거임 (실제로 가능함 ㅋ)
from langchain.text_splitter import RecursiveCharacterTextSplitter
text_splitter 에서 RecursiveCharacterTextSplitter 를 꺼내온다.
text splitting
걍 말 그대로 텍스트 분할임.
RecursiveCharacterTextSplitter
ㄹㅇ 길다 이름
번역하자면 재귀적 문자 텍스트 분할기인데.
임마가 어떤 식으로 동작하냐면 (split_text 메소드 기준)
1. 먼저 전체 텍스트를 구분자(줄바꿈, 마침표 같은 거)를 기준으로 크게 나눔.
2. 그리고 이게 설정한 최대 길이(chunk_size)를 초과하면 또다시 더 작은 구분자로 나눔.
이 과정이재귀적이라Recursive가 붙은 거임
3. 모든 부분이 지정된 길이 이하가 될 때까지 계속함.
쉬운 예시를 인공지능에게 짜달라고 해봤음
청크 사이즈가 100일 때의 출력
청크 1 (56자): 1. 인공지능은 컴퓨터가 인간의 지능을 모방하는 기술입니다.
--------------------------------------------------
청크 2 (75자): 2. 머신러닝은 데이터로부터 학습하여 성능을 향상시키는 AI의 한 분야입니다.
--------------------------------------------------
청크 3 (62자): 3. 딥러닝은 인간 뇌의 신경망을 모방한 알고리즘을 사용합니다.
--------------------------------------------------
청크 4 (67자): 4. 자연어 처리는 컴퓨터가 인간의 언어를 이해하고 생성하는 기술입니다.
--------------------------------------------------
청크 사이즈 50일 때의 출력
청크 1 (48자): 1. 인공지능은 컴퓨터가 인간의 지능을 모방하는
--------------------------------------------------
청크 2 (8자): 기술입니다.
--------------------------------------------------
청크 3 (49자): 2. 머신러닝은 데이터로부터 학습하여 성능을 향상시키는
--------------------------------------------------
청크 3 (26자): AI의 한 분야입니다.
--------------------------------------------------
청크 4 (50자): 3. 딥러닝은 인간 뇌의 신경망을 모방한 알고리즘을
--------------------------------------------------
청크 5 (12자): 사용합니다.
--------------------------------------------------
청크 6 (49자): 4. 자연어 처리는 컴퓨터가 인간의 언어를 이해하고
--------------------------------------------------
청크 7 (18자): 생성하는 기술입니다.
--------------------------------------------------
직관적이다 그죠잉.
암튼 이런 식으로 텍스트 나누는 재귀뭐시기 클래스 가져다 쓴다는 코드임.
근데 데이터를 왜 나누는 거임? 청크는 또 머임;;;
청크(chunk)
말 그대로덩어리임.
근데데이터 분야에서청크는'관리 가능한 부분', '논리적 단위'를 나타냄.
"예림이 그 패 봐봐 혹시 장이야?"
이거를
예림이 / 그 패 봐봐 / 혹시 / 장이야?
이렇게 나누면청크로 나눈 건데
예/ 림이그 / 패봐 /봐혹 /시 / 장이 /야?
이렇게 나누면 청크로 나눴다고 보기 어렵다는 거임.
데이터를 나누는 이유
1. 모델이 입력 제한이 있는 경우가 있음.
토큰제한이 있어서 긴 문서를 못 넣는 경우임.
그걸 그냥 나눠서 박아버리는 거임.
2. 메모리 효율성
청크로나눠서 넣으면 메모리 사용이 최적화됨.
3. 병렬 처리
텍스트를 청크로 나눠서 동시에 처리시키는 거임.
그럼 시간 단축 ㄱㅇㄷ
30분 카레를 3분 카레 10개로 나눠서 전자레인지 10개에 돌리는 거임.
4. 정보 검색 개선
문서를 작은 청크로 나누면 특정 정보를 더 정확하고 빠르게 검색함
계란말이라는 단어를 찾아야 할 때
백과사전 다 뒤져서 단어 찾는 거보다.
백과사전을 ㄱ / ㄴ / ㄷ 이런 식으로 찢어놓는다면
그냥 ㄴ 청크 들고 가서 거서 찾으면 더 빠름.
5. 컨텍스트 유지
RecursiveCharacterTextSplitter와 같은 고급 분할기를 사용하면
의미 있는 단위(예: 문단, 문장)로 텍스트를 나눌 수 있어
각 청크 내에서 컨텍스트를 유지할 수 있음.
이러면 예림이가 패를 볼 수가 있음
아귀가 말리겠지만.
from langchain_community.llms import OpenAI
걍 OpenAI 모델 쓴다는 거
이것도 뭐 당연히 여러 가지 모델 쓸 수 있음.
Claude도 쓸 수 있고 뭐 라마도 쓸 수 있음.
llm = OpenAI(model_name="킹왕짱좋은모델")
참고로 이런 식으로 모델 선택 가능함.
gpt-4o 나 mini 같은 거 아마
아무것도 안 적으면 gpt-3.5-turbo-instruct 이 모델을 쓰는 걸로 알고 있음.
알아서 찾아보도록
from langchain.chains import RetrievalQA
chains라는 모듈에서RetrievalQA를 가져옴.
여기서는chains 말고 RetrievalQA를 먼저 설명함
RetrievalQA(Retrieval Question Answering)
임마는 문서에서 정보를 검색하고 질문에 답변하는 AI 모델을 만드는 도구임.
Retrieval 말 그대로 검색한다.라는 뜻
RetrievalQA는 여러 단계를 연결함.
문서 검색 (Retrieval)
관련 정보 추출
질문 이해
답변 생성
이게 단계 하나하나를 체인처럼 엮어서 동작시켜서chain임.
더 자세히
문서 인덱싱 (Document Indexing):
먼저, 사용 가능한 모든 문서를 작은 조각(chunk)으로 나눔.
각 조각을 벡터(숫자 배열)로 변환. ㅇㅇ맞음 '임베딩(embedding)'
이 벡터들을 효율적으로 검색할 수 있는 데이터베이스에 저장. ㅇㅇ 맞음 벡터 DB
사용된 친구들
문서 조각화: RecursiveCharacterTextSplitter
임베딩: OpenAIEmbeddings
벡터 데이터베이스: Chroma
질문 처리 (Query Processing):
사용자의 질문도 같은 방식으로 벡터로 변환.
임베딩: OpenAIEmbeddings (문서와 동일한 임베딩 모델 사용)
유사도 검색 (Similarity Search):
질문 벡터와 가장 유사한 문서 조각들을 찾음.
이 과정은 벡터 간의 '거리'를 계산함.계란찜 / 계란말이
Chroma 벡터 데이터베이스의 내장 검색 기능
관련 정보 추출 (Relevant Information Extraction):
가장 유사한 몇 개의 문서 조각을 선택.
Chroma의 검색 결과를 바탕으로 RetrievalQA 내부에서 처리
답변 생성 (Answer Generation):
선택된 문서 조각들과 원래 질문을 LLM에 입력으로 제공.
LLM은 이 정보를 바탕으로 답변을 생성.
LLM: OpenAI (코드에서 OpenAI() 사용)
각 단계에서 사용된 친구들을 주목해야 됨.
RetrievalQA 혼자 하드캐리하는 게 아님.
전체 과정은 RetrievalQA 클래스가 조율하지만
각 컴포넌트들을 연결하여 각 단계의 입력이 다음 단계의 출력으로
사용되는 전체 파이프라인을 구성함.
그 연결된 모습이 마치 체인 같다는 거임.
그래서Chain임
사실 이게 끝임.
RetrievalQA결과
이게 이 코드의 목적임.
정리 :
내가 갑자기 어디 멀리 가야겠다싶어서
오토바이를 만들어야겠다 생각함.
그래서 막바퀴랑안장이랑엔진이랑 다 들고 옴
근데 생각해 보니깐 나는오토바이를 만들 줄 모르는 거임 (바보)
근데 갑자기 뒤에서 어떤오토바이 장인이 툭툭 치면서 한 마디 함.
장인 :필수 부품은 다 있구마바퀴는 여기 두고 엔진은 저기두고 어쩌구 저쩌구
나: 네? 네.
장인: (뚝딱뚝딱)오토바이 완성
나: 야호
그냥 장인이 물건만 두라는 데로 뒀더니 오토바이가 만들어짐.
멀리 가야겠다=사용자에게 질문을 받고 알맞은 답을 하자
필수 부품은 다 있구마바퀴, 엔진, 안장 등=LLM, retriever, chain_type 등의 컴포넌트
바퀴는 여기 두고 엔진은 저기 두고=RetrievalQA구문
이것들을 가져온 사람=코드를 작성하는 개발자(나)
조립하는 방법을 모르는 상황=RetrievalQA의 복잡한 설정을 직접 하기 어려운 상황
장인=RetrievalQA.from_chain_type 메서드
오토바이=완성된 RetrievalQA 객체
이제 나는 바퀴랑 엔진 같은 필수 부품만 구해서
장인이 넣으란데 넣으면 오토바이가 만들어지는 것을 알게 됨.
이제 나는 LLM, retiever 같은 컴포넌트를
RetrievalQA.from_chain_type구문에 맞게 넣으면 사용자 질문에 알맞은 답변이 나오는 것을 알게 됨.
`RetrievalQA` 시스템 설정하는 거임. 이거 질문에 답변하는 AI 시스템임. `OpenAI()`는 OpenAI의 언어 모델 사용한다는 의미임. `chain_type="stuff"`는 사용할 검색 방법 지정하는 거임. `retriever=self.vectordb.as_retriever()`는 앞서 만든 벡터 데이터베이스를 검색기로 사용한다는 의미임.