Notice
Recent Posts
Recent Comments
Link
반응형
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- humannode
- chat_history
- REACT
- removemessage
- summarize_chat_history
- langgraph
- 강화학습
- rag
- human-in-the-loop
- langgrpah
- 밑바닥부터 시작하는 딥러닝
- conditional_edges
- subgraph
- toolnode
- lcel
- update_state
- tool_binding
- LangChain
- 밑바닥부터시작하는딥러닝 #딥러닝 #머신러닝 #신경망
- Ai
- tool_calls
- pinecone
- 추천시스템
- rl
- 강화학습의 수학적 기초와 알고리듬의 이해
- Python
- 강화학습의 수학적 기초와 알고리듬 이해
- add_subgraph
- RecSys
- conditional_edge
Archives
- Today
- Total
반응형
목록retrieve (1)
반응형
타임트리
[LangChain] RAG with Pinecone
LLM이 사전 학습한 정보를 벗어난 데이터의 범위를 벗어나는 경우, 원하는 대답을 얻을 수 없다. 또한, 생성 모델의 한계상 할루시네이션이 발생해 정확한 정보를 얻기 어려울 때도 있다. 우리가 원하는 정보를 얻기 위해 LLM을 Supervised fine-tuning하거나, Instruction fine-tuning을 하거나, RAG를 사용할 수 있다. SFT의 경우, 현실적으로 비용 문제 때문에 접근성이 떨어지기 때문에 제외하고 Instruction fine-tuning이나 RAG를 사용하게 된다. Instruction fine-tuning은 LLM을 Instruction-output 데이터셋으로 사용자 질의와 답변을 align 시켜주는 방법이다. RAG는 사용자 질문 의도에 적절한 외부 문서를 가..
LLM/LangChain
2024. 6. 17. 02:38