Notice
Recent Posts
Recent Comments
Link
반응형
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- tool_call_chunks
- rag
- removemessage
- rl
- subgraph
- agenticrag
- LangChain
- pinecone
- langgrpah
- conditional_edges
- chat_history
- REACT
- adaptive_rag
- tool_calls
- summarize_chat_history
- add_subgraph
- langgraph
- humannode
- 추천시스템
- 밑바닥부터시작하는딥러닝 #딥러닝 #머신러닝 #신경망
- 강화학습의 수학적 기초와 알고리듬의 이해
- fastapi
- RecSys
- 강화학습의 수학적 기초와 알고리듬 이해
- toolnode
- Ai
- Python
- 강화학습
- update_state
- 밑바닥부터 시작하는 딥러닝
Archives
- Today
- Total
반응형
목록tool_call_chunks (1)
반응형
타임트리

LangGraph 글 중 [LangGraph] 요구사항 연속적으로 수집하기 (prompt generation) 를 FastAPI로 스트리밍 방식으로 서빙해보려다 문제가 발생해서 한참 헤맸다. 위 구조에서 information_gather 노드는 Pydantic model로 정의된 tool의 4가지 변수를 모두 채울 때까지 사용자에게 재질문하고, 모든 정보를 획득했다면 도구를 호출한다. 즉, 해당 노드는 일반적인 답변(content)을 뱉을 수도 있고, tool_calls를 반환할 수도 있는 상황이다. 먼저 일반적인 답변을 뱉는 상황을 살펴보자. (gather_chain은 이전 글 참조)from langchain_core.messages import HumanMessagemessages = [HumanM..
LLM/LangChain
2025. 1. 29. 20:18