Notice
Recent Posts
Recent Comments
Link
반응형
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- update_state
- humannode
- rl
- Ai
- 추천시스템
- LangChain
- conditional_edge
- 강화학습
- chat_history
- REACT
- 밑바닥부터 시작하는 딥러닝
- tool_binding
- toolnode
- pinecone
- lcel
- langgrpah
- add_subgraph
- subgraph
- langgraph
- rag
- 강화학습의 수학적 기초와 알고리듬 이해
- summarize_chat_history
- conditional_edges
- Python
- 밑바닥부터시작하는딥러닝 #딥러닝 #머신러닝 #신경망
- RecSys
- tool_calls
- 강화학습의 수학적 기초와 알고리듬의 이해
- removemessage
- human-in-the-loop
Archives
- Today
- Total
반응형
목록MNIST (1)
반응형
타임트리
4장 신경망 학습
4.1 손실함수¶ 신경망 학습은 현재의 상태를 하나의 지표로 표현하며, 해당 지표를 가장 좋게 만들어주는 매개변수 값을 탐색한다. 이러한 지표를 신경망에서는 손실 함수라고 한다. 4.1.1 오차제곱합¶ 가장 많이 사용되는 손실 함수는 오차제곱합(sum of squared error; SSE)이며 식 (1)과 같다. \begin{equation} E = \frac{1}{2}\sum_k (y_k - t_k)^2 \end{equation} 여기서 $y_k$는 신경망으로 추정한 값(출력), $t_k$는 정답 레이블, $k$는 데이터의 차원 수를 나타낸다. 예를 들어, 앞서 MNIST 데이터셋에서 $y_k$는 신경망의 k번째 반복의 출력인 y_prob이며, $t_k$는 정답 레이블 t[k]가 된다. In [1]:..
Deep Learning/밑바닥부터 시작하는 딥러닝1
2021. 12. 29. 05:35