
Perceptron 퍼셉트론의 동작은 뉴런 하나의 weighted sum이 임계치보다 크면 1을 출력하고, 작으면 0을 출력하는 것이다. * 참고로 perceptron의 활성화함수는 sign function이고, logistic regression의 활성화함수는 sigmoid function이다. 이 차이는 활성화 함수가 미분가능한가, 미분불가능한가의 차이이며 이는 backpropagation이 가능한가, 불가능한가의 차이로 연결된다. backpropagation을 통해 gradient descent 방식의 weight update가 가능하게 되었고 이는 깊은 층 모델로 이어지게 되었다. 퍼셉트론을 식으로 나타내면, 다음과 같다. * 참고로, 위 식의 의미를 시각화하여 보면, 두 벡터 간의 내적값이 양의..
딥러닝
2019. 11. 5. 11:49
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- conditional independence
- perceptron
- Absorption
- graphical model for GMM
- Belief Propagation
- 조건부 확률
- Bayesian Network
- Statistically Significant
- 벡터 미분
- gaussian mixture model
- 특이값 분해
- batch normalization
- 행렬 미분
- KL-divergence
- local structure
- 해석가능한 인공지능
- convex
- Multinomial Distribution
- Potential function
- graphical model
- inference
- eigen decomposition
- 베이즈 정리
- jensen's inequality
- EM algorithm
- posterior
- 상호정보량
- 작업중..
- 내적
- 외적
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
글 보관함