-시냅스의 전기 신호 전달을 모방하여, 세타에 따라 출력값을 조정 및 다음 노드로 전달 하는 함수
-입력 신호의 총합 을 그대로 사용하지 않고, 입력 신호의 총합이 활성화를 일으키는지 아닌지를 정하는 역할로, 입력 신호를 규칙에 따라 출력 신호로 변환하는 함수
유형 | 도식 | 설명 |
항등함수 (identity function) |
-양극성이며 선형 연속 함수임
-입력의 가중합이 그대로 출력됨
|
|
경사함수 (ramp function) |
-단극성이며, 선형 연속 함수임
|
|
계단함수 (step function) |
-단극성 또는 양극성이진 함수이며, 디지털 형태의 출력이 요구되는 경우에 주로 사용됨
|
|
시그모이드 함수 (sigmoid function) |
-단극성 또는 양극성 비선형 연속 함수이며, 신경망 모델의 활성화 함수로써 가장 널리 사용되고 있음
|
SOFTMAX 함수
- 출력층에서 Active function으로 사용하는 함수로, 벡터값을 얻고 싶을 때 사용 하는 함수(해석 용이)
728x90
'딥러닝' 카테고리의 다른 글
경사하강법(Gradient Descent Method) (0) | 2021.11.30 |
---|---|
신경망 학습 매커니즘 (0) | 2021.11.30 |
인공지능의 연구 목적은 무엇인가? 아실로마 AI 원칙 (ASILOMA AI Principles) (0) | 2021.11.30 |
이미지? 음성? 소설책? 무엇이든지 만들어내는 인공신경망, GAN(Generative Adversarial Networks) (0) | 2021.11.30 |
[그림으로 정리하는] 딥러닝 연대표 (0) | 2021.08.13 |