활성화 함수(Activation function)
11 Oct 2019 | Deep-Learning활성화 함수 : 뉴런을 흥분시키기 위한 함수.
1. Step function ( 계단 함수)
: 구현이 간단하지만 0과 1의 중간 상태를 나타낼 수 없음. (미분불가)
[그래프]
[코드]
2. Sigmoid function (시그모이드)
: x가 작을수록 y는 0에 가깝게 변함.
계단함수에 비해 매끄러운 곡선 형태이며 0과 1의 중간상태를 나타낼 수 있음. (미분 가능)
[시그모이드 도함수]
[그래프]
[코드]
3. tanh (하이퍼볼릭 탄젠트)
:그래프 자체는 sigmoid와 굉장히 비슷하지만 tanh 함수는 -1과 1 사이에서 변화함.
0을 중심으로 대칭이기 때문에 밸런스가 좋은 함수.
[그래프]
[코드]
4. ReLU (Rectified Linear Unit)
:음수인 경우 y는 0이고 양수인 경우 y는 x 그대로 유지가 됨.
미분값이 x에 상관없이 안정적인 값을 얻는 것이 최대 장점.
그러나 음수인 경우 weight가 0이 되면서 학습이 되지 않는 dying relu 발생이 단점.
[ReLU 도함수]
[그래프]
[코드]
5. Leaky ReLU
:앞서 말한 dying ReLU를 피하기 위해 x가 음수인 영역에 아주 작은 기울기를 만들어줌.
[그래프]
[코드]
6. Identity function (항등함수)
:출력 범위에 제한이 없고 연속적이기 때문에, 연속적인 수치를 예측하는 회귀문제 를 다룰때 적합.
[그래프]
[코드]
7. Softmax function (소프트맥스)
: 분류 문제 를 다룰 때 적합.
출력값을 양수값으로 바꾸고 모든 출력값들의 합이 1이 되도록 normalize.
소프트맥스 함수 값은 분류문제에서 각 뉴런이 특정한 범주로 분류될 확률을 나타낼 때 쓰임.
[코드]
Comments