Deep Learning (DL)

활성화 함수 - ReLU 함수 (ReLU function) 란?

심전코 2022. 10. 29. 02:29

 

 

활성화 함수(Activation function)

활성화 함수는 가중 합의 출력 값이 입력되었을 때, 그대로 출력 하지 않고

값을 증폭 시키거나, 감소 시키는 등 얼마 만큼의 신호로 출력 할 지 정해주는 함수이다.

 

 

3. ReLU 함수 (ReLU function)

ReLU 함수는

Rectified Linear Unit 의 약자이며,

시그모이드 함수를 중복 해 사용하면 기울기 소실 ( Vanishing Gradient ) 문제가 발생하는데,

기울기 소실 문제를 해결하기 위해 등장한 것이 ReLU 함수이며,

실제로도 많이 사용되는 활성화 함수이다.

주로 0 으로 유지되다가 직선으로 올라가는 형태의 그래프를 띄고 있다.

 

ReLU function

 

ReLU 함수는

양의 값이 입력되면 그 값을 그대로 출력하고,

음의 값이 입력되면 0 을 반환한다.

 

ReLU 함수 공식

 

코드 예시

def ReLU(x):
    zero = np.zeros(len(x))
    return np.max([zero, x], axis=0)

x = np.arange(-3, 3, .1)
y = ReLU(x)

fig = plt.figure()
ax = fig.add_subplot(111)
ax.plot(x, y)
ax.set_ylim([-1.0, 3.0])
ax.set_xlim([-3.0, 3.0])
#ax.grid(True)
ax.set_xlabel('z')
ax.set_title('ReLU: Rectified linear unit')

plt.show()
fig = plt.gcf()

ReLU function