인공신경망(비교)
r10 vs r11 | ||
---|---|---|
... | ... | |
13 | 13 | |
14 | 14 | 기본적인 인공신경망은 다음과 같은 구성요소로 이루어져 있다. |
15 | 15 | * 퍼셉트론: 입력 데이터에 대해 선형적인 연산을 수행하는 모듈이라고 이해하는 것이 좋다. 예를들어 n차원 벡터로 이루어진 입력 데이터 [math(x = [x_1, x_2, ... , x_n])]가 입력받아 퍼셉트론이 보유하고 있는 고유한 값[* 가중치 그리고 바이어스라고 부른다. 둘을 묶어 파라미터라고 부른다.]을 이용해서 다음과 같은 연산을 수행해서 값을 출력하는 기능을 수행한다. |
16 | >[math(y = \displaystyle\sum_{k=1}^{n}{w_k x_k}+b)] |
|
17 | 만일 출력의 형태 역시 다차원 벡터라면 가중치는 행렬이 되고 식은 다음과 같은 행렬 연산으로 확장된다. |
|
18 | >[math(\mathbf{y} = \mathbf{W} \mathbf{x} + \mathbf{b})] |
|
16 | >[math(y = \displaystyle\sum_{k=1}^{n}{w_k x_k}+b)] |
|
17 | 만일 출력의 형태 역시 다차원 벡터라면 가중치는 행렬이 되고 식은 다음과 같은 행렬 연산으로 확장된다. |
|
18 | >[math(\mathbf{y} = \mathbf{W} \mathbf{x} + \mathbf{b})] |
|
19 | 19 | * 활성화 함수: 인공신경망은 다양한 기능을 수행하기 위해 퍼셉트론들을 차곡차곡 쌓아올리고 학습을 하는데 단순하기 쌓아올리면 치명적인 문제가 발생한다. 선형 계산을 수행하는 퍼셉트론은 아무리 쌓아올려봤자 단층 퍼셉트론과 다를바 없는 결과를 만들어낸다. 간단히 설명하자면, 첫번째 레이어에서 [math(y = ax + b)]라는 계산을 수행하고 다음층에서 [math(y = cx + d)]라는 계산을 수행한다면 그 결과는 [math(y = acx + bc + d)]가 되므로 단층 퍼셉트론과 다를바 없어진다. 때문에 활성화 함수는 이러한 퍼셉트론간의 선형성을 분리하는 역할을 하게 된다. |
20 | 20 | == 관련 문서 == |
21 | 21 | * [[인공지능]] |
... | ... |