인공신경망(r16 Blame)

r16
r16
1[[분류:수학]][[분류:떡밥위키 학문 프로젝트]]
r2
2[include(틀:프로젝트 문서, 프로젝트=떡밥위키 학문 프로젝트)]
r1

(새 문서)
3[목차]
4[clearfix]
5== 개요 ==
6기계학습의 한 갈래로 생물의 신경 구조에서 영감을 받아 개발된 알고리즘으로, 입력에 대해 선형 계산을 수행하는 노드들을 겹겹이 쌓아 올린 구조를 일컫는다. 개발 자체는 오래전에 개발되었지만, 학계에서 주목을 받지 못하다가 컴퓨팅 성능이 올라오고 무식하게 학습을 많이 하는 '심층학습(deep learning)'이 도입되자 다시 주목을 받았고, 현재의 인공지능을 말하면 대부분 이 인공신경망 기법을 말할 정도가 되었다.
7
r9
8== 구조 ==
r5
9[youtube(wrguEHxk_EI)]
10
r8
11인공신경망에 대한 기초적인 이론을 설명한 영상이다. 엥간한 대학교 교수보다 설명을 더 잘한다.
12
r10
13기본적인 인공신경망은 다음과 같은 구성요소로 이루어져 있다.
r12
14 * 퍼셉트론: 입력 데이터에 대해 선형적인 연산을 수행하는 모듈이라고 이해하는 것이 좋다. 예를들어 n차원 벡터로 이루어진 입력 데이터 [math(x = [x_1, x_2, ... , x_n])]가 입력될때, 퍼셉트론이 보유하고 있는 고유한 값[* 가중치 그리고 바이어스라고 부른다. 둘을 묶어 파라미터라고 부른다.]을 이용해서 다음과 같은 연산을 수행해서 값을 출력하는 기능을 수행한다.
r11
15 >[math(y = \displaystyle\sum_{k=1}^{n}{w_k x_k}+b)]
16 만일 출력의 형태 역시 다차원 벡터라면 가중치는 행렬이 되고 식은 다음과 같은 행렬 연산으로 확장된다.
17 >[math(\mathbf{y} = \mathbf{W} \mathbf{x} + \mathbf{b})]
r15
18 * 활성화 함수: 인공신경망은 다양한 기능을 수행하기 위해 퍼셉트론들을 차곡차곡 쌓아올리고 학습을 하는데 단순하기 쌓아올리면 치명적인 문제가 발생한다. 선형 계산을 수행하는 퍼셉트론은 아무리 쌓아올려봤자 단층 퍼셉트론과 다를바 없는 결과를 만들어낸다. 간단히 설명하자면, 첫번째 레이어에서 [math(y = ax + b)]라는 계산을 수행하고 다음층에서 [math(y = cx + d)]라는 계산을 수행한다면 그 결과는 [math(y = acx + bc + d)]가 되므로 단층 퍼셉트론과 다를바 없어진다. 때문에 활성화 함수는 이러한 퍼셉트론간의 선형성을 분리하는 역할을 하게 된다. 아래의 친구들은 대표적인 활성화 함수들이다.
19 * sigmoid[br][math(f(x) = \frac{1}{1 + e^{-x}})]
20 * tanh[br][math(f(x) = \tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}})]
21 * ReLU[br][math(f(x) = \max(0, x))]
22 * Swish[br][math(f(x) = \frac{x}{1 + e^{-x}})]
r13
23
24== 학습 ==
25이렇게 만들어진 인공신경망 시스템은 기계학습의 방법 아래에서 데이터에 의해 학습된다.
r3
26== 관련 문서 ==
27 * [[인공지능]]
28 * [[ChatGPT]]