출력 계층의 두 노드의 출력 확률이 각각 0.4 및 0.6이라고 가정합니다(가중치가 임의로 할당되기 때문에 출력도 임의임). 계산된 확률(0.4 및 0.6)이 원하는 확률(각각 1과 0)과 매우 멀리 떨어져 있음을 알 수 있으므로 그림 5의 네트워크는 `잘못된 출력`을 가지고 있다고 합니다. 오류를 역도합니다. 네트워크의 각 가중치에 대해 해당 유도체를 찾아 모델을 업데이트합니다. MLP는 피드포워드 인공 신경망의 전형적인 예입니다. 다층 지각론은 때때로 구어체로 “바닐라”신경망이라고, 그들은 하나의 숨겨진 층이 특히. [4] 그럼에도 불구하고 역전파 방법으로 훈련된 다층 피드포워드 네트워크는 실제 응용 프로그램에 가장 실질적으로 사용되는 네트워크일 것입니다. 지금, 우리는 한 가지 매우 중요한 점에 대해 이야기 한 적이 없다: 왜 지구상에서 우리는 처음에 신경망에 숨겨진 층을 원합니까? 숨겨진 레이어는 단층 뉴런이 할 수 없는 복잡한 문제를 해결하는 데 어떻게 마법처럼 도움이 될 까요? 우리는 이제 기본 신경망을 이해하는 전체 과정을 거의 완료하고 😉 헤헤, 아직 끝나지 않았습니다! 다음 게시물에서는 손실 함수라는 것과 우리가 언급했지만 방문한 적이없는이 신비한 역전도에 대해 이야기 할 것입니다! 기다리지 않는 경우 다음 링크를 체크 아웃: 여기에 설명된 네트워크가 이전 섹션에서 설명한 것과 비교하여 훨씬 더 크지만(숨겨진 레이어와 노드사용) 이전 섹션에서 설명한 것과 비교하여 앞으로 전파 단계의 모든 계산 및 역전파 단계는 이전에 설명한 것과 동일한 방식으로(각 노드에서) 수행됩니다. 딥 러닝은 딥 뉴럴 네트워크라고도 하는 다층 인공 신경망 교육을 다룹니다. 데이터 집합의 다른 모든 학습 예제와 함께 이 프로세스를 반복합니다.

그런 다음, 우리의 네트워크는 그 예를 배운 것으로 전해지않습니다. 컨볼루션 신경망(CNN)은 이미지 처리 및 컴퓨터 비전뿐만 아니라 재발하는 신경망, 심층 네트워크 및 심층 신념 시스템에 매우 유용하므로 다층 신경망의 예입니다. 예를 들어 CNN에는 이미지에서 순차적으로 작동하는 수십 개의 레이어가 있을 수 있습니다. 이 모든 것은 현대 신경망이 어떻게 작동하는지 이해하는 데 핵심적인 부분입니다. Ophir Samson은 신경망이 무엇인지 설명하는 멋진 게시물을 작성했으며, 꽤 좋은 시각화를 통해 짧고 간결합니다! 도 8은 입력이 숫자 `5`일 때 네트워크를 나타낸다. 마지막 게시물에서, 우리는 단계 함수의 선형성의 한계에 대해 이야기했다. 활성화 함수가 선형인 경우 원하는 만큼 신경망에 숨겨진 레이어를 쌓을 수 있으며 최종 출력은 여전히 원래 입력 데이터의 선형 조합입니다. 개념을 따르기 어려운 경우 설명을 위해이 링크를 읽으십시오. 이 선형성은 XOR 논리 또는 곡선이나 원으로 구분된 패턴과 같은 비선형 문제의 복잡성을 실제로 파악할 수 없음을 의미합니다. 일부 멋진 사람들은 신경망을 가지고 놀고 숨겨진 레이어가 어떻게 작동하는지 볼 수있는 다음 웹 사이트를 만들었습니다. 그것을 밖으로 시도.

정말 재미있어요! 신경망의 기본 계산 단위는 노드 또는 단위라고도 하는 뉴런입니다. 다른 노드 또는 외부 소스에서 입력을 수신하고 출력을 계산합니다. 각 입력에는 다른 입력에 대한 상대적 중요도를 기준으로 할당되는 관련 가중치(w)가 있습니다. 노드는 아래 그림 1과 같이 입력의 가중 합계에 함수 f(아래에 정의됨)를 적용합니다. 28×28 픽셀 값에 대해 784개의 입력 뉴런이 있습니다. 16개의 숨겨진 뉴런과 10개의 출력 뉴런이 있다고 가정해 봅시다. 배열에서 우리에게 반환된 10개의 출력 뉴런은 각각 0에서 9까지의 숫자를 분류하는 일을 담당하게 됩니다. 따라서 신경망이 필기 숫자가 0이라고 생각하면 [1, 0, 0, 0, 0, 0, 0,0]의 출력 배열을 얻어야 하며, 이 배열의 첫 번째 출력은 숫자를 0으로 감지하는 “발사”되어 신경망에 의해 1이 되도록 합니다. 및 나머지는 0입니다.