DeepLearning (12) 썸네일형 리스트형 Why Convolutions ? Convolution Layer 를 사용해야했던 이유를 다른 관점에서 보려고 한다. ( 이 글은 Andrew Ng 교수님의 CNN 강의의 학습에 의한 글입니다.) 1. Parameter Sharing 입력값으로 받아왔던 이미지에 대한 Conv filter 를 적용하면, 결과적으로 또 다른 파트에도 영향을 끼칠 수 있다는 점이다. 말로는 어렵기에 figure 를 사용하여 보겠다. 2. Sparsity of Connections 각 Layer 에서 발생한 결과값은 Input 에서의 작은 값에 의존적이라는 것. 표현이 어설플 수 있지만, filter 가 적용되어 돌고 있는 부분이 아닌 그 외의 부분은 연산에서 0이라고 생각할 수 있다. (대개, 이러한 행렬의 구조를 Sparse matrix 라고 한다.) LeNet-5 (Basic CNN) 1. LeNet-5 Yann LeCun 라는 분이 1998년 Paper submit 하셨던 'Gradient-Based Learning Applied to Document Recognition' 에 담긴 신경망의 구조를 LeNet-5 라고 한다. 전반적인 내용은 이전에 있었던 Convolutional Neural Network 의 Conv filter 의 사용배경에서 다루었던 내용이 었으므로 본론으로 들어가보자. http://lushuangning.oss-cn-beijing.aliyuncs.com/CNN%E5%AD%A6%E4%B9%A0%E7%B3%BB%E5%88%97/Gradient-Based_Learning_Applied_to_Document_Recognition.pdf 전체적인 구조는 굉장히 간단하다.. Convolutional Neural Networks 해당 글은 Adrew Ng 교수님의 Coursera 에 속한 강의 CNN 과정에서 출처합니다. Computer Vision 분야에서는 기존에 사용되었던 일반적인 Deep Learning ( 일반적인 Layer 를 깊게 쌓아 올리는 방법)은 Large Scale (HIgh Quality Image) 에 적용하여 classification, recognition, detection 등의 작업을 진행하기엔 잘 동작하지 않는 문제가 발생하였다. 따라서 Convolutional filter 를 도입한 방법을 사용하기 시작하였다. 1. Edge Detection https://en.wikipedia.org/wiki/Edge_detection#/media/File:%C3%84%C3%A4retuvastuse_n%C3%.. Neural Network - DeepLearning Deep Learning 은 기본적으로 Machine Learning 의 Classification 에서 Logistic Regression 의 연장선으로 이해할 수 있다. Input data 를 모델에 사용하게 되면 설정해준 각 layer 의 node 마다 weight 를 곱한 뒤 계산할 수 있는 term 이 생기고 결과적으로 가장 작은 오차를 안겨줄 수 있는 weight 에 대한 정보를 업데이트 하는 과정이다. input data --> hidden layer (product weight) --> output 이 순서의 작업을 이용하게 되는데 이 때, 앞서와 같이 error 를 줄여가는 과정을 동일하게 작업한다. 하지만 이 과정에서 hidden layer 가 error 를 줄여줄 수 있는 weight.. 이전 1 2 다음