2018년 7월 26일 목요일

Deep learsing note, links

배운것 기억나는 선에서 대충 간략히 정리함.
틀릴 수 있음. cross check 필요

http://charlie0301.blogspot.com/2018/07/ai-machine-learning-links.html


Deep learning
: https://en.wikipedia.org/wiki/Deep_learning

Deep learning (also known as deep structured learning or hierarchical learning) is part of a broader family of machine learning methods based on learning data representations, as opposed to task-specific algorithms. Learning can be supervised, semi-supervised or unsupervised.



Single-Layer Perceptron (단층 퍼셉트론)
 : https://en.wikipedia.org/wiki/Perceptron



 : 뉴런을 따라 만든 알고리즘 하나의 단위, 여러 input에 대해 output을 출력
 : 계산은 연결된 이전 퍼셉트론과의 Linear Combination + Activation function
 : Linear Combination - 이전 Layer의 연결된 뉴런들의 출력값 * 연결 weight
 : Activation - 이전 뉴런 들과의 Linear Combination 값을 non-linear function을 통해 Activation
  - Activation function들 : Sigmoid, Hyperbolic Tangent (tanh), Rectified Linear Unit (ReLU)
    https://en.wikipedia.org/wiki/Activation_function

Logistic (a.k.a. Sigmoid or Soft step)Activation logistic.svg[1]
TanH                                        Activation tanh.svg
Rectified linear unit (ReLU)               Activation rectified linear.svg


Multi-Layer Perceptron (다층 퍼셉트론)
 : https://en.wikipedia.org/wiki/Multilayer_perceptron
 : 복수의 Perceptron을 연결한 구조
 : Non-linear Activation function + Multi-Layer


Artificial Neural Network (인공 신경망)
 : https://en.wikipedia.org/wiki/Artificial_neural_network



 : 다수의 Neuron이 Layer로 연결되어 복잡한 문제를 해결
 : Input Layer > Hidden Layer > Output Layer 로 구성
  - Input Layer : 초기값을 받는 가장 첫번째 Layer
  - Hidden Layer : 중간 단계의 모든 Layer
  - Output Layer : 마지막 Layer로 출력값 계산
    . 결과값을 그대로 받아 Regression
    . Sigmoid를 거쳐 Binary Classification
    . Softmax를 거쳐 K-Class Classification
 : Forward Propagation
 : Back Propagation Algorithm
  

Neural Network Learning Process 
1) Initialization
 : 학습하고자 하는 Parameter(θ) 초기값 선정
 : Xavier Initialization (for Sigmoid, tanh), He Initialization (for ReLU)

2) Cost Function
 : 함수 정의 (Cost Function을 최소화 하도록 학습 진행)
 : 용도에 따라 Least Square Error 또는 Cross-Entropy를 사용함.
 : Parameter의 많아질 수록 overfitting 현상이 심화 되어 Cost Function + Regularization Term 추가
  > https://en.wikipedia.org/wiki/Regularization_(mathematics)

 : Overfitting을 방지하기 위한 방법으로 Dropout 방법도 있음.
  > https://en.wikipedia.org/wiki/Convolutional_neural_network#Dropout

3) Optimizer
 : Cost Function을 최소화하는 방향으로 Parameter(θ)를 변경하는 학습 방식을 적용
 : 일반적으로 Gradient Descent를 이용한 방식 사용
 : Batch normalization, Optimizer (Adam)





댓글 없음:

댓글 쓰기