ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • gradient
    인공 지능 개념 2024. 7. 31. 10:42

    출처: 패스트캠퍼스/  딥러닝·인공지능 Signature 초격차 패키지 Online

    입력 출력 간의 (선형)관계 파악 

    -> 처음 보는 입력 대해서도 적합한 출력 얻기 위함

     몸무게 (선형)관계 파악해서

    -> 처음보는  대해서도 적합한 몸무게 출력 머신을 만들어보자

    적절한” a, b  찾자

     

    뭐에 기반해서?

    적절 것은?

     

     

    적절한 a, b 찾기

    loss (=cost) 최소화  a, b  바로 적절한 a, b!
    머신의 출력(예측 y)̂  나와야할 출력(정답) 차이로 loss를 정의해보자
    다양한 loss 함수  MSE (Mean squared error) 라는걸 쓴거다!
    L을 최소화 a, b 어떻게 찾지?

    -> a, b를 일일  바꿔가며 L 값을 그래프로 그려보자

    좀더 스마트한 방법 없을까..?
     

     

     

    MSN( min square error)

    MSN( min square error) 

    min square error

    최소 제곱 에러!!!

     

    (아래그림) mean squared error
    평균 제곱 에러

    argmin = argument  minimize
    1/5 
    을 최소화하는 argmin( a, b)

     

     

    GRADIENT 반대방향을 수식표시

    GRADIENT decent 반대방향으로 나아감

     

     

     

    Gradient descent

     

    현재 a, b 위치에서 L을 줄이는 방향으로 나아가자
    Gradient는 항상 가장 가파른 방향 향한다..! (x2  으로 확인)

    가장 가파른 방향? proof) 1-3강.

    그럼 그냥 반대 방향으로 가면 되겠네!
    Learning rate (보폭) 존재 이유? <- 첨부터 끝까지 상수로 놓기도 스케쥴링 기도

    Initial weight? (LeCun, Xavier, He)

    1. 너무 신중 방향 선택..(모든 데이터 고려한 방향)

    2. local minimum

    러닝 레이트

    '인공 지능 개념' 카테고리의 다른 글

    역전파 backpropagation  (0) 2024.08.25
    [요약] MSE & 선형회귀 Linear regression  (0) 2024.07.31
    [요약]인공신경망 요약  (0) 2024.07.31
    neuron과 인공신경망  (0) 2024.07.30
    선형회귀 _ Linear regression  (0) 2024.07.30
Designed by Tistory.