우당탕탕 공부중

  • 홈
  • 태그
  • 방명록

step size 1

[기계학습] Gradient Descent(경사하강법)_1

앞선 포스팅에서 model training을 하는 방법으로 미분을 통해 optimal 값을 구하는 방법을 사용했다. 해당 식은 loss function E가 단순할 때 사용할 수 있는 방법이었다. 이번 포스팅에서는 loss function이 복잡할 때 사용하는 gradient descent에 대해 공부해 보도록 하자. 이 경우에는 조금씩 update해 가며 점진적으로 찾는 방법을 써야한다. 다음과 같이 함수가 복잡할 때는 미분값이 0이 되는 극솟값이 굉장히 많다. 극솟값들을 local minima라고 하고 그 중에서도 가장 작은 값을 global minima라고 한다. 궁극적으로 우리가 찾고 싶은 최솟값은 global minima다.하지만 우리는 해당 값을 바로 찾을 수 없고 극솟값을 찾았다 해도 그 값..

3-2/기계학습이론 2024.10.13
이전
1
다음
더보기
프로필사진

우당탕탕 공부중

공주가 취미를 가지면? 개발자

  • 공부 (73) N
    • 개발 (12)
      • 스프링 부트 3 자바 백엔드 개발 입문 (2)
      • Flutter (2)
      • React-native (3)
      • Swift (5)
      • python (8)
    • 2-2 (4)
      • 컴퓨터네트워크 (4)
    • 3-2 (23)
      • 데이터베이스시스템 (19)
      • 기계학습이론 (4)
    • 프론트엔드 (0)
    • Paper Review (20)
    • INTERN (20)

Tag

편미분, DATABASE, 데베시, 티스토리챌린지, 오블완, SQL, 파이썬, Swift, 한양대학교, python, Gradient descent, 머신러닝, 데이터베이스시스템, 백준, query, 선형회귀, DB, 스위프트, select, 데이터베이스,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바