Skip to content

Gradient Descent & Optimizer 정리 #6

@workdd

Description

@workdd

목표

GD와 Optimizer들의 원리를 기본 수준으로 정리 (Adam 왜 쓰는지 설명 가능 수준)

세부 항목

  • Gradient Descent 기본 원리
  • SGD, Mini-batch GD
  • Momentum
  • Adam (왜 가장 많이 쓰이는지)
  • Learning Rate Scheduling

면접 예상 질문

  • Adam이 뭔가요? 왜 쓰나요?
  • SGD vs Adam 차이?
  • Learning rate 어떻게 정하나요?

참고 자료

  • Adam 논문

Metadata

Metadata

Assignees

No one assigned

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions