Deep Learning & Machine Learning/강좌&예제 코드2023. 10. 26. 22:05캐글 딥러닝 강좌 정리 2 - 확률적 경사 하강법(Stochastic Gradient Descent), 손실함수, 옵티마이저
캐글의 딥러닝 튜토리얼을 바탕으로 정리한 문서입니다. 개인적으로 추가한 내용이 있어서 원문 내용과 차이가 있습니다. 이번에 다루는 내용은 수식에 대한 이해가 되면 수정할 부분이 있을 듯합니다. Intro to Deep Learning https://www.kaggle.com/learn/intro-to-deep-learning 2022. 3. 1 최초작성 레이어를 쌓아서 완전 연결 신경망( fully-connected neural network)을 만들 수 있습니다. 처음 신경망이 생성될 때에는 모든 신경망의 가중치가 보통 무작위로 설정되기 때문에 신경망은 주어진 입력으로부터 추론되어야 하는 예상 가능한 출력을 만들기 위한 정보를 아무것도 갖고 있지 않습니다. 이미지 출처 - https://www.rese..