backpropagation 3

2️⃣ AI 학습을 위한 기초 개념

이 카테고리는 머신러닝과 딥러닝 모두에서 필수적인 기초 개념을 다루며 모델을 학습시키는 데 필요한 수학적 원리와 최적화 기법을 포함하고 있습니다. 🛠 신경망 학습 과정 흐름도💡 신경망이 학습하는 과정의 전반적인 흐름을 간략히 정리 1️⃣ 순전파 (Forward Propagation)입력 데이터를 네트워크에 통과시키고 예측값을 출력2️⃣ 손실 함수 계산 (Loss Calculation)예측값과 실제값의 차이를 계산하여 손실(Loss) 측정3️⃣ 역전파 (Backpropagation)손실 값을 기반으로 가중치와 편향의 기울기(gradient)를 계산연쇄 법칙을 적용하여 각 층의 기울기를 전달4️⃣ 경사하강법 (Gradient Descent) 적용계산된 기울기를 사용하여 가중치를 업데이트최적의 가중치를 찾..

[미적분학] 일변수 미분 vs 다변수 미분(편미분)

신경망 학습을 포함한 최적화 과정에서 미분은 중요한 역할을 합니다. 특히 일변수 미분(Single Variable Differentiation)과 다변수 미분(편미분, Partial Differentiation)은 기울기를 계산하는 핵심 도구입니다.  일변수 미분(Single Variable Differentiation)✅ 정의일변수 미분은 한 개의 변수를 가진 함수에서 기울기를 구하는 과정입니다. 함수의 특정 지점에서의 변화율을 나타내며 경사 하강법과 같은 최적화 알고리즘에서 손실 함수를 최소화하는 방향을 결정하는 데 사용됩니다.✅ 공식함수가 특정한 값에서 얼마나 가파르게 증가하거나 감소하는지를 나타내줍니다.✅ 예제예로 f(x) = x^2 함수가 있다고 가정했을 때, 이를 미분해주면 f'(x) = 2x..

[수치 해석] 수치 미분

모델을 학습 할 때 손실함수를 사용해서 모델이 얼마나 틀렸는지를 알 수 있지만 어떻게 개선해야하는지에 대해서는 알지 못합니다. 손실을 줄이는 방법은 모델의 가중치(Weight)와 편향(Bias)의 수정을 통해 줄일 수 있습니다. 이 때 어떤 방향으로 수정할지 결정하는 핵심 도구가 "미분"입니다.미분을 통해 손실함수가 줄어드는 방향을 찾아 가중치를 업데이트할 수 있습니다. 하지만 신경망의 손실 함수를 수학적인 방식으로 미분하는 것은 어렵기 때문에 컴퓨터를 이용하여 수치적으로 근사하는 방법인 수치 미분을 사용합니다.     📌 신경망에서 수치 미분이 필요한 이유 신경망 학습의 목표는 손실 함수를 최소화하는 최적의 가중치를 찾는 것입니다.이를 위해 경사 하강법(Gradient Descent) 같은 최적화 ..