Heeju.zip

  • 홈
  • 태그
  • 방명록

residuallearning 1

잔차 학습(Residual Learning) vs 일반적인 신경망 학습

인공신경망(ANN, Artificial Neural Network)은 깊어질수록 강력한 특징을 학습할 수 있지만 동시에 기울기 소실(Vanishing Gradient) 문제와 같은 학습 장애를 겪게 되는데. 이를 해결하기 위한 방법 중 하나가 바로 잔차 학습(Residual Learning)이다. 이번 글에서는 잔차 학습이 무엇인지 그리고 일반적인 신경망 학습과 어떤 차이가 있는지 비교해보려한다.  💡 잔차(Residual)란 무엇인가?잔차(Residual)란 우리가 원하는 결과와 현재 모델의 예측값 사이의 차이를 의미한다. 모델이 "원본 입력을 그대로 전달하면 안 되는 추가적인 변화(잔차, residual)만 학습하면 된다"고 가정하는 것이다.🐶 EX) 강아지 vs 머핀 분류에서 잔차 학습 적용일반..

📚 [Archive] CS & AI 스터디/[PR] 논문 리뷰 📝 2025.01.28
이전
1
다음
더보기
프로필사진

Heeju.zip

  • 분류 전체보기 (73)
    • 📂 Read Me (0)
    • 📂 Work Log (0)
    • 🏛️ [Archive] 개발 프로젝트 & 회고 (17)
      • 개발 및 프로젝트 수행 ⭐ (1)
      • 회고록 | 나의 성장 기록 🌱 (5)
      • VScode 환경 구축 💻 (6)
      • GitHub 관리 도구 🛠️ (5)
    • 📚 [Archive] CS & AI 스터디 (47)
      • [STUDY] Python 기초 🐍 (15)
      • [STUDY] Cloud ☁️ (4)
      • [STUDY] 백엔드 🖥️ (2)
      • [STUDY] HTML5 입문 🌐 (4)
      • [STUDY] Stable Diffusion 🎨 (2)
      • [STUDY] 인공지능 🤖 (14)
      • [AI] 정리 📊 (2)
      • [PR] 논문 리뷰 📝 (4)
    • 🍪 Cookies (8)
      • [TMI] 이것저것... 📬 (8)

Archives

Calendar

«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

  • More about me

티스토리툴바