Heeju.zip

  • 홈
  • 태그
  • 방명록

Softmax 1

[신경망 연산] 활성화 함수(Activation Function)

🚀 활성화 함수(Activation Function)란?활성화 함수(Activation Function)는 인공신경망에서 뉴런(노드)이 입력값을 받아 출력으로 변환하는 데 사용되는 비선형 함수입니다. 수학적으로 활성화 함수 는 입력 에 대해 특정 변환을 수행하여 출력값을 결정하는 역할을 합니다. W : 가중치(Weight)b : 편향(Bias)f(x) : 활성화 함수y : 출력값 📌 활성화 함수의 발전과 신경망의 진화초기의 신경망은 퍼셉트론과 계단 함수를 사용했지만 학습이 어려운 문제가 있었습니다. 이후 시그모이드와 Tanh 함수가 등장했지만 기울기 소실 문제로 인해 깊은 신경망에서는 학습이 잘되지 않았습니다.그러다가 ReLU 함수가 등장하면서 딥러닝이 비약적으로 발전하게 되었으며 현재는 ReLU, ..

📚 [Archive] CS & AI 스터디/[STUDY] 인공지능 🤖 2025.02.04
이전
1
다음
더보기
프로필사진

Heeju.zip

  • 분류 전체보기 (73)
    • 📂 Read Me (0)
    • 📂 Work Log (0)
    • 🏛️ [Archive] 개발 프로젝트 & 회고 (17)
      • 개발 및 프로젝트 수행 ⭐ (1)
      • 회고록 | 나의 성장 기록 🌱 (5)
      • VScode 환경 구축 💻 (6)
      • GitHub 관리 도구 🛠️ (5)
    • 📚 [Archive] CS & AI 스터디 (47)
      • [STUDY] Python 기초 🐍 (15)
      • [STUDY] Cloud ☁️ (4)
      • [STUDY] 백엔드 🖥️ (2)
      • [STUDY] HTML5 입문 🌐 (4)
      • [STUDY] Stable Diffusion 🎨 (2)
      • [STUDY] 인공지능 🤖 (14)
      • [AI] 정리 📊 (2)
      • [PR] 논문 리뷰 📝 (4)
    • 🍪 Cookies (8)
      • [TMI] 이것저것... 📬 (8)

Archives

Calendar

«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

  • More about me

티스토리툴바