DeepLearning 4

완벽하게 CUDA 삭제하는 방법 (Ubuntu)

환경설정을 할 때는 확실하게 해주는 편이 정신건강에 매우 이롭습니다. 하지만 간혹가다 페키지 충돌 이슈 등 다양한 변수가 발생한다면 cuda를 삭제하고 다시 설치해주어야하는데 이때 삭제도 확실히 해주어야합니다. 아래는 설치한 cuda 툴킷을 확실히 삭제하는 방법에 대한 글들을 정리해보았습니다. 1️⃣ 현재 설치된 CUDA 버전 확인 $ nvcc --version # 현재 사용 중인 CUDA 버전 확인nvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2025 NVIDIA CorporationBuilt on Wed_Jan_15_19:20:09_PST_2025Cuda compilation tools, release 12.8, V12.8.61Build cuda_..

[신경망 연산] 활성화 함수(Activation Function)

🚀 활성화 함수(Activation Function)란?활성화 함수(Activation Function)는 인공신경망에서 뉴런(노드)이 입력값을 받아 출력으로 변환하는 데 사용되는 비선형 함수입니다. 수학적으로 활성화 함수 는 입력 에 대해 특정 변환을 수행하여 출력값을 결정하는 역할을 합니다. W : 가중치(Weight)b : 편향(Bias)f(x) : 활성화 함수y : 출력값 📌 활성화 함수의 발전과 신경망의 진화초기의 신경망은 퍼셉트론과 계단 함수를 사용했지만 학습이 어려운 문제가 있었습니다. 이후 시그모이드와 Tanh 함수가 등장했지만 기울기 소실 문제로 인해 깊은 신경망에서는 학습이 잘되지 않았습니다.그러다가 ReLU 함수가 등장하면서 딥러닝이 비약적으로 발전하게 되었으며 현재는 ReLU, ..

[신경망 연산] 선형 활성화 함수는 왜 딥러닝에서 사용되지 않을까?

활성화 함수는 신경망에서 입력을 변환해 다음 층으로 전달하는 역할을 합니다.  크게 선형 활성화 함수 (Linear Activation Function) 와 비선형 활성화 함수 (Non-linear Activation Function) 로 나눌 수 있습니다.   📏 선형 활성화 함수란?선형 활성화 함수는 입력을 그대로 출력하는 가장 단순한 형태의 함수입니다. 아래 식은 딥러닝이 아닌 전통적인 머신러닝(예: 선형 회귀) 에서 자주 사용됩니다.  a : 가중치(Weight)b : 편향(Bias)이 함수는 아무리 여러 층을 쌓아도 결국 하나의 선형 변환으로 수렴하게 됩니다.   📐 선형 활성화 함수가 문제인 이유 딥러닝에서 중요한 점은 비선형성입니다. 층을 여러 개 쌓을 때마다 복잡한 패턴을 학습할 수 ..

생성형 AI의 시작 : Generative Adversarial Nets 논문 리뷰

생성형 AI의 시작을 본격적으로 알린 모델은 2014년 발표된 논문인 "Generative Adversarial Nets (GANs)"입니다. 이 논문은 두 개의 신경망(생성자와 판별자)이 경쟁적으로 학습하는 방식으로 이전까지의 머신러닝 및 딥러닝 모델과는 차별화된 방식을 제시해 줍니다.GAN은 생성 모델(Generative Model)의 한 종류로 데이터의 확률 분포를 학습하여 새로운 데이터를 생성하는 것을 목표로 합니다. 이미지, 오디오, 비디오 등 다양한 형태의 데이터를 생성할 수 있으며 이는 데이터 증강, 이미지 합성, 비디오 생성 및 복원, 스타일 전이, 텍스트-이미지 변환 등 창의적인 분야에서 광범위하게 활용되고 있습니다.논문 리뷰를 통해 GAN의 구조와 작동 원리를 공부하고 다양한 응용 분야..