Ai 9

완벽하게 CUDA 삭제하는 방법 (Ubuntu)

환경설정을 할 때는 확실하게 해주는 편이 정신건강에 매우 이롭습니다. 하지만 간혹가다 페키지 충돌 이슈 등 다양한 변수가 발생한다면 cuda를 삭제하고 다시 설치해주어야하는데 이때 삭제도 확실히 해주어야합니다. 아래는 설치한 cuda 툴킷을 확실히 삭제하는 방법에 대한 글들을 정리해보았습니다. 1️⃣ 현재 설치된 CUDA 버전 확인 $ nvcc --version # 현재 사용 중인 CUDA 버전 확인nvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2025 NVIDIA CorporationBuilt on Wed_Jan_15_19:20:09_PST_2025Cuda compilation tools, release 12.8, V12.8.61Build cuda_..

1️⃣ AI 개요

📌인공지능의 기초와 개념  [혼공머] AI의 역사와 발전: 머신러닝에서 생성형 AI까지요즘 시대가 파이토치 기반을 많이 추구하지만 저는 굳건히 텐서플로우 기반인 혼공머 책 복습하기 해보려고 해요.이유는 그냥 예전부터 정리하고 싶었거든요. 게으른 J 로서 미루고 미루다 드yiheeju.tistory.com  📌 머신러닝과 딥러닝: 차이와 활용  [AI개요] 머신러닝 개요1️⃣ 지도학습 (Supervised Learning)정답(Label) 데이터를 가지고 학습하는 방식이며 정답이 있는 데이터를 머신러닝 알고리즘에 적용하여 규칙을 찾습니다.📌 지도학습 방식✔ 분류 (Classification) →yiheeju.tistory.com  📌 인공지능의 학습 방식 [인공지능개요] 인공지능 학습 방식인공지능은..

[모델 평가/학습 목표] 손실함수(Loss Function)

머신러닝과 딥러닝에서 손실함수는 모델이 얼마나 틀렸는지 측정하는 중요한 요소입니다. 손실함수는 모델이 학습할수 있도록 가이드를 제공해주고 이를 최소화하는 방향으로 최적화가 진행됩니다. 손실함수는 문제의 유형과 모델의 특성에 따라 여러가지가 있는데 예를 들자면 회귀문제에서는 Mean Squared Error (MSE)를 이진 분류에서는 Binary Cross-Entropy를 다중 클래스 분류에서는 Categorical Cross-Entropy를 주로 사용합니다.  손실함수(Loss Function)란?✅ 손실함수 정의손실함수(Loss Function)는 머신러닝·딥러닝 모델이 예측한 값과 실제 값 사이의 오차를 수치화하는 함수입니다.손실함수를 최소화하는 방향으로 모델이 학습되며 경사 하강법(Gradient..

[인공지능개요] 인공지능 학습 방식

인공지능은 다양한 방식으로 학습합니다. Rule-based AI(규칙 기반 AI), Machine Learning(기계 학습), Deep Learning(딥러닝) 로 크게 세 가지의 범주로 나누어보려고 합니다.  Rule-based AI (규칙 기반 인공지능)✅ 정의Rule-based AI는 사람이 직접 규칙(룰셋, if-else 조건문)을 정의하여 시스템이 데이터를 처리하는 방식입니다. 데이터에서 패턴을 찾는 것이 아니라 사람이 논리적인 규칙을 정하고 이에 따라 동작하도록 만듭니다.✅ 특징사람이 모든 규칙을 직접 정의해야 함데이터가 바뀌면 새로운 규칙을 추가해야 함복잡한 패턴을 다루기 어려움✅ 예시스팸 필터링 특정 단어(예: "무료", "당첨")가 포함된 이메일을 스팸으로 분류의료 진단 시스템 특정 증..

[신경망 연산] 선형 활성화 함수는 왜 딥러닝에서 사용되지 않을까?

활성화 함수는 신경망에서 입력을 변환해 다음 층으로 전달하는 역할을 합니다.  크게 선형 활성화 함수 (Linear Activation Function) 와 비선형 활성화 함수 (Non-linear Activation Function) 로 나눌 수 있습니다.   📏 선형 활성화 함수란?선형 활성화 함수는 입력을 그대로 출력하는 가장 단순한 형태의 함수입니다. 아래 식은 딥러닝이 아닌 전통적인 머신러닝(예: 선형 회귀) 에서 자주 사용됩니다.  a : 가중치(Weight)b : 편향(Bias)이 함수는 아무리 여러 층을 쌓아도 결국 하나의 선형 변환으로 수렴하게 됩니다.   📐 선형 활성화 함수가 문제인 이유 딥러닝에서 중요한 점은 비선형성입니다. 층을 여러 개 쌓을 때마다 복잡한 패턴을 학습할 수 ..

[딥러닝] 인공신경망 (Artificial Neural Networks, ANN)

인공신경망 (Artificial Neural Networks, ANN)은 인간의 뇌 신경망에서 영감을 받아 개발된 기계 학습 모델입니다.쉽게 말해 인간이 뭔가를 배우고 기억하는 방식과 비슷하게 컴퓨터도 무언가를 학습할 수 있도록 만든 알고리즘입니다.인공신경망은 컴퓨터 비전(YOLO, CNN 기반 모델로 이미지 인식, 객체 탐지)분야, 자연어 처리(RNN, LSTM, Transformers 기반 모델로 번역, 감성 분석, 챗봇)분야, 의료 진단(질병 예측, 의료 영상 분석)분야, 추천 시스템(사용자 선호도 분석 및 맞춤형 추천)분야, 자율 주행(환경 인식 및 경로 계획)등 다양한 분야에서 활용되고 있습니다. 🤔 왜 '인공신경망'이라고 불릴까?인공신경망이라는 이름이 붙은 이유는 인간의 뇌가 작동하는 방식을..

AI 학습에서 CPU와 GPU는 왜 성능 차이가 날까?

AI 학습을 하다 보면 CPU보다 GPU가 훨씬 빠르다는 것을 느낍니다.  왜 이런 차이가 발생하는지에 대해서 약간 깊게 들어가보고 싶어 찾아봤습니다. GPU가 빠른 이유는 바로 연산 방식의 차이(병렬 연산 vs. 직렬 연산) 때문입니다. AI 학습 시  GPU는 AI 학습 과정에서 수천 개수백만 개의 연산을 병렬로 수행할 수 있어 CPU보다 수십수백 배 빠른 속도를 제공합니다. 이번 글에서는 CPU와 GPU의 차이를 이해하고 AI 학습에서 GPU가 왜 중요한지 알아보려합니다. CPU vs. GPU의 연산 방식 차이① CPU (Central Processing Unit)CPU는 직렬 연산(Serial Processing) 중심으로 설계되어 있습니다. 소수의 강력한 코어(일반적으로 4~64개)를 사용하여 ..

잔차 학습(Residual Learning) vs 일반적인 신경망 학습

인공신경망(ANN, Artificial Neural Network)은 깊어질수록 강력한 특징을 학습할 수 있지만 동시에 기울기 소실(Vanishing Gradient) 문제와 같은 학습 장애를 겪게 되는데. 이를 해결하기 위한 방법 중 하나가 바로 잔차 학습(Residual Learning)이다. 이번 글에서는 잔차 학습이 무엇인지 그리고 일반적인 신경망 학습과 어떤 차이가 있는지 비교해보려한다.  💡 잔차(Residual)란 무엇인가?잔차(Residual)란 우리가 원하는 결과와 현재 모델의 예측값 사이의 차이를 의미한다. 모델이 "원본 입력을 그대로 전달하면 안 되는 추가적인 변화(잔차, residual)만 학습하면 된다"고 가정하는 것이다.🐶 EX) 강아지 vs 머핀 분류에서 잔차 학습 적용일반..

AI의 주요 분야: 머신러닝, 컴퓨터 비전, 자연어 처리, 생성형 AI, 로보틱스

행복한 월요일입니다! 2025년의 첫 월요일이라 그런지 너무 상쾌하군요!  AI 분야는 매우 넓고 깊으며 그 안에는 다양한 세부 분야들이 존재합니다. 이번 글에서는 제가 관심 있어하는 분야와 요즘 많이 들리는 분야를 기준으로 글을 정리해 보았습니다. 실제로 더 깊이 들어가면 다양한 분야가 존재하겠지만 이번 글에서는 AI를 크게 머신러닝, 컴퓨터 비전, 자연어 처리, 생성형 AI, 로보틱스라는 다섯 가지 분야로 나누어 설명하려고 합니다.🤖 머신러닝 (Machine Learning)대부분의 AI 기술의 기초 즉, AI 기술의 핵심으로 데이터를 분석하고 패턴을 학습하여 예측 및 결정을 내리는 기술입니다. 다양한 산업에서 활용되고 있습니다.📸 컴퓨터 비전 (Computer Vision)컴퓨터 비전 기술은 인..