🧠 인공신경망(ANN, Artificial Neural Network) 완전 정리 💡
“사람의 뇌를 본떠 데이터를 스스로 학습하는 모델”
🎯 1️⃣ 인공신경망이란?
📘 정의:
인공신경망(ANN)은 인간의 뇌 뉴런 구조를 모방해
데이터 속의 복잡한 패턴을 스스로 학습하는 알고리즘이에요.
💬 쉽게 말해,
데이터를 넣으면 스스로 규칙을 찾아내는 ‘가상의 두뇌’ 입니다! 🧠✨
예:
📩 이메일 → “스팸 or 정상 메일” 자동 분류
📸 이미지 → “고양이 or 개” 인식
🔢 숫자 데이터 → 매출, 점수 예측 등
🧩 2️⃣ 구조 (입력층 → 은닉층 → 출력층)
👀 구성요소:
| 구성 | 설명 |
| 🟢 입력층(Input Layer) | 데이터 입력 (예: 키, 몸무게 등) |
| 🔵 은닉층(Hidden Layer) | 데이터를 여러 단계로 변환하며 패턴 탐색 |
| 🟣 출력층(Output Layer) | 최종 결과 예측 (예: 분류 or 수치 예측) |
💡 각 연결선에는 가중치(weight) 가 있고,
입력값에 따라 뉴런이 활성화될지 결정돼요! ⚡
⚙️ 3️⃣ 학습 과정 (Forward → Loss → Backpropagation)
1️⃣ 정방향 계산 (Forward Propagation)
→ 입력값을 네트워크에 통과시켜 예측값을 만듭니다.
2️⃣ 손실(Loss) 계산
→ 예측값과 실제값의 차이를 계산합니다.
3️⃣ 역전파(Backpropagation)
→ 오차를 거꾸로 전달해 가중치 수정!
4️⃣ 최적화(Optimization)
→ 손실이 최소가 되도록 조정 (보통 Adam이나 SGD 사용)
💬 쉽게 말해,
“틀린 이유를 되돌아보며 점점 더 똑똑해지는 과정이에요 🔁”
🧪 4️⃣ 활성함수 (Activation Function)
뉴런이 활성화될지 결정하는 스위치🔘 역할이에요!
| 함수 | 형태 | 특징 | 사용 위치 |
| ⚡ ReLU | max(0, x) | 빠르고 안정적 | 은닉층 기본값 |
| 🌀 Sigmoid | 0~1 | 확률형 출력, 기울기 소실 가능 | 이진분류 출력층 |
| 🌈 Tanh | -1~1 | 중심화된 Sigmoid | 은닉층 가능 |
| 🎯 Softmax | 확률 합=1 | 다중분류용 | 출력층 |
🎛️ 5️⃣ 주요 하이퍼파라미터
| 항목 | 설명 | 팁 |
| 🧱 층 수/노드 수 | 모델 복잡도 결정 | 너무 많으면 과적합⚠️ |
| 🧮 학습률(Learning rate) | 가중치 수정 속도 | 너무 크면 발산, 작으면 느림 |
| 🔢 배치크기(Batch size) | 한 번에 학습할 데이터 수 | 작으면 불안정, 크면 메모리↑ |
| 🔁 에폭(Epoch) | 데이터 전체 학습 횟수 | 조기종료(Early Stopping) 활용 |
| ⚙️ 옵티마이저 | 가중치 업데이트 알고리즘 | Adam이 기본으로 강력! |
🛡️ 6️⃣ 과적합 방지 전략 ✨
| 방법 | 설명 |
| 🔥 Dropout | 일부 뉴런 랜덤 비활성 → 모델이 덜 외움 |
| 🧩 L2 정규화 | 가중치가 너무 커지는 걸 방지 |
| ⚖️ Batch Normalization | 학습 안정화 + 속도 향상 |
| ⏰ Early Stopping | 검증성능이 떨어지면 학습 중단 |
💬 즉,
“모델이 너무 외워버리지 않게 균형 잡는 기술이에요 🎓”
📊 7️⃣ 출력층 & 손실함수 매칭표 💡
| 문제 유형 | 출력층 | 손실함수 |
| 🔵 이진분류 | Sigmoid | Binary Cross Entropy |
| 🟣 다중분류 | Softmax | Categorical Cross Entropy |
| 🟢 회귀 | 선형(Linear) | MSE / MAE |
🧭 8️⃣ 데이터 전처리 & 학습 팁
✅ 표준화(StandardScaler) → 평균 0, 표준편차 1
✅ Train/Valid/Test = 6:2:2 비율
✅ 배치단위 학습(mini-batch)
✅ 학습곡선(Loss) 모니터링으로 과적합 체크
✅ 시각화(Log, TensorBoard 등)로 성능 확인 👀
🧠 9️⃣ 인공신경망과 다른 딥러닝 비교
| 모델 | 주요 데이터 | 특징 |
| 🧠 ANN | 표 형태(tabular) | 기본적 예측 모델 |
| 🖼️ CNN | 이미지 | 공간패턴 인식 (시각) |
| 🕒 RNN/LSTM | 시계열·텍스트 | 순서 정보 학습 (언어, 음성) |
📝 10️⃣ ADsP 시험 핵심 요약 🧩
✅ 정방향 → 손실 → 역전파 → 최적화 흐름
✅ 활성함수 매칭 (은닉: ReLU / 이진: Sigmoid / 다중: Softmax / 회귀: Linear)
✅ 정규화 기법 (Dropout, L2, BatchNorm, EarlyStopping)
✅ 과적합 vs 과소적합 차이와 해결책
✅ 기울기 소실문제 해결법: ReLU, He 초기화
✅ 학습률 조절의 중요성
🌈 한 줄 정리 💬
💡 인공신경망(ANN) 은
데이터를 넣으면 스스로 규칙을 학습하는 “지능형 모델”이에요!
활성함수, 정규화, 학습률만 잘 조절해도
예측 성능이 쑥쑥 올라갑니다 📈💪