인공신경망(ANN, Artificial Neural Network) 완전 정리_ADsP 3과목

🧠 인공신경망(ANN, Artificial Neural Network) 완전 정리 💡

“사람의 뇌를 본떠 데이터를 스스로 학습하는 모델”


🎯 1️⃣ 인공신경망이란?

📘 정의:

인공신경망(ANN)은 인간의 뇌 뉴런 구조를 모방해

데이터 속의 복잡한 패턴을 스스로 학습하는 알고리즘이에요.

💬 쉽게 말해,

데이터를 넣으면 스스로 규칙을 찾아내는 ‘가상의 두뇌’ 입니다! 🧠✨

예:

📩 이메일 → “스팸 or 정상 메일” 자동 분류

📸 이미지 → “고양이 or 개” 인식

🔢 숫자 데이터 → 매출, 점수 예측 등


🧩 2️⃣ 구조 (입력층 → 은닉층 → 출력층)

👀 구성요소:

구성설명
🟢 입력층(Input Layer)데이터 입력 (예: 키, 몸무게 등)
🔵 은닉층(Hidden Layer)데이터를 여러 단계로 변환하며 패턴 탐색
🟣 출력층(Output Layer)최종 결과 예측 (예: 분류 or 수치 예측)

💡 각 연결선에는 가중치(weight) 가 있고,

입력값에 따라 뉴런이 활성화될지 결정돼요! ⚡


⚙️ 3️⃣ 학습 과정 (Forward → Loss → Backpropagation)

1️⃣ 정방향 계산 (Forward Propagation)

→ 입력값을 네트워크에 통과시켜 예측값을 만듭니다.

2️⃣ 손실(Loss) 계산

→ 예측값과 실제값의 차이를 계산합니다.

3️⃣ 역전파(Backpropagation)

→ 오차를 거꾸로 전달해 가중치 수정!

4️⃣ 최적화(Optimization)

→ 손실이 최소가 되도록 조정 (보통 Adam이나 SGD 사용)

💬 쉽게 말해,

“틀린 이유를 되돌아보며 점점 더 똑똑해지는 과정이에요 🔁”


🧪 4️⃣ 활성함수 (Activation Function)

뉴런이 활성화될지 결정하는 스위치🔘 역할이에요!

함수형태특징사용 위치
ReLUmax(0, x)빠르고 안정적은닉층 기본값
🌀 Sigmoid0~1확률형 출력, 기울기 소실 가능이진분류 출력층
🌈 Tanh-1~1중심화된 Sigmoid은닉층 가능
🎯 Softmax확률 합=1다중분류용출력층

🎛️ 5️⃣ 주요 하이퍼파라미터

항목설명
🧱 층 수/노드 수모델 복잡도 결정너무 많으면 과적합⚠️
🧮 학습률(Learning rate)가중치 수정 속도너무 크면 발산, 작으면 느림
🔢 배치크기(Batch size)한 번에 학습할 데이터 수작으면 불안정, 크면 메모리↑
🔁 에폭(Epoch)데이터 전체 학습 횟수조기종료(Early Stopping) 활용
⚙️ 옵티마이저가중치 업데이트 알고리즘Adam이 기본으로 강력!

🛡️ 6️⃣ 과적합 방지 전략 ✨

방법설명
🔥 Dropout일부 뉴런 랜덤 비활성 → 모델이 덜 외움
🧩 L2 정규화가중치가 너무 커지는 걸 방지
⚖️ Batch Normalization학습 안정화 + 속도 향상
Early Stopping검증성능이 떨어지면 학습 중단

💬 즉,

“모델이 너무 외워버리지 않게 균형 잡는 기술이에요 🎓”


📊 7️⃣ 출력층 & 손실함수 매칭표 💡

문제 유형출력층손실함수
🔵 이진분류SigmoidBinary Cross Entropy
🟣 다중분류SoftmaxCategorical Cross Entropy
🟢 회귀선형(Linear)MSE / MAE

🧭 8️⃣ 데이터 전처리 & 학습 팁

✅ 표준화(StandardScaler) → 평균 0, 표준편차 1

✅ Train/Valid/Test = 6:2:2 비율

✅ 배치단위 학습(mini-batch)

✅ 학습곡선(Loss) 모니터링으로 과적합 체크

✅ 시각화(Log, TensorBoard 등)로 성능 확인 👀


🧠 9️⃣ 인공신경망과 다른 딥러닝 비교

모델주요 데이터특징
🧠 ANN표 형태(tabular)기본적 예측 모델
🖼️ CNN이미지공간패턴 인식 (시각)
🕒 RNN/LSTM시계열·텍스트순서 정보 학습 (언어, 음성)

📝 10️⃣ ADsP 시험 핵심 요약 🧩

정방향 → 손실 → 역전파 → 최적화 흐름

활성함수 매칭 (은닉: ReLU / 이진: Sigmoid / 다중: Softmax / 회귀: Linear)

정규화 기법 (Dropout, L2, BatchNorm, EarlyStopping)

과적합 vs 과소적합 차이와 해결책

기울기 소실문제 해결법: ReLU, He 초기화

학습률 조절의 중요성


🌈 한 줄 정리 💬

💡 인공신경망(ANN)

데이터를 넣으면 스스로 규칙을 학습하는 “지능형 모델”이에요!

활성함수, 정규화, 학습률만 잘 조절해도

예측 성능이 쑥쑥 올라갑니다 📈💪