🦋 SKALA: SK AX AI Leader Academy

1. Deep Learning


좀 더 쉽게 설명하면




2. 선형회귀의 재해석

2.1. 선형회귀에서의 파라미터

단계 구분 주요 내용
1️⃣ 데이터 정의 $(x, y)$ 데이터 준비 (예: 몸무게와 키)
2️⃣ 선형 모델 정의 가설 수립: $y = Wx + b$
($W$: 회귀계수/가중치/기울기, $b$: 절편/Bias)
3️⃣ 오차 평가 정의 손실 함수(MSE) 정의: $MSE = \frac{1}{n} \sum_{i=1}^{n} (Y_i - \hat{Y}_i)^2$
4️⃣ 오차 최소화 최소제곱법(Least Squares Method) 사용
$b = \frac{\sum(x_i - \bar{x})(y_i - \bar{y})}{\sum(x_i - \bar{x})^2}$ 등의 공식을 통한 최적화
5️⃣ 파라미터 계산 최종 파라미터 도출 (예: $y = 2.5x + 29$)

2.2 DL에서의 파라미터

단계 구분 주요 내용
1️⃣ 데이터 준비 학습 데이터 전처리 (입력값 $x$, 결과값 $y$)
2️⃣ 모델 정의 신경망 Layer 개수와 구조를 설정하고 가중치를 초기화
3️⃣ 손실 함수 설정 모델의 예측값, 실제 정답 사이의 오차 계산 기준 설정
4️⃣ 최적화 경사하강법을 통해 파라미터를 조정
5️⃣ 파라미터 조정 학습된 데이터 바탕 최적의 $W$(가중치)와 $b$(편향) 값 확정
6️⃣ 평가 및 추론 새로운 데이터를 넣어 모델이 정답을 잘 맞히는지 확인

3. DL의 정체

3.1. 딥러닝의 최소 단위 Perceptron

$$Output = \text{Activation}(Wx + b)$$



3.2. 왜 활성화 함수를 더할까?



3.3. 선형회귀 vs 딥러닝 비교

구분 선형회귀 (Linear Regression) 딥러닝 (Deep Learning)
기본 구조 $y = Wx + b$ $y = \sigma(Wx + b)$ (단, $\sigma$는 활성화 함수)
특징 정직한 선형 관계를 찾음 비선형 관계를 찾음
깊이 Single Layer Multi-Layer
비유 자 대고 직선 하나 긋기 여러 개의 자를 꺾어 붙여서 복잡한 그리기

“딥러닝 = (선형회귀 + 활성화 함수)를 아주 깊게(Deep) 층층이 쌓아 올린 것”

그래서 딥러닝 모델은 거대한 수식 덩어리 라고도 부른다. 수조 개의 $W$(가중치)와 $b$(편향)가 활성화 함수와 얽혀서 우리가 말하는 인공지능의 지능을 만들어내는 것이다.



4. 활성화 함수

구분 Sigmoid Tanh ReLU
정의 $\sigma(x) = \frac{1}{1 + e^{-x}}$ $\tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}}$ $ReLU(x) = \max(0, x)$
출력 범위 $(0, 1)$ $(-1, 1)$ $(0, \infty)$
장점 확률값(0~1) 출력 유용 출력값이 0 중심이라 학습 효율 좋음 계산 빠르고 성능 좋음
단점 Gradient Vanishing 발생 가능 Gradient Vanishing 발생 가능 일부 뉴런이 죽는 현상 발생 가능
주요 활용 이진 분류 RNN, LSTM 신경망 현대 딥러닝의 표준

4.1 Sigmoid



4.2 Tanh



4.3 ReLU




🦋 SKALA: SK AX AI Leader Academy