Metadata

0부: 선수 지식 (Prerequisites)

머신러닝 학습을 위한 수학적 기초.

- [[MOC_College Calculus – Full Course with Python Code]] (미적분 기초)

- [[MOC_Linear Algebra (freeCodeCamp)]]** (선형대수 기초)

- [[MOC_Mathematical Foundations for AI]]** (논리적 사고 및 확률 기초)

1부: 지도 학습 (Supervised Learning)

정답(Label)이 있는 데이터로 모델을 학습시킨다.

- [[Regression & Basics]]

- [[1. Supervised learning setup]] (학습 세팅).

- [[LMS (Least Mean Squares)]] (최소 평균 제곱).

- [[Logistic Regression (로지스틱 회귀)]] (분류 문제의 기초).

- [[Newton's Method]] (최적화 기법).

- [[GLM (Generalized Linear Models - 일반화 선형 모델)]].

- [[Generative Learning Algorithms]]**

- [[Gaussian Discriminant Analysis (GDA - 가우시안 판별 분석)]].

- [[Naive Bayes (나이브 베이즈)]].

- [[Non-linear Models]]

- [[Kernels (커널)]] (SVM과 고차원 매핑).

- [[Decision Trees (결정 트리)]].

- [[Boosting (부스팅)]] (앙상블 기법).

2부: 신경망 & 딥러닝 (Neural Networks & DL)

복잡한 비선형 패턴을 학습하는 깊은 구조.

- **[[Neural Network Basics]]**

- [[Neural Networks (신경망)]] 구조.

- [[Backpropagation (역전파)]] (학습의 핵심 원리).

- **[[Advanced Architectures]]**

- [[Deep Learning (딥러닝)]] 개요.

- [[Conv Nets (Convolutional Neural Networks - 합성곱 신경망)]] (이미지 처리).

3부: 비지도 학습 (Unsupervised Learning)

정답이 없는 데이터에서 패턴과 구조를 발견한다.

3부: 비지도 학습 (Unsupervised Learning)

정답이 없는 데이터에서 패턴과 구조를 발견한다.

- **[[Clustering]]**

- [[K-Means (K-평균 군집화)]].

- [[GMM (Gaussian Mixture Models - 가우시안 혼합 모델)]].

- [[Expectation Maximization (EM 알고리즘)]].

[[Dimensionality Reduction]]

- [[Factor Analysis (요인 분석)]].

- [[PCA (Principal Component Analysis - 주성분 분석)]].

- [[ICA (Independent Component Analysis - 독립 성분 분석)]].

- [[Self-supervised learning (자기 지도 학습)]].