Skip to content

Latest commit

 

History

History

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 

README.md

See Why

We make you see why.
Complex concepts visualized — so the answer feels inevitable, not memorized.


YouTube


"The goal is not to explain. The goal is to make you feel it was obvious all along."


🎯 Philosophy

수식을 외우는 것과, 왜 그 수식이 그 모양일 수밖에 없는지 아는 것은 다릅니다.

이 연구소는 직관(Intuition) 을 전달하는 것을 목표로 합니다.
푸리에 변환이 왜 원운동의 합인지, Attention이 왜 QKᵀV 형태일 수밖에 없는지,
Diffusion이 왜 노이즈를 추가했다 빼는 것으로 생성이 되는지 —
보고 나면 당연하게 느껴지도록.

모든 시각화는 세 가지 기준으로 선정됩니다.

기준 설명
중요도 이걸 모르면 다른 개념이 안 열리는 것
직관 난이도 수식은 알아도 왜인지 모르는 것
시각화 가능성 움직임으로 "아하!" 순간을 만들 수 있는 것

📚 Visualizations

🧮 Mathematics — AI를 이해하는 데 직접 연결되는 수학

이 개념들의 직관 없이는 AI 이론의 본질에 닿을 수 없습니다

📌 Topic 💡 Core Intuition 🔗
Fourier Transform 왜 모든 신호는 원운동의 합인가 — CNN 합성곱·Diffusion의 수학적 토대 📂
Eigenvectors 행렬 변환의 본질 — 공간이 늘어날 때 방향만 유지되는 벡터, PCA·Attention의 뿌리 📂
Linear Transformation 행렬 곱이 공간을 어떻게 뒤트는가 — 신경망 레이어가 하는 일의 본질 📂
Convolution 합성곱의 수학적 의미 — 두 함수가 겹치며 쓸려가는 것, CNN의 직관 📂
Gradient & Topology 경사·등고선·방향미분의 기하학 — Loss Landscape를 걸어 내려가는 것 📂
Bayes' Theorem 왜 사후확률이 그렇게 바뀌는가 — 넓이로 보는 베이즈, 베이즈 추론의 직관 📂
Central Limit Theorem 왜 어떤 분포든 더하면 정규분포가 되는가 — 정규분포가 모든 곳에 나타나는 이유 📂
Entropy Maximization 정보가 없을 때 왜 균등분포인가 — Cross-Entropy Loss의 수학적 근거 📂
Markov Chain 상태 전이가 수렴하는 이유 — RL의 MDP·Diffusion 확률 과정의 직관 📂
Brownian Motion 왜 무한히 작은 랜덤 보행이 연속함수인가 — Diffusion Model의 직관적 토대 📂

🤖 AI Theory — 왜 이 구조가 이러한 성능을 내는가

사용법이 아닌, 근본적인 이유

📌 Topic 💡 Core Intuition 🔗
Attention Mechanism QKV가 왜 그 형태인가 — 내적이 유사도인 이유, softmax의 역할 📂
Backpropagation 체인룰이 연산 그래프 위에서 어떻게 흐르는가 — 편미분이 역방향으로 전파 📂
Gradient Descent Loss Landscape를 실제로 걸어 내려가는 시각화 — 왜 수렴하고 왜 실패하는가 📂
Universal Approximation 왜 신경망은 어떤 함수도 근사하는가 — 비선형 활성화의 역할 📂
Softmax & Entropy softmax가 왜 확률이 되는가 — 엔트로피·Cross-Entropy Loss와의 연결 📂
SVD & PCA 데이터의 본질적인 축 찾기 — 분산 최대화의 기하학, 차원 축소의 직관 📂
Diffusion Intuition 왜 노이즈를 추가했다 빼는 것이 생성이 되는가 — Score Matching 직관 📂
Positional Encoding Transformer의 sin/cos가 왜 위치를 표현하는가 — 주파수로 순서를 인코딩 📂
RNN Vanishing Gradient 왜 시간이 길어질수록 gradient가 사라지는가 — 행렬 거듭제곱의 스펙트럴 분석 📂
Residual Connection skip connection이 왜 gradient 소실을 막는가 — 항등 함수 근사의 직관 📂
Batch Normalization 왜 정규화가 학습을 안정시키는가 — 내부 공변량 이동의 시각화 📂
Dropout & Ensemble dropout이 왜 앙상블과 같은 효과인가 — 무작위 마스킹의 수학적 해석 📂
Kernel Trick 왜 고차원 내적을 저차원에서 계산할 수 있는가 — Mercer 정리의 직관 📂
VAE Reparameterization 왜 샘플링을 미분 가능하게 바꿀 수 있는가 — 확률적 노드를 통한 역전파 📂
GAN Equilibrium GAN이 왜 내쉬 균형을 향해 수렴하는가 — minimax 게임의 시각화 📂
Policy Gradient Theorem 왜 로그 미분 트릭으로 gradient를 구하는가 — 기댓값의 미분 시각화 📂
Bellman Optimality 벨만 최적 방정식이 왜 유일해를 가지는가 — 가치 함수의 수렴 시각화 📂

⚙️ Algorithms — 처음 접하면 왜 동작하는지 이해하기 어려운 것들

정답을 외우는 것이 아니라 왜 그것이 정답인지

📌 Topic 💡 Core Intuition 🔗
Dynamic Programming 최적 부분구조가 왜 성립하는가 — 상태 전이와 메모이제이션의 직관 📂
Dijkstra 왜 Greedy가 최단경로를 보장하는가 — 확정된 정점이 번지는 시각화 📂
FFT DFT를 O(n²)에서 O(n log n)으로 — 분할정복과 대칭성의 마법 📂
Network Flow (Max-Flow Min-Cut) 최대 유량이 왜 최소 컷과 같은가 — 흐름과 병목의 쌍대성 📂
Union-Find path compression이 왜 거의 O(1)을 만드는가 — 평탄화의 누적 효과 📂
Sorting Lower Bound 왜 비교 기반 정렬의 하한이 O(n log n)인가 — 결정 트리로 보는 정보량 📂
Randomized Quicksort 왜 무작위화가 최악의 경우를 없애는가 — 기댓값으로 보는 분석 📂
Bloom Filter 왜 false positive는 있지만 false negative는 없는가 📂
NP-Completeness P≠NP가 왜 어려운 문제인가 — 환원(reduction)의 시각화 📂

💡 각 레포는 manim 애니메이션 코드 + 인터랙티브 웹 데모를 포함합니다.


🛠️ How We Work

graph LR
    A{{💡 Intuition}} -->|핵심 직관 추출| B{{✏️ Design}}
    B -->|시각화 설계| C{{🎬 Animate}}
    C -->|manim 구현| D{{🌐 Deploy}}
    D -->|인터랙티브 웹| E{{📝 Document}}
    E -.->|다음 직관| A

    style A fill:#e3f2fd,stroke:#1565c0,stroke-width:2px
    style B fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
    style C fill:#fff3e0,stroke:#ef6c00,stroke-width:2px
    style D fill:#e8f5e9,stroke:#2e7d32,stroke-width:2px
    style E fill:#fff8e1,stroke:#fbc02d,stroke-width:2px
Loading
Step Description
💡 Intuition "왜?"라는 질문에서 시작 — 핵심 직관 한 문장으로 정의
✏️ Design 어떤 움직임이 그 직관을 전달하는가 설계
🎬 Animate manim으로 수학적으로 정확한 애니메이션 구현
🌐 Deploy 같은 개념을 인터랙티브 웹 데모로 구현
📝 Document 수식·코드·직관을 함께 정리

🔧 Tech Stack

도구 용도
manim 수학 애니메이션 영상 제작 (3Blue1Brown 사용 라이브러리)
p5.js 인터랙티브 웹 시각화
three.js 3D 개념 시각화
d3.js 데이터 기반 시각화

💡 Philosophy

"The best teachers don't simplify.
They find the perspective from which complexity becomes obvious."


🔗 Related

IQ Dev Lab IQ AI Lab

개발 기술의 구현 원리는 IQ Dev Lab에서,
AI의 수학적 증명은 IQ AI Lab에서,
핵심 직관의 시각화는 YouTube에서 탐구합니다.


⭐️ 도움이 되셨다면 Star를 눌러주세요!