# GenAI

- [Theory](/ml/genai/theory.md)
- [\[Paper Review\] Zero-Shot Text-to-Image Generation (DALL-E)](/ml/genai/theory/dall-e.md)
- [\[Paper Review\] Diffusion 개념 정리](/ml/genai/theory/diffusion.md)
- [Synthetic Data](/ml/genai/synthetic-data.md)
- [Part 1. 합성 데이터의 필요성](/ml/genai/synthetic-data/part-1-overview.md): Content Level: 100
- [Part 2. Seed 데이터 기반 합성 데이터 생성 접근 방식](/ml/genai/synthetic-data/part-2-seed.md): Content Level: 200-300
- [Part 3. Seedless 합성 데이터 생성 접근 방식](/ml/genai/synthetic-data/part-3-seedless.md): Content Level: 200-300
- [Part 4. 합성 데이터 생성 시 고려해야 할 일반적인 전략](/ml/genai/synthetic-data/part-4-strategy.md): Content Level: 200-300
- [\[Paper Review\] 10억 페르소나 합성 데이터](/ml/genai/synthetic-data/10b-persona.md)
- [\[Use-case w/ Hands-on\] 실제 데이터로부터 합성 QnA 생성하기](/ml/genai/synthetic-data/azure-usecase.md)
- [MoE (Mixture-of-Experts)](/ml/genai/moe.md)
- [MoE Overview](/ml/genai/moe/overview.md)
- [MoE 모델 비교 및 주요 기법 정리](/ml/genai/moe/compare-models.md)
- [분산 훈련 기초 개념](/ml/genai/moe/distributed-training-basic.md)
- [전문가 병렬화 (Expert Parallelism)](/ml/genai/moe/expert-parallelism.md)
- [\[Optional\] NVSHMEM (NVIDIA Shared Memory)](/ml/genai/moe/nvshmem.md)
- [분산 훈련에서의 AWS 네트워킹: EFA (Elastic Fabric Adapter)](/ml/genai/moe/efa.md)
- [AWS에서 MoE 모델을 효율적으로 훈련하기](/ml/genai/moe/aws-moe.md)
- [분산 훈련 전략](/ml/genai/moe/training-strategy.md)
- [ML 엔지니어와 인프라 엔지니어 간 분산 훈련 협업 가이드 및 체크리스트](/ml/genai/moe/collabration.md)
- [추론 최적화 개요 (Prefill과 Decoding에 따른 주요 기법 정리)](/ml/genai/moe/prefill-decoding.md)
- [SageMaker Large Model Inference (LMI)를 활용한 모델 서빙 및 최적화 가이드](/ml/genai/moe/sagemaker-lmi-serving.md): DJL Serving 기반 대규모 언어 모델 추론 인프라 개요
- [Open Source SLM-Based Hybrid Agent AI Architecture](/ml/genai/slm-llm-hybrid-arch.md)
- [Part 1: Overview & Background](/ml/genai/slm-llm-hybrid-arch/part-1-overview.md): Content Level: 200
- [Part 2: Agentic Patterns & Prompting](/ml/genai/slm-llm-hybrid-arch/part-2-agent-patterns.md): Content Level: 200
- [Part 3: Tool Integration & Fine-Tuning](/ml/genai/slm-llm-hybrid-arch/part-3-other-patterns.md): Content Level: 200
- [Fine-tuning](/ml/genai/fine-tuning.md)
- [\[Use-case w/ Hands-on\] Azure ML에서 torchtune을 사용한 언어 모델 미세 조정/평가/양자화](/ml/genai/fine-tuning/torchtune-azureml.md)
- [\[Use-case w/ Hands-on\] Azure ML Python SDK 및 MLflow를 활용한 Florence-2 모델 파인 튜닝](/ml/genai/fine-tuning/florence2-finetune-azureml.md)
- [LLM Evaluation](/ml/genai/llm-evaluation.md)
- [Overview](/ml/genai/llm-evaluation/overview.md)
- [한국어 LLM 평가의 난제](/ml/genai/llm-evaluation/challenges-korean-llm.md)
- [\[Paper review\] KMMLU/KMMLU-Redux/KMMLU-Pro Dataset](/ml/genai/llm-evaluation/kmmlu.md)
- [\[Paper review\] FunctionChat-Bench](/ml/genai/llm-evaluation/funcchat-bench.md)
- [호랑이 한국어 LLM 리더보드](/ml/genai/llm-evaluation/horangi-korean-llm-leaderboard.md)
