# MoE (Mixture-of-Experts)

- [MoE Overview](/ml/genai/moe/overview.md)
- [MoE 모델 비교 및 주요 기법 정리](/ml/genai/moe/compare-models.md)
- [분산 훈련 기초 개념](/ml/genai/moe/distributed-training-basic.md)
- [전문가 병렬화 (Expert Parallelism)](/ml/genai/moe/expert-parallelism.md)
- [\[Optional\] NVSHMEM (NVIDIA Shared Memory)](/ml/genai/moe/nvshmem.md)
- [분산 훈련에서의 AWS 네트워킹: EFA (Elastic Fabric Adapter)](/ml/genai/moe/efa.md)
- [AWS에서 MoE 모델을 효율적으로 훈련하기](/ml/genai/moe/aws-moe.md)
- [분산 훈련 전략](/ml/genai/moe/training-strategy.md)
- [ML 엔지니어와 인프라 엔지니어 간 분산 훈련 협업 가이드 및 체크리스트](/ml/genai/moe/collabration.md)
- [추론 최적화 개요 (Prefill과 Decoding에 따른 주요 기법 정리)](/ml/genai/moe/prefill-decoding.md)
- [SageMaker Large Model Inference (LMI)를 활용한 모델 서빙 및 최적화 가이드](/ml/genai/moe/sagemaker-lmi-serving.md): DJL Serving 기반 대규모 언어 모델 추론 인프라 개요
