총 500건
철도 배치 관리 - 로그 보기, 재배치, 재시작 또는 제거. 배포 수명 주기(제거, 중지, 재배치, 재시작), 배포 가시성(목록, 상태, 기록), 문제 해결(로그, 오류, 실패, 충돌)에 사용하세요. 서비스 삭제를 위한 것이 아닙니다 - 철도 환경 사용
Accelerate를 사용하면 **사용자 지정 플러그인**을 생성하여 내장 옵션(DDP, FSDP, DeepSpeed)을 넘어 분산 학습 전략을 확장할 수 있습니다.
Accelerate는 텐서 병렬 처리와 파이프라인 병렬 처리를 통한 대규모 모델 학습을 위해 메가트론-LM을 지원합니다.
'''python'''
**페이지:** 1
**페이지:** 2
**페이지:** 16
**페이지:** 21
**페이지:** 29
**파일:** `08.md`
**페이지:** 1
**페이지:** 15
**페이지:** 59
다양한 모델 크기와 하드웨어 구성에서 메가트론 코어의 성능 지표와 벤치마크.
메가트론 코어의 병렬 처리에 대한 완전한 가이드: 각 전략, 성능 특성 및 구성 예제를 사용하는 시기.
메가트론 코어와 메가트론-LM을 사용한 실제 생산 배치.
GPT, LLaMA 및 Mixtral 모델을 위한 완전한 하이퍼파라미터 구성 및 교육 레시피.
고급 병렬 처리 전략을 사용하여 NVIDIA 메가트론 코어를 사용하여 대형 언어 모델(2B-462B 매개변수)을 학습합니다. 모델이 1B 이상의 파라미터를 학습할 때 사용하거나, 최대 GPU 효율(H100에서 47% MFU)이 필요하거나, 텐서/파이프라인/시퀀스/컨텍스트/전문가 병렬 처리가 필요할 때 사용하세요. 생산 준비 프레임워크 사용 f
**파일:** `other.md`
**페이지:** 15