총 500건 · 필터: AI KIT
ERD는 테이블(엔티티), 열(속성) 및 테이블 간의 관계를 보여주는 데이터베이스 스키마를 모델링합니다. 데이터베이스 설계 및 문서화에 필수적입니다.
흐름도는 프로세스, 알고리즘, 의사 결정 트리 및 사용자 여정을 시각화합니다. 그들은 시스템이나 워크플로우를 통해 단계별 진행 상황을 보여줍니다.
시퀀스 다이어그램은 시간 경과에 따른 참가자 간의 상호작용을 보여줍니다. API 흐름, 인증 시퀀스 및 시스템 구성 요소 상호 작용에 이상적입니다.
철도 서비스의 자원 사용 지표를 조회합니다. 사용자가 자원 사용량, CPU, 메모리, 네트워크, 디스크 또는 "내 서비스가 얼마나 많은 메모리를 사용하고 있는지" 또는 "내 서비스가 느리는지"와 같은 서비스 성능에 대해 물어볼 때 사용하세요.
LitGPT에서 여러 GPU와 노드로 확장하기 위한 FSDP(완전 샤디드 데이터 병렬) 분산 학습 가이드.
LoRA, QLoRA를 위한 완전한 하이퍼파라미터 구성과 다양한 모델 크기에 걸친 완전한 미세 조정.
맘바의 핵심 혁신은 상태 공간 모델 매개변수를 입력 의존적으로 만드는 **선택적 SSM(S6)** 계층입니다.
'''bash'''
RWKV는 **타임 믹싱**(시퀀스 처리) 블록과 **채널 믹싱**(피처 처리) 블록을 번갈아 가며 사용합니다.
4D 병렬 처리(FSDP2, TP, PP, CP)가 가능한 토치티탄을 사용하여 PyTorch 네이티브 분산 LLM 사전 학습을 제공합니다. Lama 3.1, DeepSeek V3 또는 Float8, torch.compile, 분산 체크포인트 기능을 갖춘 8개에서 512개 이상의 GPU 규모의 커스텀 모델을 사전 학습할 때 사용하세요.
이 문서는 몰페이트로 제공되는 모든 피처라이저를 카테고리별로 정리한 포괄적인 카탈로그를 제공합니다.
LLaVA 모델 훈련 및 미세 조정 가이드.
레일팩은 철도의 기본 제작자입니다. 대부분의 프로젝트에 대해 제로 구성.
QLoRA(양자화된 저랭크 적응)를 사용한 4비트 양자화를 사용하여 대형 언어 모델을 미세 조정하는 전체 가이드.
사용자가 Google 광고, 메타(페이스북/인스타그램), LinkedIn, 트위터/X 또는 기타 광고 플랫폼에서 유료 광고 캠페인에 대한 도움을 원할 때. 사용자가 'PPC', '유료 미디어', '광고 카피', '광고 크리에이티브', 'ROAS', 'CPA', '광고 캠페인', '재타겟팅' 또는 '오디언스 타겟팅'을 언급할 때도 사용하세요 이 스키
추론 및 작업별 모델 훈련을 위한 TRL을 통한 GRPO/RL 미세 조정 전문가 지침
마일즈는 슬라임을 기반으로 구축된 엔터프라이즈급 RL 프레임워크로, 대규모 MoE 훈련을 위한 고급 기능을 추가합니다:
**증상**: 손실 폭발, NaN 값, 보상 붕괴
생산 준비가 완료된 슬라임 포크인 마일을 사용하여 엔터프라이즈급 RL 훈련을 위한 지침을 제공합니다. FP8/INT4를 사용하여 대형 MoE 모델을 훈련하거나, 훈련-추론 정렬이 필요하거나, 최대 처리량을 위해 사변적 RL이 필요할 때 사용하세요.
OpenRLHF에서 RL 알고리즘에 대한 완전한 가이드: PPO, REINFO++, GRPO, RLOO 및 그 변형들.