총 500건
ERD는 테이블(엔티티), 열(속성) 및 테이블 간의 관계를 보여주는 데이터베이스 스키마를 모델링합니다. 데이터베이스 설계 및 문서화에 필수적입니다.
**📝 重要说明 / 중요 공지**: 本仓库借助커서 在AAAI 2026官方模板基础上改进得到。如果遇到不满足或有冲突的情况,请积极提issues。
LoRA, QLoRA를 위한 완전한 하이퍼파라미터 구성과 다양한 모델 크기에 걸친 완전한 미세 조정.
맘바의 핵심 혁신은 상태 공간 모델 매개변수를 입력 의존적으로 만드는 **선택적 SSM(S6)** 계층입니다.
NanoGPT의 `train.py`는 의존성이 최소화된 독립형 학습 스크립트입니다.
4D 병렬 처리(FSDP2, TP, PP, CP)가 가능한 토치티탄을 사용하여 PyTorch 네이티브 분산 LLM 사전 학습을 제공합니다. Lama 3.1, DeepSeek V3 또는 Float8, torch.compile, 분산 체크포인트 기능을 갖춘 8개에서 512개 이상의 GPU 규모의 커스텀 모델을 사전 학습할 때 사용하세요.
LLaVA 모델 훈련 및 미세 조정 가이드.
SpikeAgent의 접근 방식에서 영감을 받아 유닛 큐레이션에 AI 시각 분석을 사용하는 방법을 안내합니다.
적절한 구성으로 철도 프로젝트, 서비스 및 데이터베이스를 만드세요. 사용자가 "설정", "철도에 배포", "초기화", "프로젝트 생성", "서비스 생성" 또는 GitHub에서 배포하고 싶다고 말할 때 사용합니다. 기존 프로젝트에 초기 설정 및 서비스 추가를 처리합니다. 데이터베이스의 경우 railway-ra를 사용합니다
NOWAIT 기법에서 사용된 반영 키워드에 대한 완전한 참조.
QLoRA(양자화된 저랭크 적응)를 사용한 4비트 양자화를 사용하여 대형 언어 모델을 미세 조정하는 전체 가이드.
링크 토큰 흐름, 트랜잭션 동기화, 신원 확인, ACH용 인증, 잔액 확인, 웹훅 처리, 핀테크 컴플라이언스 모범 사례 등 Plaid API 통합을 위한 전문가 패턴. 사용 시기: 체크무늬, 은행 계좌 연결, 은행 연결, ACH, 계좌 집계.
추론 및 작업별 모델 훈련을 위한 TRL을 통한 GRPO/RL 미세 조정 전문가 지침
생산 준비가 완료된 슬라임 포크인 마일을 사용하여 엔터프라이즈급 RL 훈련을 위한 지침을 제공합니다. FP8/INT4를 사용하여 대형 MoE 모델을 훈련하거나, 훈련-추론 정렬이 필요하거나, 최대 처리량을 위해 사변적 RL이 필요할 때 사용하세요.
Ray+vLLM 가속을 갖춘 고성능 RLHF 프레임워크. 대형 모델(7B-70B+)의 PPO, GRPO, RLOO, DPO 훈련에 사용하세요. Ray, vLLM, ZeRO-3를 기반으로 구축되었습니다. 분산 아키텍처와 GPU 리소스 공유를 통해 DeepSpeedChat보다 2배 빠릅니다.
LLM 정렬을 위한 간단한 선호 최적화. 더 나은 성능(알파카에발 2.0에서 +6.4점)으로 DPO에 대한 참조 없는 대안. 참조 모델이 필요 없으며 DPO보다 더 효율적입니다. DPO/PPO보다 더 간단하고 빠른 훈련을 원할 때 선호도 정렬에 사용하세요.
슬라임, 메가트론을 사용하여 RL로 LLM 후 훈련에 대한 지침 제공+SGLang 프레임워크. GLM 모델을 훈련시키거나, 맞춤형 데이터 생성 워크플로우를 구현하거나, RL 확장을 위해 메가트론-LM 통합이 필요할 때 사용하세요.
RLHF 파이프라인을 위한 TRL을 사용한 보상 모델 교육 가이드.
PyHealth는 임상 애플리케이션을 위한 모델 학습, 예측 평가, 모델 신뢰성 보장 및 결과 해석을 위한 포괄적인 도구를 제공합니다.
PyTorch Lightning은 여러 GPU, 노드 및 기계에서 대규모 모델을 효율적으로 훈련하기 위한 여러 가지 전략을 제공합니다. 모델 크기와 하드웨어 구성에 따라 올바른 전략을 선택하세요.