총 125건 · 필터: AI KIT
ML 워크로드 실행을 위한 서버리스 GPU 클라우드 플랫폼. 인프라 관리 없이 온디맨드 GPU 액세스가 필요할 때, ML 모델을 API로 배포하거나 자동 확장을 통해 배치 작업을 실행할 때 사용하세요.
이 문서는 LaminDB의 설치, 구성, 인스턴스 관리, 저장 옵션 및 배포 전략을 다룹니다.
래치 SDK는 파이썬 데코레이터를 사용하여 서버리스 바이오인포매틱스 워크플로우를 정의하고 이를 자동 컨테이너화 및 UI 생성과 함께 배포할 수 있게 합니다.
생물정보학 워크플로우를 위한 래치 플랫폼. Latch SDK, @workflow/@task 데코레이터, 서버리스 워크플로우 배포, LatchFile/LatchDir, Nextflow/Snakemake 통합을 통해 파이프라인을 구축하세요.
Claude Code를 위한 다중 에이전트 자율 스타트업 시스템. PRD는 인간의 개입 없이 완전히 배포되고 수익을 창출하는 제품으로 전환됩니다.
Claude Code를 위한 다중 에이전트 자율 스타트업 시스템. "로키 모드" 트리거. 엔지니어링, QA, DevOps, 보안, 데이터/ML, 비즈니스 운영, 마케팅, 인사 및 고객 성공 전반에 걸쳐 100명 이상의 전문 에이전트를 조정합니다. PRD를 인력이 전혀 없는 완전히 배포되고 수익을 창출하는 제품으로 전환합니다
모든 지원되는 플랫폼에 대한 인프라 프로비저닝 및 배포 지침.
해커 뉴스 토론 및 실제 배포에서 실무자가 테스트한 패턴. 이러한 패턴은 이론적 틀이 아니라 실제로 생산에서 작동하는 것을 나타냅니다.
MLflow 모델을 프로덕션 환경에 배포하는 완전한 가이드.
ML 실험 추적, 버전 관리를 통한 모델 레지스트리 관리, 프로덕션에 모델 배포, 프레임워크에 구애받지 않는 ML 라이프사이클 플랫폼을 사용한 실험 재현
서버리스 컨테이너, GPU, 자동 확장 기능을 갖춘 클라우드에서 파이썬 코드를 실행하세요. ML 모델을 배포하거나, 배치 처리 작업을 실행하거나, 계산 집약적인 작업을 스케줄링하거나, GPU 가속화나 동적 확장이 필요한 API를 제공할 때 사용하세요.
배포에 사용되는 일반적인 Netlify CLI 명령어에 대한 빠른 참조.
Netlify 기술을 위한 일반적인 배포 시나리오와 모범 사례.
Netlify 빌드 및 배포를 위한 구성 파일.
Netlify CLI(`npx netlify`)를 사용하여 Netlify에 웹 프로젝트를 배포합니다. 사용자가 미리보기 및 프로덕션 배포를 포함하여 Netlify에서 사이트/레포 배포, 호스팅, 게시 또는 링크를 요청할 때 사용하세요.
적절한 구성으로 철도 프로젝트, 서비스 및 데이터베이스를 만드세요. 사용자가 "설정", "철도에 배포", "초기화", "프로젝트 생성", "서비스 생성" 또는 GitHub에서 배포하고 싶다고 말할 때 사용합니다. 기존 프로젝트에 초기 설정 및 서비스 추가를 처리합니다. 데이터베이스의 경우 railway-ra를 사용합니다
3배의 속도 향상과 최소한의 정확도 손실로 4비트 LLM 압축을 위한 활성화 인식 가중치 양자화. 제한된 GPU 메모리에 대형 모델(7B-70B)을 배포할 때, GPTQ보다 더 빠른 추론이 필요할 때, 또는 명령어 조정 및 다중 모드 모델에 사용하세요. MLSys
효율적인 CPU/GPU 추론을 위한 GGUF 형식 및 lama.cpp 양자화. 소비자 하드웨어, Apple 실리콘에 모델을 배포하거나 GPU 요구 사항 없이 2-8비트에서 유연한 양자화가 필요한 경우 사용하세요.
정확도 손실을 최소화하면서 LLM을 위한 4비트 양자화 훈련 후. 대형 모델(70B, 405B)을 소비자 GPU에 배포할 때, 2% 미만의 난잡도 저하로 4배 메모리 감소가 필요할 때, 또는 FP16 대비 더 빠른 추론(3-4배 속도 향상)을 위해 사용하세요. 트랜스포머 및 PEFT와 통합하여 QLoRA 미세 조정
보정 데이터가 없는 LLM의 반이차 양자화. 보정 데이터셋 없이 모델을 4/3/2비트 정밀도로 양자화할 때, 빠른 양자화 워크플로우를 위해, 또는 vLLM이나 허깅페이스 트랜스포머를 사용하여 배포할 때 사용하세요.