총 125건 · 필터: AI KIT
철도 배치 관리 - 로그 보기, 재배치, 재시작 또는 제거. 배포 수명 주기(제거, 중지, 재배치, 재시작), 배포 가시성(목록, 상태, 기록), 문제 해결(로그, 오류, 실패, 충돌)에 사용하세요. 서비스 삭제를 위한 것이 아닙니다 - 철도 환경 사용
생산 배치 원칙 및 의사 결정. 안전한 배포 워크플로우, 롤백 전략 및 검증. 대본이 아닌 사고를 가르칩니다.
이 체크리스트를 사용하여 DevOps IaC 엔지니어 스킬이 팀에 맞게 적절하게 배포되고 준비되었는지 확인하세요.
앱과 애플릿은 DNAnexus 플랫폼에서 실행되는 실행 가능한 프로그램입니다. Python 또는 Bash로 작성할 수 있으며 필요한 모든 종속성과 구성으로 배포됩니다.
다단계 빌드, 이미지 최적화, 컨테이너 보안, Docker 컴포지트 오케스트레이션, 프로덕션 배포 패턴에 대한 깊은 지식을 갖춘 Docker 컨테이너화 전문가. Docker파일 최적화, 컨테이너 문제, 이미지 크기 문제, 보안 강화, 네트워킹 등을 위해 사전 예방적으로 사용하세요
교사에서 학생으로 지식 증류를 사용하여 대형 언어 모델을 압축하세요. 성능이 유지되는 소형 모델을 배포하거나, GPT-4 기능을 오픈 소스 모델로 전환하거나, 추론 비용을 절감할 때 사용하세요. 온도 스케일링, 소프트 타겟, 리버스 KLD, 로짓 디
추측 디코딩, 메두사 다중 헤드, 그리고 전방 디코딩 기법을 사용하여 LLM 추론을 가속화하세요. 추론 속도를 최적화하거나(1.5-3.6배 속도 향상), 실시간 애플리케이션의 지연 시간을 줄이거나, 계산 속도가 제한된 모델을 배포할 때 사용하세요. 초안 모델, 트리 기반 주의, Jac을 다룹니다
철도 환경에 대한 구성 변경 사항을 쿼리하고, 단계별로 설정하고, 적용합니다. 모든 변수 또는 환경 변수 작업, 서비스 구성(소스, 빌드 설정, 배포 설정), 라이프사이클(서비스 삭제) 및 변경 적용에 사용하세요. 어떤 구성이나 변수 qu에 대해서도 철도 상태 기술보다 선호합니다
마케팅 팀을 위한 제작 준비가 완료된 클로드 AI 기술로, Anthropic의 공식 모범 사례를 따라 구축되었으며 즉시 배포할 수 있도록 설계되었습니다.
이 체크리스트를 사용하여 마케팅 스킬이 팀에 적절하게 배포되고 준비되었는지 확인하세요.
환영합니다! 이 가이드는 FastMCP를 빠르게 설정하고, 첫 번째 MCP 서버를 실행하며, 서버를 Junior Horizon에 배포하는 데 도움이 됩니다.
FastMCP 3.0을 사용하여 MCP 서버를 구축하기 위한 전체 가이드 - 도구, 리소스, 인증, 제공업체, 미들웨어 및 배포. Python MCP 서버를 만들거나 AI 모델을 외부 도구 및 데이터와 통합할 때 사용하세요.
사용자가 GitHub 작업 흐름을 생성, 생성 또는 설정하고자 할 때 사용하세요. CI/CD 파이프라인, 테스트, 배포, 보풀, 보안 검색, 릴리스 자동화, Docker 빌드, 예약된 작업 및 모든 언어나 프레임워크에 대한 사용자 지정 워크플로우를 처리합니다.
이 스크립트는 배포 전에 구현을 검증, 테스트 및 린트 훅하는 데 도움이 됩니다.
오픈형 lama.cpp 서버의 프로덕션 배포AI 호환 API.
NVIDIA 하드웨어 없이 CPU, Apple 실리콘 및 소비자 GPU에서 LLM 추론을 실행합니다. 엣지 배포, M1/M2/M3 Mac, AMD/Intel GPU 또는 CUDA를 사용할 수 없는 경우에 사용하세요. CPU에서 메모리 감소와 PyTorch 대비 4-10배 빠른 속도 향상을 위해 GGUF 양자화(1.5-8비트)를 지원합니다.
프로덕션 환경에서 SGLang 배포에 대한 완전한 가이드.
TensorRT-LLM을 운영 환경에 배포하는 포괄적인 가이드.
- Docker 배포
vLLM의 PageAttention과 연속 배치를 사용하여 높은 처리량으로 LLM에 서비스를 제공합니다. 프로덕션 LLM API를 배포하거나 추론 지연 시간/처리량을 최적화하거나 GPU 메모리가 제한된 모델을 서비스할 때 사용하세요. 오픈 지원AI 호환 엔드포인트, 양자화(GPTQ/AWQ/FP8) 및 텐서 병렬 처리.