총 500건 · 필터: AI KIT
분기에서 AI 생성 코드 슬롭을 제거합니다. AI로 생성된 코드를 정리하거나 불필요한 댓글을 제거하거나 방어 점검을 하거나 캐스트를 입력할 때 사용하세요. 주요 항목과 차이를 확인하고 스타일 불일치를 수정합니다.
문서 템플릿 및 구조 지침. README, API 문서, 코드 주석, 그리고 AI 친화적인 문서.
DrugBank 데이터베이스에서 약물 특성, 상호작용, 표적, 경로, 화학 구조 및 약리학 데이터를 포함한 포괄적인 약물 정보에 액세스하고 분석합니다. 이 기술은 의약품 데이터, 신약 개발 연구, 약리학 연구, 약물-박사와 함께 작업할 때 사용해야 합니다
Open 평가 가이드AI, Anthropic 및 기타 API 기반 언어 모델.
60개 이상의 학술 벤치마크(MMLU, HumanEval, GSM8K, TruthfulQA, HellaSwag)에서 LLM을 평가합니다. 모델 품질을 벤치마킹하거나, 모델을 비교하거나, 학업 결과를 보고하거나, 교육 진행 상황을 추적할 때 사용하세요. Eleuther에서 사용하는 산업 표준AI, 허깅페이스, 그리고 주요 연구소들. 허깅페이스, vL 지원
FastMCP 3.0을 사용하여 MCP 서버를 구축하기 위한 전체 가이드 - 도구, 리소스, 인증, 제공업체, 미들웨어 및 배포. Python MCP 서버를 만들거나 AI 모델을 외부 도구 및 데이터와 통합할 때 사용하세요.
**Error**: `CUDA Setup failed despite GPU being available`
프리미어 리그와 챔피언스 리그에서 득점, 다음 골, 코너 등 AI 기반 경기 예측을 받아보세요.
AI 모델(FLUX, Gemini)을 사용하여 이미지를 생성하거나 편집합니다. 사진, 일러스트레이션, 아트워크, 시각적 자산, 컨셉 아트 및 기술 다이어그램이나 도식이 아닌 모든 이미지를 포함한 범용 이미지 생성에 사용하세요. 흐름도, 회로, 경로 및 기술 다이어그램의 경우 과학자를 사용합니다
AI 검색 엔진을 위한 생성 엔진 최적화(ChatGPT, 클로드, Perplexity).
AI 지원을 통해 GitHub 워크플로우를 자동화하세요. PR 리뷰, 이슈 분류, CI/CD 통합 및 Git 작업이 포함됩니다. GitHub 워크플로우 자동화, PR 검토 자동화 설정, GitHub 작업 생성 또는 문제 분류 시 사용하세요.
헤이젠 AI 아바타 동영상을 위한 효과적인 스크립트 작성하기
HeyGen의 모범 사례 - AI 아바타 비디오 제작 API
텍스트에서 AI로 생성된 글의 흔적을 제거하세요. 편집하거나 검토할 때 사용 텍스트를 자연스럽고 사람이 쓴 것처럼 보이게 합니다. 위키백과의 포괄적인 "AI 글쓰기의 징후" 가이드. 패턴을 감지하고 수정합니다: 과장된 상징성, 홍보 언어, 피상적인 분석
이 참고 자료는 과학 분야 전반에 걸친 실험 설계를 위한 패턴과 프레임워크를 제공합니다. 이러한 패턴을 사용하여 생성된 가설에 대한 엄격한 테스트를 개발하세요.
테스트 가능한 가설을 생성합니다. 관찰을 통해 공식화하고, 실험을 설계하며, 경쟁하는 설명을 탐구하고, 예측을 개발하고, 다양한 분야에서 과학적 탐구를 위한 메커니즘을 제안하세요.
사용자가 Open을 통해 이미지를 생성하거나 편집하도록 요청할 때 사용AI 이미지 API(예: 이미지 생성, 편집/인페인팅/마스크, 배경 제거 또는 교체, 투명 배경, 제품 사진, 컨셉 아트, 커버 또는 배치 변형), 번들 CLI(`scripts/image_gen.py`)를 실행하고 'OPE'가 필요합니다
오픈형 lama.cpp 서버의 프로덕션 배포AI 호환 API.
RadixAttention 접두사 캐싱을 통해 LLM을 위한 빠른 구조화된 생성 및 서비스. JSON/regex 출력, 제약 디코딩, 도구 호출을 통한 에이전트 워크플로우, 또는 접두사 공유를 통한 vLLM보다 5배 빠른 추론이 필요할 때 사용하세요. xAI, AMD, NVIDIA, LinkedIn에서 30만 개 이상의 GPU에 전력을 공급합니다.
vLLM의 PageAttention과 연속 배치를 사용하여 높은 처리량으로 LLM에 서비스를 제공합니다. 프로덕션 LLM API를 배포하거나 추론 지연 시간/처리량을 최적화하거나 GPU 메모리가 제한된 모델을 서비스할 때 사용하세요. 오픈 지원AI 호환 엔드포인트, 양자화(GPTQ/AWQ/FP8) 및 텐서 병렬 처리.