·bedrock-fine-tuning
{}

bedrock-fine-tuning

adaptationio/skrillz

미세 조정, 지속적인 사전 훈련, 강화 미세 조정(NEW 2025 - 66% 정확도 향상) 및 증류를 통한 Amazon Bedrock 모델 사용자 정의. 사용자 정의 작업을 생성하고, 교육을 모니터링하고, 사용자 정의 모델을 배포하고, 성능을 평가하세요. 도메인별 작업을 위해 Claude, Titan 또는 기타 Bedrock 모델을 사용자 정의하거나, 독점 데이터에 적응하거나, 특수 워크플로우의 정확성을 높이거나, 대규모 모델을 더 작은 모델로 정제할 때 사용합니다.

6설치·0트렌드·@adaptationio

설치

$npx skills add https://github.com/adaptationio/skrillz --skill bedrock-fine-tuning

SKILL.md

Complete guide to customizing Amazon Bedrock foundation models through fine-tuning, continued pre-training, reinforcement fine-tuning, and distillation.

Amazon Bedrock Model Customization allows you to adapt foundation models to your specific use cases without managing infrastructure. Four customization approaches are available:

Fine-Tuning (Supervised Learning) Adapt models to specific tasks using labeled examples (input-output pairs). Best for:

미세 조정, 지속적인 사전 훈련, 강화 미세 조정(NEW 2025 - 66% 정확도 향상) 및 증류를 통한 Amazon Bedrock 모델 사용자 정의. 사용자 정의 작업을 생성하고, 교육을 모니터링하고, 사용자 정의 모델을 배포하고, 성능을 평가하세요. 도메인별 작업을 위해 Claude, Titan 또는 기타 Bedrock 모델을 사용자 정의하거나, 독점 데이터에 적응하거나, 특수 워크플로우의 정확성을 높이거나, 대규모 모델을 더 작은 모델로 정제할 때 사용합니다. 출처: adaptationio/skrillz.

원본 보기

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/adaptationio/skrillz --skill bedrock-fine-tuning
카테고리
{}데이터 분석
인증됨
최초 등록
2026-02-01
업데이트
2026-02-18

빠른 답변

bedrock-fine-tuning이란?

미세 조정, 지속적인 사전 훈련, 강화 미세 조정(NEW 2025 - 66% 정확도 향상) 및 증류를 통한 Amazon Bedrock 모델 사용자 정의. 사용자 정의 작업을 생성하고, 교육을 모니터링하고, 사용자 정의 모델을 배포하고, 성능을 평가하세요. 도메인별 작업을 위해 Claude, Titan 또는 기타 Bedrock 모델을 사용자 정의하거나, 독점 데이터에 적응하거나, 특수 워크플로우의 정확성을 높이거나, 대규모 모델을 더 작은 모델로 정제할 때 사용합니다. 출처: adaptationio/skrillz.

bedrock-fine-tuning 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/adaptationio/skrillz --skill bedrock-fine-tuning 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/adaptationio/skrillz

상세

카테고리
{}데이터 분석
출처
skills.sh
최초 등록
2026-02-01