멀티모달 / 툴 확장
코딩 모델
코드 특화 모델(Qwen2.5-Coder·DeepSeek-Coder·StarCoder 계열)을 LoRA/QLoRA로 파인튜닝합니다. Fast Apply·코드 리뷰·버그 탐지에 특화.
활성 잡
0
완료 어댑터
0
전체 잡
0
학습 잡 생성
CODING 특화 설정
데이터셋 업로드
멀티모달 JSONL (messages + images 필드)
JSONL 파일을 드래그하거나 클릭해서 선택
멀티모달 SFT: {"messages": [...], "images": ["img.jpg"]}
코딩 모델 런북
구성 가이드
학습 엔진·배포·에이전트 연동 체크리스트
풀스펙 구현 범위
ABCD 공통 — 외부 엔진은 프로브·어댑터로 묶습니다
- 학습: LlamaFactory / Axolotl / Unsloth — 잡 런타임과 동일 Job Spec
- 데이터: SFT JSONL (instruction+output), Code-Apply diff 형식, Tool-call 형식
- 배포: Ollama GGUF 또는 vLLM OpenAI 호환 — 같은 어댑터 파일로 양쪽 지원
- 에이전트: Tool Schema 슬롯과 /finetuning/router task_type=code_debugging 라우팅
환경 변수 (예시)
.env.factory.example 참고
- LEAF_VLLM_OPENAI_BASE — 서버 코딩 모델 게이트웨이 URL
- LEAF_OLLAMA_HOST — 로컬 GGUF 추론 (기본 localhost:11434)
오픈소스 참고 (다운로드·설치는 각 레포)
- LlamaFactory — 코딩 템플릿·SFT
- vLLM — 프로덕션 서빙
- Qwen2.5-Coder — 코드 특화 베이스 모델
- DeepSeek-Coder-V2 — 고성능 코딩
로컬 콘솔 링크
체크리스트 (운영 전)
- 베이스 모델 ID 가 런타임(Ollama pull / vLLM served name)과 일치하는지 확인
- Tool-use JSONL 이 있다면 datasets에 tool 타입으로 등록 후 이 잡에 추가
- Fast Apply 용이면 cutoffLen 8192, Code Review 용이면 4096
- 배포 후 /finetuning/inference 에서 curl 테스트 통과 확인