과제명: LLM 기반 5/3/1 운동 루틴 추천 시스템 설계 및 구현
사용자의 운동 경험, 목표, 1RM 기록 등을 바탕으로,
LLM을 활용해 5/3/1 프로그램 기반의 맞춤형 운동 루틴을 생성하는 시스템을 설계하고 결과물을 제출하세요.
본 과제는 LLM에게 5/3/1 프로그램의 구조를 학습시키고
사용자 입력에 따라 운동 루틴을 생성하도록 만드는 LLM 학습 중심 과제입니다.
제약 조건
•
사용 가능한 LLM은 3B 이하 크기의 모델이어야 합니다.
•
한국어 입력 및 출력에 대응할 수 있어야 합니다.
•
학습 방식은 자유 (예: full fine-tuning, LoRA, QLoRA, prompt tuning 등)
•
학습 및 추론은 로컬 또는 클라우드 환경 모두 사용 가능하며, 사용한 리소스를 문서에 명시해주세요.
제출 항목
1. 모델 학습 설명서 (README.md 또는 docs/model_training.md)
•
사용한 모델 (예: KoAlpaca-1.3B, Polyglot-ko-3.8B 등)
•
학습 방식 (예: LoRA, full fine-tuning 등)
•
학습 환경 (예: Colab T4, M1 Mac, A100 등)
•
LLM에게 5/3/1 프로그램을 어떻게 학습시켰는지 구체적으로 기술
◦
학습 데이터 구성 전략
◦
반복/세트/중량 계산 방식 반영 여부
◦
자연어 설명, 규칙 기반, 수식 기반 등 학습 방식
2. 학습 데이터 예시
•
최소 5개 이상의 학습 샘플 포함
•
예: instruction / input / output 형식의 JSON 또는 텍스트
3. 예시 사용자 루틴 생성 결과
•
최소 3명의 사용자 입력에 대해 LLM이 생성한 루틴 출력 포함
•
결과는 현실적인 5/3/1 루틴 형태여야 함
4. 모델 파일 또는 접근 경로
•
LoRA adapter 파일, 또는 full 모델 (양자화 포함 가능)
•
GitHub 저장소에 포함하거나 외부 공유 링크로 제공 (Google Drive, Hugging Face 등)
5. README.md
•
프로젝트 개요
•
모델 정보 및 학습 요약
•
실행 방법 (예: python infer.py --input user.json)
•
사용한 라이브러리 및 환경 정보
평가 기준
항목 | 평가 내용 |
LLM이 5/3/1을 얼마나 잘 이해하도록 구성했는가 | |
입력/출력 포맷의 구조적 타당성 | |
모델 선택과 학습 방식이 조건 내에서 적절한가 | |
루틴 생성 결과가 실제 5/3/1에 부합하는가 | |
제출된 모델이 실제로 구동 가능한가 |
제출 방식
•
“GitHub repository”로 제출
◦
구조화된 폴더 구성 (/src, /data, /docs 등 권장)
◦
모델 파일이 클 경우 Google Drive 또는 Hugging Face 링크로 병행 제출 가능
과제 기한 및 제출
•
기한: 25년 6월 11일 수요일까지
•
제출: admin@bunnit.kr