2023๋ AI CONNECT์์ ๊ฐ์ตํ ๋ ธํธ๋ถ์ผ๋ก GPT ๋ง๋ณด๊ธฐ ๊ฒฝ์ง๋ํ 3์ ํ์ต ๋ฐ ์ถ๋ก ์ฝ๋.
paust/pko-t5-large model ๋ชจ๋ธ์ AIHUB ์์ฝ๋ฌธ ๋ฐ ๋ ํฌํธ ์์ฑ ๋ฐ์ดํฐ๋ก ํ์ธํ๋ํ lcw99/t5-large-korean-text-summary๋ฅผ Base Model๋ก ์ฌ์ฉ.
AIHUB ์์ฝ๋ฌธ ๋ฐ ๋ ํฌํธ ์์ฑ ๋ฐ์ดํฐ์์ ๋ชจ๋ ์ข ๋ฅ(news_r, briefing, his_cul, paper, minute, edit, public, speech, literature, narration)์ Training ๋ฐ์ดํฐ ํ์ฉ.
๊ฑฐ๋ ์ธ์ด ๋ชจ๋ธ ๊ฒฝ๋ํ ๊ธฐ๋ฒ ์ค ํ๋์ธ Low-Rank Adaptation (LoRA)๋ฅผ Base Model์ ์ ์ฉํ์ฌ ํ์ต.
r=8
lora_alpha=32
lora_dropout=0.1
ํ๊น ํ์ด์ค์ Parameter-Efficient Fine-Tuning (PEFT) ๋ผ์ด๋ธ๋ฌ๋ฆฌ๋ฅผ ํ์ฉ.
PERT๋ LoRA ์ธ์๋ T5 ๋ชจ๋ธ์ ๋ํด prefix tuning๋ ์ง์ํ์ง๋ง, prefix tuning๋ณด๋ค LoRA์ ์ฑ๋ฅ์ด ๋ ๋์์.
์ถ๋ก ์ ์๋ณธ ํ ์คํธ ์์ "๋ถํ์ํ ๋ด์ฉ์ ์๋ตํ๊ณ ํต์ฌ ๋ด์ฉ์ ๊ฐ๋จํ๊ฒ ํ์ค ์์ฝ:" Prompt๋ฅผ ์ฌ์ฉ.
๋ถํ์ํ ๋ด์ฉ์ ์๋ตํ๊ณ ํต์ฌ ๋ด์ฉ์ ๊ฐ๋จํ๊ฒ ํ์ค ์์ฝ: {์๋ณธ ํ ์คํธ}