AI언어 모델의 Fine-Tuning 성능 올리기
본 포스팅은 거대 언어 모델(LLM)의 Fine-tuning 성능을 향상시키는 다양한 방법론을 소개합니다. LLM은 대규모 텍스트 말뭉치를 통해 단어 예측 방식으로 학습되며, 이를 통해 번역, 연산 등 다양한 범용 task를 해결하는 in-context learning 능력을 갖춥니다. Llama 2와 같은 LLM은 수백 GB에서 수 TB 이상의 데이터를 사용하여 학습됩니다. 이 글은 자연어 처리에 관심 있는 엔지니어 및 연구자를 대상으로 하며, LLM의 Fine-tuning 성능을 높이는 여러 방법론의 존재 자체에 초점을 맞춥니다. 특정 task에 대한 상세한 내용은 다루지 않지만, Introduction 부분은 관련 지식이 없어도 이해할 수 있도록 작성되었습니다.



















