본문 바로가기

전체 글

(120)
NEFTune: Noisy Embeddings Improve Instruction Finetuning * 논문상의 내용을 바탕으로 하고 있으며, 본인이 이해하고 해석한 흐름에 맞게 내용을 조정하였습니다. Abstract Language model의 finetuning performance가 simple augmentation만으로 dramatically improving 될 수 있음을 보인다. 단순히 training 시에 embedding vector에다가 noise를 추가해주기만 하면 된다. 이를 통해, finetuning을 통한 LLM의 performance는 크게 개선된다. Introduction 주어진 instruction을 잘 따르는 능력은 LLM에게 있어서 매우 중요한 능력이다. LLM의 usefulness를 결정하는 데에 있어 중요한 요소이기 때문이다. 그러한 능력을 개선시키는 학습은 ins..
The differences between InstructGPT and ChatGPT Two of them are both the model aligned by human feedback, which is called RLHF, and trained with instruction fine-tuning. The differences of them is below. References https://www.theinsaneapp.com/2023/05/instructgpt-vs-chatgpt.html
Language Models are Few-Shot Learners * 논문상의 내용을 바탕으로 하고 있으며, 본인이 이해하고 해석한 흐름에 맞게 내용을 조정하였습니다. Abstract 최근 NLP tasks 그리고 benchmarks에 대한 연구에서, specific task에 대한 모델의 성능을 향상시키는 것에 대한 가치있는 발견이 있었다. Task-agnostic한 architecture를 가진 모델에 specific task를 위한 large corpus examples를 이용하여 specific task에 맞게 모델을 fine-tuning시켜 task를 해결해 내도록 하는 것이다. 하지만 인간이 NLP task를 수행해 낸다고 가정해본다면, 그리고 인간이 그러한 task를 풀어낼 때의 과정을 상상해본다면, 인간이 task를 풀어낼 때의 모습은 large corp..