본문 바로가기

분류 전체보기

(120)
THE GENERATIVE AI PARADOX:“What It Can Create, It May Not Understand” (ICLR 2024, West et al) Paper link: https://arxiv.org/pdf/2311.00059Notion page link: https://kindly-moth-b78.notion.site/5-13-ced5fba646d648f2ba3385764462c21b?pvs=4
When do LLMs need retrieval augmentation? Mitigating LLMs’ overconfidence help retrieval(arXiv, Ni et al) Paper link: https://arxiv.org/pdf/2402.11457Notion page link: https://kindly-moth-b78.notion.site/3-31-2229d2abb1834752b58154d55261527a?pvs=4
REACT: SYNERGIZING REASONING AND ACTING IN LANGUAGE MODELS(ICLR 2023, Yao et al) Paper link: https://arxiv.org/pdf/2210.03629Notion page link: https://kindly-moth-b78.notion.site/3-25-7ba4db0e49844906ba74817d0341316f
Adapting Language Models to Compress Contexts (Chevalier et al. EMNLP 2023) Informations about the paper Paper name: Adapting Language Models to Compress Contexts Venue: EMNLP 2023 Citation: 32 Affiliation: Princeton University Date: 2023.5 Paper link: https://arxiv.org/pdf/2305.14788.pdf Review
Autograd explained diagram References https://www.youtube.com/watch?v=MswxJw-8PvE
QLoRA: Efficient Finetuning of Quantized LLMs * 논문상의 내용을 바탕으로 하고 있으며, 본인이 이해하고 해석한 흐름에 맞게 내용을 조정하였습니다. Abstract QLora는 65B 모델을 48GB single gpu에 올릴 수 있도록 하는, memory usage를 크게 줄일 수 있도록 도와주는 방법이다.그러면서도 16-bit 모델의 finetuning 성능을 유지한다. Introduction LLM을 사용하는 것은 task 성공적으로 해결하는 데에 많은 도움을 주는 것으로 드러나고 있는 상황이다. 하지만, 이름에서 드러나듯이 LLM을 사용하는 데에 있어서는 hardware, resource적인 비용이 크다. 즉, LLM을 finetuning 하여 task를 수행한다면 좋은 성과를 얻을 수 있지만 많은 사람들이 LLM을 사용하는 데에 있어서는 분..
NEFTune: Noisy Embeddings Improve Instruction Finetuning * 논문상의 내용을 바탕으로 하고 있으며, 본인이 이해하고 해석한 흐름에 맞게 내용을 조정하였습니다. Abstract Language model의 finetuning performance가 simple augmentation만으로 dramatically improving 될 수 있음을 보인다. 단순히 training 시에 embedding vector에다가 noise를 추가해주기만 하면 된다. 이를 통해, finetuning을 통한 LLM의 performance는 크게 개선된다. Introduction 주어진 instruction을 잘 따르는 능력은 LLM에게 있어서 매우 중요한 능력이다. LLM의 usefulness를 결정하는 데에 있어 중요한 요소이기 때문이다. 그러한 능력을 개선시키는 학습은 ins..
The differences between InstructGPT and ChatGPT Two of them are both the model aligned by human feedback, which is called RLHF, and trained with instruction fine-tuning. The differences of them is below. References https://www.theinsaneapp.com/2023/05/instructgpt-vs-chatgpt.html
Language Models are Few-Shot Learners * 논문상의 내용을 바탕으로 하고 있으며, 본인이 이해하고 해석한 흐름에 맞게 내용을 조정하였습니다. Abstract 최근 NLP tasks 그리고 benchmarks에 대한 연구에서, specific task에 대한 모델의 성능을 향상시키는 것에 대한 가치있는 발견이 있었다. Task-agnostic한 architecture를 가진 모델에 specific task를 위한 large corpus examples를 이용하여 specific task에 맞게 모델을 fine-tuning시켜 task를 해결해 내도록 하는 것이다. 하지만 인간이 NLP task를 수행해 낸다고 가정해본다면, 그리고 인간이 그러한 task를 풀어낼 때의 과정을 상상해본다면, 인간이 task를 풀어낼 때의 모습은 large corp..
Chain rule practice Problem 1. Explanation Problem 2. Explanation References https://cs182sp21.github.io CS 182: Deep Learning Head uGSI Brandon Trabucco btrabucco@berkeley.edu Office Hours: Th 10:00am-12:00pm Discussion(s): Fr 1:00pm-2:00pm cs182sp21.github.io