네이버 블로그를 운영할 때 2022.09.03에 작성한 후기입니다. 오늘부터 KT 석사 과정 모집이 시작되었길래 블로그 정리할겸 기존 후기를 티스토리로 옮겼습니다. 2022.08.31(수) 서류 전형 합격 부트캠프에 최종 합격을 한지 오래 지나지 않아서 또 코딩 테스트에 응시했다. 사실 진로에 대해 여러 고민을 하면서 인공지능과 관련하여 가장 많이 듣는 이야기 중 하나가 대학원인데 관심가는 전형이 있어서 지원했었다. KT 그룹에서 신입 채용으로 연계되는 전형으로, 합격시 2년간 카이스트, 포항공대, 한양대 AI 계약 학과에서 대학원 과정을 마치고 KT 융합기술원에서 R&D 연구원으로 근무할 수 있게 된다. 사실 이래저래 들은 바로는 KT는 IT 직군에서 경력 쌓으러 가기엔 최악이고 대우도 대기업치고는 그..
분류 전체보기
관심있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇♂️usechatgpt init success[Allen Institue for AI]- a lightweight decoding-time algorithm, proxy-tuning을 제안- output vocabulary에 대한 prediction만을 활용하는 테크닉- 사이즈가 작은 두 모델의 확률 분포차를 큰 베이스 모델에 반영하는 방식으로, 본 논문에서는 Llama 패밀리 모델들을 사용 1. IntroductionLLM을 직접 학습시키는 것은 너무나도 많은 비용을 필요로 하기도 하고, 사실 요즘엔 애초에 접근 자체가 불가능한 경우가 많습니다.회사 이름값을 못하는 OpenAI의 GPT-4..
관심있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇♂️ usechatgpt init success [Fudan University, Shanghai Artificial Intelligence Laboratory] - AI assistant가 자신이 답변하지 못할 질문에 대해서는 '모른다'고 답변하는 것이 hallucination을 줄이는 데 중요함 - model-specific한 "I don't know" (Idk) 데이터셋을 구축하고 이를 활용한 것이 유의미한 결과로 이어짐을 입증 1. Introduction LLM은 다양한 태스크를 잘 처리할 수 있다는 강점을 바탕으로 helpfulness를 제대로 발휘하고 있습니다. 그러나 halluci..
관심있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇♂️ usechatgpt init success [Tencent AI Lab] - 여러 LLM들의 능력을 single LLM으로 전이하는 방법론을 제시 - Llama-2, MPT, OpenLLaMA, 세 모델을 사용 - source LLM들의 생성 확률 분포를 기반으로 fusion 1. Introduction LLaMA, GPT와 같은 모델을 직접 학습하는 것은 천문학적인 비용을 초래하며 환경 문제에까지 큰 영향을 준다는 것이 잘 알려져있습니다. 그래서 모델을 직접 학습하지 않고 기존 모델들의 지식을 활용하는 방법론들이 다양하게 제시되고 있습니다. 본 논문에서는 knowledge fusion ..
관심있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇♂️ usechatgpt init success [OpenAI] - strong pretrained model을 weak supervisor를 통해 fine-tuning 하더라도 supervisor보다 뛰어난 성능을 보인다 - 이를 weak-to-strong generalization 현상이라고 부른다 - 미래에는 superhuman model을 학습하기 위해 RLHF와 같은 테크닉들을 적용할 수 없을 것이다 1. Introduction 오늘날 많은 언어 모델들은 Reinforcement Learning from Human Feedback(RLHF)와 같은 테크닉들을 통해 학습되고 있습니다. ..
관심있는 NLP 논문을 읽어보고 ChatGPT를 이용하여 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇♂️ usechatgpt init success [Meta, NYU] - LLM-as-a-Judge prompting을 이용하여 스스로 반환한 reward로 학습하는 Self-Rewarding Language Models를 제안 - DPO를 이용하여 반복 학습을 진행하는 동안 instruction following & providing high-quality rewards 능력이 둘 다 향상됨 - Llama 2 70B 모델을 3 iterations로 학습하여 AlapacaEavl 2.0 리더보드에서 우수한 성능을 보임 1. Introduction LLM을 사람의 선호에 맞게 ..