전체 글

· 후기
안녕하세요, chanmuzi입니다. 뭔가 굉장히 오랜만에 평범한 글을 쓰는 기분이네요. 오늘은 아주 최근(2024.02.18 일요일)에 치렀던 TOEIC, TEPS 후기를 남겨보고자 합니다. 시험 자체에 관한 꿀팁이라기보다는.. 개인적인 성찰에 가까운 내용일 것 같습니다 😅 (약간의 팁을 곁들인..?) 1. 어쩌다가 두 시험을 동시에..? 이건 상당히 오만했던 과거의 자신을 많이 탓하고 싶습니다... 저는 2024.02.18 일요일 오전 10시에 토익을, 오후 3시에 텝스를 치렀습니다. 사실 지금 시점에서 어학 점수는 그렇게..까지 중요한 건 아니긴 했어요. 근데 이제 곧 토익 점수(2022.02 응시, 925점)가 만료될 예정이기도 했고 어차피 어학 점수는 뭘하든지간에 요구되는 경우가 많다 보니 해둬서..
· Paper Review
관심 있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇‍♂️ usechatgpt init success [Microsoft Research] - LLM의 각 파라미터가 {-1, 0, 1}, 셋 중 하나의 값을 갖도록 하는 BitNet b1.58을 도입 - 동일한 사이즈의 모델 및 학습 토큰양을 보유한 트랜스포머 기반의 LLM의 full-precision (FP16 or BF16)에 준하는 성능 - LLM에 학습에 있어서 새로운 scaling law를 만들어 냄 (Pareto Improvement) 출처 : https://arxiv.org/abs/2402.17764 The Era of 1-bit LLMs: All Large Language Mode..
· Paper Review
관심 있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇‍♂️ usechatgpt init success ICLR 2023, [Google Research] - few shot에 포함된 예시들보다 어려운 문제를 풀지 못하는 easy-to-hard generalization 문제를 해결하고자 등장한 프롬프팅 기법 - 복잡한 문제를 여러 개의 subproblems으로 쪼갠 뒤, 각 subproblem에 대한 처리 결과를 순차적으로 이어 붙이는 방식인 least-to-most prompting 방식을 제안 출처 : https://arxiv.org/abs/2205.10625 Least-to-Most Prompting Enables Complex Reaso..
· Paper Review
관심 있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇‍♂️ usechatgpt init success [Google DeepMind] - Gemini를 만들 때 사용했던 기술들을 바탕으로 학습된 lightweight & state-of-the art open models, Gemma를 공개 - language understanding, reasoning, safety 등 벤치마크에서 뛰어난 퍼포먼스를 보임 - 2B & 7B 모델의 raw version과 instruction fine-tuned version을 공개 (2T & 6T 토큰으로 학습) 출처 : https://storage.googleapis.com/deepmind-media/gemm..
· Paper Review
관심 있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇‍♂️ usechatgpt init success [Google DeepMind] - LLM의 decoding process를 변경함으로써 prompting 없이 CoT reasoning paths를 유도할 수 있다고 주장 - top-k개의 alternative tokens를 조사하여 sequences에 내재하는 CoT paths를 확인. 즉 LLM에게 intrinsic reasoning ability가 있다고 주장 1. Introduction LLM이 눈부신 발전을 거듭하는 과정에는 reasoning task에 대한 수행 능력의 발전이 큰 몫을 차지하고 있습니다. 여기에는 특히나 CoT (C..
· Paper Review
관심 있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇‍♂️ usechatgpt init success - LLM이 태스크에 내재된 reasoning structure를 스스로 찾아가도록 하는 프레임워크 - LLMs가 multiple atomic reasoning module을 골라야 하는 상황에 적용 가능한 방식 - 이 방식이 다양한 모델 계통에 적용 가능한 것으로 확인 (PaLM 2-L, GPT-4, Llama2) 1. Introduction 지금까지 LLM의 추론(Reasoning) 능력을 향상시키기 위해 여러 시도들이 있었지만, 개인적으로는 하나의 큰 과정을 작은 것 여러 개로 쪼개고 각각을 처리하는 방식이 가장 유효했다고 생각합니다. (..
chanmuzi
chanmuzi