
관심 있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 🙇♂️usechatgpt init success[Renmin Univ. of China]- diffusion model을 scratch부터 pre-training & supervised fine-tuning (SFT) 적용한 LLaDA- 일부 벤치마크에서 Autoregressive models (ARMs)보다 강한 scalability를 보여줌 출처 : https://arxiv.org/abs/2502.099921. Introduction최근 Diffusion(이하 디퓨전)을 LLM에 적용한 모델이 (상대적으로 작은 사이즈-7~8B-에서) 뛰어난 성능을 보여주며 화제가 되고 있습니다.디퓨전은..