반응형

Language Modeling 2

Long Short-Term Memory (LSTM) 이해하기

이 글은 Christopher Olah가 2015년 8월에 쓴 글을 우리 말로 번역한 것이다. Recurrent neural network의 개념을 쉽게 설명했고, 그 중 획기적인 모델인 LSTM을 이론적으로 이해할 수 있도록 좋은 그림과 함께 한 걸음씩 설명하는 멋진 글이라고 생각한다. 기본적으로 neural network에 대해서 이해하고 있어야 이 글의 내용을 원활하게 이해할 수 있으리라 생각한다. 저자의 홈페이지에 neural network에 대한 주옥같은 글들이 많으므로 관심이 있다면 둘러보시길 추천한다. 우리 말로 옮기기 애매한 용어는 영어 단어 그대로 표기했고, 원문에 있는 그림을 그대로 가져다 썼다. 물론 저자의 허락을 받고 번역했다. 오역에 대한 지적이나 내용에 대한 피드백은 항상 감사합..

Machine Learning 2018.04.10

PyTorch를 이용한 NLP 튜토리얼, Part 2: Word Embedding

Neural network를 위한 나의 첫 framework으로 PyTorch를 선택해서 알아가고 있다. PyTorch documentation의 tutorial 부분만 차근 차근 보고 있는데, 생각보다 내용이 좋다. 단순히 자기네 framework 사용법 뿐만이 아니라 deep learning의 여러 전반적인 기초에 대해서 잘 설명해주고 있다. 그 중에서 Beginner Tutorial 섹션의 "Deep Learning for NLP with Pytorch" 튜토리얼을 우리 말로 옮겨보았다. 두 번째 번역 부분은 NLP의 첫 발걸음으로 word embedding을 이용한 N-gram language modeling을 직접 해본다. 수식이 깨지는 등의 문제가 있는 경우 Github을 통해 볼 수도 있다...

Machine Learning 2018.03.25