Word Embedding 단어들을 특정한 차원으로 이루어진 공간 상의 한 점, 좌표로 변환해주는 기법 text dataset을 학습 데이터로 제공하고 dimension수를 사전에 정하여 알고리즘에 전달하면 결과 값으로 각각의 단어의 최적의 벡터 표현형이 나온다. 비슷한 단어는 가까운 공간에 표현되도록 한다. 이후 다른 task 모델에 데이터를 넣을 때, 성능을 향상시킨다. Word2Vec 워드 임베딩 중 유명한 알고리즘이다. 같은 문장에서 나타난 인접한 단어들 간의 의미가 비슷할 것이라는 가정을 사용한다. e.g The cat purrs. This cat hunts mice. cat 주변 단어들의 확률분포를 예측한다. 주어진 학습 데이터: "I study math." -> Tokenizing -> 단어..