Я читал много статей о НЛП и наткнулся на многие модели. Я получил модель SVD и представляю ее в 2-D, но я до сих пор не понял, как сделать вектор-слово, предоставив корпус модели word2vec/skip-gram? Является ли это также матричным представлением для каждого слова? Не могли бы вы объяснить это, взяв пример corpus:
Hello, my name is John.
John works in Google.
Google has the best search engine.
В принципе, как пропустить грамм конвертировать John
в вектор?