Я хотел бы подготовить модель для генерации текста, похожей на this blog postKeras - Как использовать уровень встроенного ввода() для ввода и вывода?
Эта модель использует - насколько я понимаю - следующая архитектуру
[Последовательность слов индексов] -> [Вложение] -> [ LSTM] -> [1 Hot Encoded "next word"]
В принципе автор моделирует процесс как проблему классификации, где выходной слой имеет столько же размеров, сколько слов в корпусе.
Я хотел бы, чтобы смоделировать процесс как регрессионная задача, путем повторного использования заученного вложения, а затем минимизации расстояния между предсказанным и реальным вложением.
В основном:
[Последовательность слов индексов] -> [Вложение] -> [LSTM] -> [Встраивание-Вектор "следующего слова"]
Моя проблема заключается, как модель изучает вложения «на лету», как я могу подавать вывод так же, как я подаю вход (как индексы слов), а затем просто говорю модель «Но прежде чем использовать выход, замените его вектором внедрения»?
Большое спасибо за всю помощь :-)
Вы получили эту работу? Если это так, любые ссылки на код/блог (или даже самоответ) - правильно отмеченный ответ показывают только классификационный подход, а не регрессионный подход, который вы хотели сделать. –