Мне нужно запустить модель кодировщика-декодера в Tensorflow. Я вижу, что с использованием доступных API basic_rnn_seq2seq(encoder_input_data, decoder_input_data, lstm_cell)
и т. Д. Может быть создана система кодировщика-декодера.Как запустить пользовательское обучение seq2seq (используя предварительно рассчитанные вложения слов) encoder-decoder в Tensorflow?
- Как мы можем ввести такие вложения, как word2vec в такой модели? Я знает, что мы можем выполнять поиск встраивания, но согласно API
encoder_input_data
- это список 2D-тензора размера batch_size x input_size. Как каждое слово может быть представлено с использованием соответствующего встраивания слов в эту настройку? Дажеembedding_rnn_seq2seq
внутренне извлекает вложения. Как предоставить предварительно рассчитанные вложения слов в качестве входных данных? - Как мы можем получить стоимость/недоумение через API?
- В случае тестовых примеров мы можем не знать соответствующие входы декодера. Как обращаться с таким случаем?
Хорошо, спасибо. Итак, где мы будем кормить my_word2vec_matrix в API? Является ли encoder_cell (in embedding_attention_seq2seq) матрицей внедрения, которую нужно заменить на tf.embedding_lookup? – user3480922
Функция embedding_rnn_seq2seq - это автоматически. Кстати, вам нужно исправить имя в моем фрагменте от embedding_attention_seq2seq до embedding_rnn_seq2seq – friesel
С «автоматически» я имею в виду: в embedding_rnn_seq2seq используется матрица внедрения. Мой assign_op присваивает ВАШ матрицу матрице встраивания, используемой в модели – friesel