3

Я реализовал алгоритм сокращения размеров, используя ENCOG, который берет набор данных (называет его A) несколькими функциями и сводит его к набору данных (B) только с одной функцией (мне это нужно для анализа временных рядов).Является ли уменьшение размерности обратимым?

Теперь мой вопрос: у меня есть значение от B - предсказано анализом временных рядов, можно ли преобразовать его обратно в два измерения, как в наборе данных A?

ответ

1

Уменьшение размерности (сжатие информации) является обратимым в автокодировщиках. Автокодер - это обычная нейронная сеть с узким слоем в середине. У вас есть, например, 20 входов в первом слое, 10 нейронов в среднем слое и еще 20 нейронов в последнем слое. Когда вы тренируете такую ​​сеть, вы вынуждаете ее сжимать информацию на 10 нейронов, а затем разжимать снова, сводя к минимуму ошибку в последнем слое (желаемый выходной вектор равен входному вектору). Когда вы используете хорошо известный алгоритм обратного распространения для обучения такой сети, он выполняет PCA - анализ основных компонентов. PCA возвращает некоррелированные функции. Это не очень мощно.

Используя более сложный алгоритм для обучения автокодера, вы можете заставить его выполнять нелинейный ICA-независимый компонентный анализ. ICA возвращает статистически независимые функции. Этот алгоритм обучения ищет нейронные сети с низкой степенью сложности с высокой способностью обобщения. В качестве побочного продукта регуляризации вы получаете МКА.

+0

Спасибо, я уже понял, что автокодеры могут делать обратную операцию, конечно, точность иногда не так хороша, но по крайней мере это что-то. –

+0

@Mac, Не могли бы вы предоставить ссылку для вашего первого предложения? Я не думаю, что это правда. –

+0

Первая половина сетевых кодов, вторая половина декодирования. Это можно сразу увидеть, когда вы посмотрите на архитектуру. Какая ссылка вам нужна? Для чего был downvote? – Maciej

0

Нет, уменьшение размерности в целом не является обратимым. Он теряет информацию.