Я использую совместные положения с камеры Kinect в качестве своего состояния, но я думаю, что это будет слишком большим (25 суставов х 30 в секунду), чтобы просто входить в SARSA или Qlearning.Глубокая нейронная сеть в сочетании с qlearning
Сейчас я использую программу Kinect Gesture Builder, которая использует контролируемое обучение, чтобы связать движение пользователя с конкретными жестами. Но для этого требуется контролируемая тренировка, от которой я бы хотел отойти. Я полагаю, что алгоритм может забрать определенные ассоциации между суставами, которые я хотел бы, когда я классифицирую данные самостоятельно (вверх, шаг влево, шаг справа, например).
Я думаю, что подача этих данных в глубокую нейронную сеть, а затем передать это в алгоритм обучения усилению, может дать мне лучший результат.
В последнее время появилась бумага. https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
Я знаю, что у Accord.net есть и глубокие нейронные сети, и RL, но кто-нибудь их объединял? Какие-нибудь идеи?
Что ваша цель ? Каковы ваши действия и вознаграждение? – Simon
Это для бокс-робота. Пользователь стоит перед ним и сражается с ним. Если робот ударяет пользователя, это положительная награда, если пользователь ударяет робота, это отрицательная награда. Действия - это последовательности ударов, которые я определяю (действие 1 может быть оставлено прямым, прямолинейным, например, левым крюком). – ORobotics