Я хотел бы передать данные rgb (в реальном времени) через Интернет в виде видеопотока в браузер (chrome/firefox).WebRtc VP8 Custom Video
поэтому я получил конверсии rgb -> yuv -> yv12 -> vp8. Я могу воспроизводить видео vp8 локально, и он выглядит хорошо.
Теперь мне нужно уметь передавать эти данные в webrtc, чтобы другой «клиент» мог это видеть.
Теперь это выполнимо?
Я собирался обернуть vp8 вокруг видеофайла веб-видео, но не писать фактическую длину файла, потому что я не знаю длины, поскольку это потоковая передача в реальном времени и создание тега в браузере и начало подачи данных. (Я делал это с Theora раньше, «фейкинг потоковой передачи, уверен, что он был немного медленным и был TCP, но он работал с задержкой).
Или я собираюсь передать данные webrtc. Я даже не знаю если api разрешит что-то вроде этого. Мне может потребоваться немного взломать его.
Recap: процесс A создает видеоролик NxM rgb и записывает его в буфер. Процесс B считывает этот буфер через IPC, кодирует его в VP8, Процесс B отправляет это в браузер с VP8 либо в webm, либо в webRtc.