Я работаю над ретрансляцией на стороне сервера для некоторых IP-камер. Я использую ffserver для Linux, чтобы обслуживать потоки и ffmpeg для Windows для подачи. Я получаю видео камеры (H264) с помощью rtsp.Как удалить/уменьшить пиксели потока mjpeg в FFMPEG
Мой ffserver пример конфигурации выглядит следующим образом
<Feed test.ffm>
File ./test.ffm
</Feed>
<Stream test.mjpg>
Feed test.ffm
Format mpjpeg
VideoFrameRate 3
VideoSize 704x480
NoAudio
FileMaxSize 100k
VideoHighQuality
</Stream>
и способ FFmpeg является кормление:
ffmpeg -rtsp_transport tcp -i "rtsp://admin:[email protected]:554/cam/realmonitor?channel=1&subtype=0" -vcodec copy -acodec copy "http://192.168.1.101:8090/test.ffm"
Результирующее видео очень некачественно и отличается от реального изображения.
конфигурации камер следующим образом:
Resolution: D1 (704*480)
FrameRate: 3
BitRate: 256k
BitRateType: Variable
Есть что-нибудь я не хватает или делаю неправильно?
Заранее спасибо за любую помощь
Одна из проблем заключается в том, что я (независимо от того, что) не может использовать большую пропускную способность от камер, поскольку они передаются по потоку с использованием сотовой связи. Я знаю, что это не лучшая настройка, но разница между этими изображениями (предварительно и обработанная по почте) огромна. тот, который я получаю от ffserver, похож на сетку, я имею в виду, я могу ясно видеть кучу квадратов, которые я не вижу на оригинальной. –
Тогда конфигурация источников камеры выглядит нормально. Вы пытались увеличить FileMaxSize до других высоких значений, таких как 1M? (только для проверки, где проблема) – Hokusai
Я тоже пробовал. Единственное, что я получаю, это Hyperlapse всякий раз, когда вы запрашиваете видео с ffserver до тех пор, пока оно не достигнет фактического времени. Это не помогает с качеством изображения –