2010-11-28 4 views
0

Итак, мы создаем видеосервер. Мы транслируем flv на наши flash-клиенты. наши провайдеры могут предоставить нам видео h254 размером 1920x1080 и 1280x720. Но этот видеоролик будет генерироваться из того же источника 1280x720 с одинаковым битрейтом. поэтому у вас будетЧто происходит быстрее: декодировать H264 1920x1080 и отображать его на экране 1920x1080 или декодировать H264 1280x720 и отображать 1920x1080?

1280x720 h264 with bitRateA 
and 
1920x1080 with bitRateA 

Мы можем разместить видео с такой же скоростью.

Что будет быстрее для клиентов: декодировать H264 1920x1080 и отображать его на экране 1920x1080 или декодировать H264 1280x720 и отображать 1920x1080?

ответ

2

Я подозреваю, что масштабирование с более низким разрешением будет быстрее декодирования более высокого разрешения. Upscaling - простая и быстрая операция, а декодирование h264 - hella-complex (да, это фактическое техническое выражение :-)).

Кроме того, если у вас одинаковый битрейт в обоих потоках, вы не получите большего качества изображения, увеличивая разрешение, вдвойне, если вы используете тот же поток с более низким разрешением как источник (поскольку нет дополнительную информацию, которую может использовать поток с более высоким разрешением). Скорее всего, повторное кодирование, вероятно, приведет к ухудшению качества изображения, чем исходный поток с более низким разрешением, введя дополнительные ошибки сглаживания и квантования.

+0

определенно правильный ответ. – kidjan 2010-12-17 22:58:02