2012-04-06 2 views
3

Я загрузил файл ffmpeg lib и выполнил его для armv7. Я успешно добавил файлы ffmpeg lib в свой проект. Я могу получать потоки в реальном времени с помощью AVFoundation.iPhone камера в прямом эфире

Теперь проблема заключается в том, как я смогу преобразовать выходной поток камеры iphone в качестве входа ffmpeg для декодирования? Проверьте мой код

- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection { 


CMBlockBufferRef bufferData = CMSampleBufferGetDataBuffer(sampleBuffer); 
size_t lengthAtOffset; 
size_t totalLength; char* data; 

если (CMBlockBufferGetDataPointer (bufferData, 0, & lengthAtOffset, & totalLength, & данные) = NOERR!) { NSLog (@ "ошибка!"); }}

Любезно предложил мне, какая функция FFmpeg Lib используется для декодирования и как я поместит CMBlockBufferRef как вход этого ??

Благодаря

ответ

0

вы можете использовать OPenTok для живого видео straming

https://github.com/opentok/opentok-ios-sdk

+0

сэра видеть, что вопрос это прави (друг Нихила в) http://stackoverflow.com/questions/11986313/http- жить потокового-для-Iphone-и-почему-мы-потребительной m3u8-файл –