Я загрузил файл ffmpeg lib и выполнил его для armv7. Я успешно добавил файлы ffmpeg lib в свой проект. Я могу получать потоки в реальном времени с помощью AVFoundation.iPhone камера в прямом эфире
Теперь проблема заключается в том, как я смогу преобразовать выходной поток камеры iphone в качестве входа ffmpeg для декодирования? Проверьте мой код
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection {
CMBlockBufferRef bufferData = CMSampleBufferGetDataBuffer(sampleBuffer);
size_t lengthAtOffset;
size_t totalLength; char* data;
если (CMBlockBufferGetDataPointer (bufferData, 0, & lengthAtOffset, & totalLength, & данные) = NOERR!) { NSLog (@ "ошибка!"); }}
Любезно предложил мне, какая функция FFmpeg Lib используется для декодирования и как я поместит CMBlockBufferRef
как вход этого ??
Благодаря
сэра видеть, что вопрос это прави (друг Нихила в) http://stackoverflow.com/questions/11986313/http- жить потокового-для-Iphone-и-почему-мы-потребительной m3u8-файл –