У меня есть программа, которая просматривает вход камеры в реальном времени и получает значение цвета среднего пикселя. Я использую captureOutput: метод, чтобы захватить CMSampleBuffer с выходом AVCap
Я пытаюсь создать приложение, которое передает видео и аудио на другой компьютер. На стороне «сервера» я могу захватить (используя AVCaptureSession) видео и аудио, чтобы их просмотреть и отправить по
Я использую панель инструментов для видео в iOS8 для воспроизведения потока h264 вместе с аудиопотоком PCM. Видео отображается нормально, пока я не запускаю аудиопоток. Как только я вызываю AudioQueue
Я использую AVFoundation для захвата CMSampleBufferRef с камеры, а затем конвертирую его в CVPixelBufferRef, чтобы записать на видео. Что я хочу сделать, так это изменить некоторый пиксель внутри виде