2016-07-05 7 views
1

Я пытаюсь отобразить живое изображение, которое я могу получить с внешней камеры в своем приложении. Я не знаю, как это сделать.Swift - отображение видео в реальном времени с внешней камеры

Я могу сделать запрос на отправку, который будет возвращать двоичные данные (MotionJPEG) для просмотра в реальном времени, которое передается Content-Type: multipart/x-mixed-replace. (here является ссылкой)

Но я не уверен, как передать эти данные в представление, чтобы отобразить его, и как я могу использовать сборку в классах AV, поскольку кажется, что способ по умолчанию делать видео по http с запросом на получение. Я до сих пор использую Alamofire для работы в сети, и я не вижу простого способа использовать его для потока данных.

Любая идея/опыт приветствуются!

ответ

0

Я тоже пытаюсь выяснить, как сделать это в Swift 3.

Lua на основе Corona Labs SDK может получить доступ к фид живой камеры и применить его к объекту с одной строки кода (https://docs.coronalabs.com/api/type/ShapeObject/fill.html#camera-source-fill). Вы можете подписаться на Corona Cards Enterprise и внедрить Corona в проекты XCode и использовать его в качестве элемента управления.