В настоящее время я изучаю функции обнаружения лиц в структуре ядра Core.Обнаружение лица CoreImage происходит каждый кадр
Прямо сейчас, я играю с образцом проекта Apple, который ставит красный квадрат вокруг лица человека. (https://developer.apple.com/library/ios/samplecode/SquareCam/Introduction/Intro.html)
Проблема заключается в том, что обнаружение лица происходит каждый кадр, поэтому размер красного квадрата изменяется с ума, даже если я не двигаю лицом.
Я признаю, что следующий способ работает лицо обнаружение.
NSArray* features = [detector featuresInImage:image];
И я могу манипулировать с глаз, положения рта в следующем цикле:
for(CIFaceFeature* feature in features)
{
}
Есть ли способ я могу сгладить размер красного квадрата (область лица) в течение долгого времени? Другими словами, я хочу свести к минимуму изменение размера красного квадрата, если лицо лица не движется.
p.s. Я в порядке с ответами в Свифт. Выше методы находятся в Obj-C, потому что я получил его из старых проектов.
Вы нашли решение этого безумного мерцания рамки? – hyd00