1. Конференция Intelligent Video 2.0
Москва, КВЦ «Сокольники», Зал 5
23 ноября 2011, 12:30 - 16:45
Видеоаналитика 2011:
тенденции и инновации года
Николай Птицын, np@synesis.ru
www.synesis.ru
2. Тенденция 1:
специализация видеоаналитики
ЗАВТРА
Сбор данных о покупателях
СЕГОДНЯ в торговых центрах
Обнаружение людей и
Универсальная предметов на Ж/Д путях
видеоаналитика
Охрана морской границы
?
14. Примеры
распределенной видеоаналитики
Приложения Задачи камеры Задачи сервера
Детектирование лица Идентификация лица
Слежение в поле зрения Слежение на
одной камеры территории объекта
Вычисление признаков
Детектирование цели Многокамерное или
Распознавание цели многоканальное
Слежение в поле зрения слежение за объектом
одной камеры
Детектирование Распознавание
движения символов
Выделение области Распознавание
изображения с номером нарушений
15. Тенденция 5: стандартизация
Новые функции ONVIF 2.2
Сервис Новая функция
Video Analytics Дескрипторы для метаданных сцены:
- Color, Object Class, Cell Motion
Аналитический модуль:
- Cell Motion Analytics Engine
Конфигурация чувствительности
Стандартные события:
- Image is too blurry, dark, or bright
- Global scene change
Action Engine Конфигурирование действий по событию:
E-mail, FTP, HTTP, SMS и локальная запись
Federated Search Объединённый поиск в архивах
Imaging Цифровая стабилизация (антишейкер)
16. Тенденция 6:
Конвергенция технологий
1. Видеоаналитика обзорных камерах
– Слежение за людьми
– Детекторы (оставленные предметы, сигнальная линяя)
2. Биометрия и СКУД
– Распознавание лиц
– Распознавание отпечаток пальцев
3. Геопозиционирование
4. Радиочастотные метки
– Пропуск
– Билет метрополитена
17. Резюме
1. Специализация видеоаналитики
– Отраслевые решения
2. Многокамерные алгоритмы
– Слежение, панорама, мультисенсоры
3. Работа с архивом метаданных
– Язык запросов с привязкой к карте
4. Распределенная видеоаналитика
– Вычисления и в камере и на сервере
5. Стандартизация, ONVIF 2.2
– Federated search, Object class, Action engine,
6. Конвергенция технологий
– Видеоаналитика + биометрия + СКУД + …
Editor's Notes
Требования в разных отраслях существенно отличаются!Объект интереса и цель внедренияОкружающая средаусловия эксплуатации, помехиДопустимые уровни ошибок I и II родаВыходным данные и интерфейсыОграничение по бюджету
British Home office has office has an evaluation project called Multiple-camera tracking scenario which is very much in line with our approach. The dataset was recorded in Gatwick airport of London and comes with about 200,000 manually annotated frames.The multiple-camera tracking scenario was filmed using five cameras at a transport hub. The camera views are a mixture of overlapping and non-overlapping. The dataset documents a desired ground truth for semi-automatic solution to tracking a target through multiple camera views. The MCT dataset contains 140 hours of footage spread across three datasets.Each of the datasets comes complete with annotated frames documenting nominated targets outputted in XML format. There are over 185,000 annotated frames across the three datasets and datasets will come bundled with the annotation tool - SABRE - developed by HOSDB. Annotation conforms to the VIPER GT standard. For more information see the i-LIDS user guide.The multiple camera tracking datasets are available to commercial companies and research institutions. Two datasets are available training dataset, featuring short target events for developments of MCT systems and test dataset for companies to test the performance of systems and submit them for evaluation through HOSDB.