Статьи

Хмарне масштабування: Частина 3. Аналіз відео в хмарі

  1. Серія контенту:
  2. Цей контент є частиною серії: Хмарне масштабування
  3. Громадська безпека і охорона правопорядку
  4. Малюнок 1. Використання OpenCV для розпізнавання осіб
  5. Визначення аналізу відео
  6. Базова структура додатків аналізу відео
  7. Приклад: доповнена реальність (AR)
  8. Малюнок 2. Приклад AR-відображення
  9. Приклад скелетних Перетворення: відстеження руху для інтерактівніх систем
  10. Малюнок 3. Скелетное перетворення лося
  11. Малюнок 4. Скелетное перетворення за допомогою SDK Intel Perceptual Computing і Creative Interactive Gesture Camera Developer Kit
  12. Ресурси для скачування

хмарне масштабування

Методи, інструменти та конструкції систем для аналізу відео і зображень, моніторингу та забезпечення безпеки

Серія контенту:

Цей контент є частиною # з серії # статей: Хмарне масштабування

http://www.ibm.com/developerworks/cloud/library/?series_title_by=cloud+scaling

Слідкуйте за виходом нових статей цієї серії.

Цей контент є частиною серії: Хмарне масштабування

Слідкуйте за виходом нових статей цієї серії.

Громадська безпека і охорона правопорядку

Використання аналізу відео в громадських місцях є, мабуть, найкращим способом забезпечити громадську безпеку, надати правоохоронним органам можливості цифрової експертизи, а також поліпшити виявлення загроз і запобігання інцидентів. У той же час необхідно знайти баланс між цією потребою і правами на недоторканність приватного життя, які можуть порушуватися в разі зловживання даними системами або їх неналежного використання. Наприклад, збільшивши виявлене особа (див. малюнок 1 ), Можна розпізнати його, ідентифікувати і використовувати цю інформацію для відстеження переміщень індивідуума з одного громадського місця в інше. Багато людей можуть порахувати розпізнавання осіб вторгненням в приватне життя, тому використання комп'ютерного зору і аналізу відео повинно перебувати під контролем і відповідати законам і стандартам конфіденційності. Кожному розробнику продуктів або послуг можна порадити для початку ознайомитися з практичними рекомендаціями, схваленими Федеральною торговою комісією (див. Розділ ресурси ).

Цифрове відео, що використовує стандарти кодування (такі як MPEG) для стиснення, передачі, розпакування і відображення, призвело до революції в ІТ, починаючи з соціальних мережевих медіа та аматорського цифрового кіно і закінчуючи удосконаленням професійної підготовки і навчання. Інструменти декодування і споживання цифрового відео широко використовуються в повсякденній практиці, але потрібні кошти кодування і аналізу відео незжатих відеокадрів для аналізу відео, такі як інфраструктура Open Computer Vision (OpenCV). Одним з інструментів, доступних і цілком придатних для кодування і декодування цифрового відео, є FFmpeg; для обробки статичних зображень дуже зручний графічний редактор GIMP (див. розділ ресурси ). Розробник, озброєний трьома цими інструментами з відкритим вихідним кодом, повністю готовий до освоєння області комп'ютерного зору (CV) та аналізу відео. Але перед вивченням цих інструментів і методів розробки давайте точніше визначимо поняття і розглянемо додатки.

У першій статті серії, Хмарне масштабування, частина 1. Створення додатка рівня обчислювального вузла або невеликого кластера і його масштабування за допомогою технологій HPC (EN),), наведено простий приклад використання OpenCV для виділення за допомогою фільтра Кенні кордонів в безперервному відео потоці, що отримується в режимі реального часу з Web-камери під Linux®. Цей приклад CV-додатки можна використовувати в якості першого кроку в сегментації зображення. У загальному випадку CV-програма включає в себе наступні складові: отримання, перетворення пікселів (елементів зображення, які представляють собою освітлені точки), зображень і їх послідовностей (фільмів) в цифрові формати, обробку і перетворення, сегментацію, розпізнавання і створення описів сцен. Щоб краще зрозуміти, що робить CV-додаток, розглянемо приклади. на малюнку 1 зображені особи і результат виявлення осіб з допомогою OpenCV. Зверніть увагу, що в цьому простому прикладі аналізу використовується каскадний метод Хаара (алгоритм з використанням машинного навчання). Цей алгоритм найкраще працює при виявленні осіб, які не закритих перешкодами (наприклад, мій молодший син відвернувся), що не затінених і не з примруженими очима. Можливо, взагалі одне з найбільш важливих тверджень щодо CV полягає в тому, що це нетривіальна проблема. Дослідники в області комп'ютерного зору часто відзначають, що незважаючи на значний прогрес, досягнутий з моменту його появи більш 50 років тому, більшість додатків як і раніше не здатні сегментувати сцену і виконати розпізнавання на рівні дворічної дитини, особливо коли мова йде про узагальнення і розпізнаванні в широкому діапазоні умов (освітлення, варіювання розмірів, орієнтація і контекст).

Малюнок 1. Використання OpenCV для розпізнавання осіб
хмарне масштабування   Методи, інструменти та конструкції систем для аналізу відео і зображень, моніторингу та забезпечення безпеки   Серія контенту:   Цей контент є частиною # з серії # статей: Хмарне масштабування   http://www

Щоб допомогти вам зрозуміти аналітичні методи, використовувані в комп'ютерному зорі, я створив невеликий тестовий набір зображень з околиць Анкоріджа (Аляска), який ви можете завантажити. Зображення були оброблені за допомогою GIMP і OpenCV. Я написав код на C / C ++ для використання програмного інтерфейсу OpenCV з Web-камерою під Linux, попередньо знятими зображеннями або відеозаписами в форматі MPEG. Використання CV для осмислення відеоконтенту (послідовностей зображень), будь то в режимі реального часу або з попередньо створених баз даних послідовностей зображень, зазвичай називають аналізом відео.

Визначення аналізу відео

Аналізом відео зазвичай називають аналіз цифрового відеоконтенту, одержуваного з камер (зазвичай у видимому спектрі, але, можливо, і інших, наприклад, інфрачервоних) або зберігається у вигляді послідовності зображень. Аналіз відео охоплює кілька складових, зокрема, як мінімум:

  • Отримання і кодування зображень. У вигляді послідовності зображень або груп стислих зображень. Складність цього етапу аналізу відео визначають: технологія фотоприймача (камери), аналогове декодування, цифрові формати для масивів світлових відліків (пікселів) в кадрах і послідовності, а також методи стиснення та розпакування даних.
  • Комп'ютерне зір. Зворотній графічного рендерингу операція, коли отримані сцени перетворюються в опису (на відміну від рендеринга сцени з опису). Зазвичай в додатках комп'ютерного зору передбачається, що комп'ютер повинен "бачити" всюди, де бачать люди, ніж ця сфера часто відрізняється від машинного зору. Мета "бачити як людина" найчастіше означає, що в CV-рішеннях використовується машинне навчання.
  • Машинне зір. Таке ж звернення рендеринга, але частіше за все в добре керованому середовищі для цілей управління процесами - наприклад, для перевірки друкованих плат або запасних частин на геометричну правильність і відповідність допускам.
  • Обробка зображень. Широке застосування методів цифрової обробки сигналів до отсчетам з фотодатчиків і радіометрів (детекторів, які вимірюють електромагнітне випромінювання) для з'ясування властивостей об'єкта спостереження.
  • Машинне навчання. Алгоритми, розроблені шляхом удосконалення вихідного алгоритму за допомогою навчальних даних, в результаті чого підвищується ефективність і спільність алгоритму при тестуванні з новими даними.
  • Системи реального часу і інтерактивні системи. Системи, що вимагають відповіді до встановленого терміну на запит сервісу або принаймні якості сервісу, що відповідає угоді про рівень сервісу з клієнтами або користувачами сервісу.
  • Пам'ять, використання мережі, база даних і обчислення. Все, що необхідно для обробки використовуваних цифрових даних, з одного тонкої, але важливою особливістю: аналіз відео за своєю природою є орієнтованою на дані обчислювальної завданням, про що говорилося в частині 2 цієї серії.

Тому аналіз відео має більш широку сферу застосування, ніж комп'ютерний зір, і є проблемою конструювання системи, яка може включати в себе мобільні елементи, такі як смартфон (наприклад, окуляри Google Goggles) і хмарні сервіси для реалізації функцій комп'ютерного зору системи в цілому. Наприклад, IBM розробила систему аналізу відео під назвою Video Correlation & Analysis Suite (VCAS), по якій опубліковано документ IBM Travel and Transportation Solution Brief Smarter Safety and Security Solution for Rail (В форматі PDF); це хороший приклад концепції конструкції системи. Детальний опис кожної дисципліни, що входить в рішення для аналізу відео, виходить за рамки цієї статті, але в розділі ресурси наведено багато посилань на додаткову інформацію для розробників систем. Частина, що залишилася статті присвячена прикладам і додатків CV-обробки.

Базова структура додатків аналізу відео

Архітектуру систем хмарного аналізу відео можна розбити на дві основні частини: вбудовані інтелектуальні датчики (смартфони, планшети з камерою або спеціалізовані смарт-камери) і хмарна обробка для аналізу, який не може бути виконаний безпосередньо вбудованим пристроєм. Навіщо ділити архітектуру на дві частини, якщо можна використовувати тільки вбудований пристрій? Вбудовування засобів комп'ютерного зору в транспортні засоби, смартфони та інші пристрої не завжди практично. Навіть коли вбудована смарт-камера дійсно є "розумною", дуже часто стислий відео або опис сцени потрібно направляти в систему хмарного аналізу відео, щоб розвантажити обмежене в ресурсах вбудований пристрій. Але ще більш важливим, ніж нестача ресурсів, є те, що віддання, передані в хмару для аналізу, можна пов'язати з більш широкими наборами даних і доповнити актуальною глобальної інформацією, яку повертатимуть в пристрій для реалізації доповненої реальності (AR).

Смарт-камери з функціями розпізнавання міміки і виразу обличчя за самою своєю суттю повинні обходитися вбудованими засобами. Однак більш інтелектуальне розпізнавання, що дозволяє ідентифікувати людей та об'єкти і повністю аналізувати сцени, вимагає масштабованих, орієнтованих на дані систем, які більш ефективно масштабувати на рівні датацентру. Крім того, прискорення обробки даних (в діапазоні від стандартів апаратного прискорення OpenVX, що розробляються консорціумом Khronos, до останніх стандартів MPEG і баз даних для розпізнавання елементів зображень) є ключем до вдосконалення аналізу відео, а рішення, що складаються з двох частин (хмара плюс смарт- камера), допускають швидку модернізацію.

Використовуючи хмара і смарт-камери і маючи достатню потужність орієнтованих на дані обчислень, можна реалізувати мрію про зворотне рендеринге. "Тестом Тьюринга" для комп'ютерного зору могла б бути ситуація, коли сцена після аналізу і рендеринга буде відрізнити від вихідного відео для віддаленого глядача. По суті, це вже робиться в цифровий кінематографії за допомогою фотореалістичного рендеринга, але цей процес дуже далекий від режиму реального часу і інтерактивності.

Ідеї ​​революційних додатків на основі комп'ютерного зору і аналізу відео виникають постійно, але для реалізації багатьох з них, можливо, будуть потрібні роки через вимоги до обчислювальних ресурсів і вартості реалізації. Проте є цілий ряд цікавих варіантів:

  • Уявлення сцен з використанням доповненої реальності для більш глибокого розуміння. Якщо ви коли-небудь, спостерігаючи посадку літака, мріяли побачити те, що бачить екіпаж на приладах, то це можливо. Колись я працював в центрі управління польотами Спейс Шаттл, де велика команда розробників ретельно продублювала дані панелі приладів апарату для операторів наземних служб, щоб вони могли бачити те саме, що бачили астронавти, комбінуючи відео та графіку для анотування та відтворення сцени з використанням метаданих . В даній статті наведено дуже спрощений приклад того, як відеозйомка літака камерою планшета може бути доповнена даними про його висоті і положенні в повітрі (див. приклад , Що супроводжує статтю).
  • Скелетні перетворення для відстеження руху тварини з метою оцінки його траєкторії, намірів і ймовірності вискакування на шосе. дивіться приклад , Що супроводжує статтю.
  • Повністю автономні або практично автономні транспортні засоби, контрольовані людиною. Подумайте про те, які етапи треба пройти від сьогоднішнього круїз-контролю до повністю автономного автомобіля майбутнього. Прекрасним прикладом поетапного руху в цьому напрямку є самостійна паралельна парковка автомобілів.
  • Розширення можливостей розпізнавання осіб до надійного розпізнавання і, можливо (що більш важливо), для визначення виразу обличчя. Водій напівавтономного транспортного засобу сердитий, стурбований, здивований?
  • Віртуальні покупки (доповнена реальність для випробування товарів). Покупець може побачити себе в новому костюмі.
  • Реклама, що взаємодіє з глядачами. Змінюється в залежності від виразу обличчя, позитивного або негативного враження, і від відкритих даних індивідуума.
  • Двостороння телебачення і інтерактивний цифровий кінематограф. Глядачі можуть впливати на дію, майже як якби вони були його учасниками.
  • Інтерактивна телемедицина. Доступність експертів з будь-якої точки планети в будь-який час.

Я не намагаюся дати вичерпний перелік додатків, а досліджую можливості глибше, приділяючи основну увагу доповненої реальності (доповнені за допомогою камери і дисплея уявлення дійсності - подібно системам відображення на лобовому склі винищувача) і скелетних перетворенням для інтерактивного відстеження. В розділі ресурси містяться посилання на інформацію, що виходить за рамки цих двох навчальних прикладів, що стосується конкретних застосувань CV та аналізу відео в області медицини, безпеки перевезень, безпеки і спостереження, картографії та дистанційного зондування, а також автоматизації різних систем, включаючи аналіз відеоконтенту. Доступні інструменти допоможуть всім, хто має досвід розробки комп'ютерних систем приступити до освоєння даної області. можна також завантажити великий набір тестових зображень і весь OpenCV-код , Написаний мною для цієї статті.

Приклад: доповнена реальність (AR)

Аналіз відео в режимі реального часу може змінювати обличчя реальності (наприклад, покупець може отримувати додаткову інформацію про товар, піднісши до нього смартфон) або наше бачення світу (наприклад, під час керування транспортним засобом), а також робити взаємодія з користувачами набагато більш інтерактивним у всім, починаючи з кіно, телебачення, покупок, вуличного руху і закінчуючи тим, як ми працюємо. Ідеальне AR-рішення забезпечує органічний перехід від сцени, отриманої з цифрового відео, до сцени, яка відображається користувачу в режимі реального часу, комбінуючи цифрове відео та графіку в AR-уявлення для користувача. У погано продуманих AR-системах звичайні візуальні підказки відволікають користувача, а добре продумана AR-система підвищує загальну обізнаність про ситуацію, комбінуючи параметри з візуальними підказками (приклад - система відображення інформації на лобовому склі в кабіні винищувача).

Використання CV та аналізу відео в інтелектуальних транспортних системах має велике значення для підвищення безпеки, і, може бути, CV стане в кінцевому підсумку ключовою технологією для самоврядних транспортних засобів. Схоже, це підтверджують проект Агентства передових оборонних дослідницьких проектів Міністерства оборони США і безпілотний автомобіль Google ( "гугломобіль"), хоча автономний автомобіль з'явився завдяки використанню повного спектру технологій, включаючи, поряд з CV, інфрачервону систему переднього огляду і оснащення контрольно-вимірювальними приладами. Ще одним потенційно важливим застосуванням є безпека авіаційних перельотів, особливо виявлення і запобігання сценаріїв вторгнення на злітно-посадкову смугу в аеропортах. Гіпотетичне AR-уявлення літака, що заходить на посадку в аеропорту Анкоріджа імені Теда Стівенса, демонструє застосування лінійного перетворення Хафа для сегментації і візуальної оцінки стану і висоти літака (див. Рисунок 2). Захист від вторгнень на ЗПС приділяється підвищена увага в США. Інформація про Федеральному управлінні цивільної авіації (Federal Aviation Administration - FAA) і статистика подібних подій містяться в розділі ресурси .

Малюнок 2. Приклад AR-відображення

Незважаючи на те що системи стають все більш інтелектуальними, водії інтелектуальних транспортних засобів як і раніше хочуть брати участь в управлінні, тому слід дотримуватися балансу автоматизації та людської участі і втручання (для автономних і напівавтономних транспортних засобів).

Приклад скелетних Перетворення: відстеження руху для інтерактівніх систем

Скелетні перетворення використовуються при розпізнаванні жестів і при аналізі ходи людей або тварин, тобто всюди, де потрібно відстежувати рух скелета тіла (жорстких членів). Найчастіше такі перетворення застосовуються до тіл і кінцівкам в русі, що дозволяє видаляти фон і відстежувати передній план. Однак його можна застосувати і до єдиного кадру, як показано на малюнку 3 , Коли фотографія лося спочатку перетвориться в чорно-білу, потім в контурне двоичное зображення, і, нарешті, для кожної суміжної області визначається медіальне відстань і тоншає до одного пікселя, після чого залишається тільки скелетна структура об'єкта. Зверніть увагу, що вуха лося притиснуті, що вказує на намір тваринного (це, як і ходу тварини, може виявити структурний перетворення з більш високою роздільною здатністю).

Малюнок 3. Скелетное перетворення лося

Скелетні перетворення безумовно корисні для відстеження тварин, які перетинають шосе або нападників на туристів, але також викликають великий інтерес стосовно розпізнавання жестів в ігрових консолях, таких як SDK Microsoft Kinect®. Крім використання в ігрових консолях, розпізнавання жестів має багато практичних цілей, таких як автоматичне розпізнавання мови жестів, яке поки що недоступне як продукт, але знаходиться на стадії дослідження концепції. Звичайно, за допомогою скелетного перетворення в додатках комп'ютерного зору можна аналізувати ходу людини в діагностичних або лікувальних цілях, а також фіксувати людські руху для використання в цифровий мультиплікації.

Скелетні перетворення широко використовуються в системах розпізнавання жестів розважального призначення. Компанії Creative і Intel спільними зусиллями створили SDK для Windows® під назвою Creative * Interactive Gesture Camera Developer Kit (див. Розділ ресурси ), Який використовує часопролітної датчик виявлення і дальності, камеру і стерео мікрофон. Цей SDK схожий на Kinect SDK, але призначений для раннього доступу розробників, що створюють додатки розпізнавання жестів. Він дивно доступний за ціною і може стати основою для створення новаторської побутової техніки, особливо тепер, коли знаходиться в руках численного спільноти розробників. Щоб почати роботу, придбайте відповідний пристрій Intel і завантажте SDK Intel® Perceptual Computing. У нього включені демонстраційні зображення і численні додаткові приклади SDK, що допомагають розробникам зрозуміти, що може робити пристрій. На малюнку 4 показаний приклад програми для відстеження пальців, яке можна використовувати відразу, просто встановивши SDK для Microsoft Visual Studio® і запустивши приклад Gesture Viewer.

Малюнок 4. Скелетное перетворення за допомогою SDK Intel Perceptual Computing і Creative Interactive Gesture Camera Developer Kit

Майбутнє аналізу відео

У статті наводяться аргументи використання аналізу відео переважно в таких областях, як громадська безпека, розваги, соціальні мережі, телемедицина і доповнена медична діагностика, а також для представлення товарів і послуг з точки зору споживача. Машинне зір, не привертаючи особливої ​​уваги, застосовується для автоматизації промислових виробництв та управління процесами вже багато років, але комп'ютерний зір і аналіз відео в хмарі обіцяють впровадити автоматизацію систем зору в повсякденне життя, де навколишнє середовище значно менше контрольована. Це серйозне завдання як з точки зору алгоритмів обробки зображень і машинного навчання, так і з точки зору орієнтованих на дані комп'ютерної архітектури, обговорюваних в даній серії. Не слід недооцінювати складності високопродуктивного аналізу відео (з точки зору робочих характеристик приймача зображення і продуктивності обробки), але при ретельній розробці ця швидко розвивається технологія обіцяє широкий спектр нових продуктів і навіть системи протезування людського зору для тих, хто зіткнувся з його погіршенням або втратою. З огляду на значення зору для людей, немає сумнівів, що воно також має основоположне значення для інтелектуальних обчислювальних систем.

Ресурси для скачування

Схожі тими

  • Оригінал статті: Cloud scaling, Part 3: Explore video analytics in the cloud (EN).
  • Проект IBM Smarter Planet включає в себе рішення Smarter Public Safety , Що передбачає використання цифрового відео і аналізу відео для забезпечення безпеки міст і громадських місць. Виявлення лосів є реальною проблемою безпеки на Алясці, де щорічно відбуваються сотні зіткнень автомобілів з лосями на шосе Анкоріджа і півострова Кенан . Якщо водії не бачать лосів, чи може інтелектуальна транспортна система бачити їх і попереджати водіїв? Аналогічним чином FAA стурбована вторгненнями на ЗПС в аеропортах і веде статистику цих небезпечних подій , Часто за участю обслуговуючих транспортних засобів аеропорту і літаків при рулении, зльоті та посадці.
  • Прочитайте документ серії IBM Travel and Transportation Solution Brief Smarter Safety and Security Solution for Rail .
  • Можливо, найкраще почати вивчення комп'ютерного зору з книги освоєння OpenCV (Гері Брадскі (Gary Bradski) і Адріан Келер (Adrian Kaehler), O'Reilly, 2008 рік) (EN).
  • Відмінні академічні підручники з докладними алгоритмами і основами теорії:
    • Комп'ютерне зір: моделі, навчання і висновок (Саймон Дж.Д. Прінс (Simon JD Prince), Cambridge UP, 2012 рік) (EN).
    • Комп'ютер і машинний зір: теорія, алгоритми, практичні аспекти (Є.Р. Девіс (ER Davies), Academic Press, 2012 рік) (EN).
    • Комп'ютерне зір: алгоритми і програми (Річард Шеліскі (Richard Szeliski), Springer, 2011 рік) (EN).
    • комп'ютерне зір (Лінда Шапіро (Linda Shapiro) і Джордж Стокман (George Stockman), Prentice Hall, 2001 рік) (EN).
    Дана область швидко розвивається, тому бажано стежити за журналами, такими як IET Computer Vision , І брати участь в конференціях по CV .
  • При підготовці студентів всіх рівнів все ширше використовуються університетські курси по CV, аналізу відео, інтерактивним систем і систем реального часу.
    • Великі дослідні та навчальні програми реалізуються в таких університетах, як Університет Карнегі-Меллона (група Computer Vision Group ), Стенфордський університет (лабораторії Stanford Vision Lab и Stanford AI Lab ) І Массачусетський технологічний інститут ( група CSAIL Computer Vision Research Group ).
    • Я співпрацюю з двома університетами штатів, викладають цю тему на серйозному рівні: викладаю базовий курс і проводжу дослідження в лабораторії Computer Prototype and Assembly Lab Університету Аляски Анкорідж по темі Комп'ютерне і машинний зір , А також є запрошеним викладачем в програмі Embedded Certificate Program Університету Колорадо в Боулдері.
    • На факультеті Electrical Computer and Energy Engineering університету штату Колорадо в Боулдері викладаються курси Вбудовувані системи реального часу і дистанційні літні курси, в тому числі Цифрові медіа реального часу і літня версія курсу Вбудовувані системи реального часу в навчальному центрі Center for Advanced Engineering and Technology Education .
    • Додаткову інформацію з цих тем можна отримати через організацію Udacity - наприклад, прекрасний курс Введення в штучний інтелект , Що охоплює машинне навчання, пов'язану зі штучним інтелектом обробку зображень і комп'ютерний зір, а також курс Введення в паралельне програмування , Присвячений використанню GPGPU для прискорення графіки і обробки даних в системах комп'ютерного зору.
  • Дослідження IBM і партнерів в області CV та аналізу відео: IBM Exploratory Computer Vision , IBM Smart Surveillance Research , IBM Augmented Reality , Microsoft Research Cambridge (в CV) и Intel's Tomorrow Project: Computer Vision .
  • Використання аналізу відео і CV в медицині охоплює діапазон від Проекту штучної сітківки до інтелектуальних мікроскопів і радіологічного обладнання; його мета - не замінити лікарів, а допомогти їм або розширити за допомогою телемедицини охоплення пацієнтів в сільській місцевості. Рекомендую почати з Medical Vision Group Массачусетського технологічного інституту.
  • Завантажити та встановити OpenCV . Процедура установки OpenCV для Ubuntu дуже проста і включає в себе відмінний приклад розпізнавання осіб з використанням каскадного методу Хаара. Додаткова інформація про цей метод виявлення осіб в відео міститься в документації по OpenCV.
  • Додаткова інформація про VCAS .
  • При аналізі відео використовуються інструменти аналізу зображень та кодування / декодування цифрового відео. Почніть з відкритих систем програмного і апаратного забезпечення, таких як OpenCV , Стандарт апаратного прискорення OpenVX и інструменти FFmpeg для кодування / декодування цифрового відео. Для інтерактивної роботи відмінно підходять інструменти GIMP - наприклад, вибір порогових значень на підставі аналізу гістограми або перетворення Собеля для виділення меж.
  • Методи комп'ютерного зору можна використовувати для пошуку (наприклад, сервіс пошуку зображень Google Image ) І виявлення осіб в соціальних мережах (наприклад, розпізнавання осіб в Facebook для тегірованія друзів на фотографіях, з приводу чого велася полеміка, детально описана на форумі 2011 FTC Face Facts Forum ). Google Image добре працює при пошуку ідентичних збігів і погано при розпізнаванні - наприклад, моя фотографія корів не повертала інші зображення корів. У будь-якому випадку розпізнавання осіб, яке виконує автоматичну ідентифікацію індивідуумів, а не просто сегментацію особи, тягне за собою дискусію про політику приватності. Федеральна торгова комісія видала керівництво Best Practices Guide , Яке регламентує розпізнавання осіб. Зовсім недавно Facebook придбала компанію Face.com , Так що слід очікувати появи цікавих можливостей, включаючи оцінку настрою і віку.
  • завантажте Microsoft Kinect SDK .
  • Придбайте комплект розробника Creative Interactive Gesture Camera Developer Kit від Intel.
  • завантажте Intel Perceptual Computing SDK .
  • використовуйте IBM SmartCloud Enterprise .
  • Оцініть продукти IBM найбільш підходящим способом: завантажте ознайомчу версію, спробуйте продукт в Інтернеті, використовуйте продукт в хмарному середовищі або проведіть кілька годин в SOA Sandbox , Вивчаючи ефективну реалізацію сервіс-орієнтованої архітектури.

Підпішіть мене на ПОВІДОМЛЕННЯ до коментарів

Com/developerworks/cloud/library/?
Навіщо ділити архітектуру на дві частини, якщо можна використовувати тільки вбудований пристрій?
Водій напівавтономного транспортного засобу сердитий, стурбований, здивований?
Якщо водії не бачать лосів, чи може інтелектуальна транспортна система бачити їх і попереджати водіїв?