Този сайт използва бисквитки (cookies). Ако желаете можете да научите повече тук. Разбрах

Новини Технологии

AVA на Google вече ще идентифицира повече човешки действия във видео клиповете

В петък Google обяви, че въвежда набор от данни с нови наименования за човешки действия във видео клипове.

от , 20 октомври 2017 0 1450 прочитания,

AVA на Google вече ще идентифицира повече човешки действия във видео клиповете

В петък Google обяви, че въвежда набор от данни с нови наименования за човешки действия във видео клипове. Това може да звучи неясно, но за онези, които се занимават с компютърно зрение (автоматична обработка на изoбражения), съобщението е важна новина.

Напоследък се наблюдава значително увеличение на компаниите, които произвеждат продукти и услуги, функциониращи като втори очи. Видео детектори като Matroid, системи за сигурност като Lighthouse и дори автономни автомобили се възползват от информацията какво се случва в даден видео клип, а тази информация се получава от добре поставените етикети за набор от данни за обучение и бенчмаркинг.

За разлика от другите набори от данни, AVA на Google предлага множество етикети за разграничаване на отделните действия. Това добавя повече детайли при сложните сцени и представлява по-трудно предизвикателство за съществуващите модели.

Google много добре обяснява защо човешките действия са толкова трудни за класифициране. Действията, за разлика от статичните обекти, се развиват във времето – с други думи има по-голяма несигурност какво точно се случва. Снимка на тичащ човек може всъщност да бъде снимка на някой, който скача, но с преминаването на времето и добавянето на повече рамки, става ясно какво точно се случва. Ситуацията още повече се усложнява, ако в съответната сцена участват двама души.

AVA съдържа повече от 57,000 видео сегмента с 96,000 наименования на човешки действия и 210,000 общи етикети. Видео сегментите, изрязани от видео клипове в YouTube, са с продължителност три секунди. След това на тези отрязъци ръчно се поставя етикет като се използва списък от 80 типа действия, например вървене, ритане или прегръщане.

За първи път Google обясни своите усилия да създаде AVA в доклад, публикуван в arXiv през май, който след това беше обновен през юли. Първоначалните експерименти, описани в доклада, показват, че наборът от данни на Google е бил изключително труден за класифициране със съществуващите техники. В таблицата може да се види разликата между представянето при по-стария набор от данни на JHMDB и представянето при новия набор от данни на AVA.

Разликата между представянето на по-стария набор от данни на JHMDB и представянето на новия набор от данни на AVA

ЕТИКЕТИ:
AVAGoogleвидоVR

КОМЕНТАРИ ОТ  

Полезни страници
    За нас | Аудитория | Реклама | Контакти | Общи условия |
    Действителни собственици на настоящото издание са Иво Георгиев Прокопиев и Теодор Иванов Захов