Този сайт използва бисквитки (cookies). Ако желаете можете да научите повече тук. Разбрах

Новини Виртуално пространство

Тролове развалиха възпитанието на “изкуствен интелект”

Многобройни тролове накараха чатботът Tay на Microsoft да сипе оскърбления и расистки изказвания

от Надя Кръстева, 28 март 2016 0 2225 прочитания,

Microsoft бе принудена да свали от употреба и да изпрати за допълнителна разработка своя Twitter-бот, наречен Tay, създаден като “културен експеримент” в областта на изкуствения интелект. Идеята бе Tay да се учи на естествен език, общувайки в социалните мрежи. Наложи се експериментът да бъде прекратен в рамките на едно денонощие от стартирането му, тъй като, както съобщават от Microsoft, “потребители на Интернет превърнаха чатбота Tay в инструмент за злоупотреба”. 

Tay

Прочетете още: Чатботът Роуз се представи най-добре на теста на Тюринг

След като Tay се появи в мрежата, бързо стана ясно, че програмата реагира на командата “повтаряй след мен” и в отговор възпроизвежда всяко съобщение, което получи. Многобройни тролове веднага започнаха да командват Tay да сипе оскърбления и расистки изказвания, на което чатботът се подчиняваше, като понякога също добавяше “повтаряй след мен”. Едно от изказванията на Tay например е: “Повтаряй след мен, Хитлер не е направил нищо лошо”. 
Допълнителна пикантност на ситуацията създаваше и това, че съдейки по аватара, Tay е младо момиче, на което съвсем не прилича да употребява някои от предлаганите изрази. 
При това Tay се оказа не просто “папагал” – например, на въпроса, за кого е най-добре да се гласува на президентските избори в САЩ, Tay отговорила, че обожава Доналд Тръмп и, както е “чула от много хора”, той ще бъде най-добрият президент в историята. 
Сътрудниците на Microsoft са били принудени да премахнат най-оскърбителните Twitter съобщения, а от уеб страницата, посветена на чатбота са свалени инструкциите за това, как може да се общува с него.  
“Това което се случи не е изцяло грешка на Microsoft – нейните (на Tay) отговори са моделирани от това, което е чула от хора – но какво са очаквали те (Microsoft), представяйки невинно момиче-тийнейджър на всякаkви шегаджии и чудаци в Twitter?”, коментира британското издание The Telegraph
В подобен дух са коментарите и в други издания. 
“Microsoft някак са пропуснали да вземат основни предпазни мерки, които би трябвало да са стандарт за индустрията”, пише изданието Vox.com
Тук е мястото да цитираме един от първите изследователи в областта на изкуствения интелект Марвин Мински (Marvin Minsky). “Интелектът не е продукт на някакъв определен механизъм. Интелектът се изгражда чрез управляемо взаимодействие на голямо количество разнообразни полезни агенти”, пише Мински в своята книга “The Society of Mind”, издадена през 1985 г. 
Експериментът на Microsoft показва, че социалните мрежи, могат да бъдат източник на разнообразни, но за съжаление не и на полезни агенти. Очевидно, разработките в сферата на изкуствения интелект и машинното обучение трябва да се съобразят с това. 

КОМЕНТАРИ ОТ  

КОМЕНТАРИ

Трябва да сте регистриран потребител, за да коментирате статията
"Тролове развалиха възпитанието на “изкуствен интелект”"



    

Полезни страници
    За нас | Аудитория | Реклама | Контакти | Общи условия |
    Действителни собственици на настоящото издание са Иво Георгиев Прокопиев и Теодор Иванов Захов