Този сайт използва бисквитки (cookies). Ако желаете можете да научите повече тук. Разбрах

Новини Виртуално пространство

Компания на Мъск създаде AI, генериращ напълно “достоверни” фалшиви новини

OpenAI е изградила система, която може да създава толкова убедително фалшиво съдържание, че разработчиците не смеят да я пуснат в публичното пространство

от , 18 февруари 2019 0 482 прочитания,

През известно време в медийното пространство се появява поредната новина за стряскащи нови възможности на изкуствения интелект (AI), разработван от редица компании, и днес имаме поредната.

Всеки е наясно с проблема с фалшивите новини в онлайн пространството, а сега нестопанската организация OpenAI, финансирана от Илон Мъск, е разработила AI система, която може да създава толкова убедително фалшиво съдържание, че разработчиците не смеят да я пуснат в публичното пространство с мотив, че това може да доведе до злоупотреби. Те дават възможност на някои анализатори да надникнат зад завесите на проекта, така че не може да се каже, че той е напълно секретен, но загрижеността на организацията е показателна.

"Нашият модел, наречен GPT-2, беше обучен просто да предсказва следващата дума в 40GB интернет текст. Поради опасенията ни, свързани със злонамерени приложения на технологията, ние няма да покажем обучения модел. Като част от отговорността ни за разкриване на постиженията си представихме на анализаторите и изследователите малка част от него, която да послужи за експерименти, както и техническа документация”, се казва в позиция на OpenAI.

Прочетете още: Анонимни блогове и фалшива информация застрашават живота и здравето на хиляди хора

 

GPT-2 е „обучавана“ с помощта на 8 милиона уеб страници, докато не стигне до точката, в която може да “погледне” към даден текст и да предскаже следващите думи. В блога на OpenAI моделът описан като хамелеон - адаптира се към стила и съдържанието на текста. Това позволява на потребителите да генерират реалистични и последователни продължения на избрани от тях теми, дори ако става дума за фалшива новина.

Ето пример: Системата с изкуствен интелект получава това текстово съобщение, генерирано от човек:

В свое шокиращо откритие ученият намери стадо еднорози, живеещи в отдалечена, дотогава неизследвана долина, в Андите. Още по-изненадващ за изследователите е фактът, че еднорозите говорят перфектно английски”. 

 От това системата за изкуствен интелект - след 10 опита - продължава „историята“, започвайки с този текст, генериран от AI:

Заради техния отличителен рог ученият нарече населението Еднорозите на Овид. Тези четири рогови, сребристо-бели еднорози преди не бяха познати на науката. Сега, след почти два века, тайната, която предизвиква този странен феномен, най-накрая е решена”.

Представете си какво би могло да се направи такава система, да кажем, ако ѝ се зададе създаването на история за президентска кампания. Именно подобно развитие и резултатите от него притесняват OpenAI и ги принуждават да публикуват само малка част от GPT-2 кода, която не включва важни параметри като набора от данни, кода за обучение и т.н. “Ние знаем, че някои изследователи имат техническия капацитет да възпроизведат и отворят кода на нашите резултати. Вярваме, че стратегията ни ограничава първоначалния набор от организации, които могат да решат да направят това, и дава повече време на изследователската общност да обсъди последствията от подобни системи”, се казва в блога на организацията, след което се добавя: “Ние също така смятаме, че правителствата трябва да обмислят разширяване или започване на инициативи за по-систематично наблюдение на общественото въздействие и разпространението на технологиите, базирани на изкуствен интелект, както и за измерване на напредъка във възможностите на тези системи“.

КОМЕНТАРИ ОТ  

Полезни страници
    За нас | Аудитория | Реклама | Контакти | Общи условия | Декларация за поверителност | Политика за бисквитки |
    Действителни собственици на настоящото издание са Иво Георгиев Прокопиев и Теодор Иванов Захов