Този сайт използва бисквитки (cookies). Ако желаете можете да научите повече тук. Разбрах

Новини Технологии и концепции
бр. 12, 2017

„Онтотекст“ предлага решение за борба с фалшивите новини

от , 21 декември 2017 0 829 прочитания,

Мария Динкова

Човек би помислил, че свят, управляван от технологиите, е свят на истината. Но се оказва, че технологиите са това, за което ние ги използваме. Исторически погледнато, масовите манипулации стават възможни в началото на миналия век именно благодарение на изобретяването на радиото и телевизията. И очевидно, макар и под друга форма, тенденцията се запазва и в епохата на интернет. Бутонът за споделяне вече може да бъде намерен под всяка статия, видеоклип и публикация в социалните медии. Така само един клик дели потребителите от бързото препращане и разпространяване на каквато и да било информация в мрежата. И така наречената новина може да залее света, преди някой да успее да провери фактите.

Някои автори сравняват фалшивите новини с „вируси“, които се предават между потребителите, „изложени“ на онлайн дезинформация. А решението често се представя като антивирусна програма, която трябва да идентифицира и изолира всичката опасна и лъжлива информация в мрежата, преди засегнатите да се увеличат светкавично бързо.

Именно едно такова решение предлага българската софтуерна компания „Онтотекст“, която разработва система за откриване на фалшиви новини. Проектът Hercule е насочен към журналистите и цели да облекчи тяхната работа при проверката на фактите. Работата по него започва преди около четири години като част от европейския проект PHEMA - „Изчисляване на истинността в медиите, езиците и социалните мрежи“.


„Онтотекст“ предлага решение за борба с фалшивите новини


Платформата Hercule

Първоначалната цел на проекта е била да се откриват и следят слухове в интернет. Установява се обаче, че много публикации в социалните мрежи са по-скоро слухове и могат да имат подвеждащ елемент. „Макар че преди около две години се заговори за фалшиви новини, става дума за същото. Ние може би сме първите, които започнаха да работят академично и целенасочено в тази посока“, отбелязва Георги Георгиев, ръководител на отдел „Текстов анализ, иновации и консултации“ и лидер на проекта.

Именно така се заражда платформата Hercule. На нея се събира информация от много източници, а после се верифицира по 3 критерия: популярност, истинност и проверка на фактите. Георгиев обяснява, че системата позволява да се сверява информацията за събития, на които трудно би могъл да отиде журналист и да отрази случващото се - например при войни, преврати или избухване на бомби. Цялостната идея на платформата на „Онтотекст“ е на едно място да се предостави „много контекст от социални медии, новини, видеоклипове и отворени данни“, които ще послужат за проучванията и изследванията на журналистите.

Проектът PHEMA приключи по-рано тази година, но Георгиев отбелязва: „Искаме да развиваме Hercule вътрешно и ще търсим допълнително финансиране, за да го разработим. Можем до края на годината или началото на следващата да пуснем версия на системата.“ Към момента на техния сайт http://hercule.ontotext.com/#/ може да се разгледа демонстрационен вариант, където са показани основните нишки: пожарът в Grenfell Tower, зловредният софтуер WannaCry, избухването на бомба на стадиона в Манчестър по време на концерта на Ариана Гранде и други.

Компанията планира да създава така наречените нишки или теми, когато се случи важно събитие. Въвеждането на нишките обаче ще бъде единствената работа, извършвана от хора. На база на машинно обучение системата сама ще събира информация, ще създава истории по всяка тема и ще предлага оценка доколко една новина е фалшива или не.

Всички фалшиви новини ли ще бъдат откривани?

Това не е никак лесна задача, а в бъдеще се очертава тя да бъде все по-трудна – независимо дали става дума за човек или компютър. Досега един от основните критерии за достоверността на даден текст беше неговият източник. Но дали все още е така? Екип от Станфордския университет е разработил софтуер, който може да манипулира видеозаписи на публични личности, позволявайки на всеки да слага думи в тяхната уста в реално време. Face2Face улавя лицевите движения по време на говорене и след това ги наслагва директно върху лицето от оригиналното видео. Изследователският екип демонстрира тази технология с видеоклипове на Джордж Буш-младши, Владимир Путин и Доналд Тръмп.

Друг екип от американски учени в Университета на Алабама работи по програма за гласова имитация. С между три- и петминутен аудиозапис от говорене на живо, от YouTube или от радиопредаване може да се създаде синтетичен глас, който да излъже както човек, така и гласови биометрични системи за сигурност, използвани от някои банки и смартфони. Софтуерът трансформира гласа, така че думите звучат сякаш са казани от жертвата, без значение дали е разговор по телефона или радиопрограма.

Дали българската компания предлага универсалното решение в тази бързо променяща се среда още е рано да се каже. В момента системата позволява при създаването на нова нишка да „се следят Twitter, YouTube, база от новини, които „Онтотекст“ събира от много агенции (Reuters, CNN, BBC)“, уточнява г-н Георгиев. След това се преминава през процес на машинно обучение: поредица от различни алгоритми, които обогатяват първоначално събраната информация със свободно предоставени в мрежата данни за хора, места и организации – например Wikipedia. При последната фаза на процеса системата групира цялата тази информация по истории и я поставя в така нареченото „Хранилище на знания“ или Knowledge repository.

Всяка история се концентрира върху определен момент от събитието. Например при нишката за взрива в Манчестър по време на концерта историите са: „Родители търсят децата си“, „Експлозия на концерта на Ариана Гранде в Манчестър“, „Ислямска държава и Манчестър“. Самите истории са представени като графики, което позволява по-лесно да се правят обобщения, особено когато става дума за теми, за които е събрано голямо количество информация.

Начинът, по който технологията функционира, е ясен и разбираем, но е възможно да бъдат допуснати грешки и някои фалшиви новини да се изпуснат. „След като е автоматично, невинаги работи добре, но системата се опитва да ги събира и ги дава на човека в един малко по-подреден вид“, признава лидерът на проекта. Именно затова от „Онтотекст“ решават, вместо да класифицират новините като фалшиви и нефалшиви, да излиза число, което ще показва дали системата смята, че новината е истина или лъжа. „Самото число се изчислява на база на това до каква степен в едно съобщение се говори за някакви конкретни неща. Колкото по-фактологично е, толкова по-вярно е. Ако има някакви събития, числа, то (текстът) ще бъде по-верен в сравнение с друг, при който няма толкова много (факти)“, посочва г-н Георгиев. Той напомни, че крайната цел на системата е да предложи на журналисти и граждани статистически данни, получени на база машинно обучение, отворени данни, видео и текст относно дадена история, но оставя крайното решението на хората. По този начин тя подпомага процеса по валидиране на информацията в публичното пространство.

Очакваният успех

От „Онтотекст“ не се съмняват, че проектът им ще придобие популярност, тъй като темата за фалшивите новини се очаква да продължи да бъде все така актуална. Но „основният въпрос е кой е готов да плати за него“, коментира г-н Георгиев. Той е категоричен, че за да постигнат реален успех, трябва да разработят иновативен бизнес модел, например Freemium бизнес модел, при който една част от продукта е безплатна, а другата е платена.

Основното ограничение при безплатната версия ще бъде невъзможността журналистите сами да създават нишки, но те все пак ще имат достъп до темите, които е създал някой друг. A основните потребители на системата се очаква да бъдат организации. В момента тя е пригодена да служи за нуждите на партньорите на „Онтотекст“, участници в разработката, включително британската мултимедийна информационна агенция Press Asociation, швейцарската новинарска и информационна платформа Swissinfo и компанията за дигитални услуги Atos. Разработчиците не изключват възможността в бъдеще да си сътрудничат и с други организации и да пригодят системата за тях. Потенциални клиенти са големи агенции като БТА.

Освен по отношение на бъдещите партньори от „Онтотекст“ вече имат планове и за подобряване на системата. Компанията е започнала да изготвя списъци с организации, които публикуват изцяло фалшиви новини, като така цели да направи Hercule още по-комплексна и полезна за използване. Към момента платформата работи само с текстове на английски език. Софтуерният разработчик на проекта Андрей Тагарев обаче подчертава, че тя е създадена по начин, който я прави лесна за адаптиране към други езици. „Събираме новини основно на английски език, можем да анализираме текстове на български, немски, френски и холандски език в момента“, допълва Тагарев.

Екипът от „Онтотекст“, работил по проекта, са млади специалисти с енергия, амбиция и решителност да постигнат целите си. Вероятно епохата на фалшивите новини ще ги сблъска с много нови предизвикателства, а с това ще дойдат иновативните идеи и възможностите за актуализиране и усъвършенстване. Тяхната работа тепърва започва и те вече знаят своята роля в борбата с фалшивите новини.

Но какво означава това за всички останали, които всеки ден се събуждаме в един свят, където имаме достъп до безкрайно количество информация, но не можем да й вярваме. Възможно ли е една платформа да спаси истината в този океан от слухове и заблуди? Има ли начин съзнанието на човек да се предпази от лъжата и да различи диаманта, търкалящ се в калта? Вероятно идните години сами ще покажат, а междувременно технологиите ще имат все по-голямо значение и роля за гарантирането надеждността на новините.

КОМЕНТАРИ ОТ  

Полезни страници
    За нас | Аудитория | Реклама | Контакти | Общи условия | Декларация за поверителност | Политика за бисквитки |
    Действителни собственици на настоящото издание са Иво Георгиев Прокопиев и Теодор Иванов Захов