“ози сайт използва бисквитки (cookies). јко желаете можете да научите повече тук. –азбрах

Ќовини “ехнологии

»зкуствени€т интелект също може да бъде излъган

“ова тр€бва да имат предвид най-вече специалистите по информационна сигурност

от , 29 декември 2016 1 4466 прочитани€,

“ехнологиите за машинно обучение могат да помогнат за откриването на подозрителни действи€ на потребителите, вредоносни програми и мошенически покупки, но злонамерените лица търс€т и намират начини да заобикол€т защитните системи. ≈дин от тези начини е т.нар. flooding – т.е. “наводн€ване” на системите с гол€мо количество сигнали, сред които хакерът скрива своите.

ƒиректорът по технологиите на Intel Security —тив √робман сравн€ва този метод с действи€та на крадец, който ден след ден минава покрай набел€зан за обир дом карайки велосипед, което привежда в действие датчиците за движение на охранителната система. Ќакра€ собствениците изключват датчиците или ги постав€т на друго м€сто, което крадецът използва за своите цели. 

«асега изкуствени€т интелект не може да се ползва за целите на сигурността без опита на специалисти, счита и директорът по технологиите на RSA Security «улфикар –амзан. «а осигур€ването на ефективна защита е необходимо разбиране на работата на бизнеса и смисъла на откриваните с помощта на средства за анализи данни за промени в поведението. ¬се още само опитът помага да бъдат открити опити за манипулации с данните, използвани при машинно обучение – например, авторите на вредоносни програми могат да скри€т своите творени€ сред гол€м брой подобни на т€х, но безвредни приложени€.

“—пециалистите тр€бва да имат стратеги€ за това как да откриват опити за заблуда на изкуствени€ интелект”, обобщава ƒейвид ћолнар, старши научен сътрудник в изследователското подразделение на Microsoft.

 ќћ≈Ќ“ј–» ќ“  

ѕолезни страници
    «а нас | јудитори€ | –еклама |  онтакти | ќбщи услови€ |
    ƒействителни собственици на насто€щото издание са »во √еоргиев ѕрокопиев и “еодор »ванов «ахов