“ози сайт използва бисквитки (cookies). јко желаете можете да научите повече тук. –азбрах

Ќовини ¬ глобален мащаб

»зкуствени€т интелект и ксенофоби€та като скачени съдове

 акто технологи€та може да вли€е на разпространението на ксенофобски и расистки идеи, така и те могат да окажат вли€ние върху нейното развитие като ц€ло

от , 29 август 2018 0 1252 прочитани€,

јдминистраци€та на американски€ президент ƒоналд “ръмп продължава да държи на твърдата си позици€ към имиграци€та, законна или не, което принуждава все повече компании в страната да поглеждат към автоматизаци€та и роботиката, за да запълн€т доскоро заетите от хора работни места. ѕолитиката на “ръмп, разбира се, не е единствената причина за това, но т€ дава допълнителна скорост на този процес в американската индустри€, ко€то често задава тона и за развитието на бизнеса в останалите части на света.

ѕри мислещите машини обаче също не липсват недостатъци. –азвитието на изкуствени€ интелект (AI) отдавна е свързано т€сно с редица въпроси относно процеса на обучение, част от които са насочени пр€ко или косвено към про€ви на расистко и ксенофобско поведение.  ато примери могат да бъдат дадени както прекратени€т проект на Microsoft за разработка на ботовете Tay и Zo, така и спорната система за лицево разпознаване на Amazon. “ези взаимоотношени€ обаче не са еднопосочни – AI наистина може да повли€е върху израз€ването на ксенофобски идеи, но и самите ксенофобски идеи могат да окажат въздействие върху развитието на AI. “ова пък повдига въпроса как могат да бъдат разделени ползите, които обещава AI, от негативните последици, на които вече сме свидетели?

ѕрочетете още: Ќовите »“ умени€ в ерата на изкуствени€ интелект

¬ръзката между развитието на изкуствени€ интелект и ксенофоби€та, разбира се, е сложна. ќт една страна, въздействието на тази технологи€ върху подобни идеи може да бъде дву€ко – т€ може да бъде използвана за идентифициране и борба с ксенофобското съдържание в интернет, но също така може да бъде превърната и в негов защитник. ќт друга страна, ксенофобските нагласи, особено комбинирани с реални политики, могат да повли€€т на скоростта, с ко€то се развиват и разработват системи, базирани на изкуствен интелект.

»стори€та на участието на изкуствени€ интелект в борбата с онлайн расизма и ксенофоби€та също има две страни. —истемите за дълбочинно обучение и алгоритмите на големи платформи като Facebook и Twitter помогнаха на злонамерените актьори и т.нар. интернет “тролове” да генерират множество фалшиви новини, които заливат мрежата и са трудни за разпознаване, тъй като са генерирани максимално близо до истината, но като неин изкривен образ. ¬ същото време, от 2015 г. насам ќќЌ работи върху способността на машинното обучение да идентифицира и анализира ксенофобски съобщени€ по време на големи събити€ като терористични инциденти или бежански кризи, за да може по-лесно да се прецен€т глобалните на нагласи на хората към този тип проблеми.

ƒори интегрираната в американското правосъдие система за лицево разпознаване доказано страда от вградени пристрасти€ при обучението на алгоритмите. Ќо това не означава, че всички подобни системи страдат от тези недостатъци. IBM например наскоро предостави сво€та платформа Watson AI на съда за непълнолетни в окръг ћонтгомъри  аунти, —јў, за да могат магистратите да получават възможно най-точната и изчерпателна информаци€ за начина на живот и социалната структура на средата, ко€то обитават подсъдимите.

¬ н€кои случаи изкуствени€т интелект може дори да се използва за активно укрепване на съществуващата ксенофобска догма и прилагането ѝ на практика. ѕодобен пример е прототипа на "виртуалната гранична стена", разработен от Anduril Industries, компани€, създадена от основател€ на Oculus, ѕалмър Ћуки. »зползвайки различни сензори, камери и машинно обучение, технологи€та Lattice, ко€то лежи в основата на виртуалната стена, може да разпознава движещи се обекти от разсто€ние. јко въпросни€т обект се окаже човек, пресичащ границата, системата предупреждава властите. Andruil Industries се над€ва да продаде технологи€та си на американското правителство, за да улесни администраци€та на “ръмп в налагането на спорната му политика спр€мо бежанците.

"ѕредполагам, че през следващата година или две важността на въпроса за расовите пристрасти€ ще продължи да нараства", коментира пред Engadget јрвинд Ќара€нан, асистент по компютърни науки в ѕринстън и експерт по защита на личните данни, и добав€, че има гол€ма веро€тност машинното обучение дори да засили съществуващите човешки предразсъдъци.

¬ същото време ксенофоби€та може да повли€е на развитието на изкуствени€ интелект не само чрез стандартните проблеми с пристрастността при обучение на алгоритмите и опасени€та, че е възможно изкуствени€ интелект да остави много хора без работа, което пък от сво€ страна да доведе до икономически катаклизми. "∆ивеем в св€т, в който ксенофоби€та и антиимиграционните политики всъщност могат да доведат до странно технологично развитие", об€сн€ва и »ла Ќурбахш, професор по етика и компютърни технологии в университета  арнеги ћелън.

“ой посочва като пример япони€. ќстровната държава е известна със стриктните си имиграционни закони, както и със строгите си лицензионни изпити за работа в сектора на здравеопазването и домашните грижи. “е включват шестмесечен курс по €понски език и култура, преди кандидатите въобще да стъп€т на €понска територи€. ≈дновременно с това, япони€ има бързо застар€ващо население - до 2025 г. почти всички €понци, родени през между 1947 г. и 1949 г. (тогава е местни€т бейби бум), ще са на 75-годишна възраст или по-стари, а в момента в япони€ живе€т само около 1,8 милиона квалифицирани работници. —траната ще тр€бва да намери най-малко 385 000 специалисти за подобни длъжности до средата на следващото десетилетие, за да подсигури с грижи възрастните си хора.

“ази комбинаци€ от засилено търсене и слабо предлагане, твърди Ќурбахш, тр€бва теоретично да доведе до разхлабване на лицензионните изисквани€ или увеличаване на бро€ на разрешителните за работа на чужденци. ¬место това обаче, япони€ предприема съвсем различна тактика.

"“ова, което прав€т €понците в опит да разрешат този проблем, е да инвестират стотици милиони долари в развитие на роботиката”, разказва Ќурбахш и добав€, че това е пример как рестриктивната имиграционна политика “прави икономически изгодно харченето на огромни суми пари, за да могат роботите да прав€т неща, в които хората са наистина добри”.

"ќт друга гледна точка, технологи€та, ко€то се опитваме да развием, в крайна сметка може да дистанцира хората, които всъщност се нужда€т от социалните взаимодействи€. “е са едно от основните неща, които повишават качеството на живот на възрастните пациенти”, предупреждава още Ќурбахш.

«аради твърдата позици€ на насто€щата американска администраци€ срещу всички форми на имиграци€ и нейните агресивни политики за депортиране, насочени към мигрантите, работещи в земеделието, този сектор в —јў се сблъсква със сходни предизвикателства. —елскостопанските компании наливат купища пари за автоматизаци€, за да компенсират загубите на човешка работна ръка. "—елското стопанство наистина е индустри€та, в ко€то най-€сно се вижда, че ограничени€та върху имиграци€та вод€т до автоматизаци€", коментира за Engadget д-р ƒженифър ’ънт, професор по икономика в университета –утгърс.

“ака че, тенденци€та за взаимовръзка между технологиите за обучение на изкуствен интелект и про€вите на ксенофоби€ и расизъм вече е налице. ќстава само да видим какво ще бъде нейното отражение в глобален мащаб и как човечеството ще реши да използва иновциите – да затвърди съществуващите предразсъдъци или да се бори с т€х.

 ќћ≈Ќ“ј–» ќ“  

ѕолезни страници
    «а нас | јудитори€ | –еклама |  онтакти | ќбщи услови€ | ƒеклараци€ за поверителност | ѕолитика за бисквитки |
    ƒействителни собственици на насто€щото издание са »во √еоргиев ѕрокопиев и “еодор »ванов «ахов