“ози сайт използва бисквитки (cookies). јко желаете можете да научите повече тук. –азбрах

Ќовини “ехнологии и концепции
бр. 1, 2018

»зкуствени€т интелект при подбора на кадри Ц днес и в бъдещето

ƒържавите н€мат отговор на въпроса необходими ли са специални правила по отношение на изкуствени€ интелект.  ак точно тр€бва да работи той и в каква степен да бъде обучаван

от , 07 февруари 2018 0 282 прочитани€,

»зкуствени€т интелект при подбора на кадри – днес и в бъдещето


≈дна от сигурните тенденции през новата 2018 отново ще бъде развитието на технологиите, свързани с изкуствен интелект, машинно и дълбочинно обучение. » тук не става дума просто за поредната мода, основна част от живота ни след едно-две десетилети€. »зкуствени€т интелект вече си е проправил път в много сфери на наши€ живот – като се започне от фармацевтиката, правото, търгови€та на дребно и се стигне до кол-центровете и туристическите агенции – почти н€ма система, ко€то да не използва поне мъничко изкуствен интелект. “ук не прав€т изключение и методите за подбор на кадри, при които новите технологии намират все по-гол€мо приложение.

» ако вече виждате как се €в€вате на интервю за работа пред робот, облечен в костюм, може би тр€бва да върнем лентата малко назад. ƒнешните решени€ по-скоро са свързани със създаването на софтуери, които включват алгоритми за прогнозиране и машинно обучение. “е обикновено отс€ват потенциалните служители на база на подадената от т€х информаци€ или на данните, събрани от други източници.

AI в подбора на кадри

—ред предложени€та в тази област е софтуерът Interviewed, който ускор€ва процеса на подбор чрез онлайн симулации на това какво кандидатите може би ще направ€т през сво€ първи работен ден в дадена компани€. ѕродуктът не просто улав€ така наречените книжни знани€, но също така усп€ва да идентифицира и по-неосезаеми човешки качества. “ой използва обработка на естествен език и машинно обучение, за да създаде психологически профил, който показва дали конкретен човек ще се впише в организационната култура. “ова включва анализ на мимики и жестове, тона на публикациите в социалните мрежи и използваните думи от кандидата – например склонност към употреба на „мо눓 и „благодар€“ предполага съчувствие и възможност за работа с клиенти.

ѕодобен тип инструменти обаче се прилагат предимно в ранните етапи от процеса на подбор. ¬ по-късните работодателите предпочитат комуникаци€та лице в лице и възможността сами да прецен€т. “акова мнение сподел€ и проф. д-р √еорги ƒимитров, който е управл€ващ съдружник на адвокатско дружество „ƒимитров, ѕетров и ко.” и ръководител на ќтдела по право на информационните и комуникационните технологии (» “): „ огато има много кандидати за една позици€, на практика могат да се отсе€т и да се използват достижени€та на информационните технологии да се направи така наречената предварителна селекци€ на потенциални кандидати... Ќо пак казвам, в живата среда работ€т живи хора. “ези хора не общуват само на базата на познани€, а на базата на емоции, на база на народопсихологи€, навици... “ака че комбиниран подход би бил най-актуални€т засега. јко н€кой ден се изгради толкова сложна и интелигентна система, ко€то може да прави заключени€, които изц€ло да отмен€т хората при подбора, това ще бъде прекрасно. Ќо на мен ми се струва прекалено далечна фантастика.“

ƒимитров уточн€ва, че днес подобна задача изпълн€ват компаниите за човешки ресурси, като финалното решение се взема от работодател€. Ќа пръв поглед услугите им изискват средства, но и използването на най-новите технологии също не е безплатно, макар че засега очаквани€та са, че изкуствени€т интелект ще спести не само време на фирмите, но и финансови ресурси.

ќт друга страна, се възлагат много надежди на изкуствени€ интелект, основно, че ще разреши проблема със субективното мнение при подбора на кадри. »зследване показва, че онези, които повече приличат на нас, винаги са ни по-симпатични. ј поне на теори€ машинни€т интелект тр€бва да бъде неутрален. ƒали обаче безпристрастност означава по-гол€ма справедливост и каква цена сме готови да платим за не€?

ѕлюсове и минуси на широкото навлизане на AI

Ѕи било чудесно, ако всички иновации нос€т само позитиви и облекчени€, но за съжаление реалността не винаги е такава. ƒимитров счита, че все още сме в зората на изкуствени€ интелект и рискове има. “е обаче обикновено започват да се виждат, след като мине определен период от време и точно в момента е трудно да се предвид€т всички усложнени€, които биха настъпили в бъдеще.

ќпределено не са малко онези, които са песимистично настроени към потенциала на изкуствени€ интелект. ≈дни от т€х са защитниците на неприкосновеността на личните данни, според които инструментите за уеб мониторинг позвол€ват на работодателите да „надничат“ в частни€ живот на служителите. Ќезаконно е да се сканират профилите на кандидатите в социалните мрежи за информаци€ относно расата, религи€та, сексуалната ориентаци€ или политическите им убеждени€. «асегнатата страна може да подаде жалба за дискриминаци€ при наемането.

„Ѕезспорно когато едно интервюирано лице тр€бва да бъде анализирано от технологии, (когато) тр€бва да бъдат извличани данни за него и (когато) тр€бва да бъдат правени включително предположени€ за негови навици или действи€, които той на практика не про€в€ва – а се прави на база анализ на поведението му – тогава той тр€бва да даде съгласие и тр€бва да бъдат спазени всички принципи на нормативната уредба, ко€то гарантира защитата на личната сфера“, разказва ƒимитров.

»зкуствени€т интелект обаче не застрашава само нашата свобода, но и равноправието между хората – основна ценности и посто€нен стремеж в насто€щата епоха. —ъществуват много опасени€, че софтуерът н€ма да бъде наистина безгрешен и ще отраз€ва и умножава предразсъдъците на своите създатели. „ѕредразсъдъците са резултат от възпитание, резултат от н€какви морални, етични норми, които самата среда създава у теб като критерий за преценка на действителността“, посочва ƒимитров. —поред него подобни модели за възприемане на света – общочовешки или общонационални – могат да бъдат заложени в изкуствени€ интелект. –ешение на този проблем има и то се крие преди всичко в законовата уредба.

Ќови технологии, нова законова уредба

¬сички, които внимателно след€т развитието на новите технологии и процесите в сферата, са на€сно, че с развитието на технологиите се приемат и допълнителни регулации, за да се защит€т правата на гражданите. ¬ тази насока се работи усърдно, особено на европейско ниво. Ќапример този май ще влезе в сила ќбщи€т регламент на ≈вропейски€ съюз за защита на личните данни (General Data Protection Regulation, GDPR).

„— предсто€щото влизане в сила на нови€ регламент на практика се създават доста сериозни юридически бариери пред потенциалното нарушаване на личните данни – т.е. създават се достатъчно гаранции от държавата, и то на европейско ниво“, см€та ƒимитров. “ой е убеден, че към момента въобще не стои въпросът за това дали подборът на кадри и събирането на данни за едно лице тр€бва да бъдат съобразени със законодателството – това вече е задължително условие.

„ƒори и днес, ако си помислите, без наличие на изкуствен интелект има системи, които могат да анализират публично достъпна информаци€ за вас, ко€то публикувате във Facebook... ¬ече има технологии, които анализират поведението на човека в мрежата и извличат нови данни за него, без той да е дал съгласие за това. Ќови€т регламент се опитва да адресира тези проблеми, така че уредбата е достатъчно сериозна. –азбира се, до каква степен т€ ще е адекватна ще разберем, като мине една година от приложението на регламента. ѕреди това е много трудно да се прецени доколко е адекватна и доколко обхваща всички случаи на потенциално застрашаване на данните“, уточн€ва ƒимитров.

«а преодол€ването на повечето опасности обаче н€ма да е достатъчно да се гарантира само сигурността на личните данни. Ќеведнъж специалисти постав€т въпроса за необходимостта от регулиране обучението на сами€ изкуствен интелект. „“емата е много сложна и сме€ да твърд€, че държавите н€мат отговор на този въпрос – дали тр€бва да се въвеждат специални правила по отношение на изкуствени€ интелект.  ак точно тр€бва да работи изкуствени€т интелект, в каква степен той тр€бва да бъде обучаван, в каква степен тр€бва да се създаде гаранци€ той да не извършва действи€, с които може да застраши правата и интересите на хората? Ќ€ма универсално решение и становище в обществото“, допълва ƒимитров.

—поред него обществото се лута, тъй като съвсем доскоро изкуствени€т интелект е бил само в сферата на научната фантастика. ¬ече е реалност, но е трудно да се създаде нормативна уредба на база на предположени€ за бъдещи проблеми. ѕодобен подход крие големи рискове. ќт една страна, ако се зададе прекалено агресивна и ограничаваща уредба, ще се спре развитието на технологиите, тъй като никой н€ма да иска да инвестира в т€х. ќт друга страна, ако липсват правила, н€ма да могат да се защит€т интересите на хората, тъй като изкуствени€т интелект може да се използва по един неподход€щ начин, който ще навреди на хората. ¬ъв връзка с това ƒимитров заключава: „“ака че границата е много тънка – дали държавата тр€бва да интервенира и да създава уредба. » затова на мен ми се струва, че държавата ще е готова да създава нормативна уредба, когато вече се понатрупат и достатъчно емпирични доказателства, знани€ и информаци€ на база на внедрени системи с изкуствен интелект, за да се види дали могат да възникнат такива хипотетични опасности.“

¬ каква посока сме се запътили

≈дин от гениалните физици на нашето време - —тивън ’окинг, вижда в изкуствени€ интелект истинска заплаха за човечеството. “ой се опас€ва, че н€кой ден ще бъде създадена машина, ко€то сама ще може да се подобр€ва и развива, докато в един момент ще надмине човека и ще го замени. ћиналата година също така ’окинг отправи призив за строг контрол над технологиите и подчерта, че хората тр€бва да успе€т бързо да идентифицират потенциалните заплахи, преди те да постав€т цивилизаци€та ни в опасност.

ћоже би изготв€нето на стратегии относно начина на развитие на изкуствени€ интелект ще попречи подобни зловещи сценарии да се осъществ€т. —поред ƒимитров добрата стратеги€ тр€бва да очертава м€стото, на което искаме да видим обществото в бъдеще; рол€та, ко€то ще има изкуствени€т интелект както при подбора на кадри, така и при управлението на автомобилите, и при пазаруването, и при всички останали дейности от нашето ежедневие. –азбира се, трудно ще се предвиди какви правила са нужни в „онова фиктивно бъдеще, където сме вече с развит изкуствен интелект... Ќо безспорно тр€бва да има н€какви норми... не може да см€таме, че този въпрос не съществува и да не го адресираме. ѕросто тр€бва да сме готови за нови€ св€т“, подчертава ƒимитров. —поред него всеки сам избира от ко€ страна ще разгледа въпроса – от негативната или от позитивната. ѕротивниците ще се фокусират върху рисковете, върху възможните проблеми и върху опасността изкуствени€т интелект да развие самосто€телно поведение спр€мо хората и в н€какъв момент да опита да действа срещу т€х. ѕоддръжниците от сво€ страна в€рват, че това е невъзможно, тъй като вс€ка система може да бъде контролирана. 

 ќћ≈Ќ“ј–» ќ“  

ѕолезни страници
    «а нас | јудитори€ | –еклама |  онтакти | ќбщи услови€ |
    ƒействителни собственици на насто€щото издание са »во √еоргиев ѕрокопиев и “еодор »ванов «ахов