Този сайт използва бисквитки (cookies). Ако желаете можете да научите повече тук. Разбрах

Новини ИТ сигурност
бр. 3, 2018

Приложимо ли е правото на обяснение по GDPR върху изкуствения интелект

Регламентът оставя широко поле за интерпретации на някои права и задължения, което неминуемо ще се превърне в предизвикателство за правната наука.

от , 28 март 2018 0 882 прочитания,

Иван Гайдаров

С влизането си в сила на 25 май 2018 Общият регламент за защита на личните данни (GDPR) се очаква да промени изоснови взаимоотношенията между администраторите и субектите на лични данни, като даде повече механизми за контрол в ръцете на потребителите и ограничи правата, свързани с използването на информацията, която организациите събират за своите клиенти. Наред с ясно разписаната правна рамка обаче GDPR оставя и широко поле за интерпретации на някои права и задължения, към които спада и "правото на обяснение", относно което експертите водят спор дали въобще съществува и ако да, в кои случаи потребителите могат да се разчитат на него при възникнал спор. Един от най-често обсъжданите примери е свързан със ситуация, в която модел за машинно обучение на определена банка отхвърля кандидат за работа или заявител на кредит. Някои експерти смятат, че при подобни казуси GDPR задължава банката да даде обяснение, други обаче не са съгласни с тази теза.

Правото на обяснение

“Правото на обяснение е част от правата на субекта на личните данни, по-точно от правото на лицето да бъде информирано. Въпреки това съществува разбирането, че в GDPR такова не е предвидено, защото няма отделна разпоредба за това и то трябва да се изведе логическиq като се свържат разпоредби 13, 14, 22 и рецитал 71. Някои автори (B. Goodman, S. Flaxman) твърдят, че правото на обяснение е илюзорно, други пък (S. Wachter, B. Mittelstadt, L. Floridi) – че то не съществува. Но групата "Артикъл 29" (Article 29 Working Party), която съветва Европейската комисия в областта на защитата на данните, е издала указания wp260/2017 u wp251/2017, според които съществени данни относно използваната логика при взимане на решение, както и значението ѝ за последствията от него, са част от задължителната информация, която трябва да бъде предоставяна безпроблемно на субектите на данни. След тези указания въпросът за съществуването на правото на обяснение изглежда решен”, категорична е проф. Нели Огнянова, доктор по право и преподавател по европейско медийно право и информационна политика на ЕС в СУ “Св. Климент Охридски”. По думите й специализираните агенции на национално равнище (например тази във Великобритания) също изразяват мнение, че правото на обяснение е очевидно, което обаче не гарантира, че реализацията му е практически възможна.

Нели Огнянова


Профилиране и изкуствен интелект

Един от случаите, в които това важи в най-голяма степен, е използването на платформи, базирани на изкуствен интелект, за взимане на решения, свързани с предоставяне на определени услуги, които изискват кандидатстващият да покрива предварително зададени условия. Подобни казуси и в момента не липсват, но с развитието на още прохождащи технологии като машинното обучение и изграждането на невронни мрежи те ще стават все повече.

“При съвременното развитие на технологиите обработването на данни включва профилиране. Според рецитал 71 на Общия регламент за защита на личните данни този процес представлява „всякакви форми на автоматизирано обработване на лични данни за оценка на личните аспекти във връзка с дадено физическо лице, по-специално анализирането или прогнозирането на различни аспекти, имащи отношение към резултатите в работата на субекта на данни, икономическото състояние, здравето, личните предпочитания или интереси, благонадеждността или поведението, местоположението или движенията, когато то поражда правни последствия по отношение на лицето или го засяга също толкова значително“, обръща внимание проф. Огнянова.

Автоматизираната обработка обаче поражда определени права за обекта на профилиране, най-важното от които е, че той може да поиска допълнителна човешка намеса, ако резултатите “пораждат правни последствия за субекта на данните или по подобен начин го засягат в значителна степен”. “Интересни правни въпроси възникват и относно задължението не само да се информира лицето, когато е обект на подобна обработка, но и да му бъде предоставена “съществена информация относно използваната логика”, акцентира отново проф. Огнянова.

Конфликтни точки

И тук идва големият въпрос, който се превръща в основна конфликтна точка по оста право на обяснение – изкуствен интелект: може ли машината да обясни логиката, на която базира решението си?

“Това е известен проблем още от първия момент, в който изкуственият интелект придобива индустриално приложение – експертните системи, които в средата на 80-те години на миналия век се внедряват широко. Тогава се оказва обаче, че, за да бъдат приети напълно, те трябва да могат да “обяснят” как взимат дадено решение. При съвременните технологии това до голяма степен зависи от модела, който се използва за обучение – явен или скрит. При явния модел има своеобразно “дърво на решенията” и се въвеждат различни правила, които правят процеса по обяснение значително по-леснен. Дълбочинните невронни мрежи, които се използват най-често в момента, обаче са скрит модел, при който обяснението на едно решение става много, много трудно”, обяснява проф. д-р Иван Койчев от катедра “Софтуерни технологии” в СУ “Св. Климент Охридски”.

Заедно с това, от една страна, изкуственият интелект е “черна кутия”, която ревниво пази своите тайни, а от друга - много организации гледат на осветляването на начина на работа на алгоритмите като на търговска тайна. А и дори администраторът на лични данни да е склонен на обяснение, разкриването на алгоритмите няма как да даде цялостна представа за това как е взето решението, тъй като учебният компонент остава извън уравнението, а той е от изключително значение.

“В момента няма реален контрол над процеса на обучение на изкуствен интелект в световен мащаб. Тук в голяма степен важат две български поговорки - “С какъвто се събереш, такъв ставаш” и “Който плаща, той поръчва музиката”. Какъв ще бъде изкуственият интелект зависи от примерите и данните, с които е обучаван. Той зависи изцяло от своя “учител”, което значи, че в никакъв случай не можем да изключим субективните фактори при взимане на решения от машини”, смята проф. Койчев. Според него с все по-широкото навлизане на изкуствения интелект ще се появяват и все повече проблеми от подобно естество.

“Ако внедряването на изкуствен интелект стане масово явление, особено при обществените услуги, при всички случаи трябва да има регулации при обучението на невронните мрежи”, добавя той.

Според проф. Огнянова обаче машините произвеждат резултати, а не обяснения, тъй като не е възможно винаги да се даде логично тълкувание на действията на един алгоритъм.

“Това не е ли абсурден разрушителен стандарт, който ще спре иновациите и разработването на нови инструменти заради риска те да не могат да бъдат обяснени? Дори човешките решения трудно могат да се обяснят всеки път и затова хората използват термини като вкус и стил. А и какво е задоволителното тълкуване на термина “обяснение”? Обяснение ли е по смисъла на регламента, ако научим, че едни данни са довели до други данни? Изобщо, ако вярваме на медиите, с прилагането на регламента идва добро време за адвокатите и лошо за цифровите индустрии. А не е задължително да е така. Европейският законодател е разсъждавал за обяснимостта на алгоритмите и със сигурност си дава сметка за техническите предизвикателства, но вероятно споделя известното убеждение „алгоритмите не са пристрастни, хората са“, коментира от своя страна преподавателят по информационна политика на ЕС, добавяйки, че се надява предвиденото право на обяснение да стимулира създателите на изкуствен интелект към безпристрастност и създаване на алгоритми, чиято логика ще може все по-лесно да се обясни.

Приложимо правото на обяснение по GDPR върху изкуствения интелект

Обяснителен изкуствен интелект

А разработки на обяснителен изкуствен интелект не липсват и в момента, като създаването на подобно технологично разклонение на машинното обучение е в дневния ред дори на организация като DARPA (The Defense Advanced Research Projects Agency), която стои зад създаването на предшественика на интернет – ARPANET.

Според компанията обяснителният изкуствен интелект произвежда повече обясними модели, като същевременно поддържа високо ниво на представяне и точност на предсказване. Той също така ще даде възможност на хората да разбират и ефективно да управляват нововъзникващата технология, което ще доведе и до повишаване на доверието към нея.

Съществуват няколко начина, по които действията на изкуствения интелект могат да бъдат обяснени. Един от тях е използването на точкови алгоритми, които вкарват допълнителни точки от данни около действителния запис, докато той се изчислява, за да наблюдават какви функции водят до резултата.

Тази техника се нарича LIME (local interpretable model-agnostic explanations) и включва постоянно манипулиране на променливите данни, за да се види кои комбинации водят до най-добри резултати.

Наличието на прототипи на обяснителни модели, и то разработвани от организации от мащаба на DARPA, е категорично доказателство за важността на отношението между правото на обяснение в GDPR и възможностите за предоставяне на такова от страна на организациите, които използват изкуствен интелект по отношение на своите клиенти. То създава и казуси, които неминуемо ще се превърнат в предизвикателства за правната наука.

“Правото вече е изправено пред нерешими казуси – или поне нерешими в логиката на аналоговото време. Много правни инструменти са напълно обезсмислени. Интернет невиждано демократизира достъпа до информация и по парадоксален начин позволи използването на мощни инструменти за цензура. Цифровите индустрии осигуряват невероятни услуги, но често на цената на дълбока намеса в личния живот на хората. Правото има значение точно в такива колизии. Прогресът на човешката цивилизация е важен, но правото определя границите, които не бива да се прекрачват, и цената, която не бива да се плаща”, категорична е проф. Нели Огнянова.

И наистина, колкото и да са важни технологиите сами по себе си, тяхното развитие не може да бъде за сметка на хората, на които по условие са призвани да служат.

КОМЕНТАРИ ОТ  

Полезни страници
    За нас | Аудитория | Реклама | Контакти | Общи условия | Декларация за поверителност | Политика за бисквитки |
    Действителни собственици на настоящото издание са Иво Георгиев Прокопиев и Теодор Иванов Захов