Този сайт използва бисквитки (cookies). Ако желаете можете да научите повече тук. Разбрах

Новини Технологии и концепции
бр. 5, 2018

Рисковете пред AI бизнеса: регулаторни и правни проблеми

Регулациите на ИТ бранша започват сега, AI e сред горещите теми

от , 29 май 2018 0 6824 прочитания,

Боб Виолино, CIO, САЩ

Изкуственият интелект (Artificial Intelligence, или AI) започва да навлиза навсякъде в бизнеса, като много фирми вече внедряват технологията, за да получат повече информация за клиенти, пазари и конкуренти и да автоматизират процесите в почти всички сфери от дейността си. AI обаче крие много опасности за компаниите, особено в области като защита на личните данни и етика. Процесът, по който технологиите на машинно обучение и AI правят своите изводи за решаване на проблеми или посрещане на нужди, не е много прозрачен и това оставя ползвателите им от различни браншове в неведение за наличието на сериозни рискове. 

Тези въпроси са особено актуални за фирми, работещи в сферата на здравеопазването и финансовите услуги, които трябва да се съобразяват с множество правителствени и браншови изисквания.

Контекстът, етиката и качеството на данните оказват влияние на стойността и надеждността на AI, особено в силно регулираните браншове,“ казва Дан Ферис, съпредседател в отдел технологии на правната кантора Fox Rothschild и бивш софтуерен инженер. Днес той се занимава с технологиите от гледна точка защитата на личните данни и инфраструктурните проблеми, които предизвикват. „Внедряването на AI в силно регулирани браншове може да създаде проблеми със законосъобразността“, категоричен е експертът. 

Рискови AI бизнеси

Финансовите технологични компании инвестират сериозно в AI, но загубите и/или административните ограничения, които се обсъждат, могат да окажат катастрофален ефект върху този бизнес, казва Ферис. „При грешка или дори при правилно действащ, но в неправилен контекст, алгоритъм има риск от сериозни загуби“, добавя той.

Здравеопазването също е източник на много примери как може да възникнат проблеми с AI. „Технологията за разпознаване, която идентифицира модели и дори извършва образна диагностика, също е пример за внедряване на AI в здравеопазването, коментира Ферис. И макар компютърната образна диагностика да е по-точна от тази, направена с просто око, тя крие и скрити рискове.“

За разлика от лекаря, който например разполага с допълнителна информация за даден пациент или разчита на интуицията си, усъвършенствана с години практика, резултатите от програми на AI или машинно обучение често са ограничени и непълни. „Разчитането на такива резултати без използването на лекарска преценка може да причини много вреди на пациентите“, казва Ферис.


Често се твърди, че хората допускат грешки, но това важи и за машините. "Те просто са различни от човешките, които често се дължат на умора, гняв, други емоции или ограниченост“, казва Вазан Дар, професор ИТ системи в Нюйоркския университет и експерт по AI и машинно обучение.


Какви тогава са ролите и отговорностите на хората и машините в новия свят на AI, в който машини вземат решения и се самоусъвършенстват, пита Дар. Ако разгледаме AI като завод, в който изходният продукт или решения се създават на база на входящите материали, ролята на хората е да проектират завода така, че да произвежда при приемливо ниво на разходите от грешки.“


Когато машини се учат сами да станат по-добри, хората са отговорни за качеството на този образователен процес, казва Дар. „Не бива да възлагаме на машините решения, при които цената на потенциална грешка е прекалено висока“, добавя той.


Първият въпрос пред регулаторните органи според Дар е дали съвременните AI системи – независимо от сферата на приложение – водят до приемливи разходи на грешките. Например регулаторните органи в транспорта могат да решат, че след като самоуправляващите се автомобили могат да спасят 20 000 живота годишно, технологията има социална стойност. „Но за свързаните застрахователни пазари трябва да имаме предвид правни рамки, които да покрият щети от грешки“, добавя той.

В сферата на здравеопазването правните проблеми зависят от приложението. В някои области, като операция на катаракта например, манипулациите вече се извършват от машини, които се справят по-добре от хората, казва Дар, като скорошни проучвания показват, че машините са по-добри и от радиолозите и патолозите.

Но и машините ще правят грешки и цената им трябва да бъде калкулирана при вземането на решение за внедряване на AI, казва Дар. Това е обикновено изчисление на очакваната стойност с ударение върху „най-лошия вариант“ вместо на средностатистическите резултати.“



В бъдеще, когато машините ще стават по-добри, имайки достъп до геномни и други видове лични данни, на базата на които ще взимат самостоятелни решения, "ще трябва да вземем под внимание какви грешки правят те и какви са последствията от тях, за да проектираме правилната регулаторна рамка“, коментира Дар.

Правни проблеми

Използването на AI повдига редица регулаторни и правни въпросиОсновният въпрос е кой ще е отговорен, ако машина стигне до „грешен“ извод или препоръча действие, вредно за човека“, казва Мат Шерер от международната фирма по трудово право Littler Mendelson P.C., член на браншовата група по роботика, AI и автоматизация.

Например в случай на проблем в здравеопазването кой е отговорен – лекарят или медицинският център, който използва технологията, или дизайнерът/програмистът на приложенията? „Какво ще стане, ако пациентът изрично поиска AI системата да определи лечението му,“ казва Шерер. „Според мен най-голямата опасност е, че хората са склонни да вярват, че машините са по-добри във вземането на решения, и сляпо ще се доверят на една AI система, проектирана за целта.“

Някой в компанията, използваща AI, ще трябва да поеме отговорността, казва Дюк Чу, директор ИТ иновации в правната кантора Holland & Hart. „Първите въпроси, които изникват, когато изкуствен интелект или машинно обучение достигнат до някакви изводи и вземат решение, са доказателство, идентификация, удостоверяване и отговорност“, казва той. Във финансовата сфера например, ако компанията използва AI, за да събира информация за финансови отчети, е нужен човек, който да подпише и удостовери, че тази информация е точна и целесъобразна и че са налице правилни средства за контрол, които действат ефективно и гарантират достоверността на информацията, каза Чу.

 Тогава знаем кой е човекът, който прави това волеизявление, и че той е упълномощен за това, добавя Чу. При здравеопазването медицинският център може да използва AI за анализ на симптомите на познати болести и при диагностицирането и поставянето на лечение. И в двата случая човекът взема окончателното решение, подписва го и, най-важно, носи отговорност при грешка.“

Тъй като AI и в частност невронните мрежи са непредвидими, „това поставя сериозни предизвикателства пред традиционното право, защото е трудно да се свърже причина и следствие в традиционния смисъл и много AI програми не позволяват на трета страна да определя как да се приложи решението“, казва Марк Радклиф, партньор в глобалната правна кантора DLA Piper, специализирана в подпомагането на клиенти да разберат влиянието на новите технологии.

Традиционното право изисква „непосредствена причина“ за подвеждане под отговорност, казва Радклиф. „Режимът на „небрежност“ прилага разумен човешки стандарт, който е доста неясен в контекста на софтуерния дизайн. Друг проблем е дали AI алгоритмите вкарват “предубеденост“ в резултатите, основани на програмирането.“

Най-добри практики за безопасен AI

Компаниите могат да вземат различни мерки, за да се предпазят от регулаторните и правните рискове, свързани с AI.

Едно от ключовите изисквания е да е налице цялостна представа как машините взимат своите решения. Това означава да сме наясно, че законодатели, съдилища и съдии най-вероятно няма да приемат добре създаването и използването на системи, чиито решения не могат да се проследят и обяснят дори от техните собствени създатели, казва Шерер.

Според мен проблемът с черната кутия може да се реши, като се гарантира, че системите са сериозно тествани преди внедряването им, както се прави с другите технологии – например с определени лекарства – които не разбираме напълно, коментира Шерер. Смятам, че на практика и в макромащаб това ще е процес на проба и грешка. Ще разберем с времето кои решения е по-добре да се оставят на хората и кои на компютрите.“

Компаниите трябва да обмислят дали могат да проектират система, която да „проследява“ обосновката на ниво, задоволително за регулаторните органи и правните прагове, казва Радклиф. „Регулаторните органи трябва да насърчават такава прозрачност чрез правила за поемане на отговорност и други подходи“, добавя той. Участието на бизнеса, не само на съответните регулаторни органи, при подготовката на тези правила е важно, за да се гарантира, че те са реалистични: „Правителствените агенции не трябва да създават практически правила без съдействието на реалната икономика“, казва Радклиф.

Приносът й трябва да се разшири до участие в индустриални организации за разработване на браншово специфични правила за AI. „Правителството ще реагира и може да създаде неприложими  режими, основани на единичен случай или серия от такива, коментира Радклиф. Компаниите трябва да работят с браншовите организации и правителствените агенции, за да се избегнат първосигналнитереакции.“

Компаниите трябва също да имат здрави познания кога е най-сигурно да се разчита на AI изводи вместо на човешки решения, когато отговорността е фактор. „Този проблем ще стои по различен начин според бранша и дори в рамките на отделния отрасъл“, казва Радклиф.

Например използването на AI от специалист по вътрешни болести при диагностицирането на пациент носи много по-нисък риск, отколкото когато става дума за „роботизирана“ операция. „За високорискови дейности, като медицина например, където е налице зрял правен и регулаторен режим, компаниите трябва да работят с надзорните органи, за да актуализират правилата и те да са приложими към този нов подход.“

Освен това фирмите трябва да обмислят как да разпределят отговорността между себе си и клиентите и бизнес партньорите си при използването на AI. Ако една компания разработва AI приложение за банка, страните трябва да решат кой ще бъде отговорен, ако AI програмата създаде регулаторен проблем или направи грешка, тъй като подобни проблеми нямат прецедент, така че може да се договори разпределянето на отговорността“, коментира Радклиф.

AI става все по-добър при невронните мрежи, но компаниите, които искат да контролират регулаторния и правен риск, трябва да продължат да разчитат на AI като на един от многото фактори в човешкия процес на вземане на решения, казва Ферис. „AI е инструмент, който се контролира от хора, и трябва да продължи да се използва разумно, добавя той. Компаниите, които искат да го внедрят успешно, първо трябва да инвестират в набор от данни и качество. Оценката на качеството и целесъобразността на данните при AI приложения е важна първа стъпка. Разпределянето на задачите и решенията на такива, готови за машинно обучение, и такива, които продължават да изискват участието на хора, е следващото голямо препятствие.“

Превод и редакция Юлия Уршева

КОМЕНТАРИ ОТ  

Полезни страници
    За нас | Аудитория | Реклама | Контакти | Общи условия | Декларация за поверителност | Политика за бисквитки |
    Действителни собственици на настоящото издание са Иво Георгиев Прокопиев и Теодор Иванов Захов