Ще унищожи ли AI човечеството и човечността?
Един изтрит имейл не изчезва напълно, а правото да бъдеш забравен невинаги се спазва
Годината е 2018-а, когато иновативната компания за тежкотоварни превози Nikola пуска промо клип на своя камион на водород, на който се вижда как той се движи бързо по двулентов път в пустинята. Всички са впечатлени от постижението на технологичната фирма, докато през 2020 г. не става ясно, че заснетото в рекламата е на практика фалшификация.
Камионът Nikola One всъщност не е бил способен да се движи на собствен ход, но основателят на компанията Тревър Милтън решава въпреки това да го покаже в действие. Как е заснет движещия се камион ли? Качен е на хълм и пуснат по инерция да се спуска по склона надолу. А защо му е изобщо на Тревър да прави това ли? Част от отговора се крие в огромните очаквания към иновативните стартъпи и направените от самите тях гръмки обещания.
Подценили оставащата работа по превозното средство, от Nikola още през 2016 г. дават заявка, че камионът на водород е напълно функционален. Година по-късно инвеститорите вече им дишат във врата неудържимо. И така се стига до прибързаната реклама.
Представете си какво би станало, ако компаниите за изкуствен интелект – тази митично звучаща и плашеща толкова много хора технология – започнат да действат също толкова прибързано и неетично, отбелязва Ричард Фостър от организацията „Морал и знания в AI“ (MKAI). В крайна сметка камионът няма как да бъде пуснат на пазара, без да може да се движи. Затова пък системите, базирани на AI – може, тъй като техните несъвършенства са далеч по-трудно откриваеми.
Последиците обаче биха могли да засегнат реално хората. Достатъчно е дадем пример с алгоритъм, оценяващ кандидатури за работа. Ако той е захранен с непълни и базирани на предразсъдъци данни, с решенията си да отсее най-добрите, според него, може да пресече пътя на по-подходящи служители – обричайки не само тяхната кариера, но и потенциалните ползи за работодателя.
Именно предизвикателствата пред етиката и изкуствения интелект обсъдиха панелистите във втория ден на конференцията AI N’ CYBER 2022, организирана от Economic.bg и Дигитална национална коалиция, в партньорство с НАТО, Европейската инвестиционна банка и Фондация „Фридрих Аденауер“.
Ще унищожи ли AI човечеството и човечността?
Свързаните с изкуствения интелект страхове често биват експлоатирани в медийното пространство и варират от прогнозите, че роботите ще отнемат работата на хората до още по-апокалиптичните, че ще превземат и дори унищожат човечеството. Учените и експертите в AI сферата изтъкват със спокойствие, че опасенията са силно преувеличени, а антиутопичните сценарии – фикция, най-млакото защото развитието на AI като технология е много далеч от зрялост.
Един от техническите термини за изкуствен интелект е „универсални функционални проксиматори“. Представяте ли си ние сега да си говорим дали универсалните функционални проксиматори ще превземат света? Най-вероятно няма да си говорим за това и в този ред на мисли – това е просто технология, която се използва от човечеството и хората и всъщност тъкмо тук идват етика и моралът, които очертават за какво и как може да се ползва AI“, отбеляза Светлин Пенков, съосновател и главен изпълнителен директор на Efemarai и член на управителния съвет на AI Cluster Bulgaria.
Думите му илюстрират една логична зависимост. Хората сами обличат технологията в дефиниции, близки до собствените им представи за това как работи тя. В този ред на мисли я натоварват и със собствените си страхове. Пак те стоят и в основата на нейното приложение – в техните ръце и умове е и предизвикателството да я направят, простичко казано, добра или лоша.
Интересното при технологиите с изкуствен интелект е, че те са първите, в които етиката бива приоритизирана толкова рано.
При интернет това се случи много по-късно“, посочи Светлин Пенков и изтъкна, че Европа е мястото, където този въпрос е сложен на челно място.
Той коментира, че в момента в бранша се набляга на възможните последици от стартирането на една система.
AI звучи малко митично, но … обучаваме хората как да мислят за последствията, до които може да доведе технологията.“
Едно от големите предизвикателства е събирането и обработването на данни, с които да се захранят машините. Именно те са в основата на работата на изкуствения интелект и от тях зависи дали един алгоритъм няма да действа предубедено или дори зловредно. Както винаги, правото е в догонваща позиция, а в ЕС няма един закон, който да регулира начините за събиране и обработка на данни специално за използването им в AI системи.
„Говорейки за AI и неговите приложения в живота, няма универсален закон, който да казва: Ето така се обработват данните“, коментира Георги Димитров, професор по ИКТ право и основател на Фондация „Право и интернет“.
А дори и да има нормативна уредба, понякога и тя не се прилага ефективно. Д-р Моника Манолова, експерт по AI етика, даде пример с иначе строгия GDPR. „GDPR е хубаво нещо, но не се спазва от някои от големите корпорации. Изтрити имейли и информация отпреди 10 – 15 години може да се екстрактнат от масивите на Google“, посочи тя.
Един изтрит имейл не е изтрит напълно, а правото да бъдеш забравен невинаги се спазва.“
Според Васил Шивачев от Identrics отговорността винаги трябва да се носи от хората, ангажирани в разработването на AI – независимо дали са събирали или обработвали данни. „Хората трябва да носят отговорността, за да се избегне сивата зона. Ролята на хората в управлението на тези процеси е да чуват какво иска обществото.“
Статистиката красноречиво подчертава някои от пробойните в контекста на философията, че зад всяка AI система стоят хора. Така например неравенството между половете от гледна точка на заетите в сферата е 11% към 89% в полза на мъжката част от населението. И това е само един аспект от липсата на разнообразие. А такова – не само полово – е нужно, за да може да се гарантира, че предварителните изследвания ще са на нужното ниво, за да предотвратят негативните последствия от прилагането на алгоритми.
„Много е трудно да видим последствията от използването на AI, трябва ни разнообразно мислене“, настоява Ричард Фостър и цитира статистика на Gartner, според която 88% от проектите с AI се провалят и 44% от тези провали са по етични причини.
AI може да е създаден с много добри намерения, но и пътят към ада е постлан също с такива“, каза Моника Манолова, обобщавайки необходимостта от фокус върху етиката и морала при изграждането на системи с изкуствен интелект.