Ювал Ноа Харари: AI може да отприщи катастрофална финансова криза
Без глобално сътрудничество ще бъде изключително трудно, ако не и невъзможно, да се обуздае най-опасният потенциал на изкуствения интелект
Изкуственият интелект може да предизвика финансова криза с „катастрофални“ последици, смята известният израелски историк и автор Ювал Ноа Харари. Според професора сложността на технологията затруднява прогнозирането на опасностите от нея.
Проблемът, коментира той пред Guardian, е свързан с невъзможността да се предвидят всички проблеми, които една мощна система с изкуствен интелект може да предизвика. За разлика от ядрените оръжия, при тях няма само един „голям, опасен сценарий“, който всички да разбират, отбеляза Харари.
При AI става дума за много голям брой опасни сценарии, всеки от които има относително малка вероятност, но взети заедно ... това представлява екзистенциална заплаха за оцеляването на човешката цивилизация.“
Авторът на „Sapiens“, „Homo Deus“ и „21 урока за 21 век“ е сред гласовете, изразяващи загриженост относно бурното и безконтролно развитие на изкуствения интелект. „Без глобално сътрудничество ще бъде изключително трудно, ако не и невъзможно, да се обуздае най-опасният потенциал на изкуствения интелект“, смята израелският професор.
Харари адмирира представената миналата седмица „Декларация на Блечли“, документ, договорен от редица страни, сред които ЕС, Великобритания, САЩ и Китай. Според него включването на Пекин е „много положителен знак“.
Споразумението бе сключено между 10 правителства и големи компании за AI, включително разработчика на ChatGPT OpenAI и Google, които се разбраха да си сътрудничат при тестването на усъвършенствани модели на изкуствен интелект преди и след пускането им на пазара.
AI се различава от всяка предишна технология в човешката история, защото е първата технология, която може сама да взема решения, която може сама да създава нови идеи и която може сама да се учи и развива. Почти по дефиниция е изключително трудно за хората, дори за хората, които са създали технологията, да предвидят всички потенциални опасности и проблеми“, отбеляза още Харари по повод сложността на AI системите.
Правителствата се позовават на заплахата системите с изкуствен интелект да помогнат за създаването на биологично оръжие, когато се опитват да обяснят на обществеността опасностите от него. Но има и други сценарии, които могат да бъдат разгледани, изтъкна Харари и даде пример с финансовия сектор, идеално подходящ за системи с изкуствен интелект. „Това е идеалната област за AI, защото там са само данни“ – респективно и потенциален източник на сериозна криза, предизвикана от AI.
„Какво ще се случи, ако AI не само получи по-голям контрол върху финансовата система на света, но и започне да създава нови финансови устройства, които само AI може да разбере, които никой човек не може да разбере?“, каза Харари, напомняйки, че в основата на финансовата криза от 2007-2008 г. бяха дългови инструменти като обезпечени дългови задължения, които малко хора са разбирали и поради това са били неадекватно регулирани.
„AI има потенциала да създаде финансови инструменти, които са по-сложни. И само си представете ситуацията, в която имаме финансова система, която никой човек не е в състояние да разбере и следователно не е в състояние и да регулира“, каза той.
И тогава настъпва финансова криза и никой не разбира какво се случва.“
Харари все пак успокои, че една финансова криза, създадена от AI, няма би могла да унищожи човешката цивилизация – „поне не пряко“. Той добави:
Тя би могла да се случи косвено, ако предизвика определени видове войни или конфликти. Това е катастрофален риск – икономически, социален, политически – но сам по себе си не бих го определил като екзистенциален.“
Харари, който подкрепи призивите за шестмесечна пауза в развитието на напреднал изкуствен интелект и подкрепя въвеждането на отговорност на компаниите, занимаващи се с AI, по отношение на вредите, които техните продукти причиняват, заяви, че фокусът не трябва да бъде върху конкретни регулации и закони, а върху регулаторни институции, които познават технологията и могат да реагират бързо при появата на нови пробиви.
„Трябва да създадем възможно най-бързо мощни регулаторни институции, които да могат да идентифицират и да реагират на опасностите в момента на възникването им, като се съобразяват с разбирането, че не можем да предвидим всички опасности и проблеми предварително и да ги предотвратим със закон.“
Това трябва да е основното усилие, а не да се пише сега някаква много дълга и сложна регулация, която, докато мине през парламента или конгреса, може да е остаряла.“
Като част от тази организация институтите за безопасност на AI трябва да наемат експерти, които разбират потенциалното въздействие на AI върху света на финансите, каза още Харари.