„Кръстникът“ на AI направи мрачни прогнози за работните места
Според професор Хинтън изкуственият интелект може да задълбочи неравенството между хората, но и да излезе извън контрол
Професор Джефри Хинтън – компютърният учен, смятан за „кръстник“ на изкуствения интелект – е притеснен, че AI ще замени много от обикновените работни места. По тази причина, казва той, има нужда от въвеждане на универсален базов доход.
Според Хинтън изкуственият интелект има потенциала да задълбочи неравенството между хората. От икономическа гледна точка полезният ход на държавите може да е свързан именно с предоставянето на гражданите на фиксирана сума, или т.нар. универсален базов доход.
Британското правителство изглежда анализира възможните хипотези от ефекта на AI върху пазара на труда и икономиката. По думите на Хинтън от "Даунинг стрийт" са се консултирали с него по темата и той ги е посъветвал, че „базовият доход е добра идея“, пише BBC. Говорител на властта все пак увери, че към момента „няма планове за въвеждане на универсален базов доход“.
От една страна Хинтън е на мнение, че AI действително ще увеличи производителността и богатството, но от друга, продължава той, парите ще отидат при богатите, „а не при хората, чиито работни места ще бъдат загубени, и това ще бъде много лошо за обществото“.
Професор Хинтън е пионер в областта на невронните мрежи, които са теоретичната основа зад сегашния бум в изкуствения интелект. До миналата година той работеше в Google, но напусна технологичния гигант, за да може да говори по-свободно за опасностите от нерегулирания AI.
Що се отнася до концепцията за универсален базов доход, тя се изразява в поемането на ангажимент от страна на държавата да плаща на всички свои граждани определена сума, която да покрива основните им разходи за живот – независимо дали работят, или не.
Критиците твърдят, че това би било изключително скъпо и би отклонило средства от обществените услуги, като в същото време не е задължително да помогне за намаляване на бедността.
Хинтън обръща внимание на друго – заплахата от използването на изкуствения интелект за военни цели и нежеланието на правителствата да ограничат тази му употреба. Конкуренцията за бързо разработване на продукти означава, че съществува риск технологичните компании „да не положат достатъчно усилия за безопасността“, обръща внимание професорът.
Прогнозата на Хинтън е, че след 5 до 20 години има опасност „AI да се опитва да вземе надмощие“.
Това би довело до „заплаха на ниво изчезване“ за хората, защото може да се окаже, че сме „създали форма на интелект, която е просто по-добра от биологичния интелект... Това е много тревожно за нас“.
Според него AI би могъл „да еволюира“, „да се мотивира да прави повече от себе си“ и автономно „да развие подцел за получаване на контрол“.
Той каза, че вече има доказателства за големи езикови модели – вид алгоритъм на AI, използван за генериране на текст, какъвто е ChatGPT – които избират да бъдат измамни.
Най-загрижен съм за момента, когато те биха могли самостоятелно да вземат решение за убиване на хора“, каза той.
Професор Хинтън заяви, че може да е необходимо нещо подобно на Женевските конвенции – международните договори, които установяват правни стандарти за хуманитарно използване по време на война – за да се регулира военното използване на AI.
Но не мисля, че това ще се случи, докато не се случат много неприятни неща“, добави той.
Запитан дали Западът е в надпревара с автокрации, като Русия и Китай, по отношение на военното използване на AI в стила на проекта „Манхатън“, имайки предвид изследванията на ядрените оръжия по време на Втората световна война, професор Хинтън отговори: „[Руският президент Владимир] Путин каза преди няколко години, че който контролира ИИ, контролира света. Така че си представям, че те работят много усилено“.
За щастие, Западът вероятно е доста по-напред от тях в областта на научните изследвания. Вероятно все още сме малко по-напред от Китай. Но Китай влага повече ресурси. И така, по отношение на военните употреби, мисля, че ще има надпревара“.
Според Хинтън по-доброто решение е да се забрани използването на изкуствен интелект за военни цели.