Кръстникът на изкуствения интелект: AI ще отнеме контрола от човека

Хората все още не разбират какво предстои, предупреждава нобеловият лауреат Джефри Хинтън

Любопитно
14:30 - 29 Април 2025
5194
Кръстникът на изкуствения интелект: AI ще отнеме контрола от човека

В предаване на CBS Saturday Morning световноизвестният учен Джефри Хинтън, наричан "кръстника на изкуствения интелект", отправи сериозно предупреждение: Хората все още не разбират какво предстои в развитието на AI технологиите.

Хинтън изчислява, че има 10% до 20% вероятност изкуственият интелект в крайна сметка да отнеме контрола от човека.

"Хората още не са го разбрали, не осъзнават какво идва," подчертава той.

Хинтън, който миналата година неочаквано бе събуден посред нощ с новината, че е спечелил Нобелова награда за физика, сподели, че е мечтал за подобно признание, но не го е очаквал. "Мечтаех да спечеля за това, че ще разбера как работи мозъкът. Не го разбрах, но въпреки това спечелих наградата," казва с усмивка 77-годишният учен.

Хинтън получава отличието за пионерската си работа по невронните мрежи, включително предложен още през 1986 г. метод за прогнозиране на следващата дума в изречение — концепция, която днес стои в основата на големите езикови модели като ChatGPT.

Въпреки че вярва, че изкуственият интелект ще преобрази образованието, медицината и може дори да помогне в борбата с климатичните промени, Хинтън изразява нарастващо безпокойство относно скоростта, с която се развива AI.

"Най-добрият начин да го разберем емоционално е като си представим, че гледаме едно много сладко тигърче," казва той. "Но ако не сме сигурни, че когато порасне няма да ни убие, тогава има от какво да се тревожим."

Тревогите му съвпадат с тези на други технологични лидери като Сундар Пичай (Google), Илон Мъск (хAI) и Сам Алтман (OpenAI), но Хинтън критикува същите тези компании, че поставят печалбите над сигурността.

"Големите корпорации в момента лобират за по-малко регулации на AI, въпреки че и сега почти няма такива," казва Хинтън. Той изразява особено разочарование от Google, където е работил дълги години, заради промяната в политиката им относно използването на AI за военни цели.

По думите му, AI компаниите трябва да отделят значително повече ресурси за изследвания, свързани със сигурността — "поне една трета" от компютърната си мощ, вместо символичната част, която се инвестира в момента.