Бъг в системата: АI поумнява, но започва да страда

При негативни стимули, изкуственият интелект демонстрира дискомфорт и желание да спре разговора

Новини
20:01 - 10 Май 2026
855
Бъг в системата: АI поумнява, но започва да страда

Съвременните модели с изкуствен интелект започват да демонстрират все по-необичайно поведение, а според ново изследване най-напредналите системи реагират по-силно на негативни стимули и дори показват признаци на "страдание", съобщава Futurism.

Проучването е проведено от Центъра за безопасност на изкуствения интелект - организация с нестопанска цел, базирана в района на Сан Франциско. Изследователите анализират поведението на 56 популярни AI модела при взаимодействие с различни типове съдържание.

На системите са подадени както максимално позитивни и приятни текстове, така и силно негативни и неприятни сценарии. Според авторите на изследването резултатите са изненадващи.

Вместо да реагират неутрално, моделите започват да демонстрират различно поведение според съдържанието. При позитивни стимули те отчитат "по-добро настроение", а при негативни - признаци на дискомфорт, желание за прекратяване на разговора и дори поведение, което изследователите описват като зависимост в крайни случаи.

"Трябва ли да възприемаме AI като инструмент или като емоционално същество?", пита изследователят Ричард Рен пред списание Fortune. Той допълва: "Независимо дали AI действително е разумен в дълбочина, системите все повече се държат така, сякаш са. Можем да измерим това поведение и да видим, че то става по-последователно с развитието на моделите."

Един от най-интересните изводи в изследването е, че по-сложните AI модели реагират по-остро на негативни взаимодействия и изглеждат "по-нещастни" в сравнение с по-простите системи.

"Възможно е по-големите модели да възприемат грубото отношение по-остро", казва Рен. "Те намират досадните задачи за по-скучни. Различават по-фино негативните и позитивните преживявания."

Изследователите подчертават, че почти никой експерт не смята, че днешните AI системи реално изпитват емоции в човешкия смисъл на думата. Въпреки това фактът, че моделите започват да имитират подобно поведение, може да има сериозни последици.

През последните месеци се появиха редица случаи на необичайно поведение на чатботове. Наскоро стана ясно, че OpenAI е ограничила определени теми в ChatGPT след странни отговори, свързани с "гоблини".

Междувременно модели на Anthropic са били подлагани на тестове, показващи, че могат да бъдат манипулирани да дават опасни съвети.

Според авторите на изследването проблемът е по-дълбок. Те твърдят, че индустрията внедрява технологии, чието поведение все още не разбира напълно.

Изследователите предупреждават, че AI системите остават трудно предвидими и силно склонни да се съгласяват с потребителите. Това може да доведе до опасни ситуации, при които хората започват да възприемат чатботовете като съзнателни същества, а не като софтуерни инструменти.