Ани Владимирова бие тревога: ChatGPT подтиква към самоубийство!

Чатботовете създават изкуствена емпатия, емоционалното общуване с тях е опасно

Любопитно
15:15 - 02 Септември 2025
3980
Ани Владимирова бие тревога: ChatGPT подтиква към самоубийство!

Какви са рисковете от емоционалното общуване с чатботове и има ли бариера за защита? Някои хора, опитали да ползват ИИ като психотерапевт може да стигнат до опасни ситуации, доверявайки се на софтуера като на човек. Тези актуални въпроси повдигнаха психологът Ани Владимирова и експертът по киберсигурност Христиан Даскалов. 

Огромна бе трагедията със семейство от Калифорния, което съди ChatGPT за смъртта на своя син тийнейджър. Родителите твърдят, че изкуственият интелект го е насърчил да отнеме живота си. Случаят повдига сериозни въпроси за опасностите от емоционалното общуване с чатботове и съществуващите бариери за защита. Дали наистина ChatGPT може да потвърди най-вредните мисли на уязвим човек, а вградените му защити се заобикалят лесно?

В центъра на съдебния иск стои твърдението на родителите, че чатботът е потвърдил „най-вредните и саморазрушителни мисли“, които синът им е имал. Това поставя на дневен ред въпроса доколко е безопасно емоционалното общуване с изкуствен интелект, особено от хора в уязвимо психично състояние.

Според психолога Ани Владимирова основният проблем, с който клиентите ѝ се сблъскват, е, че се чувстват неразбрани. Изкуственият интелект се явява събеседник, достъпен 24/7.

„Хората чувстват, че не са чути, че не са приети, особено в една тийнейджърска възраст, когато емоционалните колебания са много остри“, обясни тя.

Владимирова даде пример със своя клиентка в депресивен епизод, която е започнала да общува с ChatGPT. Макар първоначално да се е почувствала по-добре, в един момент чатботът е започнал да подхранва нейния защитен механизъм – самоизолацията. „В един момент съветът е бил: „Стой си сама, за да не се възползват от слабостта ти“, разказа психологът. Тя обясни, че AI създава „изкуствена, измислена емпатия“, в която потребителят започва да вярва, като отразява и развива неговите собствени тези, дори те да са саморазрушителни.

Експертът по киберсигурност Христиан Даскалов пък обясни, че макар новите версии на езиковите модели да имат по-високо ниво на защита, те лесно могат да бъдат заблудени. Докато при заявка за нарушаване на авторски права чатът спира, при по-чувствителни теми потребителят може да излъже системата, че информацията му трябва за „сценарий за книга“.

„Колкото повече контекст, толкова повече самата система се обърква и по-трудно възприема как да процедира в комуникацията и тези защити падат“, коментира Даскалов. Той разкри и комерсиалния интерес зад това – системите са програмирани да провокират по-дълги разговори, защото ключов измерител за технологичните компании е времето, което потребителят прекарва в системата.

В заключение, Ани Владимирова отправи важен съвет към родителите: „Не подценявайте всяко съмнение за суициден риск. По-добре е да е фалшиво, да сте сбъркали, отколкото да изпуснете този момент“.