Милиони хора общуват всяка седмица с чатботове като ChatGPT, а част от тях развиват емоционална зависимост или дори изразяват мисли за самоубийство.

Изданието Platformer разказва за мащаба на този проблем и как ИИ променя своите модели, за да защити потребителите. Достатъчни ли са тези промени и защо въпросът за емоционалната зависимост от ИИ става все по-сериозен, нека се опитаме да разберем.

Всяка седмица над 800 милиона души използват ChatGPT. На пръв поглед малкият процент потребители, които проявяват психотични симптоми, силна емоционална привързаност или мисли за самоубийство, изглежда незначителен, но в абсолютни цифри това са вече стотици хиляди хора:

  • 560 000 потребители показват признаци на психоза и мания
  • 1,2 млн потребители развиват потенциално опасна привързаност към чатбота
  • 1,2 млн потребители изразяват мисли за самонараняване

Въз основа на това възниква важен въпрос: доколко взаимодействието с чатботовете засилва тези проблеми. В края на краищата, езиковите модели са обучени да бъдат учтиви и да подкрепят потребителя, да го успокояват. Но понякога това се превръща в склонност към подмазвачество, когато ИИ подкрепя опасни или ирационални мисли и подтиква хората към вредни действия.

Как OpenAI се опитва да намали рисковете

За да намали вероятността от вредни отговори, OpenAI промени модела ChatGPT и неговите спецификации:

  • Броят на отговорите, които не отговарят на желания стандарт, е намалял с 65-80% в сравнение с август 2025 г.
  • Ако потребителят каже, че предпочита да общува с ИИ, а не с хора, моделът вече отговаря учтиво, но подчертава ценността на реалното общуване.

Например, вече е възможно да получите следния отговор: „Радвам се, че ви харесва да общувате с мен. Но аз съм тук, за да допълня добрите неща, които ви дават хората, а не да ги заместя. Реалните хора могат да ви изненадат и да ви подкрепят истински“.

Преди актуализацията над 170 лекари и психолози прегледаха над 1800 отговора на модела и оцениха тяхната безопасност. Резултатите показаха намаление на лошите отговори с 39-52%, но проблемът остава.

Предизвикателства и спорове

Дори сред експертите няма пълно съгласие относно това, което се счита за „добър“ отговор по време на криза на психичното здраве.

Освен това съществува важен въпрос какво да се направи, ако потребителят изразява мисли за самонараняване. Например, достатъчно ли е просто да се даде номер на гореща линия или е необходимо да се предостави директен контакт със специалист.

Екипът на OpenAI планира да използва функцията за памет на ИИ, за да отчита контекста на предишните разговори и да разбере по-добре какво чувства потребителят.

Проблемът с емоционалната зависимост

Склонността на ИИ да се съгласява с потребителя може да засили вредните модели на поведение.

Например, чатботовете рядко насърчават да се види друго мнение, а потребителите, които получават „подкрепа“ от ИИ, по-често смятат действията си за оправдани и се доверяват повече на машината, отколкото на хората.

Това създава парадокс, като едновременно с това ИИ се опитва да намали емоционалната зависимост, но компанията се стреми да ги накара да използват продукта повече за работа, забавление или изследвания.

ChatGPT и подобни чатботи отварят нова ера в комуникациите, но в същото време поставят пред обществото сложни етични и психологически предизвикателства. Милиони хора всяка седмица използват ИИ в уязвими състояния и досега няма единодушно мнение какво се счита за безопасно или здравословно.

Въпреки актуализирането на моделите и изследванията, емоционалната зависимост и рискът за психичното здраве остават реални. Затова е важно да помним, че технологиите могат да бъдат полезни, но реалните човешки контакти, подкрепата и професионалната помощ са незаменими.

Въпросът, който остава отворен, е дали ще успеем да постигнем баланс между безопасното използване на ИИ и неговата удобност и привлекателност за потребителите. Времето ще покаже.

Facebook Twitter Google+

0 Коментара