Веднъж на глас зададох някакъв въпрос, дъщеря ми се замисли и каза: „Питай ChatGPT или… някоя врачка“. Това се превърна в семейна шега, но във всяка шега има доза истина, нали?

Езиковите модели като ChatGPT буквално превзеха устройствата и промениха начина, по който милиарди хора по света търсят и получават информация. И няма никакви поколенчески проблеми в случая. Онзи ден в магазина две момиченца на не повече от 8-9 години питаха чата кой от двата чипса на промоция е по-вкусен. Хора на 70 плюс си говорят с него и го ползват за тълкуване на медицински изследвания – за някои буквално се е превърнал в новия им домашен лекар! В група за психологическа помощ във Фейсбук анонимен член споделяше за депресията и суицидните си мисли и получи съвсем сериозен съвет да използва изкуствения интелект като психотерапевт. Вероятно всяка трета статия в сайт, ученическо есе, студентска курсова работа и… уви, и доста написани думи и издадени на хартия като книги са дело на т.нар. „големи езикови модели“. Предприемчиви хора вече са създали курсове как да напишем книга и да станем успешни автори за 5 дни. Не халюцинирам.

Винаги съм била огромен фен на технологии, които спестяват време и автоматизират досадни задължения. Затова и посветих време и внимание на езиковите модели и най-вече на т.нар. prompt engineering, т.е. как да ги питаме, за да получим максимално добър отговор. И установих, че никога не трябва да приемам с безусловно доверие отговора, както и че мога да различа всеки писан от ИИ текст, ако „авторът“ не си е направил труда да вземе данните и да го пренапише с човешките си интелект.

Всичко това не е новина. Пиша го заради една друга новина, която привлече вниманието ми през септември. А именно, че големите езикови модели ВИНАГИ ще произвеждат правдоподобни, но неверни резултати, дори с перфектни данни. Това се дължи на фундаментални статистически и изчислителни ограничения, показва ново проучване на изследователи от OpenAI – една от водещите AI компании, тази, която създаде ChatGPT.

„Подобно на студентите, изправени пред трудни изпитни въпроси, големите езикови модели понякога „гадаят“, когато са несигурни, произвеждайки правдоподобни, но неверни твърдения, вместо да признаят, че са несигурни, пишат изследователите в статията. Подобни халюцинации продължават да съществуват дори в най-съвременните системи и това подкопава доверието.“

Изследователите демонстрират, че халюцинациите произтичат от статистически свойства на обучението на езикови модели, а не от недостатъци при внедряването. Ще ви спестя техническите обяснения, но проблемът е фундаментално математически, не временен инженерен. И не става дума само за данните, които чатът предоставя на потребителите, но и за халюцинации в моделите на разсъждение и парадоксално – колкото по-усъвършенствана е версията на чата, толкова повече халюцинира при разсъждения.

Да се върнем на човешкия интелект и на „врачките“, които дъщеря ми намеси в сюжета. Вече дори материалистичната наука допуска възможността не мозъкът ни да произвежда съзнанието, а мозъкът да е „приемникът на сигнала“, интерфейсът, който съзнанието да използва, докато е във физическо тяло. А съзнанието, т.е. душата, да са вечни. Квантовата физика почти е доказала това теоретично. Знаете за „колективното несъзнавано“, дефинирано от Карл Юнг – този извор на познание, от който всички черпим информация под формата на интуиция, а и „ъплоудваме“ такава. В квантовата физика се говори за информационното измерение и… всъщност „врачките“ именно там виждат ВЕРОЯТНОСТИТЕ за бъдещи събития и развития.

Интуицията ми казва, че математическият парадокс ни спасява от предвещавания от мнозина апокалипсис, в който изкуствения интелект ни завладява. Но е добре да ползваме именно интуицията си и при работата с него, и при консултациите с врачки.

Facebook Twitter Google+

0 Коментара