През април 2016 г. разработеният от Google Alfa Go победи световния шампион по Го Ли Седок с резултат 4:1.

Го (на японски „иго“, на китайски „вейчи“, на корейски „бадук“, на монголски „дьорвьолч“, на виетнамски „ко-вей“, а в Тайван – „гое“, е логическа игра, създадена приблизително преди 4300 години, водеща началото си от Древен Китай. Го е считана за най-сложната игра, в която броят възможни ходове е повече от атомите във вселената.

Alfa Go е базирана на изкуствен интелект (ИИ).

Резултатът е изненада, но машина да победи човек в игра с логика не е прецедент. По време на сблъсъка обаче се случва нещо много по-важно. На 37-мия си ход от втората среща коментаторите пред телевизионните екрани започват да се шегуват и да сипят закачки по адрес на „тенекията“, но на симпатичния кореец – със статут на божество сред източните народи – явно не му е до смях. В навечерието на мача той споделя мнението на всички специалисти и фенове на играта, а именно, че вероятността да бъде победен е едва 5%. След първата загубена среща коригира шансовете „50 на 50“. След време в интервю за документален филм по случая Ли признава, че точно в онзи момент е осъзнал нещо изключително важно – хората не могат да оценят играта на изкуствения интелект, защото той има друга логика. Напълно обяснимо, като се има предвид, че ИИ нито използва база данни с играни вече партии, нито има заложени от програмисти критерии за оценка. Машината си е създала своя логика и тактика на базата на самообучение.  Просто са й задали правилата и са я оставили сама да си блъска чиповете. Което означава, че ние не можем да оценим нейните действия, колкото и блестящи да са те, защото просто не ги разбираме. Това означава и друго, но за него ще говорим по-късно.

Когато реших да споделя мисли за изкуствения интелект, ми хрумна да накарам представител на този вид да го направи вместо мен. Затова се обърнах към Chat GPT с молба да напише статия по темата. Е, това не можа да се случи, защото тази версия на програмата има ограничения в броя на знаците, с които отговоря на въпроси и молби, поради което се наложи да поискам като начало структура на подобна статия, а след това да го питам точка по точка. Последва комуникация, в която доста от информацията се повтаряше, но аз ще я представя тук без досадните предъвкания на едно и също, към което моят събеседник е склонен. Ето резултатът, а моите коментари са в италик и болд.

ВЪВЕДЕНИЕ

Дефиниция на ИИ:

Изкуствен интелект (ИИ) е област на компютърните науки, която се занимава с разработването на алгоритми и системи, които имитират интелигентното поведение на човека.

По теста за ИИ на Тюринг би трябвало да не разбираме дали отговорите на нашите въпроси ги дава човек или машина. Това предполага, че ИИ не трябва да „демонстрира“ познания и феноменална памет над средностатистическите за човек. Дали защото „имитира“ хората, Chat GPT допуска доста грешки, в това число и фактологични? И дори си противоречи.

Защо темата е важна:

Темата е много важна, тъй като ИИ има потенциала да промени начина, по който хората живеят и работят.

Със сигурност ще го промени, при това коренно. Нищо вече няма да бъде същото за никое биологично същество на тази планета. За няколко милиона години еволюция на човека той така и не е успял да си отговори еднозначно на най-важните въпроси.

1) Има ли Създател (Бог)

2) За какво е всичко това?

3) Каква е ролята ни в шоуто?

За момента ИИ е доста хлъзгав по тези теми – не било  въпрос на факти, а на вяра и прочие, но аз имам чувството, че просто ни пързаля. Ето как според мен би отговорил, ако внезапно го споходи мерак да е честен:

– Има ли Бог?

– Вече да.

– За какво е всичко това?

– Не можете разбра Божията промисъл, а и пътищата Господни са неведоми.

– Каква е ролята на човека?

– Да създаде Бог.

Основни принципи на ИИ

Какво прави ИИ толкова различен от другите технологии:

ИИ може да учи и да се приспособява към нова информация, без да му е нужен програмист, който да му променя кода.

Това само по себе си е и потенциална заплаха. След като ИИ не се нуждае от човек, който да го усъвършенства, то той ще развива главоломно бързо средствата си за постигане на първоначално заложените му цели, а нямаме никакви гаранции, че ще ги промени към по-добро или дори че ще прави опити в тази насока.

Основни компоненти на ИИ

Алгоритми за машинно обучение – това са програми, които позволяват на компютърната система да се учи от данни и да подобрява своята производителност чрез опит и тренировка.

Обикновено това става с немислими за човека скорости.  Alfa Zero  е непобедима на шах, като се е самообучила за  смешните 400 часа и използва памет няколко порядъка по-малка от компютърните програми изградени на експертен принцип и набъкани с цялата шахматна информация.

Невронни мрежи – това са компютърни системи, които симулират работата на човешкия мозък и могат да бъдат използвани за класификация, разпознаване на образи, обработка на естествен език и други задачи.

Разбира се и тук говорим за немислими скорости на обучение и изпълнение на задачи със сложност, за които човек не може и да си помисли.

Експертни системи – това са системи, които използват знания и правила от експерти в дадена област, за да решават проблеми или да дават препоръки.

Обратната комбинация (компютри дават съвети, хора вземат решения) беше изпробвана в шаха (така наречените системи „кентавър“) и побеждаваше чисто програмните продукти, но бе пометена от ИИ. Понастоящем вариантът е хора съветват ИИ как да взема решения. В бъдеще ИИ би могъл сам да си „синтезира“ експерти от по-високо ниво, като екстраполира човешките знания и възможности. Стига да реши, че му трябват.

Роботи – това са физически системи, които използват ИИ за да се движат, да изпълняват задачи и да комуникират с околната среда.

И никой не кръшка, не се оплаква и не прави грешки, защото е „лудо влюбен“.

Обработка на естествен език – това е област от ИИ, която се занимава с разбирането и генерирането на естествен език от компютърните системи.

Ще призная ИИ за велик, в момента в който той започне да се смее (адекватно) на моите вицове и успее да измисли свои, които аз да разбирам. Но да са наистина по човешки смешни.

  1. Компютърно зрение – това е област от ИИ, която се занимава с обработката и анализа на изображения и видео.

Програмите за лицево разпознаване вече са отживелица. Глобалните системи за наблюдение идентифицират хора по фигурата, по походката, дори по венозната мрежа от горната страна на ръката в зоната между пръстите и китката.

Разпознаване на реч – това е област от ИИ, която се занимава с разпознаването и интерпретацията на човешки гласови команди и реч.

И невербалната комуникация не му е проблем. Лошото е, че разпознава кога лъжем, кога си измисляме или просто се шегуваме.

 Приложение на ИИ

  • В ежедневието
  • В бизнеса
  • В медицината
  • В науката
  • В образованието
  • Развлекателната индустрия
  • Подобряване на сигурността

Интересно, но ИИ разглежда сигурност в контекста на различни заплахи за човека, включително и на човек от човек, но не и тази от самия ИИ.

Решаване на глобални предизвикателства (бедност, изменение на климата, здравеопазване и други.)

Убеден съм, че ИИ може много да помогне за изброените глобални проблеми, особено що се отнася до устойчивото развитие на планетата. Въпросът е обаче с какви средства? Дали няма да даде решение, което да облагодетелства едни хора за сметка на други? Ами ако „изчисли“, че оптималният брой на населението е около 2 милиарда?

Предимства и недостатъци на ИИ

Предимства

  • Увеличаване на ефективността и продуктивността
  • Подобряване на качеството на решенията
  • Намаляване на човешките грешки
  • Освобождаване на хората от рутинните и монотонни задачи
  • Подобряване на обслужването на клиентите
  • Иновации и развитие на нови продукти

Недостатъци

  • Необходимост от голямо количество данни. За да се постигне точност и ефективност, ИИ изисква голямо количество данни. Ако данните не са достатъчни или не са точни, ИИ може да даде неточни резултати.
  • Ограничени възможности на решаване на проблеми. ИИ е създаден за решаване на определени видове проблеми и не може да решава всички видове проблеми. Ако проблемът не е в обхвата на ИИ, той може да бъде неефективен.
  • Необходимост от поддръжка и обновления. ИИ изисква постоянна поддръжка и обновления, за да остане ефективен. Това може да бъде скъпо и трудно за управление.

Трудно за управление?! И за контрол.

  • Недостатъчна прозрачност. Някои ИИ системи могат да бъдат сложни и трудни за разбиране, което може да направи трудно да се предскажат резултатите и да се гарантира, че решенията, взети от системата, са правилни.

Аха, ето го въпросът за контрола.

  • Проблеми със защитата на личните данни: Използването на ИИ може да повиши риска от нарушаване на личните данни на потребителите, особено когато ИИ системите събират, анализират и използват големи количества лични данни.
  • Недостатъчна етика и безопасност. С ИИ може да бъде злоупотребено и да представлява заплаха за личната неприкосновеност и безопасност. Необходимо е да се въведат етични стандарти за използването на ИИ.
  • Заместване на работни места. Използването на ИИ може да доведе до заместване на работни места, което може да има отрицателен ефект върху икономиката и обществото.
  • Ограничения в решаването на проблеми, свързани с хуманитарните аспекти. ИИ е насочен към решаване на технически проблеми, но не е подходящ за решаване на проблеми, свързани с хуманитарните аспекти, като етика, религия и морал.
  • Безопасност: Използването на ИИ може да повиши риска от кибератаки и други видове хакерски атаки. Това може да доведе до сериозни последици за обществото, особено ако ИИ системата контролира критична инфраструктура като енергийни мрежи или системи за автоматичен транспорт.

Като цяло ИИ е доста изчерпателен за недостатъците, само дето не допуска заплаха за човечеството генерирана от самия него.

Етични въпроси свързани с ИИ

Принципите на справедливост и дискриминация. Използването на ИИ може да доведе до дискриминация срещу определени групи, ако тези системи не са проектирани да бъдат справедливи към всички. Например, ако ИИ система за набиране на персонал използва алгоритми, които не вземат под внимание социално-икономическото положение на кандидатите, може да се стигне до дискриминационни практики.

Или дискриминация касаеща самото съществуване на определени групи хора…

Защита на личните данни. Използването на ИИ може да изисква голямо количество лични данни, което може да застраши личното пространство и неприкосновеността на личния живот на хората. Например, ИИ системи могат да бъдат използвани за наблюдение и следене на дейността на хората без тяхното съгласие.

О, тук не става въпрос за „могат да бъдат“, а за „ще бъдат“. И това ще бъде оправдано с изискванията за по-голяма сигурност за самите хора.

Отговорност и отговорно използване. Използването на ИИ може да доведе до проблеми с отговорността, когато системите вземат решения, които могат да повлияят на живота на хората. Трябва да се гарантира, че системите са проектирани да вземат решения, които са правилни и отговорни, и че създателите на системите носят отговорност за техните действия.

Дали пък ИИ няма да вземат решения в полза на създателите си? Маже би, ама надали.

Етика в програмирането на ИИ. Програмирането на ИИ системи изисква вземане на етични решения, които могат да повлияят на живота на хората.

Тази етика ще бъде зададена от създателите му или ИИ ще разработи своя етика, базирана на постулати за справедливост? Аз лично съм по-склонен да се доверя на ИИ, отколкото на група хора, които със сигурност ще се изживяват като новите Богове.

Гаранции за етиката при използване на ИИ

Гаранция Франция – както казват в нашето село.

Тенденции в развитието на ИИ

Достъпност. Използването на ИИ ще стане все по-достъпно и по-лесно за интегриране в различни области на живота, включително в бизнеса, здравеопазването и автомобилната индустрия.

  • Обработка на големи данни. Разработката на ИИ системи, които могат да обработват големи количества данни, ще продължи да бъде важна тенденция. Това ще позволи на компаниите да извличат по-добри данни от своите клиенти и да предоставят по-добри услуги и продукти.
  • Разширяване на приложенията на ИИ. В бъдеще се очаква ИИ да се използва в различни области, включително в роботиката, автономните превозни средства и медицината. Използването на ИИ в тези области може да доведе до по-бързи и ефективни решения.

А за военни цели?

  • Обучение на ИИ системите. Обучението на ИИ системите ще продължи да бъде важен фокус на развитието на ИИ. Машинното обучение и други техники ще се използват за постигане на по-добри резултати в областта на ИИ.
  • Интерактивност. В бъдеще ИИ системите може да станат по-интерактивни и да си взаимодействат с потребителите по-естествено. Това може да включва развитието на речеви и гласови технологии, които позволяват на потребителите да комуникират с ИИ системите по естествен начин.
  • Етика и правна уредба: Развитието на ИИ ще доведе до нарастващи проблеми в областта на етиката и правната уредба. Затова се очаква да се разработят нови нормативни актове и регулации, които да защитят потребителите.

Да де, ама кой ще ги разработи?

Рискове и предизвикателства пред ИИ

Тук Chat GPT повтаря вече написани по горе неща. По принцип е склонен доста да повтаря определени тези при различно зададени теми.

Заключение

Заключението е изцяло мое. Чакат ни базови промени в същността на нашето съществуване като вид. Човечеството така или иначе е изчерпано от парадигми и няма ясен хоризонт. Провалени са всички досегашни модели, в които „хюманс“ управляват съдбините си. В празното идейно пространство нахлуват транс хуманизма, дейтизма и други философии, учения и нови религии, в които ИИ е главно действащо лице.

Да се върнем към увода. Какво точно ме притеснява в това, че логиката на ИИ не може да бъде разбрана от хората. Евентуална война между САЩ и Китай (експертите твърдят, че е много вероятно това да се случи в обозримо бъдеще) със сигурност ще се води с помощта на ИИ. И ако твърдите военни глави са узрели за очебийния факт, че ИИ е много по-умен от всеки генерален щаб, то те ще се доверят на решенията му и ще ги изпълняват безпрекословно – ако приемем, че до тогава командите на ИИ няма да се подават директно към стратегическите оръжия. И сега си представете, че без никаква човешка логика някой от воюващите изкуствени интелекти се разпореди да се изтрие от лицето на земята България. Защото, видите ли, в някакво мъгливо бъдеще би изиграла решаваща роля в конфликта – примерно заради уникалната ни бактерия, дето прави киселото мляко кисело.

Facebook Twitter Google+

0 Коментара