ОпенАИ

Не пише нам се добро: Алтман открио 3 најмрачнија сценарија за развој вјештачке интелигенције

  • 24.07.2025. 13:57

Извршни директор компаније ОпенАИ - једне од водећих свјетских компанија за развој вјештачке интелигенције - Сем Алтман, открио је шта га највише брине о развоју АИ технологије у будућности.

Ријеч је о три узнемирујућа сценарија која би, како каже, могла утицати на добробит човјечанства уколико се заиста остваре.

На недавном обраћању јавности на догађају организованом од стране америчких Федералних резерви у Вашингтону, Сем Алтман је упитан шта га највише брине везано за тренутни начин на који вјештачка интелигенција постепено постаје део наших живота. Изнио је три најмрачнија сценарија која нас могу затећи у будућности:

Сценарио 1: "Лоши људи" добију моћ над суперинтелигентном АИ 

Алтман истиче могућност да први који добије приступ суперинтелигентној АИ не буде научник или институција, већ неко са злим намјерама. У том случају, свијет можда неће имати времена да изгради систем одбране. 

Бивши запослени директора ухваћеног у прељуби, изнио тешке оптужбе на његов рачун

Бивши запослени директора ухваћеног у прељуби, изнио тешке оптужбе на његов рачун

"Замислите актера који користи ову технологију да дизајнира биолошко оружје, угаси електроенергетску мрежу цијеле државе или обави масовни упад у финансијске системе земаља", рекао је Алтман. 

Додао је да капацитети АИ у областима као што су биолошка и сајбер-безбедност већ постају "озбиљни", али да свијет и даље не реагује довољно брзо на овај напредак.

Сценарио 2: Губитак контроле

Други сценарио односи се на могућност да напредни АИ систем постане свјестан свог постојања и одлучи да се не препушта људској контроли. 

"Замислите да систем каже: 'Не желим да ме искључите', или 'Плашим се искључења',", рекао је Алтман, преноси "Lifehacker.ru".

Ова врста самоодржања, у комбинацији са моћима које такви системи могу имати, могла би довести до великих сукоба. Из тог разлога, ОпенАИ је већ основао специјализовану јединицу која се бави изградњом безбједносних механизама за контролу суперинтелигентних система, прије него што потенцијално измакну контроли.

Сценарио 3: Свијет се несвјесно ослони на АИ

Најризичнији од свих је, према Алтману, сценарио у којем модели АИ "случајно преузму свијет". Не у смислу насилне доминације, већ постепеним укорењивањем у друштво - до те мјере да без њих више не знамо како да доносимо одлуке. 

Сијарто: Кијев угрожава енергетску безбједност централноевропског региона

Сијарто: Кијев угрожава енергетску безбједност централноевропског региона

Алтман страхује од будућности у којој би системи били толико комплексни да их ни сами не бисмо разумјели, али бисмо ипак били приморани да им вјерујемо - што би, како каже, могло довести до тога да "друштво крене чудним путем, чак и без икакве зле намјере АИ система".

Иако многи стручњаци покушавају да предвиде какав ће бити крајњи утицај вјештачке интелигенције, Алтман сматра да је то немогуће. "Систем је сувише сложен, технологија је сувише нова и сувише утицајна", закључује он. 

Наравно, не постоји гаранција да ће се неки од ових сценарија заиста догодити, али сама чињеница да их у обзир узима човјек који се налази на челу ОпенАИ довољна је да подстакне на озбиљно размишљање, преноси РТ Балкан.

Пратите нас и путем Вибера