Иако на тридневниот самит во Хирошима, лидерите на Групата седум (Г7) првенствено се занимаваа со теми кои се однесуваат на продолжување на помошта за Украина, дополнителни санкции против Русија и намалување на влијанието на Кина, регулаторниот пристап кон вештачката интелигенција (АИ) исто така беше дискутиран за прв пат.
Договорите и плановите на лидерите на седум од најнапредните светски економии укажуваат на итноста за справување со влијанието и ублажување на ризиците околу развојот на вештачката интелигенција, пренесува Радио Слободна Европа (РСЕ) проценките на светските медиуми.
Лидерите на Г7 повикаа на развој и усвојување на технички стандарди за да се одржи вештачката интелигенција „сигурна“, нагласувајќи дека правилата за дигитални технологии како што е вештачката интелигенција треба да цветаат „во согласност со заедничките демократски вредности“, посочува Ројтерс.
Повикот доаѓа откако Европската унија овој месец се приближи до донесување на законодавство за регулирање на технологијата за вештачка интелигенција, потенцијално првиот сеопфатен закон за вештачка интелигенција во светот што може да создаде преседан меѓу напредните економии.
Иако постојат одредени разлики меѓу земјите околу регулирањето на вештачката интелигенција, лидерите на Г7 се согласија на 19 мај да формираат министерски форум „АИ Хирошима Процес“ до крајот на годината за да разговараат за овие прашања.
Самитот следи по минатомесечниот состанок на министрите на Г7, каде што членовите на групата – САД, Јапонија, Германија, Велика Британија, Франција, Италија, Канада и ЕУ – рекоа дека треба да усвојат правила за вештачка интелигенција заснована на ризик.
Лидерите на Г7 велат дека одговорната употреба на вештачката интелигенција треба да биде усогласена со вредностите кои вклучуваат правичност, почитување на приватноста и „заштита од вознемирување, омраза и злоупотреба на интернет“, според агенцијата Франс прес.
Алатките за генерирање текст, како што се ChatGPT, креаторите на слики и музиката составена од вештачка интелигенција, предизвикаа возбуда, тревога и правни битки бидејќи креаторите ги обвинуваат дека грабале материјал без дозвола.
Новиот јазичен модел на вештачка интелигенција од OpenAI ги принуди земјите ширум светот за прв пат да се фокусираат на опасностите од дезинформации, хаос и физичко уништување на критичната инфраструктура, посочува Њујорк Тајмс.
Затоа, покрај дискусиите за Украина и Кина на самитот во Хирошима, лидерите на седумте најголеми светски демократски економии ги одржаа првите разговори за заеднички пристап за регулирање на употребата на програмите за вештачка интелигенција како што е GPT-4.
Претходните обиди да се натера групата да се занимава со многу поедноставни технолошки прашања, како што е сајбер безбедноста, обично завршуваа со флоскули за „јавно-приватно партнерство“, и никогаш немало сериозна дискусија за правилата за водење на употребата на сајбер оружје.
Сепак, истакна Њујорк Тајмс, американските власти веруваат дека во случајот на чет-ботови, дури и нејасна дискусија може да помогне да се воспостават некои заеднички принципи: дека корпорациите што ги носат производите ќе бидат првенствено одговорни за безбедносните прашања и дека мора да има правила на транспарентност кои јасно покажуваат за какви податоци, секој систем е обучен.
Тоа, велат официјалните лица, ќе овозможи дискусии за деталите за тоа како би изгледале тие први прописи.
Бидејќи земјите од Г7 се свесни за потенцијалните придобивки и ризици од генеративната вештачка интелигенција, во центарот на дискусиите на самитот на лидерите во Хирошима беше загриженоста за темпото на напредокот на вештачката интелигенција што го надминува развојот на стандардите, поради што на самитот беше истакната важноста на дефинирање на „заштитни огради“ за развој на вештачка интелигенција, според Форбс.
Лидерите се согласија да одговорат на предизвикот и да преземат пристап „заснован на ризик“ за навигација на оваа непозната територија.
Тие ги идентификуваа клучните области на кои треба да се фокусираат напорите: препознавање на важноста на ВИ, балансирање на нејзините ризици и придобивки, едукација за вештачката интелигенција и повикување на „заштитни огради“ кога станува збор за вештачката интелигенција.
За да се обезбеди одговорна и безбедна употреба на генеративната вештачка интелигенција, експертите веруваат дека е од клучно значење да се има сеопфатна регулаторна рамка која ги опфаќа приватноста, безбедноста и етиката, која ќе обезбеди јасни упатства и за развивачите и за корисниците на технологијата за вештачка интелигенција.
Вештачката интелигенција повеќе не е производ на научна фантастика, туку составен дел од реалноста, подготвена да го трансформира светот на незамисливи начини, истакнува Форбс и оценува дека предизвикот не е да се спротивстави на еволуцијата на вештачката интелигенција, туку да се осигура дека патот на развојот е усогласен со заедничките вредности, општествените норми и колективната благосостојба, за да стане алатка за добро, катализатор за напредок и мотор за поправедна и поодржлива иднина.