Додека корисниците со ентузијазам зборуваат за можностите на вештачката интелигенција, оние кои знаат како таа функционира зад сцената се повеќе предупредуваат за потенцијалните проблеми и опасности.
Последен во низата е поранешниот извршен директор на Google, Ерик Шмит, кој сега е во улога на претседател на американската Национална безбедносна комисија за вештачка интелигенција.
Говорејќи на самитот А+ оваа недела, Шмит ја спореди вештачката интелигенција со атомските бомби фрлени врз Јапонија во 1945 година.
Тој посочи дека по тој настан биле потребни 18 години за да се воведат одредени ограничувања за развој и употреба на нуклеарно оружје.
– Денеска немаме толку време, истакна Шмит.
Тој потсети дека за прв пат се случило оние кои работат на развој на некоја нова технологија да побараат нејзино регулирање.
Но, проблемот е да се постигне заеднички договор од кој сите ќе бидат задоволни и кој ќе биде применлив во целиот свет.
Самиот факт што многу паметни луѓе вложуваат многу пари во тоа значи дека ќе ни биде добро. За сега.
Како главен проблем тој посочи дека компаниите кои развиваат вештачка интелигенција вградуваат ограничувања во овие системи кои треба да спречат „машините да им наштетат на луѓето“.
Но, додава Шмит, тоа не е доволно за да се држат под контрола можностите на вештачката интелигенција.
Тој е убеден дека тоа може да доведе до вештачка интелигенција која ќе го загрози опстанокот на човештвото во рок од пет до десет години.
Тој додаде дека опасноста лежи во моментот кога компјутерот ќе почне да донесува независни одлуки.
Проблемот ќе биде кога, да речеме, таков систем ќе открие пристап до оружје и не можеме да бидеме сигурни дека таков систем ќе ни ја каже вистината.
Пред две години, вакво сценарио беше одалечено 20 години.
Денес, некои експерти сметаат дека тоа е одалечено само две до четири години, истакна Шмит.