На крајот на март оваа година, сликата на папата Франциско облечен во надуена, сјајна бела јакна го обиколи светот.
Неколку дена претходно, милиони луѓе ширум светот видоа серија слики на Доналд Трамп како е уапсен и одведен во затвор.
Сепак, овие слики не беа реални: Трамп не беше во полиција, а папата Франциско никогаш не ја облекол јакната.
Сликите се создадени со помош на вештачка интелигенција (AI), моќна технологија која е способна да произведува содржини во различни формати – текст, аудио или визуелни – од инструкции дадени од корисниците, кои се нарекуваат „поттикнувања“.
Сосема е веројатно дека и во двата споменати случаи, многу корисници на интернет ја забележале и ја означиле оваа содржина (која многу брзо станала тема на повеќето страници за проверка на факти ширум светот) како лажна.
Посебно во случајот со сликите од апсењето на Доналд Трамп беше полесно да се провери веродостојноста на содржината, со оглед на тоа што ниту еден информативен портал не објави толку значајна и сензационална вест, каква што несомнено би била апсењето на Доналд Трамп, пишува Демостат.
Сепак, неспорно е дека за друг дел од интернет потрошувачите оваа содржина изгледала како нешто веродостојно и реално.
Така, случајот со папата Франциско и неговата лажна слика во светкава пуфер јакна е наречена на социјалната мрежа Твитер како потенцијално „првиот вистински случај за масовна дезинформација создаден со помош на вештачка интелигенција (АИ)“.
Познати се авторите на лажните слики од нашата приказна.
Така, еден американски онлајн магазин го интервјуираше 31-годишниот градежен работник од Чикаго кој првично ја објави сликата на папата генерирана со вештачка интелигенција на веб-страницата на форумот за социјални вести и дискусии Редит, како и на група на Фејсбук посветена на вештачката интелигенција.
Првичната идеја зад објавувањето на фотографијата била да се направи пример за генерирана уметност, без да стане предмет на глобална сензација.
Од друга страна, серијата фотографии од наводното апсење на Доналд Трамп првично ги твитна Елиот Хигинс, ни помалку ни повеќе туку основачот на сега надалеку познатиот Bellingcat Project, независен меѓународен колектив на истражувачи и граѓански новинари фокусирани на истрагата на социјални мрежи и отворени извори за испитување на различни теми.
Хигинс ги сподели фотографиите без никаков воден жиг или јасна индикација за нивната автентичност, што би било основна претпазливост за проверувачите на факти за да се избегне ненамерно ширење лажна содржина.
Зад фразата „генеративни системи за вештачка интелигенција (АИ алатки)“ е всушност тип на технологија за вештачка интелигенција (ВИ) која може да произведе различни типови на содржина вклучувајќи текст, слики, аудио и синтетички податоци.
Иако генеративните системи за вештачка интелигенција (алатки за вештачка интелигенција) всушност постојат повеќе од половина година (како Midjourney или Dall-E AI системите кои беа објавени во јавноста минатиот јули во бета верзија со отворен пристап), тешко дека може да биде случајност што тие одиграа клучна улога во инцидентот со масовна дезинформација во истите недели кога друга технологија стана предмет на јавното мислење ширум светот во форма на текстуална генеративна вештачка интелигенција (AI), од која Open AI GPT е дефинитивно најпозната засега, но има и други слични програми и алатки кои се познати како „големи јазични модели“ (Large Language Models – LLM).
Широка дискусија во јавното мислење околу ChatGPT chatbot (софтверска апликација дизајнирана да им обезбеди на корисниците можност за онлајн комуникација и интеракција без никакво вклучување на човечкиот фактор) – но и следната повторување, GPT-4, која, меѓу другото, обезбедува како резултат и ги прифаќа и текстот и сликата – и последиците од неговиот изглед и постоење за медиумите и информацискиот систем, оди паралелно со новите предизвици кои произлегуваат од постарите, но не помалку влијателни, генеративни алатки за вештачка интелигенција со визуелни резултати.
Соодветно на тоа, крајот на март оваа 2023 година дефинитивно претставува пресвртница и во исто време почеток на нова ера за дезинформации и нејзино ширење, во која технолошкиот напредок воведува нова динамика во производството и ширењето на лажни и намерно и ненамерно погрешна содржина.
That’s awesome! if my observation is valid. I was the first journalist (in the world, modesty aside) to find the author of the work and interview him. then we saw other stories in Buzzfeed, Washington Post and ABC. if you want to read… (Portuguese) https://t.co/NPh1VQ1pcV
— Gabriel Fusari (@Fvsari) March 28, 2023
Текстуалниот израз како производ на генеративните алатки за вештачка интелигенција ќе влијае на ширењето на дезинформациите, а за кој визуелен израз како производ на генеративните алатки за вештачка интелигенција ќе стане збор во следниот текст, во кој подетално ќе се занимаваме со оваа тема.
Од перспектива на дезинформации, алатките како чет-ботови базирани на генеративна вештачка интелигенција им даваат на корисниците непосреден пристап до резултати кои не се нужно сигурни или точни, додека визуелните изрази како крајни производи на овие алатки им даваат на злонамерните актери невидена способност да произведуваат реални слики и видеа.
Во времето кое доаѓа пред науката, сериозна задача е да се занимаваме со истражување кое ќе оди во насока на сите начини на кои вештачката интелигенција ги вклучува прстите во ширењето на дезинформациите, така што сите оние кои се на фронтот линиите на борбата против дезинформациите можат што поуспешно да го пронајдат својот пат кон новата ера, која, без сомнение, веќе започна.