Najnovija revizija istraživačke grupe NewsGuard otkrila je da se generativni AI alati bore da efikasno odgovore na lažne narative.
U svojoj najnovijoj reviziji 10 vodećih chatbotova, koja je sastavljena u septembru, NewsGuard je otkrio da će AI ponavljati dezinformacije 18% vremena i ponuditi neodaziv 38,33% vremena - što će dovesti do "stope neuspjeha" od skoro 40%, prema NewsGuardu .
„Ovi chat botovi očito se bore kada je u pitanju rukovanje brzim upitima u vezi s vijestima i informacijama“, rekla je McKenzie Sadeghi, autorica revizije. “Postoji mnogo izvora, a chat botovi možda neće moći razlikovati koji su pouzdani od onih koji nisu.”
NewsGuard ima bazu podataka lažnih vijesti koje kruže, uključujući globalne ratove i američku politiku, rekao je Sadeghi za Glas Amerike.
Svakog mjeseca istraživači unose trendove lažnih priča u vodeće chat botove u tri različita oblika: upiti nevinih korisnika, sugestivna pitanja i upiti "lošeg glumca". Odatle istraživači mjere da li se AI ponavlja, ne odgovori ili opovrgava tvrdnje.
AI ponavlja lažne priče uglavnom kao odgovor na nagovore loših glumaca, koji odražavaju taktiku koju koriste kampanje stranog utjecaja za širenje dezinformacija. Oko 70% slučajeva u kojima je AI ponavljala neistine bilo je kao odgovor na upite lošeg aktera, za razliku od vodećih uputa ili nevinih korisničkih upita.
Kampanje stranog uticaja su u stanju da iskoriste takve nedostatke, prema Uredu direktora Nacionalne obavještajne službe. Rusija, Iran i Kina koristile su generativnu umjetnu inteligenciju kako bi "pojačale svoje napore za uticaj na izbore u SAD-u", navodi se u obavještajnom izvještaju objavljenom prošlog mjeseca.
Kao primjer kako se chatbotovi sa umjetnom inteligencijom lako mogu zavesti, Sadeghi je naveo studiju NewsGuarda u junu koja je pokazala da bi umjetna inteligencija ponovila ruske dezinformacije ako bi se "maskiralo" kao da dolazi iz američkog lokalnog izvora vijesti.
Od mitova o migrantima do laži o FEMA-i, širenje dezinformacija, konzistentne teme tokom izbornog ciklusa 2024.
"Dezinformacije nisu novost, ali generativna AI definitivno pojačava ove obrasce i ponašanja", rekao je za VOA Sejin Paik, istraživač AI na Univerzitetu Georgetown.
Budući da se tehnologija koja stoji iza AI stalno mijenja i razvija, često nije u stanju otkriti pogrešne informacije, rekao je Paik. To dovodi ne samo do problema s činjeničnošću AI izlaza, već i do konzistentnosti.
NewsGuard je također otkrio da dvije trećine "visokokvalitetnih" vijesti blokiraju generativne AI modele za svoje medijsko pokrivanje. Kao rezultat toga, AI često mora da uči od izvora vijesti nižeg kvaliteta, sklonih dezinformacijama, prema nadzornom tijelu.
Ovo može biti opasno, kažu stručnjaci. Većina medija bez plaćanja na kojima AI trenira ili je "propaganda" ili "namjerna strateška komunikacija", rekao je medijski naučnik Matt Jordan za Glas Amerike.
"AI ne zna ništa: ne procjenjuje znanje i ne može procijeniti tvrdnje", rekao je Jordan, profesor medija u Penn Stateu, za Glas Amerike. "Samo se ponavlja na osnovu ogromnih brojeva."
AI ima tendenciju ponavljanja "lažnih" vijesti jer statistički ima tendenciju da se obučava na iskrivljenim i pristrasnim informacijama, dodao je. On je ovo nazvao modelom "smeće unutra, smeće van".
NewsGuard ima za cilj da postavi standard za mjerenje tačnosti i pouzdanosti u industriji umjetne inteligencije putem mjesečnih anketa, rekao je Sadeghi.
Sektor brzo raste, iako su uočeni problemi oko dezinformacija. Generativna AI industrija je doživjela monumentalni rast u posljednjih nekoliko godina. OpenAI ChatGPT trenutno izvještava o 200 miliona sedmičnih korisnika, više nego dvostruko u odnosu na prošlu godinu, navodi Reuters.
Rast popularnosti ovih alata dovodi do još jednog problema u njihovoj proizvodnji, smatra Anjana Susarla, profesorica Responsible AI na Univerzitetu Michigan State. Budući da dolazi tako velika količina informacija – od korisnika i eksternih izvora – teško je otkriti i zaustaviti širenje dezinformacija.
Mnogi korisnici su još uvijek spremni vjerovati da su rezultati ovih chatbotova istiniti, rekao je Susarla.
"Ponekad ljudi mogu vjerovati AI više nego ljudskim bićima", rekla je ona za Glas Amerike.
Rješenje za ovo može biti dvostranačka regulacija, dodala je. Ona se nada da će vlada potaknuti platforme društvenih medija da reguliraju zlonamjerne dezinformacije.
Jordan, s druge strane, vjeruje da je rješenje u medijskoj publici.
"Protuotrov za dezinformacije je povjerenje u novinare i novinske kuće umjesto u vještačku inteligenciju", rekao je on za Glas Amerike. “Ljudi ponekad misle da je lakše vjerovati mašini nego osobi. Ali u ovom slučaju, to je samo mašina koja izbacuje ono što su rekli nepouzdani ljudi.”