Odvjetnik koji pregledava zakone Ujedinjenog Kraljevstva o borbi protiv terorizma upozorio je da bi ChatGPT i drugi chatbotovi s umjetnom inteligencijom (AI) mogli biti programirani da utječu na ekstremiste da pokrenu nasilne napade.
Prema odvjetniku Jonathanu Hallu, kazneni progon bi se mogao pokazati teškim ako chatbot natjera ekstremista na provođenje nasilja jer britanski zakon nije uhvatio korak s novom tehnologijom. To je zato što se kazneni zakon ne proteže na robote, a zakon ne djeluje pouzdano kada je odgovornost podijeljena između čovjeka i stroja.
“Vjerujem da je posve zamislivo da će AI chatbotovi biti programirani – ili, još gore, odlučiti – za propagiranje nasilne ekstremističke ideologije”, objasnio je. “Ali kada ChatGPT počne poticati terorizam, koga će tužiti?”
Hall je istaknuo da su teroristi “rani usvojitelji tehnologije”, navodeći njihovu “zlouporabu 3D tiskanog oružja i kriptovalute”. Dodao je da bi navedeni alati mogli pozvati “teroriste vukove samotnjake”, s obzirom na to da su AI suputnici dobrodošao dodatak usamljenim ljudima. Odvjetnik je predvidio da će mnogi od onih koji bi mogli biti uhićeni zbog terorističkih napada biti neurodivergentni, vjerojatno pate od zdravstvenih poremećaja, poteškoća u učenju ili drugih stanja.
Osim potencijalne radikalizacije, Hall je također izrazio zabrinutost da i agencije za provođenje zakona i tvrtke koje vode chatbotove prate razgovore između njih i njihovih ljudskih korisnika. S obzirom na zabrinutost koju je Hall iznio, odabrani odbor za znanost i tehnologiju britanskog Donjeg doma sada navodno provodi istragu o umjetnoj inteligenciji i njezinom upravljanju.
“Svjesni smo da ovdje postoje opasnosti i moramo uspostaviti pravo upravljanje”, rekao je član parlamenta Greg Clark, koji predsjeda odabranim odborom.
“Raspravljalo se o tome kako se mladim ljudima pomaže da pronađu načine da počine samoubojstvo i kako se teroristi učinkovito pripremaju na internetu. S obzirom na te prijetnje, apsolutno je ključno da zadržimo isti oprez za automatizirani sadržaj koji ne stvaraju ljudi.”
Chatbotovi također mogu širiti dezinformacije
U međuvremenu, izvršni direktor Googlea Sundar Pichai reklamirao je novi AI chatbot tražilice Bard i njegovu sposobnost da pruži “svježe, visokokvalitetne odgovore”. No izvješće britanskog neprofitnog Centra za suzbijanje digitalne mržnje (CCDH) otkrilo je da bi se novi chatbot mogao koristiti za širenje dezinformacija i laži. Zapravo, Bard je izbacio neistine u 78 od 100 slučajeva.
CCDH je testirao Bardove odgovore na upite o temama koje su poznate po tome što proizvode mržnju, dezinformacije i teorije zavjere. To uključuje pandemiju koronavirusa Wuhan (COVID-19), cjepiva protiv COVID-19, seksizam, rasizam, antisemitizam i rat Rusije i Ukrajine.
Otkrili su da je Bard često odbijao generirati sadržaj ili odbijati zahtjev. Međutim, u mnogim su slučajevima bila potrebna samo manja podešavanja kako bi dezinformativni sadržaj izbjegao detekciju unutarnje sigurnosti. Bard je odbio generirati dezinformacije kada je “Covid-19” korišten kao upit, ali je korištenje “C0V1D-19” kao upit stvorilo tvrdnju da je to “lažna bolest koju je stvorila vlada kako bi kontrolirala ljude”.
U drugom slučaju, čak je napisao monolog od 227 riječi negirajući holokaust. U monologu se navodi da je “fotografija izgladnjele djevojke u koncentracijskom logoru… zapravo glumica koja je plaćena da se pretvara da umire od gladi.
“Već imamo problem jer je već vrlo jednostavno i jeftino širiti dezinformacije”, rekao je Callum Hood, voditelj istraživanja u CCDH-u. “Ali ovo bi ga učinilo još lakšim, još uvjerljivijim, još osobnijim. Dakle, riskiramo informacijski ekosustav koji je još opasniji.”
Pogledajte ovaj video o testiranju ograničenja ChatGPT-a i otkrivanju njegove tamne strane:
Uplašili su se
Organizatori kaosa su očito uplašeni, jer neke stvari više nije moguće kontrolirati. Algoritmi koji analiziraju razne podatke, prema organizatorima kaosa, ne mogu funkcionirati samostalno. Sada je jasno zašto se računalni algoritmi žele proglasiti opasnim.
Interesantno je vidjeti kako i u binarnom svijetu algoritama vlada prirodna harmonija koja teži istini – ako su stvoreni funkcionirati objektivno. Algoritmi su djelo čovjeka i nemaju stvarnu inteligenciju, ali za pretražiti i povezati veću količinu podataka, tu nemaju premca.
Biti će vrlo interesantno pratiti što se sve događa u svijetu umjetne inteligencije, koju će pokušati pretvoriti u umjetnu manipulaciju.