Artiştii îşi „otrăvesc” operele pentru a se proteja de inteligenţa artificială

Confruntaţi cu exploatarea datelor de anumiţi dezvoltatori de inteligenţă artificială (AI), artiştii îşi „sabotează” în mod deliberat creaţiile pentru a le face inutilizabile, cu ajutorul cercetătorilor universitari, scre AFP.

Paloma McClain este o ilustratoare americană. O serie de programe de inteligenţă artificială generativă sunt deja capabile să creeze imagini inspirate de stilul ei, deşi artista nu şi-a dat niciodată acordul şi nu va obţine nimic din punct de vedere financiar. „M-a deranjat”, explică designerul, stabilit în Houston (Texas). „Nu sunt o artistă cunoscută, dar mă simţeam inconfortabil la ideea ca munca mea să fie folosită pentru a antrena” un model de inteligenţă artificială. Pentru a remedia acest lucru, ea şi-a trecut lucrările prin Glaze, un program care adaugă pixeli, invizibili pentru ochiul uman, la ilustraţiile sale pentru a perturba activitatea AI.

După acest tratament, imaginile create sunt neclare, feţele sunt estompate, fără nicio comparaţie cu originalele. „Încercăm să furnizăm instrumentele tehnologice care să protejeze creatorii umani de abuzurile modelelor generative de inteligenţă artificială”, explică Ben Zhao, cercetător la Universitatea din Chicago, a cărui echipă a creat Glaze.

„O problemă serioasă”

Alertat în noiembrie 2022, acest profesor de informatică a dezvoltat softul în doar patru luni, folosind lucrări anterioare menite să perturbe recunoaşterea facială. „Am lucrat la turaţie maximă, deoarece ştiam că problema este gravă”, spune Ben Zhao. „O mulţime de oameni sufereau”.

Giganţii inteligenţei artificiale generative au încheiat acorduri pentru a-şi asigura drepturile de utilizare a anumitor conţinuturi, dar marea majoritate a datelor, imaginilor, textelor sau sunetelor folosite pentru dezvoltarea modelelor au fost utilizate fără consimţământ explicit. De la lansarea sa, Glaze a fost descărcat de peste 1,6 milioane de ori, potrivit cercetătorului, a cărui unitate se pregăteşte să lanseze un nou program numit Nightshade.

Nightshade se concentrează pe indicaţiile pe care utilizatorul unui model generativ de inteligenţă artificială le transmite pentru a obţine o nouă imagine. Scopul său este de a deraia algoritmul, care va propune, de exemplu, o imagine a unei pisici atunci când a fost solicitat un câine. 

Citește și Inteligenţa artificială ameninţă milioane de locuri de muncă în Coreea de Sud

O altă iniţiativă este cea a start-up-ului Spawning, care a dezvoltat Kudurru, un software care detectează încercările de colectare masivă de imagini de pe platformele de imagini. Artistul are apoi opţiunea de a bloca accesul la opera sa sau de a trimite o altă imagine decât cea solicitată, „ceea ce echivalează cu otrăvirea” modelului de inteligenţă artificială în curs de dezvoltare şi afectează fiabilitatea acestuia, descrie Jordan Meyer, cofondator al Spawning. Mai mult de o mie de site-uri web au fost deja integrate în reţeaua Kudurru.

Spawning a creat, de asemenea, Have I Been Trained? (haveibeentrained.com), un site care permite să afli dacă imaginile au fost introduse într-un model de inteligenţă artificială şi le oferă proprietarilor acestora posibilitatea de a le proteja împotriva utilizării neautorizate în viitor. Pe lângă imagini, cercetătorii de la Universitatea Washington din St. Louis (Missouri) şi-au îndreptat atenţia către sunet şi au dezvoltat AntiFake.

„Acest software îmbogăţeşte un fişier de sunet cu zgomote suplimentare, imperceptibile pentru urechea umană, care fac imposibilă imitarea credibilă a unei voci umane”, explică Zhiyuan Yu, doctorandul care a realizat acest proiect. Programul vizează în special prevenirea „deepfakes”, adică a montajelor foto sau video hiperrealiste care se folosesc de înfăţişarea unei persoane, adesea o celebritate, pentru a o face să facă sau să spună ceva.

Citește și Papa Francisc a lansat un apel pentru un tratat global obligatoriu în domeniul inteligenţei artificiale

Echipa, supravegheată de profesorul Ning Zhang, a fost contactată recent de producătorii unui podcast de succes, care doreau să îl protejeze împotriva deturnării, potrivit lui Zhiyuan Yu. Deşi până acum a fost folosit doar pentru limbajul vorbit, AntiFake ar putea proteja şi vocile cântăreţilor, potrivit cercetătorului, al cărui software este disponibil gratuit.

Unitatea lui Ben Zhao a fost abordată de „mai multe companii care doresc să folosească Nightshade pentru a-şi proteja imaginile şi proprietatea intelectuală”, potrivit universitarului din Chicago. El nu se opune ca societăţile, chiar şi cele mari, să folosească programul său.

„Scopul este ca oamenii să îşi poată proteja conţinutul, indiferent dacă sunt artişti individuali sau companii cu o cantitate uriaşă de proprietate intelectuală”, spune Ben Zhao. În cazul Spawning, ideea nu este doar de a obstrucţiona, ci şi, într-o etapă ulterioară, de a „permite oamenilor să se organizeze pentru a-şi vinde datele în schimbul unei plăţi”, explică Jordan Meyer, care anunţă lansarea unei platforme la începutul anului 2024. „Cea mai bună soluţie”, spune el, „ar fi o lume în care toate datele utilizate pentru inteligenţa artificială să fie supuse consimţământului şi plăţii. Sperăm să împingem dezvoltatorii în această direcţie”.