Deși Sora, instrumentul celor de la OpenAI, are anumite limite privind utilizarea chipurilor persoanelor în viață, protecțiile referitoare la reprezentările celor care au murit par să fi fost gândite abia în al doilea rând, relatează jurnaliștii de la NBC.
Noua aplicație de tip text-to-video a OpenAI, Sora, a fost concepută ca un teren de joacă social pentru inteligența artificială, permițând utilizatorilor să creeze videoclipuri AI imaginative cu ei înșiși, cu prieteni și celebrități, dezvoltând ideile altora.
Structura socială a aplicației, care le permite utilizatorilor să controleze dacă imaginea lor poate fi folosită în videoclipurile altora, părea să răspundă celor mai presante întrebări legate de consimțământ în contextul videoclipurilor generate de AI, atunci când a fost lansată.
Însă, pe măsură ce Sora se află pe primul loc în App Store-ul iOS, cu peste un milion de descărcări, experții sunt îngrijorați de potențialul ei de a inunda internetul cu dezinformări istorice și deepfake-uri ale unor personalități decedate, care nu pot consimți și nici refuza utilizarea imaginii lor în modelele AI ale Sora.
În mai puțin de un minut, aplicația poate genera videoclipuri scurte cu celebrități decedate aflate în situații complet inventate: Aretha Franklin făcând lumânări din soia, Carrie Fisher încercând să se echilibreze pe o coardă, Nat King Cole patinând în Havana sau Marilyn Monroe predând vietnameza unor elevi.
Aceasta este o perspectivă alarmantă pentru oameni precum Adam Streisand, avocat care a reprezentat mai multe moșteniri de celebrități, inclusiv pe cea a lui Monroe.
„Provocarea cu AI nu ține de lege”, a spus Streisand într-un e-mail, subliniind că instanțele din California protejează de mult timp celebritățile „împotriva reproducerilor asemănătoare AI ale imaginilor sau vocilor lor”.
„Întrebarea este dacă un proces judiciar non-AI, care depinde de oameni, va putea vreodată să joace un fel de joc tridimensional de tip whack-a-mole.”
Videoclipurile de pe Sora variază de la absurde la încântătoare și confuze. În afară de celebrități, multe dintre ele înfățișează momente istorice manipulate, create să pară reale.
De exemplu, NBC News a reușit să genereze videoclipuri realiste cu președintele Dwight Eisenhower mărturisind că a primit milioane de dolari mită, cu Margaret Thatcher susținând că „așa-zisa debarcare din Ziua Z” a fost exagerată, sau cu John F. Kennedy declarând că aselenizarea „nu a fost un triumf științific, ci o invenție.”
Posibilitatea de a genera astfel de deepfake-uri cu persoane decedate care nu pot consimți a stârnit deja reacții din partea familiilor.
Într-o postare pe Instagram despre videoclipurile Sora care îl înfățișează pe Robin Williams (decedat în 2014), fiica sa, Zelda Williams, a scris:
„Dacă aveți un dram de decență, încetați să faceți asta cu el, cu mine și cu toată lumea, pur și simplu. E stupid, e o pierdere de timp și energie, și credeți-mă, NU este ceea ce și-ar fi dorit.”
Bernice King, fiica lui Martin Luther King Jr., a scris pe X: „Sunt de acord în ceea ce-l privește pe tatăl meu. Vă rog, opriți-vă.” Discursul faimos I have a dream al lui King a fost de nenumărate ori manipulat și remixat în aplicație.
Fiica lui George Carlin a scris într-o postare pe BlueSky că familia „face tot posibilul să combată” deepfake-urile comediantului.
Videoclipurile generate cu Sora care prezintă „scene de violență extremă” avându-l ca protagonist pe Stephen Hawking au devenit, de asemenea, virale săptămâna aceasta pe X.
Un purtător de cuvânt al OpenAI a declarat pentru NBC News:
„Deși există un interes legitim pentru libertatea de exprimare în reprezentarea figurilor istorice, credem că personalitățile publice și familiile lor ar trebui, în final, să aibă controlul asupra modului în care este folosită imaginea lor. Pentru personalitățile publice decedate recent, reprezentanții autorizați sau deținătorii moștenirii lor pot solicita ca imaginea acestora să nu fie folosită în clipurile generate de Sora.”
Într-o postare pe blog de vineri, CEO-ul OpenAI, Sam Altman, a scris că firma va oferi în curând „drepturi mai detaliate de control pentru titularii de drepturi asupra generării de personaje”, referindu-se la tipuri mai diverse de conținut. „Primim multe solicitări de la deținători de drepturi care sunt entuziasmați de acest nou tip de fan fiction interactiv și cred că acest gen de implicare le poate aduce valoare, dar care doresc să poată specifica modul în care personajele lor pot fi folosite (inclusiv deloc).”
Evoluția rapidă a politicilor OpenAI pentru Sora i-a făcut pe unii comentatori să creadă că abordarea companiei – „mişcă-te repede și strică lucruri” – a fost intenționată, pentru a demonstra utilizatorilor și deținătorilor de proprietate intelectuală puterea și impactul aplicației.
Liam Mayes, lector la Universitatea Rice, în cadrul programului de studii media, consideră că realismul tot mai mare al deepfake-urilor ar putea avea două efecte sociale majore. În primul rând, spune el, „vom vedea oameni creduli căzând pradă diverselor escrocherii, companii mari exercitând presiuni coercitive și actori rău-voitori subminând procesele democratice.”
În același timp, incapacitatea de a distinge deepfake-urile de imaginile reale ar putea reduce încrederea în mass-media autentică. „Am putea asista la o erodare a încrederii în diverse instituții și publicații”, a spus Mayes.
Ca fondator și președinte al CMG Worldwide, Mark Roesler administrează drepturile de proprietate intelectuală și licențiere pentru peste 3.000 de personalități decedate din domeniile divertismentului, sportului, istoriei și muzicii — printre care James Dean, Neil Armstrong și Albert Einstein. Roesler a declarat că Sora este doar cea mai recentă tehnologie care ridică probleme legate de protejarea moștenirii acestor figuri.
„Au existat și vor exista abuzuri, la fel cum s-a întâmplat întotdeauna cu celebritățile și cu proprietatea lor intelectuală valoroasă”, a scris Roesler într-un e-mail. „Când am început să reprezentăm personalități decedate, în 1981, internetul nici măcar nu exista.”
„Noile tehnologii și inovațiile ajută la menținerea vie a moștenirii multor personalități istorice și iconice care au modelat și influențat istoria noastră”, a adăugat el, precizând că CMG va continua să reprezinte interesele clienților săi în cadrul aplicațiilor AI precum Sora.
Cum vedem falsurile
Pentru a diferenția între un videoclip real și unul generat de Sora, OpenAI a implementat mai multe instrumente care ajută utilizatorii și platformele digitale să identifice conținutul creat de aplicație.
Fiecare videoclip include semnale invizibile, un filigran vizibil și metadate — informații tehnice care descriu conținutul ca fiind generat de inteligență artificială.
Totuși, mai multe dintre aceste straturi pot fi ușor eliminate, spune Sid Srinivasan, informatician la Universitatea Harvard. „Filigranele vizibile și metadatele pot descuraja abuzurile ocazionale printr-un mic obstacol, dar sunt suficient de ușor de eliminat și nu îi vor opri pe cei mai determinați.”
Srinivasan consideră că un filigran invizibil combinat cu un instrument dedicat de detectare ar fi probabil cea mai fiabilă soluție. „În cele din urmă, platformele de găzduire video vor trebui probabil să aibă acces la astfel de instrumente de detectare, iar momentan nu există un calendar clar pentru extinderea accesului la aceste instrumente interne.”
Wenting Zheng, profesor asistent de informatică la Universitatea Carnegie Mellon, susține aceeași idee: „Pentru a detecta automat conținutul generat de AI pe rețelele sociale, ar fi util ca OpenAI să își partajeze instrumentele de urmărire a imaginilor, sunetelor și videoclipurilor cu platformele, pentru a-i ajuta pe oameni să identifice materialele generate de AI.”
Întrebată dacă OpenAI a împărtășit aceste instrumente de detectare cu alte platforme precum Meta sau X, compania a redirecționat NBC News către un raport tehnic general, care însă nu conține astfel de detalii.
Pentru a identifica mai bine conținutul autentic, unele companii apelează chiar la AI pentru a detecta alte AI, potrivit lui Ben Colman, CEO și cofondator al startup-ului Reality Defender, specializat în detectarea deepfake-urilor.
„Ființele umane — chiar și cele instruite special pentru această problemă, cum sunt unii dintre concurenții noștri — pot greși, pot rata lucruri invizibile sau imperceptibile auditiv”, a spus Colman.
La Reality Defender, „AI este folosită pentru a detecta AI”, a declarat Colman pentru NBC News. „Videoclipurile generate de AI pot părea tot mai realiste pentru mine și pentru tine, dar AI poate vedea și auzi lucruri pe care noi nu le putem percepe.”
În mod similar, software-ul Scam Detector al companiei McAfee „ascultă sunetul unui videoclip pentru a identifica amprentele audio ale AI și îl analizează pentru a determina dacă materialul este autentic sau generat artificial”, explică Steve Grobman, directorul tehnologic al McAfee.
Totuși, Grobman avertizează: „Noile instrumente fac ca videoclipurile și înregistrările audio false să pară tot mai reale, iar una din cinci persoane ne-a spus că ea sau cineva cunoscut a fost deja victima unei escrocherii bazate pe deepfake.”
Calitatea deepfake-urilor diferă și în funcție de limbă, deoarece instrumentele AI pentru limbile larg utilizate — precum engleza, spaniola sau mandarina — sunt mult mai avansate decât cele pentru limbile mai puțin folosite.
„Ne dezvoltăm constant tehnologia pe măsură ce apar noi instrumente AI și extindem acoperirea dincolo de engleză, pentru a include mai multe limbi și contexte”, a spus Grobman.
Îngrijorările legate de deepfake-uri au mai făcut prima pagină și în trecut. Cu mai puțin de un an în urmă, mulți observatori prevedeau că alegerile din 2024 vor fi dominate de materiale false generate de AI — lucru care, în mare parte, nu s-a confirmat.
Totuși, până în acest an, conținutul generat de inteligența artificială — imagini, sunet sau video — a putut fi, în general, distins de cel real. Mulți comentatori consideră însă că modelele lansate în 2025 sunt deosebit de realiste, amenințând capacitatea publicului de a discerne între informațiile autentice, create de oameni, și conținutul fabricat de AI.
Modelul video Veo 3 al companiei Google, lansat în luna mai, a fost descris drept „înfricoșător de precis” și „periculos de realist”, determinând un critic să întrebe: „Suntem oare pierduți?”
Articolul original poate fi citit AICI.