spot_img
luni, aprilie 29, 2024
AcasăLocalCum a ajuns Iohannis vornicel pentru o nuntă din Dorohoi (video)

Cum a ajuns Iohannis vornicel pentru o nuntă din Dorohoi (video)

Clipul de invitaţie la nunta a doi tineri din Dorohoi a devenit viral pe unele medii sociale prin modalitatea deepfake folosită de aceştia. Cu ajutorul tehnologiei deepfake şi a inteligenţei artificiale, Andreea Esca prezintă o ştire de la pupitrul de televiziune, iar la un moment dat preşedintele Klaus Iohannis vorbeşte despre acelaşi eveniment fericit pentru cei doi botoşăneni.

Cu vocile şi chiar intonaţia aproape identice, protagoniştii clipului invită apropiaţii celor doi tineri să ia parte la nuntă şi la petrecerea de la un restaurant din oraş.

Pe cât de amuzant pare, la prima vedere, filmuleţul scoate la iveală şi o latură extrem de îngrijorătoare a fenomenului. Mai ales în campania electorală, aceste deepfake-uri reprezintă o formă de manipulare digitală extrem de gravă. Aceasta utilizează inteligenţa artificială pentru crearea de conţinut audio-video falsificat grosolan. Până acum au apărut nenumărate astfel de tipuri de filmuleţe deepfake. Imaginea unor persoane publice este astfel folosită pentru a promova diferite medicamente sau cure de slăbire minune.

Clipuri şi cu Mugur Isărescu

Nici măcar guvernatorul Băncii Centrale nu a scăpat. Mugur Isărescu a apărut într-un filmuleţ falsificat de inteligenţa artificială încercând să-i convingă pe români să investească într-o platformă inexistentă.

În acest context, Directoratul Naţional de Securitate Cibernetică (DNSC) a lansat un ghid pentru a ne învăţa cum să deosebim o înregistrare reală de un Deepfake. Autorităţile DNSC spun că aceste tehnologii pot fi extrem de dăunătoare mai ales în această perioadă, în care urmează alegeri.

„Cu ocazia zilei de 1 aprilie, Ziua Păcălelii, am considerat oportun să lansăm ghidul despre deepfake. Un ghid care e menit să ajute utilizatorul şi public să înţeleagă mai bine fenomenul deepfake şi pentru a lua măsurile necesare pentru a se proteja de ştirile false, de dezinformare şi de materialele manipulate cu prilejul acestui fenomen”, a precizat Cezar Bărbuceanu, expert în Politici Publice în cadrul DNSC.

Dacă sună prea bine, ne punem primul semn de întrebare

Potrivit celor de la DNSC, există mai multe semne la care trebuie să fim atenţi când privim clipuri atipice. Ori de câte ori se utilizează Inteligenţa Artificială pentru a se recita sau a se mima anumite cuvinte sau un anumit text, personajul iese din cadru şi este mai pixelat. Trebuie să fim atenţi în primul rând la imagini.

Imaginea trebuie să curgă foarte cursiv, foarte fluid, ca să ne dăm seama că este adevărat. Totodată, sunetul ar trebui să aibă variaţii, atunci când vorbim avem un anumit temperament sau o anumită stare, nu vorbim niciodată liniar, iar aceste soluţii sunt făcute să transmită mesajul liniar.

În primul rând, imaginea este mai pixelată decât cea originală, pentru că este folosită practic imaginea originală peste care se încearcă cumva montarea sau ilustrarea unei posibile imagini sau a unui posibil videoclip care să spună ceea ce se doreşte.

Sunt anumite sunete pe litere, şi totodată ajustarea sau sincronul vocii cu mişcarea. Pentru că aici se încearcă mascarea, atunci când personajul spune altceva. Totodată tonalitatea mesajului, nu ar trebui să fie monoton, iar imaginea trebuie să fie fluidă.

Un clip exemplar este şi cel realizat de comediantul Jordan Peel, în urmă cu mai mulţi ani. Acesta a creat, cu ajutorul deepfake un clip în care îl imită perfect pe preşedintele, la acea dată, Barack Obama.

Statul nu poate face nimic

Din păcate, nici legislația nu este prea clară în România la ora actuală. Legislativ, aspectul este reglementat doar de proprietatea intelectuală, în prezent. Dacă este utilizată imaginea unei persoane publice sau a unui produs sau a unui brand şi este redată în alt context, doar legislaţia furtului de proprietate intelectuală poate fi folosită acum, ceea ce este prea puţin.
În prezent, DNSC, alături de anumite platforme de social media şi cu membrii din cadrul acestora încearcă să combată fenomenul, să pună la punct nişte proceduri, pentru a creşte gradul de conştientizare.

Doar un motor de căutare ne poate ajuta să verificăm dacă un video este deepfake, dar numai în cazul tentativelor de fraudă economică. „Scheme Advisers, dacă e o încercare de fraudare financiară care poate utiliza tot deepfake sau social enginering, la fel. Luăm linkul şi vedem dacă a mai fost raportat şi obţinem un rezultat concret”, a mai spus Cezar Bărbuceanu.

Știai că poți susține Monitorul fără să scoți bani din buzunar? Durează mai puțin de un minut să redirecționezi 3,5% din impozit către asociația noastră. Completaţi formularul de mai jos, iar de restul ne ocupăm noi.
Deja ai votat!
Botoșani
cer senin
20.6 ° C
21 °
20.5 °
45 %
4.4kmh
1 %
lun
18 °
mar
20 °
mie
21 °
joi
22 °
vin
22 °

CARICATURA ZILEI

POZA ZILEI

  Antrenorul FC Botoșani cățărat pe gard pentru ultimele indicații la meciul cu Dinamo.

EDITORIAL

De când am intrat în Uniunea Europeană banii au curs gârlă, mult peste 70 de miliarde de euro, continuă să vină și vor mai...

EPIGRAMA ZILEI

S-a enervat și a urlat De s-a cutremurat orașul Când și-a găsit soțul în pat Cu ... iepurașul!   -Dumitru MONACU

HAPPY CINEMA

POLITICĂ EDITORIALĂ

Politica editorială a Monitorului de Botoșani

Monitorul de Botoşani este un cotidian lansat pe 24 iunie 1995, cu distribuţie pe raza judeţului Botoşani. În ultimii ani tot timpul a fost...

ÎN ATENȚIA CITITORILOR

În atenţia cititorilor

Este foarte important pentru redacţia noastră  să ofere cititorilor  posibilitatea de a comunica cu noi  rapid şi uşor. Astfel, pentru: - a ne aduce la...

MONITORUL DE BOTOȘANI – COD DE CONDUITĂ

Codul de conduită al jurnalistului

În prezentul Cod, noţiunea de interes public va fi înţeleasă pornind de la următoarele premise: - Orice chestiune care afectează viaţa comunităţii este de interes...