Când oamenii care creează AI și par demni de încredere sunt, de fapt, cei care au cea mai mică încredere în ea, acest lucru arată că stimulentele pentru viteză ajung să depășească siguranța, relatează jurnaliștii de la The Guardian.
Krista Pawloski își amintește momentul unic și definitoriu care i-a modelat opinia despre etica inteligenței artificiale. Ca lucrător AI pe Amazon Mechanical Turk – o platformă care permite companiilor să angajeze persoane pentru sarcini precum introducerea de date sau potrivirea unui prompt AI cu rezultatul său – Pawloski își petrece timpul moderând și evaluând calitatea textelor, imaginilor și videoclipurilor generate de AI, precum și verificând unele informații.
Cu aproximativ doi ani în urmă, lucrând de acasă, la masa din sufragerie, a acceptat un job în care trebuia să eticheteze tweet-uri drept rasiste sau nu. Când i-a fost prezentat un tweet care spunea „Listen to that mooncricket sing”, era pe punctul de a apăsa pe butonul „nu”, înainte de a decide să verifice sensul cuvântului „mooncricket”, care, spre surprinderea ei, s-a dovedit a fi o insultă rasială la adresa afro-americanilor.
„Stăteam acolo gândindu-mă de câte ori este posibil să fi făcut aceeași greșeală fără să-mi dau seama”, a spus Pawloski.
Dimensiunea potențială a propriilor erori, dar și a celor comise de mii de alți lucrători ca ea, a făcut-o pe Pawloski să intre într-o spirală de îngrijorare. Câți alții au lăsat, fără să știe, materiale ofensatoare să treacă mai departe? Sau, mai rău, au ales în mod conștient să le permită?
După ani în care a fost martoră la mecanismele interne ale modelelor de inteligență artificială, Pawloski a decis să nu mai folosească personal produse de AI generativ și le spune membrilor familiei sale să stea departe de ele.
„Este un nu categoric în casa mea”, a spus Pawloski, referindu-se la faptul că nu îi permite fiicei sale adolescente să folosească instrumente precum ChatGPT. Iar persoanelor pe care le întâlnește în contexte sociale le recomandă să întrebe AI-ul despre un subiect pe care îl cunosc foarte bine, pentru a putea observa erorile și a înțelege singuri cât de imperfectă este această tehnologie. Pawloski a mai spus că, de fiecare dată când vede pe site-ul Mechanical Turk o listă de sarcini noi din care poate alege, se întreabă dacă există vreo posibilitate ca ceea ce face să fie folosit pentru a face rău oamenilor – iar de multe ori, spune ea, răspunsul este da.
Într-o declarație, Amazon a precizat că lucrătorii pot alege, la propria discreție, ce sarcini să îndeplinească și pot analiza detaliile unei sarcini înainte de a o accepta. Potrivit Amazon, cei care solicită sarcinile stabilesc specificațiile fiecărei activități, precum timpul alocat, plata și nivelul instrucțiunilor.
„Amazon Mechanical Turk este o platformă care conectează companii și cercetători, numiți requesters, cu lucrători care îndeplinesc sarcini online, precum etichetarea imaginilor, completarea de sondaje, transcrierea textelor sau evaluarea rezultatelor generate de inteligența artificială”, a declarat Montana MacLachlan, purtător de cuvânt al Amazon.
Pawloski nu este singura. O duzină de evaluatori AI – lucrători care verifică răspunsurile unui sistem de inteligență artificială din punctul de vedere al acurateței și al ancorării în realitate – au declarat pentru The Guardian că, după ce au înțeles modul în care funcționează chatboții și generatoarele de imagini și cât de greșite pot fi rezultatele acestora, au început să-și îndemne prietenii și familia să nu folosească deloc AI generativ sau, cel puțin, să-și educe apropiații să îl utilizeze cu prudență.
Acești formatori lucrează pe o gamă largă de modele AI – Gemini de la Google, Grok al lui Elon Musk, alte modele populare și mai mulți boți mai mici sau mai puțin cunoscuți.
O lucrătoare, evaluator AI pentru Google, care analizează răspunsurile generate de funcția AI Overviews din Google Search, a spus că încearcă să folosească AI-ul cât mai rar posibil, dacă îl folosește.
Abordarea companiei privind răspunsurile generate de AI la întrebări legate de sănătate, în special, i-a dat de gândit, a spus ea, solicitând anonimatul de teama unor repercusiuni profesionale. Ea a afirmat că a observat colegi evaluând fără spirit critic răspunsuri AI pe teme medicale și că i s-a cerut să evalueze ea însăși astfel de întrebări, în ciuda lipsei unei pregătiri medicale.
Acasă, i-a interzis fiicei sale de 10 ani să folosească chatboți. „Mai întâi trebuie să învețe gândirea critică, altfel nu va putea să își dea seama dacă un răspuns este bun sau nu”, a spus evaluatoarea.
„Evaluările sunt doar unul dintre numeroasele puncte de date agregate care ne ajută să măsurăm cât de bine funcționează sistemele noastre, dar nu influențează direct algoritmii sau modelele”, se arată într-un comunicat Google. „De asemenea, avem în vigoare o serie de protecții solide pentru a evidenția informații de înaltă calitate în toate produsele noastre.”
Cei care urmăresc boții trag semnalul de alarmă
Acești oameni fac parte dintr-o forță de muncă globală, formată din zeci de mii de persoane, care ajută chatboții să pară mai umani. Atunci când verifică răspunsurile AI, ei încearcă totodată să se asigure că un chatbot nu debitează informații inexacte sau dăunătoare.
Atunci când tocmai oamenii care creează AI și par demni de încredere sunt cei care au cea mai mică încredere în ea, experții cred însă că acest lucru semnalează o problemă mult mai mare.
„Arată că există probabil stimulente pentru lansare rapidă și scalare, în detrimentul unei validări lente și atente, iar feedbackul oferit de evaluatori este ignorat”, a declarat Alex Mahadevan, directorul MediaWise, un program de educație media al Poynter. „Asta înseamnă că, atunci când vedem versiunea finală a chatbotului, ne putem aștepta la același tip de erori pe care le întâmpină ei. Nu este un semn bun pentru un public care apelează din ce în ce mai mult la LLM-uri pentru știri și informații.”
Lucrători AI au spus că nu au încredere în modelele la care lucrează din cauza accentului constant pus pe rapiditatea livrării, în detrimentul calității.
Brook Hansen, lucrătoare AI pe Amazon Mechanical Turk, a explicat că, deși nu neîncrede în AI-ul generativ ca concept, nu are încredere nici în companiile care dezvoltă și implementează aceste instrumente. Pentru ea, punctul de cotitură a fost realizarea cât de puțin sprijin primesc oamenii care antrenează aceste sisteme.
„Ni se cere să ajutăm la îmbunătățirea modelului, însă de multe ori primim instrucțiuni vagi sau incomplete, instruire minimă și termene nerealiste pentru finalizarea sarcinilor”, a spus Hansen, care lucrează cu date din 2010 și a contribuit la antrenarea unora dintre cele mai populare modele de AI din Silicon Valley. „Dacă lucrătorii nu sunt dotați cu informațiile, resursele și timpul de care avem nevoie, cum ar putea rezultatele să fie sigure, corecte sau etice? Pentru mine, acest decalaj dintre ceea ce se așteaptă de la noi și ceea ce ni se oferă efectiv pentru a ne face treaba este un semn clar că firmele prioritizează viteza și profitul în detrimentul responsabilității și calității.”
Răspândirea informațiilor false într-un ton sigur pe sine, în locul refuzului de a răspunde atunci când nu există un răspuns clar disponibil, este un defect major al AI-ului generativ, spun experții.
Un audit al primelor 10 modele de inteligență artificială generativă, inclusiv ChatGPT, Gemini și AI-ul Meta, realizat de organizația non-profit de educație media NewsGuard, a arătat că rata de non-răspuns a chatboților a scăzut de la 31% în august 2024 la 0% în august 2025. În același timp, probabilitatea ca chatboții să repete informații false aproape s-a dublat, de la 18% la 35%, potrivit NewsGuard. Niciuna dintre companii nu a răspuns solicitării de comentarii a NewsGuard la momentul respectiv.
„Nu aș avea încredere în niciun fapt pe care [botul] îl oferă fără să îl verific eu însămi – pur și simplu nu este de încredere”, a spus o altă evaluatoare AI de la Google, care a cerut anonimatul din cauza unui acord de confidențialitate semnat cu firma contractantă. Ea îi avertizează pe oameni în privința folosirii acestuia și a reluat observația unui alt evaluator, potrivit căreia persoane cu doar cunoștințe superficiale sunt puse să evalueze întrebări medicale și chestiuni etice sensibile. „Acesta nu este un robot etic. Este doar un robot.”
„Glumim spunând că [chatboții] ar fi grozavi dacă am reuși să-i facem să nu mai mintă”, a spus un instructor AI care a lucrat cu Gemini, ChatGPT și Grok, solicitând anonimatul, după ce a semnat acorduri de confidențialitate.
„Gunoi introduci, gunoi obții”
Un alt evaluator AI, care și-a început activitatea evaluând răspunsuri pentru produsele Google la începutul anului 2024, a spus că, la aproximativ șase luni de la începerea jobului, a ajuns să simtă că nu mai poate avea încredere în AI.
Sarcina lui era să „încurce” modelul – adică să adreseze inteligenței artificiale a Google diverse întrebări menite să-i scoată la iveală limitele sau punctele slabe. Având o diplomă în istorie, acest lucrător a pus modelului întrebări de natură istorică.
„Am întrebat-o despre istoria poporului palestinian și nu mi-a oferit niciun răspuns, indiferent cum am reformulat întrebarea”, își amintește acesta, cerând anonimatul, întrucât a semnat un acord de confidențialitate. „Când am întrebat despre istoria Israelului, nu a avut nicio problemă să îmi ofere o prezentare foarte amplă. Am raportat situația, dar nimănui de la Google nu părea să-i pese.”
Întrebată în mod specific despre situația descrisă de evaluator, compania Google nu a emis niciun punct de vedere.
Pentru acest lucrător de la Google, cea mai mare problemă legată de antrenarea AI este feedbackul oferit modelelor de către evaluatori ca el. „După ce am văzut cât de proaste sunt datele care intră în presupusa antrenare a modelului, am știut că nu există absolut nicio șansă ca acesta să fie antrenat corect în felul acesta”, a spus el. A folosit expresia „garbage in, garbage out” („gunoi la intrare, gunoi la ieșire”), un principiu din programare care explică faptul că, dacă alimentezi un sistem tehnic cu date proaste sau incomplete, rezultatele vor avea aceleași defecte.
Evaluatorul evită să folosească AI generativ și a spus că „i-am sfătuit pe toți membrii familiei și pe prietenii mei să nu cumpere telefoane mai noi care au AI integrat, să reziste, pe cât posibil, actualizărilor automate care adaugă integrare AI și să nu spună AI-ului nimic personal”.
Fragil, nu futurist
Ori de câte ori subiectul AI apare într-o conversație socială, Hansen le amintește oamenilor că AI nu este magie – explicând armata de lucrători invizibili din spatele ei, lipsa de fiabilitate a informațiilor și cât de dăunătoare este pentru mediu.
„Odată ce ai văzut cum sunt cârpite aceste sisteme – prejudecățile, termenele grăbite, compromisurile constante – nu mai vezi AI-ul ca pe ceva futurist și începi să-l vezi ca pe ceva fragil”, a spus Adio Dinika, care studiază munca din spatele AI la Distributed AI Research Institute, referindu-se la oamenii care lucrează în culise. „Din experiența mea, întotdeauna cei care nu înțeleg AI-ul sunt cei fascinați de el.”
Lucrătorii AI care au vorbit cu The Guardian au spus că au decis să ia lucrurile în propriile mâini, să facă alegeri mai bune și să creeze conștientizare în jurul acestora, subliniind în special ideea că AI, așa cum spune Hansen, „este doar atât de bun pe cât sunt datele introduse în el, iar ceea ce se introduce nu este întotdeauna cea mai bună informație”. Ea și Pawloski au susținut o prezentare în luna mai, la conferința de primăvară a Michigan Association of School Boards. Într-o sală plină de membri ai consiliilor școlare și administratori din întregul stat, au vorbit despre impactul etic și de mediu al inteligenței artificiale, sperând să declanșeze o discuție.
„Mulți participanți au fost șocați de ceea ce au aflat, deoarece majoritatea nu auziseră niciodată despre munca umană sau amprenta de mediu din spatele AI-ului”, a spus Hansen. „Unii au fost recunoscători pentru aceste informații, în timp ce alții au fost defensivi sau frustrați, acuzându-ne că suntem ‘apocaliptici’ în privința unei tehnologii pe care ei o considerau captivantă și plină de potențial.”
Pawloski compară etica AI cu cea a industriei textile: atunci când oamenii nu știau cum sunt fabricate hainele ieftine, erau fericiți să găsească cea mai bună ofertă și să economisească câțiva bani. Dar, pe măsură ce au început să apară povești despre sweatshop-uri, consumatorii au avut de ales și au știut că trebuie să pună întrebări. Ea crede că același lucru se întâmplă și cu AI-ul.
„De unde provin datele tale? Este acest model construit pe încălcarea drepturilor de autor? Au fost lucrătorii plătiți corect pentru munca lor?”, a spus ea. „Abia începem să punem aceste întrebări, așa că, în cele mai multe cazuri, publicul larg nu are acces la adevăr, dar, la fel ca în industria textilă, dacă continuăm să întrebăm și să punem presiune, schimbarea este posibilă.”
Articolul original poate fi citit AICI.




