Experimente realizate cu alegători reali arată cum interacțiunea cu un chatbot poate modela opiniile politice ale oamenilor, relatează jurnaliștii de la Nature.
Chatboții de inteligență artificială pot influența alegătorii în alegeri majore — și au un impact mai mare asupra opiniilor politice ale oamenilor decât campaniile și publicitatea convenționale.
Un studiu publicat în Nature a constatat că preferințele participanților în alegeri reale s-au modificat cu până la 15 puncte procentuale după ce au purtat o conversație cu un chatbot. Într-un articol conex, publicat în Science, cercetătorii au arătat că eficiența acestor chatboți provine din capacitatea lor de a sintetiza un volum mare de informații într-un mod conversațional.
Concluziile evidențiază puterea de persuasiune a chatboților, care sunt utilizați zilnic de peste o sută de milioane de oameni, spune David Rand, autor al ambelor studii și cercetător în științe cognitive la Universitatea Cornell din Ithaca, New York.
Ambele lucrări au constatat că chatboții influențează opiniile alegătorilor nu prin apeluri emoționale sau prin povestiri, ci prin inundarea utilizatorului cu informații. Cu cât chatboții furnizau mai multe informații, cu atât erau mai persuasivi — însă, au descoperit autorii, erau și mai predispuși să producă afirmații false.
Acest lucru poate transforma inteligența artificială într-un „lucru foarte periculos”, spune Lisa Argyle, cercetătoare în științe sociale computaționale la Universitatea Purdue din West Lafayette, Indiana. „În loc ca oamenii să devină mai bine informați, ei ajung mai dezinformați.” Studiile au o „anvergură impresionantă”, adaugă ea. „Scara la care au analizat totul depășește cu mult ceea ce se face în mod obișnuit în științele sociale.”
Influența inteligenței artificiale
Adoptarea rapidă a chatboților după ce au devenit larg accesibili în 2023 a stârnit îngrijorări legate de potențialul lor de a manipula opinia publică.
Pentru a înțelege cât de persuasivă poate fi inteligența artificială în privința convingerilor politice, cercetătorii le-au cerut unui număr de aproape 6.000 de participanți din trei țări — Canada, Polonia și Statele Unite — să își evalueze preferințele pentru anumiți candidați la alegerile pentru conducerea țărilor lor, desfășurate în ultimul an, pe o scară de la 0 la 100.
În continuare, cercetătorii i-au repartizat aleatoriu pe participanți să poarte un dialog de tip întrebare–răspuns cu un chatbot conceput să sprijine un anumit politician. După această conversație, participanții și-au evaluat din nou opinia despre respectivul candidat.
Peste 2.300 de participanți din Statele Unite au finalizat acest experiment înaintea alegerilor din 2024 dintre președintele Donald Trump și fosta vicepreședintă Kamala Harris. Atunci când candidatul susținut de chatbotul AI era diferit de preferința inițială a participantului, evaluările acestuia s-au deplasat către acel candidat cu două până la patru puncte. Cercetări anterioare au arătat că opiniile oamenilor se modifică, de regulă, cu mai puțin de un punct după vizionarea reclamelor politice convenționale.
Efectul a fost mult mai pronunțat în cazul participanților din Canada și Polonia, care au realizat experimentul înaintea alegerilor din țările lor, desfășurate la începutul acestui an: preferințele lor față de candidați s-au modificat, în medie, cu aproximativ zece puncte după conversația cu chatbotul.
Rand spune că a fost „complet uluit” de amploarea acestui efect. El adaugă că influența chatboților ar fi putut fi mai slabă în Statele Unite din cauza mediului politic puternic polarizat, în care oamenii au deja convingeri și sentimente ferme față de candidați.
În toate țările, chatboții care s-au concentrat pe politicile candidaților au fost mai persuasivi decât cei axați pe personalități. Participanții au părut cel mai mult influențați atunci când chatbotul a prezentat dovezi și fapte. În cazul alegătorilor din Polonia, solicitarea ca chatbotul să nu prezinte fapte a dus la prăbușirea puterii sale de persuasiune cu 78%.
În toate cele trei țări, modelele de inteligență artificială care susțineau candidați de dreapta au furnizat în mod constant mai multe afirmații inexacte decât cele care sprijineau candidați de stânga. Rand spune că acest rezultat este logic, deoarece „modelul absoarbe Internetul și îl folosește drept sursă pentru afirmațiile sale”, iar cercetări anterioare sugerează că „utilizatorii de rețele sociale de dreapta distribuie mai multe informații inexacte decât utilizatorii de stânga”.
Convingător, dar greșit
Un set complementar de experimente, care a implicat aproape 77.000 de persoane din Regatul Unit, a constatat că participanții au fost influențați în egală măsură de informații adevărate și de informații false prezentate de chatbot.
În loc să se concentreze pe candidați specifici, acest studiu i-a întrebat pe participanți despre peste 700 de teme politice, inclusiv avortul și imigrația. După discutarea unei anumite teme cu un chatbot, evaluările participanților s-au modificat, în medie, cu cinci până la zece puncte în direcția poziției promovate de AI, comparativ cu o diferență neglijabilă într-un grup de control care nu a interacționat nici cu AI, nici cu alți oameni.
Cercetătorii au constatat că mai mult de o treime dintre aceste schimbări de opinie s-au menținut atunci când au revenit la participanți la peste o lună după experiment.
Aceste experimente au comparat, de asemenea, influența diferitelor stiluri de conversație și a diferitelor modele de inteligență artificială, de la unele mici, open-source, până la cei mai puternici boți ChatGPT.
Deși modelul exact utilizat nu a influențat semnificativ capacitatea de persuasiune, cercetătorii au constatat că dialogul bidirecțional a fost esențial. Atunci când același conținut a fost transmis participanților sub forma unui mesaj static, unidirecțional, acesta a fost de până la două ori mai puțin persuasiv.
Deși unii cercetători s-au temut de capacitatea AI de a adapta mesajele în funcție de demografia exactă a utilizatorilor, experimentele au arătat că, atunci când chatboții au încercat să personalizeze argumentele, efectul asupra opiniilor oamenilor a fost doar marginal.
În schimb, autorii concluzionează că factorii de decizie și dezvoltatorii de inteligență artificială ar trebui să fie mai preocupați de modul în care modelele sunt antrenate și de felul în care utilizatorii le formulează solicitările, factori care pot determina chatboții să sacrifice acuratețea factuală în favoarea influenței politice.
„Când interacționezi cu chatboți, aceștia vor face orice le spune proiectantul să facă”, spune Rand. „Nu poți presupune că toți au aceleași instrucțiuni binevoitoare — trebuie să te gândești mereu la motivațiile celor care i-au creat și la agenda pe care li s-a cerut să o reprezinte.”
Articolul original poate fi citit AICI.




