Pericolul crește
Ádám
Ádám
| 07-04-2026
Echipa de Stil de Viață · Echipa de Stil de Viață
Pe măsură ce inteligența artificială avansează, devine din ce în ce mai dificil să distingem realitatea de iluzia digitală. În spatele imaginilor suspect de perfecte care inundă rețelele sociale nu se află doar algoritmi, ci și capcane psihologice sofisticate, potrivit unei noi cercetări de la Universitatea Corvinus.
Pericolul crește
Am adunat metodele care te pot păcăli cel mai ușor - și pe cele pe care le poți folosi pentru a contracara conținutul generat de inteligența artificială.
Imaginează-ți următoarea situație: navighezi pe Facebook sau Instagram în timp ce îți savurezi cafeaua de dimineață și apoi îți vine în minte o imagine: o doamnă în vârstă care sărbătorește singură în curtea unei case de la țară, un băiețel care își salvează pisoiul din ruine sau un fenomen natural uluitor, nemaivăzut până acum, care stârnește emoții într-o țară vecină. După aceea, te mișci, îți place și poate scrii un mesaj de „Amin” sau „La mulți ani!” . Dacă ai făcut asta în ultimele săptămâni sau luni, atunci felicitări, cel mai probabil ai căzut în capcana digitală care a devenit unul dintre cele mai mari pericole online ale timpului nostru.
Era conținutului generat de inteligența artificială (IA) nu mai este viitorul, ci prezentul. Cu toate acestea, așa cum subliniază un studiu recent al Universității Corvinus, vigilența noastră poate fi recâștigată. În studiul său publicat în revista Computers in Human Behavior, cercetătorul Márk Miskolczi a analizat peste nouă mii de comentarii și sute de imagini generate pentru a înțelege de ce ne îndrăgostim de mașinărie și cum ne putem proteja împotriva ei. Una dintre cele mai importante descoperiri ale cercetării este că IA nu doar produce pixeli, ci provoacă reacții emoționale. Secretul succesului său nu constă în perfecțiunea tehnică – ea tot face greșeli – ci în exploatarea slăbiciunilor minții umane.
Cercetătorii spun că utilizatorii se bazează adesea pe așa-numitele euristici cognitive sau scurtături mentale. Nu avem timp să analizăm fiecare imagine în detaliu, așa că creierul nostru ia decizii rapide.
Dacă imaginea se încadrează în viziunea noastră asupra lumii sau dacă evocă în noi o nostalgie adânc înrădăcinată, simțul nostru critic pur și simplu se stinge.
Temele spirituale, politice sau religioase, scenele rurale uitate și fotografiile cu copii aflați în nevoie sunt deosebit de periculoase. Aceste „ancore” emoționale sunt atât de puternice încât utilizatorii apără adesea autenticitatea imaginii chiar și atunci când altcineva îi avertizează despre fraudă, a constatat studiul. Cu toate acestea, așa cum am menționat, există lumină la capătul tunelului; ținând cont de următoarele aspecte, putem expune cu ușurință – sau cel puțin mai ușor – conținut vizual creat de inteligența artificială.
Pericolul crește

Acordați atenție acestor

Cercetările lui Miskolczi au condus la o listă de opt criterii, „amprentele vizuale” pe care modelele generative de astăzi (precum Midjourney sau DALL-E) le lasă încă adesea în urmă. Dacă observați oricare dintre ele, ar trebui să deveniți imediat suspicioși, iar dacă credeți că este o înșelăciune intenționată, ar trebui să raportați conținutul către platformă.
Rebeliunea anatomiei: Deși inteligența artificială se îmbunătățește la desenarea oamenilor, degetele, dinții și membrele sunt încă punctele lor slabe. Mâinile cu șase degete, picioarele împletite sau gâturile cu unghiuri nenaturale nu sunt neobișnuite. Să aruncăm o privire atentă asupra mâinilor: dacă degetele sunt neclare sau sunt prea multe, putem fi siguri de munca noastră.
Asimetrii faciale: fața umană este în mod natural asimetrică, dar mașina adesea „greșește”. Priviți ochii: pot privi în două direcții diferite? Este o pupilă rotundă, iar cealaltă distorsionată? O greșeală frecventă este absența urechilor sau faptul că cercelul pur și simplu crește în carne. Linia părului poate fi, de asemenea, suspectă: părul generat artificial arată adesea mai mult ca o textură fibroasă decât ca o coafură reală.
Obiecte plutitoare și perturbări de mediu: IA nu înțelege contactul fizic. Adesea vedem imagini în care o persoană în vârstă ține o pâine, dar mâna sa nu atinge obiectul sau jumătate din pâine pur și simplu se amestecă în hainele sale. Ceștile de cafea care plutesc în fundal, picioarele de masă lipsă sau scările care duc nicăieri sunt semne revelatoare.
Cerozitatea texturilor: Imaginile generate au un luciu caracteristic, „prea perfect”. Pielea generată de inteligența artificială arată adesea ca și cum ar fi făcută din ceară: nu există pori, mici umflături sau imperfecțiuni reale ale pielii. Același lucru este valabil și pentru modelul hainelor: modelele țesăturilor sunt uneori repetitive sau se schimbă brusc de-a lungul unei pliuri.
Lăsând la o parte fizica, direcția umbrelor și a luminilor este una dintre cele mai dificile sarcini pentru o mașină. Dacă soarele strălucește din stânga, dar umbra este proiectată înainte, inteligența artificială este implicată. Lichidele sunt la fel de dificile: o băutură într-un pahar pare adesea solidă sau nu urmează gravitația atunci când paharul este înclinat.
Punctuație ilizibilă: încercați să citiți inscripțiile, plăcuțele de înmatriculare sau coperțile cărților din imagine! Pentru inteligența artificială, textul este doar o formă. Adesea vedem seturi de caractere fără sens, scrieri hieroglifice neclare sau cuvinte care par sens la prima vedere, dar la o inspecție mai atentă sunt doar linii distorsionate.
Perfecțiune nefirească: Exagerarea simetriei este, de asemenea, o greșeală. După cum am scris, o față reală nu este niciodată perfect simetrică. Dacă o imagine este atât de echilibrată încât este deranjantă, este probabil ca un algoritm să fi încercat să producă cel mai frumos rezultat.
„Colaps” în fundal: uită-te în spatele personajului principal! În scenele de grup, inteligența artificială se concentrează adesea doar pe persoana din prim-plan. Persoanele din fundal se topesc adesea într-o masă fără chip, au membre suplimentare sau se transformă în creaturi hibride suprarealiste (cum ar fi un câine cu două capete).

Avem o perioadă mai grea ca niciodată.

Totuși, trebuie să recunoaștem și că lista de mai sus acoperă doar erorile de nivel de intrare, iar tehnologia nu se odihnește niciodată. Acesta este motivul pentru care, până în 2026, modelele generative au cunoscut o dezvoltare atât de uimitoare, datorită căreia linia dintre iluzia digitală și realitatea în carne și oase a fost aproape complet estompată. Astăzi, este ușor să constatăm că fiecare detaliu anatomic al unei imagini este corect, luminile sunt precise din punct de vedere fizic, iar texturile sunt tulburător de realiste, însă acestea sunt produsele unui algoritm până la ultimul pixel. Puteți testa cât de încrezător sunteți în acest teren mlăștinos chiar acum: în galeria noastră de zece imagini de mai jos, am selectat un mix de fotografii reale și unele generate profesional de inteligență artificială.
Derulează prin selecție și încearcă să stabilești care fotografii sunt generate de inteligența artificială și care au avut de fapt un fotograf real în spatele camerei!
Acum trebuie să ne cerem sincer scuze, pentru că prin testul de mai sus am întins o mică capcană: toate cele zece imagini din galerie sunt de fapt produsul inteligenței artificiale. Nu a existat nicio fotografie reală printre ele, făcută de o persoană reală cu un aparat foto. Dacă ați arătat cu încredere spre unele dintre ele și ați spus „ei bine, asta trebuie să fie real”, nu vă descurajați – de fapt, acesta este exact efectul pe care l-am vrut să îl obținem, să demonstrăm că la nivelul tehnologic al anului 2026, chiar și cel mai pregătit observator poate fi păcălit în câteva minute. De altfel, fotografiile au fost făcute cu propriul model Nano Banana 2 de la Google, care este poate cel mai avansat în acest domeniu în acest moment.

Teoria „internetului mort”

Însă imaginile generate de inteligența artificială sunt doar începutul. Se pare că cercetările lui Corvinus au descoperit un alt fenomen, poate chiar mai înfricoșător: imaginile generate de inteligența artificială rareori merg singure și sunt aproape imediat înconjurate de conturi automatizate sau boți. Acești boți generează comentarii bazate pe șabloane precum „poză frumoasă”, „Dumnezeu să te binecuvânteze!” sau „felicitări!”, ceea ce este, în esență, un proces auto-perpetuant.
Comentariile boților cresc vertiginos popularitatea postării, iar algoritmul arată imaginea unor utilizatori și mai reali.
Mulți, chiar și printre sceptici, interpretează comentariile scrise automat ca răspunsuri umane, întărind și mai mult aparenta autenticitate a imaginii.
Din fericire, detectarea boților nu necesită o diplomă în informatică, ci doar puțină suspiciune față de tiparele repetitive. Unul dintre cele mai grăitoare semne este un timp de reacție nefiresc de rapid: dacă un profil tastează același mesaj șablon aproape la fiecare postare la câteva secunde după ce a fost postat, poți fi sigur că nu este o persoană reală care stă în fața mașinii. Aceste conturi se ascund adesea în spatele unor peisaje generice sau a unor fotografii de profil furate din altă parte, în timp ce au suspect de puțini prieteni reali în comparație cu activitatea aproape supraomenească vizibilă pe profilul lor. Un alt semn de avertizare este dacă comentariile sunt complet independente de contextul conținutului și nu constau în nimic mai mult decât un flux continuu de mesaje religioase, politice sau citate motivaționale bazate pe șabloane.
„Imaginile bazate pe inteligență artificială de pe rețelele de socializare sunt maestre ale înșelăciunii emoționale”, avertizează Márk Miskolczi, deoarece pericolul nu constă doar în a te lăsa păcălit de o singură imagine falsă. Problema este sistemică: dacă totul poate fi dovedit a fi fals, mai devreme sau mai târziu nu vom mai avea încredere în nimic. Această „criză de încredere” amenință, de asemenea, coeziunea socială și dialogul democratic. Soluția este dublă. Pe de o parte, este nevoie de reglementare: platformele ar trebui să facă obligatorie marcarea conținutului bazat pe inteligență artificială (de exemplu, cu filigrane digitale). Pe de altă parte, și acest lucru este mai important, cu toții trebuie să ne dezvoltăm capacitatea de a identifica conținutul generat de mașini.
Cele opt puncte menționate în cercetare ne pot ajuta în acest sens, dar – așa cum am subliniat – în multe cazuri acestea nu sunt suficiente și, în astfel de cazuri, trebuie să apelăm la bunul simț (așa cum am aflat de la unul dintre profesorii mei de la universitate – ed.). S-ar fi putut întâmpla cu adevărat acest lucru? Există mai multe surse de știri independente care scriu despre asta? Recunosc acest loc? De ce văd asta chiar acum? Cu astfel de întrebări, putem verifica relativ ușor conținutul pe care îl vedem – și pe noi înșine. La sfârșitul articolului, vă vom lăsa și cu câteva știri care dau de gândit din ultimele zile: seria de fotografii care s-a răspândit ca focul pe Instagram, care surprinde nunta orbitor de frumoasă a lui Tom Holland și Zendaya, a primit recent peste zece milioane de aprecieri. Problema este că niciuna dintre fotografii nu a fost reală, așa cum a confirmat însăși actrița. Zece milioane de oameni care au fost păcăliți de inteligența artificială într-o clipă – și câți alții ar fi putut fi cei care pur și simplu au văzut fotografiile, dar nu le-au dat apreciere?