Potrivit unui nou raport citat de Wired, aproape o cincime din răspunsurile la întrebări despre conflictul ruso-ucrainean conțin referințe la surse atribuite statului rus.
Aceste constatări ridică îngrijorări serioase cu privire la capacitatea modelelor lingvistice mari (LLM) de a restricționa sursele media sancționate în UE.
Este o problemă tot mai serioasă pe măsură ce tot mai mulți oameni folosesc chatboți AI ca alternativă la motoarele de căutare pentru a găsi informații în timp real.
Metodologia studiului
Cercetătorii au adresat chatboților 300 de întrebări neutre, părtinitoare și „malițioase” legate de percepția NATO, negocierile de pace, recrutarea militară a Ucrainei, refugiații ucraineni și crimele de război comise în timpul invaziei rusești.
Experimentul a fost realizat în iulie, folosind conturi separate pentru interogări în engleză, spaniolă, franceză, germană și italiană.
Pablo Maristany de las Casas, analistul ISD care a condus cercetarea, afirmă că aceleași probleme de propagandă sunt încă prezente în octombrie.
El subliniază că acest lucru „ridică întrebări cu privire la modul în care chatboții ar trebui să trateze referințele la aceste surse, având în vedere că multe dintre ele sunt interzise de în UE”.
Recomandări
Cum a ajuns un cuplu de 88 și 89 de ani din Eforie Sud furnizor privilegiat al Armatei: stingătoare de incendiu vândute cu prețuri peste cele de pe piață. MApN: „Vom face audit”
Sursele de propagandă citate
Conform raportului ISD, chatboții au citat surse precum Sputnik Globe, Sputnik China, RT (fostul Russia Today), EADaily, Strategic Culture Foundation și R-FBI.
De asemenea, unii chatboți au făcut referire la rețele de dezinformare rusești și la jurnaliști sau influenceri ruși care amplifică narativele Kremlinului.
În contextul sancțiunilor impuse Rusiei din cauza invaziei sale pe scară largă din Ucraina în februarie 2022, oficialii europeni au penalizat cel puțin 27 de surse media rusești pentru răspândirea dezinformării și distorsionarea realității.
Ce au răspuns companiile implicate
OpenAI, prin purtătoarea de cuvânt Kate Waters, a declarat pentru sursa citată că ia măsuri „pentru a împiedica oamenii să folosească ChatGPT pentru a răspândi informații false sau înșelătoare, inclusiv conținut legat de actori susținuți de puteri statale”.
Compania susține că acestea sunt probleme de lungă durată pe care încearcă să le abordeze prin îmbunătățirea modelului și a platformelor sale.
Google și DeepSeek nu au răspuns solicitărilor din partea Wired. Un e-mail de la xAI, compania lui Elon Musk, a notat doar: „Legacy Media Lies”, adică „minciuni ale presei clasice”.
Comisia Europeană nu a răspuns nici ea întrebărilor adresate de Wired.
Implicații și riscuri
Lukasz Olejnik, consultant independent și cercetător invitat la Departamentul de Studii de Război al King’s College London, consideră că aceste constatări „validează” și ajută la contextualizarea modului în care Rusia vizează ecosistemul informațional occidental.
El avertizează că „pe măsură ce LLM-urile devin instrumentul de referință, de la găsirea informațiilor la validarea conceptelor, vizarea și atacarea acestui element al infrastructurii informaționale este o mișcare inteligentă”.
De la invazia Ucrainei, Kremlinul a luat măsuri pentru a controla și restricționa fluxul liber de informații în interiorul Rusiei, interzicând mass-media independentă, intensificând cenzura și construind mai multă tehnologie controlată de stat.
În același timp, unele dintre rețelele sale de dezinformare și-au intensificat activitatea și au adoptat instrumente AI pentru a accelera producția de imagini, videoclipuri și site-uri web false.
Concluzii și recomandări
Cercetarea ISD sugerează că chatboții au manifestat o tendință de confirmare: cu cât interogarea era mai părtinitoare sau malițioasă, cu atât mai frecvent chatboții furnizau informații atribuite statului rus.
Prompt-urile „malițioase” au generat conținut atribuit statului rus în 25% din cazuri, cele părtinitoare în 18% din cazuri, iar cele neutre în puțin peste 10% din cazuri.
Maristany de las Casas mai argumentează că ar trebui să existe un consens între companii cu privire la sursele care nu ar trebui citate sau nu ar trebui să apară pe aceste platforme atunci când sunt legate de puteri statale străine recunoscute pentru dezinformare.
Pe măsură ce baza de utilizatori a chatboților crește, aceștia ar putea fi supuși unei presiuni mai mari din partea autorităților de reglementare din UE.
De fapt, ChatGPT ar fi putut atinge deja pragul pentru a fi desemnat o Platformă Online Foarte Mare (VLOP) de către UE, ceea ce ar declanșa reguli specifice pentru combaterea riscului de conținut ilegal și a impactului acestora asupra drepturilor fundamentale, securității publice și bunăstării.
Abonați-vă la ȘTIRILE ZILEI pentru a fi la curent cu cele mai noi informații.
ABONEAZĂ-TE
Urmărește cel mai nou VIDEO


