sâmbătă, decembrie 7, 2024

„Hasta la vista, baby”: Lupta împotriva informațiilor false generate de inteligenţa artificală

SCIENCE+„Hasta la vista, baby”: Lupta împotriva informațiilor false generate de inteligenţa artificală

autor: Mariyam Ospanova

Pe 30 mai 2024, OpenAI a publicat primul raport în care oferă detalii despre utilizarea instrumentelor sale de inteligență artificială în operațiuni secrete de influențare. În ultimele trei luni, compania a identificat și blocat cinci încercări de utilizare a IA generative care aparține companiei OpenAI, folosită pentru crearea și răspândirea de propagandă pe rețelele sociale de către personaje din Rusia, China, Iran și Israel.

De exemplu, în cadrul unei operațiuni care viza utilizatori din Ucraina, Moldova, țările baltice și Statele Unite ale Americii, propagandiștii ruși au dezvoltat un bot Telegram care avea rolul de a genera comentarii politice. Personaje din China au creat conținut pentru platformele X și Medium, lăudând eforturile internaționale ale guvernului lor. În Iran, propagandiștii au creat articole care criticau Statele Unite și Israelul. Compania israeliană Stoic a creat conturi false și a generat o serie de materiale pe tema conflictului din Gaza.

Propaganda, știrile false, farsele, fraudele și pornografia sunt produse actualmente intens folosind rețelele neuronale, cunoscute și sub denumirea de inteligență artificială generativă. Informațiile false generate de IA apar în toate formatele posibile: video, foto, audio și text. Înșelătoria nu a fost niciodată atât de convingătoare sau atât de ușor de creat.

În acest articol, echipa Factcheck.kz pune la dispoziție îndrumări pentru combaterea informațiilor false generate de IA. Am adunat cele mai utile resurse, inclusiv cele mai recente instrumente pentru identificarea informațiilor false, precum și sfaturi legate de igiena cibernetică și gândirea critică. În plus, am elaborat un rezumat al experiențelor din domeniul legislativ la nivel global privind reglementarea rețelelor neuronale și a conținutului generat de acestea.

Cuprins

Așteptări versus realitate

Este de notorietate faptul că inteligența artificială a fost mult timp demonizată în science fiction, fiind adesea descrisă ca inamicul principal atunci când scapă de sub control. Însă îngrijorările legate de posibilele pericole ale inteligenței artificiale depășesc granițele literaturii și cinematografiei..

Cu mult timp înainte de apariția Midjourney, ChatGPT și a altor sisteme de IA generativă, experții au anticipat că amenințarea reprezentată de IA va crește pe măsură ce aceasta se dezvoltă. Desigur, pentru mulți oameni, aceste avertismente au sunat adesea ca niște predicții ale unei revolte iminente a mașinăriilor, în stilul „Terminator”.

În consecință, giganții IT au continuat să investească activ în IA, iar oamenii de știință au continuat să facă progrese în domeniu. Este clar că IA generativă a declanșat o revoluție, gata să transforme industrii întregi.

Însă omenirea are talentul de a transforma orice tehnologie promițătoare într-o armă, iar rețelele neuronale nu fac excepție. Astăzi putem afirma că utilizarea modelelor generative, în special pentru generarea de informații false, reprezintă o amenințare cât se poate de reală.

În anul 2024, analiștii de la Forumul Economic Mondial au evidențiat faptul că dezinformarea generată de inteligența artificială este cea mai stringentă amenințare pe termen scurt pentru comunitatea globală. Potrivit experților, programele avansate de inteligență artificială intensifică răspândirea informațiilor false, prezentând un risc semnificativ pentru democrație, o societate polarizată și o amenințare imediată importantă pentru economia globală.

Grafice informative din raportul WEF. Experții consideră că informațiile false și dezinformarea reprezintă cea mai mare amenințare în următorii doi ani.

La începutul lui 2023 OpenAI, în colaborare cu Observatorul Internetului de la Stanford și cu Centrul pentru securitate și tehnologii emergente de la Universitatea Georgetown, a publicat un raport care abordează potențialele riscuri ale utilizării unor modele lingvistice extinse (LLM), cum ar fi Gemini sau Chat-GPT, în scopul dezinformării. Analiștii companiei au confirmat că „pe măsură ce modelele lingvistice extinse (LLM) devin tot mai răspândite […], a devenit aproape imposibilă asigurarea faptului că aceste modele nu vor fi folosite pentru a genera dezinformare”.

În același timp, autorii raportului sugerează că o posibilă soluție care să contracareze răspândirea dezinformării constă în eforturile comune ale rețelelor sociale, dezvoltatorilor de IA și guvernelor. Însă experții avertizează că aceste eforturi combinate de reglementare a conținutului ar putea să nu fie suficiente pentru a ține pasul cu ritmul rapid al progresului tehnologic în domeniu.

Nu îi trebuie hainele și motocicleta ta

Zeci de ani, a existat teama că supercalculatoarele ar putea scăpa de sub control și deveni o amenințare pentru umanitate. Însă până acum am reușit să facem față singuri cu succes acestei provocări (Imagine: Midjourney).

Când discutăm despre riscurile informaționale asociate cu IA generativă, nu ne referim la programele în sine, ci mai degrabă la utilizatorii acestora. Escrocii, glumeții și propagandiștii și-au dat seama repede că rețelele neuronale i-ar putea ajuta să-și atingă obiectivele mai rapid și mai eficient.

Drept urmare, acum poate fi creat cu ușurință conținut video și audio deepfake cu celebrități și politicieni, fără să mai fie nevoie de editări lungi și meticuloase. Escrocii folosesc deja videoclipurile generate astfel pentru a-și promova escrocheriile (1, 2, 3) și chiar pentru a înșela oamenii cu sume mari de bani în timp real prin apeluri video.

Și mai îngrijorător este conținutul deepfake folosit pentru manipulare politică, deoarece poate fi folosit pentru a discredita orice contracandidat.

Un astfel de caz a implicat o farsă îndreptată împotriva activiștilor ruși anti-război, folosind un videoclip deepfake în care președinta Republicii Moldova, Maia Sandu, vorbea despre o mobilizare iminentă în țară. Un alt exemplu a implicat un material audio deepfake care îl prezenta pe primarul Londrei cerând amânarea unui eveniment de comemorare a victimelor celui de-al Doilea Război Mondial în favoarea unui marș pro-palestinian. Răspândirea acestui conținut fals aproape că a provocat proteste în masă.

Totodată, rețelele neuronale generative au fost adoptate și de propagandiști. De exemplu, un anume site web de știri asociat guvernului chinez a folosit IA pentru a răspândi știri false despre „laboratoarele biologice americane din Kazahstan” pe segmentul kazah al internetului.

De la începutul invaziei pe scară largă a Ucrainei, propagandiștii ruși au folosit conținut deepfake care înfățișa oficiali ucraineni de rang înalt. Imaginea lui Vladimir Zelenski este folosită frecvent în aceste „videoclipuri”, cum ar fi în cazul unui anunț fals despre capitularea Ucrainei sau în cazul apelului de capitulare a orașului Avdiivka.

Impactul dezinformării generate asupra procesului electoral reprezintă o preocupare semnificativă. În 2024, vor avea loc alegeri în 50 de state, inclusiv în numeroase țări europene și în Statele Unite. Rețelele neuronale au fost deja folosite în alegerile din Pakistan, Indonezia, India și Slovacia.

Până acum, dezinformarea generată cu IA nu a provocat un prejudiciu semnificativ procesului electoral global. Însă cum mai este destul până la sfârșitul anului, nu putem ști cum vor influența campaniile deepfake viitoarele alegeri.

Cred ceea ce văd

Problema legată de răspândirea informațiilor false generate de IA nu este reprezentată doar de numărul crescut de falsuri – deși abundența lor a crescut semnificativ în ultimii ani – ci mai degrabă de accesibilitatea tehnologiei de creare a falsurilor pentru oricine are acces la internet. În plus, aceste falsuri sunt atât de realiste încât, fără ajutorul unor competențe și instrumente specializate, identificarea caracterului lor artificial poate fi foarte dificilă.

În același timp, răspândirea falsurilor generate de IA devenite virale este atât de semnificativă încât, în ciuda eforturilor rapide ale celor care se ocupă de verificarea faptelor, combaterea răspândirii dezinformării rămâne o provocare. Mai mult, chiar și după ce devine evident că mesajul este fals, dezinformarea continuă să afecteze percepția asupra lumii și să erodeze încrederea în mass-media – un efect cel mai probabil înțeles de creatorii de falsuri.

Din păcate, predispozițiile cognitive, care îi determină pe oameni să rețină informațiile false chiar și după ce acestea au fost infirmate, nu reprezintă singurul aspect al psihicului nostru care aduce beneficii celor care răspândesc dezinformarea bazată pe IA.

Un experiment realizat de cercetătorii de la Universitatea din Zurich a arătat că oamenii tind să creadă mai ușor mesajele false generate de IA decât pe cele create de oameni. Cercetătorii presupun că textele generate par mai credibile datorită structurii mai clare și prezentării succinte. Trebuie menționat faptul că marja în favoarea IA a fost de doar 3%, însă cercetătorii, care utilizează ChatGPT-3 în cadrul experimentului, sugerează că acest procent poate crește odată cu utilizarea versiunilor mai avansate ale modelelor lingvistice extinse (LLM).

Cercetătorii de la Institutul Max Planck și de la Universitatea din Amsterdam au descoperit un alt aspect al percepției cu privire la conținutul deepfake, similar cu efectul Dunning-Kruger. În urma experimentelor, s-a constatat că participanții neinstruiți nu pot distinge între videoclipurile reale și conținutul deepfake, însă au tendința de a-și autoevalua capacitatea de detectare a falsurilor ca fiind una ridicată. Un aspect complicat al acestei probleme este că, în principal. participanții au considerat videoclipurile false ca fiind reale

Alfabetizarea informațională și dezmințirea preventivă sunt considerate strategii eficiente pentru reducerea predispozițiilor cognitive și pentru contracararea dezinformării.

Potrivit lui Enock Nyariki, managerul comunității International Fact-Checking Network (IFCN), „pentru a reduce daunele cauzate de conținutul deepfake, sunt esențiale campaniile de alfabetizare media. Educarea publicului pentru a adopta o mentalitate similară cu a celor care se ocupă de verificarea faptelor poate reduce semnificativ propagarea dezinformării în rândul populației și poate diminua motivația celor care o propagă”.

Programele de detectare a IA și accesibilitatea lor

Programele de detectare concepute pentru a identifica urmele de IA în videoclipuri, imagini sau texte sunt instrumente esențiale. Cu toate acestea, pentru utilizatorul obișnuit, gândirea critică și atenția pot fi mai practice și eficiente..

În prezent, identificarea IA este în mare măsură un instrument profesional destinat companiilor, jurnaliștilor și celor care verifică faptele. Multe dintre aceste programe, fie în format integral, fie cu funcții extinse, sunt accesibile doar prin abonamente destinate companiilor sau contra cost. La această situație contribuie diferiți factori.

Crearea de instrumente avansate și versatile care să detecteze conținutului generat necesită resurse. Prin urmare, este de așteptat ca firmele care dezvoltă astfel de tehnologii să caute să obțină profit din aceste produse. Acest fapt este pus în evidență și de comportamentul investitorilor, care par să (1, 2) aloce mai puțină atenție tehnologiilor cu amprentă IA în comparație cu progresul IA generative în sine.

Un alt factor care probabil contribuie la limitarea disponibilității instrumentelor IA pentru public este riscul că un instrument ce devine public ar putea fi manipulat sau evitat rapid. Drept urmare, dezvoltatorii sunt obligați să găsească un echilibru între accesibilitatea și eficacitatea produsului lor.

În plus, alt factor semnificativ care restricționează accesul publicului la programele specializate este condiția prealabilă a existenței competențelor și cunoștințelor specifice pentru o utilizare eficientă a programului și pentru interpretarea rezultatelor.

Angie Holan, director la IFCN și fost editor al PolitiFact, a declarat că verificarea minuțioasă a informațiilor necesită un nivel de atenție care adesea nu există la nivelul publicului larg. Uneori, verificarea dezinformării necesită competențe de specialitate pentru regăsirea informațiilor, competențe pe care persoanele nespecializate nu le dețin. În plus, consumatorul obișnuit de știri trebuie să fie suficient de motivat ca să utilizeze un program plătit pentru detectarea amprentelor IA.

Oricine poate utiliza programe de genul Deepware sau AI or Not, dar înțelegerea implicațiilor rezultatelor – mai ales atunci când acestea diferă de la o platformă la alta – reprezintă o sarcină complexă.

Anumite instrumente de detectare a IA prezintă rezultatul sub forma unei probabilități în procente, altele dau rezultatul în diferite clasificări, de genul „cel mai probabil creat de IA” sau „cel mai probabil creat de om”. În plus, unele programe folosesc forme vizuale mai sofisticate, cum ar fi graficele și hărțile semafor care, fără pregătire suplimentară adecvată, pot genera probleme de interpretare.

Sursa: AI or Not

Când vine vorba de eficacitatea acestor instrumente, de multe ori este loc de mai bine. Instrumentele tehnice se confruntă în special cu provocări în identificarea corectă a conținutului generat de tip text și audio. De exemplu, detectoarele de IA pot produce rezultate diferite atunci când paragrafele din text sunt schimbate între ele sau când un fișier audio a trecut prin mai multe procese de descărcare și încărcare. Prin urmare, pentru identificarea sigură a conținutului deepfake, analiza nu ar trebui să se bazeze doar pe programe specializate în identificarea IA, ci ar trebui utilizate și alte metode, printre care atenția, gândirea critică și familiaritatea cu indicatorii de IA.

Dacă aveți nevoie de sprijin cu analiză tehnică, vă putem recomanda următoarele detectoare, pe baza experienței noastre practice.

Am selectat aceste programe pe baza accesibilității, ușurinței de utilizare și eficacității relative. Totuși, este important să rețineți faptul că niciunul dintre aceste instrumente de analiză nu este perfect și nu este recomandat să vă bazați exclusiv pe evaluările lor. Se recomandă analizarea imaginilor, conținutului audio sau video folosind mijloace și metode suplimentare.

AI or Not este un instrument care analizează atât imaginile, cât și conținutul audio. Din ce am observat noi, funcționează bine în cazul imaginilor, dar este mai puțin eficient în cazul conținutului deepfake audio. Înregistrarea ca utilizator permite verificarea gratuită standard pentru 10 imagini și fișiere audio, ulterior putând fi utilizat cu planuri de abonament începând de la 5 dolari pe lună.

Undetectable AI este un instrument care examinează textul pentru identificarea indiciilor de implicare a IA și descoperă posibilele programe utilizate la generarea acestuia. Poate fi folosit fără înregistrarea ca utilizator. Însă are tendința de a genera rezultate fals pozitive.

DeepFake-o-Meter este un instrument adaptabil, capabil să analizeze imagini, material audio și video. Oferă flexibilitatea de a alege dintr-o gamă de detectoare dezvoltate de diverși furnizori. Utilizatorii au opțiunea de a evita stocarea fișierelor scanate pe server, aspecte esențial în gestionarea informațiilor sensibile. Instrumentul este gratuit și poate fi accesat după parcurgerea unui proces de înregistrare. Însă nu toate detectoarele sunt la fel de eficiente în identificarea conținutului generat de IA. Chiar și așa, în anumite cazuri, programul și-a depășit competitorii.

Deepware este un instrument conceput pentru a detecta conținutul deepfake din videoclipuri. Utilizatorii pot încărca fișierele proprii sau pot introduce link-uri de pe platforme cum ar fi YouTube, Facebook sau X. Instrumentul funcționează ca un agregator, prezentând rezultatele diverselor detectoare sun forma procentului de probabilitate a implicării IA. Deși e posibil să nu ofere în mod constant un rezultat de încredere, își demonstrează eficacitatea în identificarea falsurilor devenite virale.

AI Speech Classifier de la ElevenLabs este expert în identificarea materialului audio generat de rețeaua neuronală ElevenLabs. Poate fi utilizat fără înregistrare și oferă verificări nelimitate. Deși experiența noastră indică faptul că, în general, analizatorul funcționează bine, este posibil ca eficiența sa să nu fie întotdeauna constantă. Acest lucru a rezultat atunci când programul nu a reușit să detecteze semnele de IA dintr-o înregistrare vocală falsă cu președintele SUA, sugerând limitări ocazionale ale capacităților sale de detectare.

Ochi de vultur

Și în timp ce progresele în IA generativă reprezintă o amenințare care va face tot mai dificilă diferențierea între conținutul generat și cel autentic, cei care distribuie falsuri la ora actuală adesea nu acordă prioritate creării unor falsuri de o calitate foarte bună.

Multe videoclipuri deepfake și imagini generate de IA devenite virale pot fi ușor identificate cu ochiul liber. Asemenea exemple de falsuri includ „fotografiile” care se presupune că îl prezintă pe președintele francez Emmanuel Macron în timpul revoltelor de la Paris, un fals recent cu Donald Trump înconjurat de susținătorii săi de culoare și un „interviu” video fals cu secretarul Consiliului de securitate și apărare națională din Ucraina, Oleksiy Danilov, în care acesta ar fi confirmat implicarea Ucrainei într-un atac terorist la Crocus City Hall din Moscova.

Răspândirea acestor mesaje nu se datorează în primul rând calității foarte bune a falsurilor, ci mai degrabă neatenției observatorilor, predispoziției acestora de a căuta confirmarea propriilor puncte de vedere și tendinței lor de a împărtăși știri senzaționale fără a le verifica veridicitatea. Creatorii falsurilor cunosc aceste vulnerabilități din percepția noastră și valorifică răspândirea rapidă a falsurilor, iar calitatea lor mediocră nu împiedică acest proces.

În acest caz, alfabetizarea informațională se dovedește din nou o măsură valoroasă. Acest articol nu va aprofunda subiectul complexității detectării falsurilor IA, dar există o mulțime de resurse pe acest subiect (de ex.: cum să identificați imaginile deepfake, conținutul generat audio sau video). În orice caz, combaterea dezinformării generate de inteligența artificială poate fi realizată prin aderarea la câteva linii directoare simple:

Examinați cu atenție materialul pe care intenționați să îl distribuiți, acordând o atenție deosebită detaliilor din imagine. Semnele evidente ale manipulării IA, cum ar fi o mână în plus într-o imagine sau expresiile faciale anormale într-un videoclip, pot trece neobservate dacă știrea este parcursă rapid.

Verificați credibilitatea surselor din care provin mesajele.

Nu ezitați să utilizați metoda de citire colaterală, pentru a compara informațiile – este posibil ca cei care se ocupă de verificarea faptelor să le fi dezmințit deja.

Măsuri de control pentru inteligența artificială

Dezinformarea creată cu ajutorul rețelelor neuronale reprezintă o provocare relativ nouă pentru comunitatea globală. În consecință, cadrul legal pentru utilizarea IA generative, atât pe plan intern, cât și internațional, este încă în curs de dezvoltare, iar eficacitatea acestuia va deveni evidentă abia în timp.

Din păcate, legislația existentă nu împiedică în prezent răspândirea falsurilor, ci acționează într-un mod reactiv. Analiștii din economie și IT spun (1, 2) că orice măsură de control al inteligenței artificiale va rămâne mereu în urma progreselor tehnologice.

Însă așa cum subliniază experții de la Google, „IA este [o tehnologie] prea importantă pentru a nu fi reglementată – și prea importantă pentru a nu fi reglementată bine”.

Specialistul IT și director al Societății de apărare a internetului, Mikhail Klimaryov, consideră că este imposibil din punct de vedere tehnic să se limiteze răspândirea dezinformării generate de rețelele neuronale sau să fie trași la răspundere creatorii, pentru că aceștia sunt localizați cel mai adesea în alte țări decât cea unde este răspândită dezinformarea. Însă companiile pot fi obligate legal să monitorizeze calitatea informațiilor difuzate pe platformele lor sau prin tehnologiile pe care le controlează.

Platformele de socializare mari cum ar fi X, YouTube, Facebook și TikTok au implementat diverse măsuri pentru a controla conținutul generat sau modificat. În luna februarie, Google, OpenAI, TikTok, Meta și Microsoft au propus proiectul unui acord pentru a dezvolta în comun strategii de combatere a „dezinformării electorale create de inteligența artificială”. La începutul primăverii, Meta și YouTube au anunțat reguli extinse pentru etichetarea conținutului generat, iar Google a blocat posibilitatea ca utilizatorii să adreseze întrebări legate de alegeri în chatul său Gemini.

Legi și politici naționale

Unul dintre primele acte legislative care vizează indirect inteligența artificială a fost introdus în Coreea de Sud în anul 2008, cu mult înainte de apariția vizibilă a modelelor generative. Acest document avea ca scop reglementarea dezvoltării și răspândirii „roboților inteligenți”. De-a lungul timpului, alte țări au elaborat treptat linii directoare și reglementări pentru a controla tehnologiile IA în cadrul diferitelor domenii (1, 2).

Canada a fost prima țară care a publicat o strategie națională pentru dezvoltarea inteligenței artificiale. Documentul descrie patru obiective și programele de implementare corespunzătoare, prioritatea principală fiind sprijinirea cercetării și a talentelor.

Aproape simultan cu Canada, China a adoptat „Planul pentru dezvoltarea următoarei generații de inteligență artificială”. Este cel mai amplu și cuprinzător proiect de IA de până acum.

Autorii planului chinezesc subliniază că dezvoltarea inteligenței artificiale ar putea prezenta amenințări la adresa securității, care trebuie rezolvate. În 2018, China a lansat Cartea albă privind standardizarea IA (textul integral al ediției din 2021 este disponibil aici). Acest document, împreună cu inițiativele de implementare și gestionare, acoperă și probleme de fiabilitate și securitate. Prin urmare, în domeniul IA, există atât proiecte concentrate pe scalare și dezvoltare, cât și pe evaluare și reglementare.

În 2020, agenția internațională HolonIQ a raportat că există 50 de strategii naționale privind inteligența artificială. În același an, a fost lansat oficial Observatorul de politici privind IA al OCDE. Până în prezent, OCDE IA a documentat peste 1.000 de inițiative politice privind IA în 69 de țări la nivel global. Dintre acestea, 354 au ca scop îndrumarea și reglementarea IA, deși este important de reținut că majoritatea au un caracter consultativ.

Uniunea Europeană: Legislația IA ca lege model

Uniunea Europeană a înregistrat, fără îndoială, cele mai semnificative progrese în procesul de reglementare legală a IA.

În 2019, Comisia Europeană a lansat documentul „Consolidarea încrederii în inteligența artificială centrată pe om”, care conține liniile directoare pentru crearea unei IA în care putem avea încredere. Principalele cerințele pentru aplicațiile IA includ:

Activitatea umană și controlul

Fiabilitatea tehnică și siguranța

Confidențialitatea și guvernanța datelor

Transparența

Diversitatea, nediscriminarea și corectitudinea

Bunăstarea socială și a mediului

Responsabilitatea

În decembrie 2023, țările din cadrul UE și Parlamentul European au ajuns la un acord privind legislația aplicabilă pentru inteligența artificială. În martie 2024, Parlamentul European a adoptat legea, cunoscută sub numele de Legea IA. Această lege este deja considerată un reper și se preconizează că va constitui baza unui nou model de guvernanță bazat pe tehnologie.

Proiectul își propune să clasifice și să reglementeze aplicațiile IA prin împărțirea lor în patru categorii, în funcție de nivelul de risc implicat. Conform reglementărilor, unele sisteme vor fi complet interzise (cum ar fi anumite tehnologii de supraveghere în timp real). Altele vor fi supuse unei evaluări riguroase, în timp ce unele nu vor face obiectul verificărilor.

Documentul prevede, de asemenea, că imaginile artificiale sau cele modificate, conținutul audio sau video generat sau modificat („deepfake”), trebuie să fie etichetate ca atare în mod clar.

SUA

Alt pas semnificativ în domeniul juridic este Decretul privind dezvoltarea și utilizarea inteligenței artificiale, semnat în 2023 în Statele Unite. Pe site-ul web al Casei Albe, inițiativa este descrisă ca una ce stabilește „noi standarde pentru siguranța și securitatea IA, pentru protejarea confidențialității americanilor, promovarea echității și a drepturilor civile, protejarea consumatorilor și a lucrătorilor, încurajarea inovației și a concurenței, consolidarea leadershipului american la nivel global și multe altele”.

Drept urmare, conform noilor reglementări, dezvoltatorii de sisteme IA care reprezintă o amenințare la adresa securității naționale, economiei, sănătății publice sau siguranței SUA sunt obligați să furnizeze guvernului rezultatele testelor de siguranță. Departamentului de securitate internă i-a revenit responsabilitatea de a înființa un Consiliu pentru securitatea IA și, în colaborare cu Departamentul de energie, de a aborda amenințările legate de inteligența artificială, securitatea cibernetică, precum și riscurile chimice, biologice, radiologice și nucleare. În plus, pentru a proteja americanii de fraude bazate pe inteligența artificială, Departamentul de comerț va elabora linii directoare privind autentificarea conținutului și aplicarea unor semne distinctive pentru conținutului generat de IA.

Mai mult, la începutul lunii februarie 2024, guvernul SUA a introdus o interdicție a apelurilor automate care utilizează voci generate de IA. Restricția a fost impusă în urma unui incident din New Hampshire, când rezidenții au început să primească un aflux de apeluri, care se presupune că veneau de la președintele Joe Biden. Apelurile erau cu vocea generată a președintelui, care își îndemna susținătorii să nu voteze la alegerile primare prezidențiale.

Dar Kazahstanul?

În prezent, Kazahstanul nu are legi specifice care să reglementeze crearea și funcționarea IA. Toate inițiativele naționale identificate de OCDE IA sunt concentrate exclusiv pe favorizarea dezvoltării proiectelor legate de inteligența artificială.

Necesitatea reglementării legale a IA și a roboticii este subliniată în Conceptul de politică juridică a Republicii Kazahstan până în 2030. Legiuitorii subliniază că preocupările principale sunt legate de alocarea responsabilității pentru prejudiciul rezultat din acțiunile IA și ale roboților, alături de stabilirea drepturilor de proprietate intelectuală asupra operelor create cu implicarea acestora.

Concluzie

Nu există o soluție universal valabilă pentru combaterea dezinformării generate de rețelele neuronale. O rezistență eficientă presupune eforturi comune, care implică rețelele sociale, dezvoltatorii de inteligență artificială, jurnaliștii, guvernele, precum și îmbunătățirea nivelului de alfabetizare a populației în domeniul media.

Aceasta din urmă este similară cu imunizarea prin vaccinare și dezvoltarea imunității colective. Doar prin creșterea gradului de conștientizare și prin stimularea gândirii critice se pot reduce răspândirea și influența create de falsurile generate de IA, apărând astfel ecosistemul informațional și democrația.

Factcheck.kz — При использовании материалов гиперссылка обязательна. https://factcheck.kz/en/analytics/hasta-la-vista-baby-tackling-ai-generated-misinformation/

Traducerea este susținută de Science+, o rețea pentru un jurnalism rezistent la dezinformare care este susținută de Free Press for Eastern Europe

Vezi si alte articole...