Anul XVI, Nr. 7(176), Iulie 2025

Să-i spunem cybersferă?
Gheorghe PĂUN
Competiție deschisă: cybersferă, infosferă, digisferă, webosferă sau alt cuvânt care va deveni „viral”, apoi acceptat. Mesajul este că pe lângă multele învelișuri ale Pământului, naturale toate până acum, litosferă, biosferă, hidrosferă, atmosferă, cu straturile ei, și încă altele, în ultimele decenii omul a reușit să mai adauge unul, întins de la cablurile și fibrele optice de pe sol sau din subsol până la sateliții care roiesc în jurul planetei, paliere între care miliarde de procesoare (calculatoare, telefoane, senzori, camere video, bancomate, antene și relee, cipuri implantate sau nu, piloți automați și frigidere inteligente, drone, boți și roboți…) schimbă între ele miliarde de mesaje – de- ar face cel mai mic zumzet, ce zgomot ar fi, de ar produce măcar câte o scânteie, ce orbitor ar fi. Cea mai amplă și mai profundă transformare din istoria umanității – digitalizarea, cu vârful de aisberg inteligența artificială, cu vedetele acesteia, programele de chat, oscilând deocamdată între răspunsuri impecabile (sintactic, dar nu numai) și aberații, numite mai elegant halucinații. Cel mai fierbinte subiect planetar, căci IA este o chestiune planetară, nu locală. Pharmakon platonician tipic: otravă și medicament în același timp, ca aproape orice instrument inventat de om – chiar dacă aici nu avem un simplu instrument, avem un agent, capabil să evolueze, să „învețe”, să se multiplice. (Împrumut terminologie și idei și din recenta cartea a lui Yuval Noah Harari, Nexus, scurtă istorie a rețelelor informaționale din epoca de piatră până la IA, Editura Polirom, 2024.) O banalitate, de fapt: cu un cui se poate fixa o ulucă într-un gard, dar se poate și zgâria o mașină – avem deja o sugestie aici, în legătură cu întrebarea obsedantă: ce va prevala, binele sau răul, ca urmare a ofensivei IA.

Întrebarea pare superficială-superfluă în sine: depinde (de mâna care folosește cuiul…). Și bine, și rău este răspunsul corect, dar care nu spune mare lucru. Este naiv să ne oprim la bine, este nepotrivit să plonjăm în spaimă, exagerând răul. Informația are legătură cu adevărul și ordinea, dar este o naivitate, spune Harari, să credem că mai multa informație sporește adevărul și ordinea. Iar digitalizarea, ca să nu mă limitez la IA, poate duce și la mai multă democrație, dar poate fi și baza dictaturii-totalitarismului (de pildă, prin monitorizare continuă și generalizată, profilare, manipulare, control). Am spus deja mult, găsiți restul în cartea lui Harari.

Aici, vreau să trec dincolo de carte, la lucruri pe care mult promovatul autor nu le are în vedere, dar care furnizează motive suplimentare de preocupare. Insist: nu de panică, ci de preocupare. Și pentru cetățenii de rând, dar mai ales pentru cei care pot influența mersul lucrurilor: companii de IA, guverne, organisme internaționale.

Clasific de la început urmările IA în bune (multe, nu încerc o enumerare), cu urmări neplăcute, dar neintenționate (de genul auto-abandonării în rețea, al modificărilor psiho-sociologice sau chiar fiziologice induse de dependența de ecrane), neplăcute induse de interese (să le zicem) corporatiste (algoritmii care au ca obiectiv ratingul pot promova mesaje „vandabile”, dar care pot face rău oamenilor și societății), dar și grave-periculoase, posibile, chiar dacă mai puțin probabile. Insist asupra ultimei clase. Bombele nucleare sunt fatal de periculoase pentru civilizație, de aceea sunt atât de bine reglementate, controlate. Din păcate, și IA poate fi fatală pentru civilizația umană, mai ales că, spre deosebire de bombe, (1) are posibilități intrinseci de evoluție, multiplicare, deplasare și, (2) „fiind în plină evoluție, reglementarea IA este precum repararea unui avion aflat în zbor” (citat, de aceea ghilimelele). Pericol mare, semnalat de multe voci, prin urmare, chiar dacă el e puțin probabil, omenirea trebuie să fie foarte atentă. Imaginea cea mai sugestivă este aceea a… Ruletei Rusești. Trebuie să fii bine certat cu rațiunea, cu viața, să riști un asemenea joc. Este omenirea conștientă-pregătită pentru această provocare sau, din comoditate, naivitate, prostie, va ține pistolul la tâmplă, în speranța că glonțul este în altă parte?

Iar, spre deosebire chiar de macabrul „joc”, „gloanțe” IA sunt mai multe.

Primul: nici lucrătorii direcți în IA nu știu cum funcționează sistemele IA! Mă grăbesc să dau referințe, ca să nu par „gazetar”: în aprilie 2025, Dario Amodei, fondator al firmei Anthropic, după ce lucrase la Google și la OpenAI, deci e clar că știe ce spune, a circulat un text (se găsește la https://www.darioamodei.com/post/) cu titlul The Urgency of Interpretability. Citez, rezumând: Lipsa de înțelegere a funcționării interne a algoritmilor IA (interpretabilitate) este fără precedent în istoria tehnicii. Sistemele IA generative sunt opace într-un mod fundamental diferit de softul tradițional. Mecanismele interne ale IA sunt emergente, ele nu sunt proiectate direct, ele cresc, nu sunt construite ca atare. Când un sistem IA face ceva, nu avem nicio idee de ce procedează astfel. Dacă privim în interiorul acestor sisteme, ceea ce vedem sunt matrici uriașe cu miliarde de numere. Trebuie să ne grăbim în această înțelegere, să deschidem cutia neagră (black box) înainte ca modelele IA să capete o putere copleșitoare (overhelming).

Tradus pe limba utilizatorului de ChatGPT, avem de reținut că este o mare problemă cu „halucinațiile”, că este dificil dacă nu chiar imposibil să fie înțelese, deci eliminate.

Spre o asemenea imposibilitate trimit și o serie de rezultate matematice, pe care, surprinzător, cei preocupați de IA, producători și consumatori deopotrivă, ca să folosesc un clișeu de pe vremuri, nu par a le avea în vedere. Iată câteva, fără detalii tehnice – unele pot fi găsite în cartea To Halt or Not to Halt? That Is the Question, publicată în 2024 la World Scientific, Singapore, de Cristian S. Calude, elev al lui Solomon Marcus, acum profesor la Universitatea din Auckland, Noua Zeelandă.

Prima afirmație: IA lucrează algoritmic, mintea umană trece mult dincolo de nivelul algoritmic, deci ne va rămâne totdeauna ceva și nouă de făcut. Asta e vestea bună. Vestea rea este că verificarea corectitudinii algoritmilor nu se poate face algoritmic. Se leagă de ce spunea D. Amodei, de erori, de halucinații.

Intru acum puțin în jargon, dar e de reținut concluzia, nu amănuntele. În calculul evolutiv, al optimizării prin căutare la întâmplare prin domeniul de definiție al funcției de optimizat (domeniu clasic al calculului natural, vecin și înrudit cu calculul neural, cel aflat la baza IA) există o teoremă celebră, cunoscută sub numele „No Free Lunch Theorem”, a lui D. Wolpert și W. Macready, din 1995, care spune ceva de genul „în medie pe toată clasa de probleme, orice metodă euristică este la fel de bună ca oricare alta”. Altfel formulat, pentru orice metodă, oricât de bune rezultate ar da pentru unele probleme, se găsesc probleme pentru care ea dă soluții proaste. Denumirea este americănească, în loc de no free lunch, aș spune că nu există o cale regală în domeniul optimizării euristice. Repet: am simplificat mult, specialiștii vor ierta. Și, poate, vor demonstra o teoremă similară pentru IA: pentru orice sistem IA, pe lângă probleme la care acesta va da răspunsuri bune, se vor găsi și probleme la care răspunsul va fi greșit. De fapt, chiar D. Wolpert a demonstrat, în 1996, o teoremă de acest gen, pentru inferența statistică, implicată în învățarea automată. Sunt convins că rezultatul poate fi generalizat – concluzia fiind că totdeauna vor apărea halucinații. Poate mai rare, dar ele sunt inevitabile. Îmi aduce aceasta aminte de o butadă a lui Moisil: spre deosebire de prostie, inteligența are intermitențe. O teoremă de gen no free lunch pentru IA ar putea fi numită teoremă Moisil… Și inteligența artificială are intermitențe...

Inevitabilă este și o altă categorie de posibile erori (grave), despre care cartea lui C.S. Calude dă detalii: cu cât o bază de date este mai mare – iar IA lucrează cu baze de date gigantice, planetare de-a dreptul – cu atât mai frecvent apar regularități întâmplătoare și corelații înșelătoare (spurious, în engleză), care pot fi ușor confundate cu relații de cauzalitate. Am reluat un exemplu în editorialul din luna august 2024. Nu-l repet, adaug doar că sunt multe altele în cartea menționată, în secțiunea cu titlul sugestiv „Prea multa informație tinde să se comporte ca prea puțina informație”. Amintește acest fapt (matematic!) și de intuiția lui Harari, privind relația informație-adevăr. Ce (ne) facem dacă dăm unui sistem IA sarcina/libertatea de a lua decizii pe baza analizei unor baze de date – tot mai mari, pentru că aceasta este tendința/credința naivă, sistemul descoperă corelații, le interpretează drept cauzalități și acționează în consecință. Dacă (exemplul din august 2024) numărul pescarilor care cad din barcă și mor este corelat cu numărul căsătoriilor din Kentucky, cum procedăm? Interzicem căsătoriile, pentru a salva viața pescarilor? Aranjăm să cadă mai mulți pescari în apă, pentru a încuraja demografia în statul amintit? Sună… halucinant, dar se poate scrie o povestire SF sau un scenariu de film SF perfect logic, plecând de la premisa, deja aproape generalizată, că mașinile ne sunt de mare ajutor, devin inteligente, ne pot substitui, fac totul, mai repede și mai bine decât noi…

Amintesc acum și un rezultat mai vechi, teorema lui B. Bereanu, de la începutul anilor 1980 (B. Bereanu, „Self-activation of the World Nuclear Weapons System”, Journal of Peace Research, 1983, cu o versiune publicată în 1981): să presupunem că avem două puteri nucleare concurente, fiecare cu rachetele îndreptate spre cealaltă, dar și cu sisteme de supraveghere fiecare; rachetele sunt mereu perfecționate, devin tot mai rapide cu timpul, sistemele de avertizare trebuie să fie tot mai alerte, drept care calculatoarele sunt folosite tot mai mult (acum, și IA); în toate sistemele tehnice apar și erori. Teorema spune că, oricât de rare ar fi aceste erori, cu probabilitate unu, la un moment dat, sistemul celor două părți concurente se auto- activează. Armele nucleare, teorema lui B. Bereanu, plus halucinațiile IA, inevitabile se pare, formează un „pistol” perfect pentru o Ruletă Rusească planetară…

Mai există rezultate matematice care ne pot da frisoane, gândindu-ne că am putea să le uităm atunci când delegăm calculatoarelor, mașinilor, cu atât mai mult dacă sunt inteligente, evoluează, învață (nu mai pun ghilimele), sarcini de decizie (personală, socială, economică, militară), fără să le dublăm de IU, inteligența umană, fără a controla, în măsura în care se poate, funcționarea internă a sistemelor IA (vezi din nou D. Amodei) și fără a verifica-valida, obligatoriu, deciziile furnizate de IA, înainte de a fi aplicate. Iarăși: SF-ul literar și cinematografic și-a făcut de mult datoria, merită „re- conspectat” – având în minte observația că în toată discuția despre IA nu se aude nimic despre cele trei legi ale roboticii stabilite de Isaac Asimov în Eu, robotul…

Închei citându-l pe același Solomon Marcus, dintr-un articol, „Matematica celei de a doua revoluții industriale” (pe atunci, se numărau doar două, acum o trăim pe a patra) din volumul Revoluțiile industriale în istoria societății, apărut în 1981 la Editura Politică, București, sub egida Academiei Române. Scrie Profesorul, în secțiunea „Mentalitatea computațională – un avantaj, dar și o capcană”: „Ne rămâne oare să acceptăm datele de ieșire ale activității computaționale numai pe baza încrederii în infailibilitatea calculatorului și a programelor cu care noi l-am alimentat?” Întrebare retorică, pentru că, la două pagini distanță, citim: „Educația matematică [și informatică, ar adăuga cu siguranță acum] a noilor generații va trebui să înregistreze aceste mutații, dacă nu vrea să eșueze într-o criză care ar putea avea consecințe dintre cele mai grave”.

În niciun caz Marcus nu poate fi bănuit a fi fost un panicard, dar umbra metaforei cu Ruleta Rusească este prezentă și în frazele sale…


Site-uri partenere: