Să-i spunem cybersferă?
Gheorghe PĂUN
Competiție deschisă: cybersferă, infosferă, digisferă, webosferă sau alt cuvânt
care va deveni „viral”, apoi acceptat. Mesajul este că pe lângă multele învelișuri ale
Pământului, naturale toate până acum, litosferă, biosferă, hidrosferă, atmosferă, cu
straturile ei, și încă altele, în ultimele decenii omul a reușit să mai adauge unul, întins de
la cablurile și fibrele optice de pe sol sau din subsol până la sateliții care roiesc în jurul
planetei, paliere între care miliarde de procesoare (calculatoare, telefoane, senzori,
camere video, bancomate, antene și relee, cipuri implantate sau nu, piloți automați și
frigidere inteligente, drone, boți și roboți…) schimbă între ele miliarde de mesaje – de-
ar face cel mai mic zumzet, ce zgomot ar fi, de ar produce măcar câte o scânteie, ce
orbitor ar fi. Cea mai amplă și mai profundă transformare din istoria umanității –
digitalizarea, cu vârful de aisberg inteligența artificială, cu vedetele acesteia, programele
de chat, oscilând deocamdată între răspunsuri impecabile (sintactic, dar nu numai) și
aberații, numite mai elegant halucinații. Cel mai fierbinte subiect planetar, căci IA este
o chestiune planetară, nu locală. Pharmakon platonician tipic: otravă și medicament în
același timp, ca aproape orice instrument inventat de om – chiar dacă aici nu avem un
simplu instrument, avem un agent, capabil să evolueze, să „învețe”, să se multiplice.
(Împrumut terminologie și idei și din recenta cartea a lui Yuval Noah Harari, Nexus,
scurtă istorie a rețelelor informaționale din epoca de piatră până la IA, Editura
Polirom, 2024.) O banalitate, de fapt: cu un cui se poate fixa o ulucă într-un gard, dar se
poate și zgâria o mașină – avem deja o sugestie aici, în legătură cu întrebarea obsedantă:
ce va prevala, binele sau răul, ca urmare a ofensivei IA.
Întrebarea pare superficială-superfluă în sine: depinde (de mâna care folosește
cuiul…). Și bine, și rău este răspunsul corect, dar care nu spune mare lucru. Este naiv să
ne oprim la bine, este nepotrivit să plonjăm în spaimă, exagerând răul. Informația are
legătură cu adevărul și ordinea, dar este o naivitate, spune Harari, să credem că mai
multa informație sporește adevărul și ordinea. Iar digitalizarea, ca să nu mă limitez la
IA, poate duce și la mai multă democrație, dar poate fi și baza dictaturii-totalitarismului
(de pildă, prin monitorizare continuă și generalizată, profilare, manipulare, control). Am
spus deja mult, găsiți restul în cartea lui Harari.
Aici, vreau să trec dincolo de carte, la lucruri pe care mult promovatul autor nu
le are în vedere, dar care furnizează motive suplimentare de preocupare. Insist: nu de
panică, ci de preocupare. Și pentru cetățenii de rând, dar mai ales pentru cei care pot
influența mersul lucrurilor: companii de IA, guverne, organisme internaționale.
Clasific de la început urmările IA în bune (multe, nu încerc o enumerare), cu
urmări neplăcute, dar neintenționate (de genul auto-abandonării în rețea, al
modificărilor psiho-sociologice sau chiar fiziologice induse de dependența de ecrane),
neplăcute induse de interese (să le zicem) corporatiste (algoritmii care au ca obiectiv
ratingul pot promova mesaje „vandabile”, dar care pot face rău oamenilor și societății),
dar și grave-periculoase, posibile, chiar dacă mai puțin probabile. Insist asupra ultimei
clase. Bombele nucleare sunt fatal de periculoase pentru civilizație, de aceea sunt atât de
bine reglementate, controlate. Din păcate, și IA poate fi fatală pentru civilizația umană,
mai ales că, spre deosebire de bombe, (1) are posibilități intrinseci de evoluție,
multiplicare, deplasare și, (2) „fiind în plină evoluție, reglementarea IA este precum
repararea unui avion aflat în zbor” (citat, de aceea ghilimelele). Pericol mare, semnalat
de multe voci, prin urmare, chiar dacă el e puțin probabil, omenirea trebuie să fie foarte
atentă. Imaginea cea mai sugestivă este aceea a… Ruletei Rusești. Trebuie să fii bine
certat cu rațiunea, cu viața, să riști un asemenea joc. Este omenirea conștientă-pregătită
pentru această provocare sau, din comoditate, naivitate, prostie, va ține pistolul la
tâmplă, în speranța că glonțul este în altă parte?
Iar, spre deosebire chiar de macabrul „joc”, „gloanțe” IA sunt mai multe.
Primul: nici lucrătorii direcți în IA nu știu cum funcționează sistemele IA! Mă
grăbesc să dau referințe, ca să nu par „gazetar”: în aprilie 2025, Dario Amodei, fondator
al firmei Anthropic, după ce lucrase la Google și la OpenAI, deci e clar că știe ce spune,
a circulat un text (se găsește la https://www.darioamodei.com/post/) cu titlul The
Urgency of Interpretability. Citez, rezumând: Lipsa de înțelegere a funcționării interne a
algoritmilor IA (interpretabilitate) este fără precedent în istoria tehnicii. Sistemele IA
generative sunt opace într-un mod fundamental diferit de softul tradițional.
Mecanismele interne ale IA sunt emergente, ele nu sunt proiectate direct, ele cresc, nu
sunt construite ca atare. Când un sistem IA face ceva, nu avem nicio idee de ce
procedează astfel. Dacă privim în interiorul acestor sisteme, ceea ce vedem sunt matrici
uriașe cu miliarde de numere. Trebuie să ne grăbim în această înțelegere, să deschidem
cutia neagră (black box) înainte ca modelele IA să capete o putere copleșitoare
(overhelming).
Tradus pe limba utilizatorului de ChatGPT, avem de reținut că este o mare
problemă cu „halucinațiile”, că este dificil dacă nu chiar imposibil să fie înțelese, deci
eliminate.
Spre o asemenea imposibilitate trimit și o serie de rezultate matematice, pe
care, surprinzător, cei preocupați de IA, producători și consumatori deopotrivă, ca să
folosesc un clișeu de pe vremuri, nu par a le avea în vedere. Iată câteva, fără detalii
tehnice – unele pot fi găsite în cartea To Halt or Not to Halt? That Is the Question,
publicată în 2024 la World Scientific, Singapore, de Cristian S. Calude, elev al lui
Solomon Marcus, acum profesor la Universitatea din Auckland, Noua Zeelandă.
Prima afirmație: IA lucrează algoritmic, mintea umană trece mult dincolo de
nivelul algoritmic, deci ne va rămâne totdeauna ceva și nouă de făcut. Asta e vestea
bună. Vestea rea este că verificarea corectitudinii algoritmilor nu se poate face
algoritmic. Se leagă de ce spunea D. Amodei, de erori, de halucinații.
Intru acum puțin în jargon, dar e de reținut concluzia, nu amănuntele. În
calculul evolutiv, al optimizării prin căutare la întâmplare prin domeniul de definiție al
funcției de optimizat (domeniu clasic al calculului natural, vecin și înrudit cu calculul
neural, cel aflat la baza IA) există o teoremă celebră, cunoscută sub numele „No Free
Lunch Theorem”, a lui D. Wolpert și W. Macready, din 1995, care spune ceva de genul
„în medie pe toată clasa de probleme, orice metodă euristică este la fel de bună ca
oricare alta”. Altfel formulat, pentru orice metodă, oricât de bune rezultate ar da pentru
unele probleme, se găsesc probleme pentru care ea dă soluții proaste. Denumirea este
americănească, în loc de no free lunch, aș spune că nu există o cale regală în domeniul
optimizării euristice. Repet: am simplificat mult, specialiștii vor ierta. Și, poate, vor
demonstra o teoremă similară pentru IA: pentru orice sistem IA, pe lângă probleme la
care acesta va da răspunsuri bune, se vor găsi și probleme la care răspunsul va fi greșit.
De fapt, chiar D. Wolpert a demonstrat, în 1996, o teoremă de acest gen, pentru
inferența statistică, implicată în învățarea automată. Sunt convins că rezultatul poate fi
generalizat – concluzia fiind că totdeauna vor apărea halucinații. Poate mai rare, dar ele
sunt inevitabile. Îmi aduce aceasta aminte de o butadă a lui Moisil: spre deosebire de
prostie, inteligența are intermitențe. O teoremă de gen no free lunch pentru IA ar putea
fi numită teoremă Moisil… Și inteligența artificială are intermitențe...
Inevitabilă este și o altă categorie de posibile erori (grave), despre care cartea
lui C.S. Calude dă detalii: cu cât o bază de date este mai mare – iar IA lucrează cu baze
de date gigantice, planetare de-a dreptul – cu atât mai frecvent apar regularități
întâmplătoare și corelații înșelătoare (spurious, în engleză), care pot fi ușor confundate
cu relații de cauzalitate. Am reluat un exemplu în editorialul din luna august 2024. Nu-l
repet, adaug doar că sunt multe altele în cartea menționată, în secțiunea cu titlul sugestiv
„Prea multa informație tinde să se comporte ca prea puțina informație”. Amintește acest
fapt (matematic!) și de intuiția lui Harari, privind relația informație-adevăr. Ce (ne)
facem dacă dăm unui sistem IA sarcina/libertatea de a lua decizii pe baza analizei unor
baze de date – tot mai mari, pentru că aceasta este tendința/credința naivă, sistemul
descoperă corelații, le interpretează drept cauzalități și acționează în consecință. Dacă
(exemplul din august 2024) numărul pescarilor care cad din barcă și mor este corelat cu
numărul căsătoriilor din Kentucky, cum procedăm? Interzicem căsătoriile, pentru a
salva viața pescarilor? Aranjăm să cadă mai mulți pescari în apă, pentru a încuraja
demografia în statul amintit? Sună… halucinant, dar se poate scrie o povestire SF sau
un scenariu de film SF perfect logic, plecând de la premisa, deja aproape generalizată,
că mașinile ne sunt de mare ajutor, devin inteligente, ne pot substitui, fac totul, mai
repede și mai bine decât noi…
Amintesc acum și un rezultat mai vechi, teorema lui B. Bereanu, de la
începutul anilor 1980 (B. Bereanu, „Self-activation of the World Nuclear Weapons
System”, Journal of Peace Research, 1983, cu o versiune publicată în 1981): să
presupunem că avem două puteri nucleare concurente, fiecare cu rachetele îndreptate
spre cealaltă, dar și cu sisteme de supraveghere fiecare; rachetele sunt mereu
perfecționate, devin tot mai rapide cu timpul, sistemele de avertizare trebuie să fie tot
mai alerte, drept care calculatoarele sunt folosite tot mai mult (acum, și IA); în toate
sistemele tehnice apar și erori. Teorema spune că, oricât de rare ar fi aceste erori, cu
probabilitate unu, la un moment dat, sistemul celor două părți concurente se auto-
activează. Armele nucleare, teorema lui B. Bereanu, plus halucinațiile IA, inevitabile se
pare, formează un „pistol” perfect pentru o Ruletă Rusească planetară…
Mai există rezultate matematice care ne pot da frisoane, gândindu-ne că am
putea să le uităm atunci când delegăm calculatoarelor, mașinilor, cu atât mai mult dacă
sunt inteligente, evoluează, învață (nu mai pun ghilimele), sarcini de decizie (personală,
socială, economică, militară), fără să le dublăm de IU, inteligența umană, fără a
controla, în măsura în care se poate, funcționarea internă a sistemelor IA (vezi din nou
D. Amodei) și fără a verifica-valida, obligatoriu, deciziile furnizate de IA, înainte de a fi
aplicate. Iarăși: SF-ul literar și cinematografic și-a făcut de mult datoria, merită „re-
conspectat” – având în minte observația că în toată discuția despre IA nu se aude nimic
despre cele trei legi ale roboticii stabilite de Isaac Asimov în Eu, robotul…
Închei citându-l pe același Solomon Marcus, dintr-un articol, „Matematica
celei de a doua revoluții industriale” (pe atunci, se numărau doar două, acum o trăim pe
a patra) din volumul Revoluțiile industriale în istoria societății, apărut în 1981 la
Editura Politică, București, sub egida Academiei Române. Scrie Profesorul, în secțiunea
„Mentalitatea computațională – un avantaj, dar și o capcană”: „Ne rămâne oare să
acceptăm datele de ieșire ale activității computaționale numai pe baza încrederii în
infailibilitatea calculatorului și a programelor cu care noi l-am alimentat?” Întrebare
retorică, pentru că, la două pagini distanță, citim: „Educația matematică [și informatică,
ar adăuga cu siguranță acum] a noilor generații va trebui să înregistreze aceste mutații,
dacă nu vrea să eșueze într-o criză care ar putea avea consecințe dintre cele mai grave”.
În niciun caz Marcus nu poate fi bănuit a fi fost un panicard, dar umbra
metaforei cu Ruleta Rusească este prezentă și în frazele sale…