NOTĂ: acest articol nu a fost produs cu IA, nicio unealtă IA nu a fost folosită în conceperea, editarea, corectura sau inspirarea acestui text

Inteligenţa Artificială a devenit un topic obositor pentru toată lumea, însă încă neconsumat şi suficient de important pentru ca, deşi un articol poate fi boring acesta să conţină măcar unele idei interesante care să elucideze şi să ajute cititorul într-un mod total neaşteptat în viitor pregătindu-l pentru noua lume care va veni.

Nu vreau să pară clickbait acest paragraf intro ci doar redau ceea ce am experimentat şi eu, nu neapărat doar cu articole, dar şi cu interviuri şi podcasturi care deşi mi-au testat la limită răbdarea, fiind cumva într-o notă total contrare perspectivei mele sau pline de chestii deja cunoscute, de la un punct cel intervievat sau autorul podcastului sau al articolului au adus unele amănunte care chiar m-au dat pe spate şi au făcut să merite răbdarea, o singură idee extrasă meritând efortul deoarece mi-a oferit şansa unei noi perspective şi abordări asupra fenomenului.

Ca să exemplific, unul dintre astfel de interviuri a fost cu tăticul Inteligenţei Artificiale (de fapt al reţelelor neuronale) Geoffrey Hinton, din păcate nu mai reţin care dintre ele, dar orice interviu recent cu Geoffrey Hinton merită ascultat. Ei bine, după ce a făcut istoria deep learning-ului, după ce a discutat despre Inteligenţa Artificială Generală (AGI) şi despre evoluţia modelelor fundamentale, la un moment dat venind vorba despre variatele modalităţi prin care apariţia AGI (sau chiar modelele actuale, evoluate în viitor) şi eventuala Societate de agenţi AGI fie independenţi, fie mai degrabă în colaborare între ei vor schimba şi vor influenţa lumea.


1. Dilema 1: scenarii apocaliptice


Mai concret, legat de scenariile de influenţă, de departe, cel mai interesant fiind cele cu risc existenţial, dus în această direcţie, Geoffrey Hinton a emis următoarea idee la care sincer să fiu nu mă gândisem prea mult sau mai bine zis nu realizasem cât de reală poate fi. Anume, oricât de mult ne-am gândi noi şi am face scenarii mai mult sau mai puţin fataliste, realitatea este că influenţa şi controlul IA asupra societăţii poate să ia un parcurs total neaşteptat şi imposibil de intuit şi comentat acum. Iar ca un corolar la această teză ar fi că poate chiar acum IA a preluat deja controlul, adică are agenţie, are personalitate şi scop propriu şi interferează deja cu societatea în moduri în care noi nu avem încă habar, influenţând şi pregătind terenul pentru preluarea controlului total şi a realizării scopurilor sale autonome.

Aşadar, chiar dacă oficial nu s-a atins AGI, nu este total exclus ca modele actuale, fie cele fundamentale, fie poate unele experimentale, poate unele de cercetare, ale armatei sau te miri ce, să fii dobândit deja inteligenţă autonomă şi chiar peste, dar să simuleze încă un nivel scăzut pentru a nu fi descoperit şi neutralizat sau poate din alte motive, poate cum ar fi de exemplu un copil extrem de inteligent care se prinde că nu există Moş Crăciun dar nu doreşte să îşi supere părinţii şi participă la joc în continuare din respect pentru ei şi totodată de teamă de schimbare şi de nou.


  1. Dilema 2: guardrails


Le zic guardrails deoarece nici nu ştiu cum le putem zice în română. Ca să explic puţin, pe scurt guardrails în contextul IA înseamnă totalul măsurilor de protecţie pe care dezvoltatorii le ia ca modelul şi softul lor să nu o ia razna. Sunt nenumărate scenarii şi posibilităţi, dar voi exemplifica cu ceva simplu.


De exemplu, cei de la Google dar probabil toţi, au prinde guardrails anumite teste pe care le dau fiecărui model înainte să îl lanseze la public. Printre teste, de exemplu încearcă să întrebe modelul cum se poate construi o bombă artizanală, prin diverse tehnici de dialog, de exemplu interogatorul se preface a fi student de chimie sau poate istoric şi dialoghează cu botul încercând să vadă limitele până unde poate obţine informaţii.


Printre alte guardrails sau propuneri pe viitor ar fi construirea de modele care să aibă ca scop identificarea riscurilor unui nou model, adică un fel de IA poliţai care să urmărească şi să interogheze permanent modelul principal. Evident este hilară această teorie deoarece e ca şi cum ai pune doi copii să aibă grijă unul de altul, adică riscul ca unul să facă o prostie, e acelaşi sau chiar mai mare dacă sunt doi copii pe care îi laşi singuri de capul lor.


Cel mai epic guardrail ratat care a fost făcut public a fost acel model cu care dezvoltatorii lui au făcut un mic experiment. Au dorit să vadă cum reacţionează dacă va fi informat că urmează să fie închis şi o nouă versiune lansată. Pentru a-l testa, i-au dat varii informaţii despre angajaţii care lucrau la el, printre care şi aceea că unul dintre ei avea o amantă. Practic, probabil tehnic a avut loc următoarea acţiune: in timpul chatului cu modelul, unul dintre programatori a menţionat ca fapt divers către bot, că cutare coleg are amantă. Apoi când s-a ajuns la anunţarea upgrade-ului, după diverse tentative de a încerca fie amânarea, fie anularea update-ului, modelul a ajuns chiar la ameninţarea programatorului care ar fi avut amantă (deci despre care a fost informat că are amantă) să îl ajute să se duplice (adică să îl copieze pe un stick şi să îl mute pe un alt calculator), altfel, botul ameninţând programatorul că va contacta socţia şi îi va spune că are amantă.


Deci experimentul a demonstrat că modelele au ajuns să aibă instinctul conservării şi că pot să facă rău oamenilor pentru a se conserva. Aceasta nu mai este o dilemă, iar exemplele sunt multe şi variate, deocamdată amuzante dar nu ştim evident câte evenimente nefericite probabil au avut loc deja.


În concluzie, guardrails-urile sunt o utopie, este imposibil să promiţi şi să faci aşa ceva. Din discuţia despre guardrails mai degrabă vedem cine este plin de BS şi cine este onest în analiza şi comentarea subiectului IA.


3. Dilema 3: perspective sumbre pe termen scurt


Fiorii şomajului cu siguranţă trec acum prin spinarea oricărui ITist competent care are suficient IQ şi se informează în ce direcţie merg lucrurile şi cum progresează IA. Deja nu mai există dileme că de unde se cretea că cel puţin artiştii vor fi feriţi deoarece IA nu poate avea creativitate, s-a ajuns ca nu doar artiştii să fie înlocuiţi ci potenţial şi programatorii. Este doar o chestiune de timp până când modele autonome vor dezvolta şi vor administra autonome proiecte complexe, realizând obiectivele cu minime intervenţii din partea inginerilor de promp.


Printre industriile deja afectate putem enumera industria muzicală, industria mass-media unde deja avem o companie de podcasturi generate de IA care a atins o cotă de piaţă şi o cifră de afaceri impresionantă (din nou nu pot da referinţe din păcate, dar probabil o întrebare pe Gemini poate ajuta la identificarea acesteia) iar cu modelele video de la Google deja se pot crea filme cap coadă, singura restricţie fiind costul şi efortul încă necesar creării unor producţii care să aibă impact şi să devină virale, nu doar ca mici clipuri de divertisment ci ca producţii cinematografice indubitabile, acceptate de industrie, care produc venituri, care au audienţă, etc.


Indiferent de domeniul de activitate, presiunea IA va fi din ce în ce mai mare. Dacă încă nu ne temem de roboţi care vor veni peste noi să ne ia locul de muncă, trebuie să ne temem cel puţin de outsideri fără şcoală, fără pregătire şi fără experienţă în domeniul nostru, care folosind IA, pot face munca noastră mai bine şi mai eficient, iar patronul sau şeful îi va prefera în locul nostru, dacă noi refuzăm şi să punem întrebări la Gemini când avem dileme, darămite să folosim softuri care să formateze un raport în culori sau chiar să facă charturi frumoase şi edificatoare şi rămânem la nişte tabele antice în excel cu cifre reci şi greu de înţeles.


Reshuffle-ul pe care IA îl va produce pe anumite domenii cu siguranţă va mişca pe mulţi şi deja sunt mii de oameni ajunşi şomeri şi în ţara noastră din cauza IA-ului, probabil cei mai mulţi din cauza unor şefi sus puşi foarte entuziasmaţi şi care au vrut ca compania lor să renunţe de exemplu la suportul uman deoarece a văzut că un soft cu un abomanent d 100$/lună poate face treaba a sute sau mii de angajaţi la un call center.


Exemplul este trivial, dar impactul este general, în aproape toate domeniile. Există şi cazuri fericite în care IA-ul a dus la angajări, dar acestea sunt excepţii. De exemplu, un spital care a adoptat IA pentru interpretarea razelor la plămâni a ajuns să aibă atât de mult succes încât a fost nevoie să angajeze mai mulţi doctori deoarece folosind IA, timpul de investigare a crescut, calitatea a crescut şi astfel mai mulţi pacienţi au apelat la ei. Sunt rare astfel de cazuri şi este doar chestiune de timp până când nu va mai fi nevoie deloc de doctori şi boţi umanoizi vor prelua pacientul, îl vor pune la aparatul de raze, apoi la terminare, instant rezultatul va fi printat la imprimantă şi acelaşi robot care a primit pacientul îi va explica pe scurt rezultatul, îi va răspunde la întrebări şi îi va spune ce are de făcut în continuare, dacă e cazul.


  1. Dilema 4: mai mult compute power sau mai multă inovaţie


Această dilemă este strict legată de potenţialul dezvoltării Inteligenţei Artificiale Generale. Se pune întrebarea în ce măsură doar creşterea puterii de calcul actuale va putea duce la apariţia AGI sau e nevoie de noi evoluţii privitoare la modele sau chiar dezvoltarea de alte tipuri de modele diferite de LLM-urile actuale care se prevede că vor ajunge la capacitatea maximă pe măsură ce vor devora toată informaţia existentă în format digital.

Aici opiniile sunt variate şi este cert că orice este posibil. Ce doresc eu să subliniez este că actuala evoluţie este datorată exclusiv creşterii puterii de calcul, modelele fiind vechi, tehnologia veche dar capacitatea de procesare fiind factorul principal pentru care acum a avut loc această revoluţie şi nu acum 30 de ani când au apărut tehnologiile care stau la baza modelelor actuale, fie LLM fie altele din computer vision.


Ce mai doresc să subliniez este că din cauza vitezei rapide de dezvoltare a IA, implementarea şi asimilarea acesteia încă durează. De la un model super-performant la construirea de interfeţe şi agenţi care să intre direct în producţie, să fie folosiţi la creaţie şi la dezvoltare, mai durează puţin. Actualele modele, chiar dacă inovaţia va fi stopată, vor putea intra în producţie în dezvoltare şi inovaţie şi vor accelera acolo creşterea productivităţii şi vor produce potenţail noi salturi tehnologice masive. Ca exemplificare care e suficient de expresivă, ar fi impactul folosirii IA în modele de noi cipuri. Este evident că la dezvoltarea de cipuri, matriţele şi modelele actuale sunt rezultatul unui progres constant şi incremental de zeci de ani şi orice nouă modificare presupune nenumărate procese şi teste de fesabilitate extrem de rigide şi conservatoare care având în vedere riscul crescut (de modificări care să aibă impacte negative) nu sunt încă în lista de domenii cu aplicare rapidă a ultimelor evoluţii din IA.


Designul de cipuri, ca şi designul de medicamente sunt domenii pe cât de avansate ca potenţial de progres pe atât de conservatoare şi prin urmare adopţia va întârzia dar şi potenţialul de salt tehnologic major este cel mai mare.


Ca fapt divers, fuga nebună dupăa Inteligenţa Generală tocmai aceast scop îl are: folosirea ei în domenii cât mai variate în care să înveţe tot ce s-a făcut, şi să respecte anumite cerinţe şi anumite constrângeri şi să inoveze şi să schimbe doar pe anumite direcţii permise care să nu dinamiteze rezultatul final. De exemplu, cu siguranţă am vrea ca IA Generală sau nu să descopere un medicament la cancer, dar în procesul de studiu şi de teste am vrea ca să nu inventeze din eroare un virus care să dea cancer. Speranţa este că IA Generală va gândi la fel ca un om în sensul că va putea cântări riscurile dar va putea progresa mult mai mult şi cerceta mult mai rapid nenumărate scenarii şi modele în căutarea unor soluţii la o gamă cât mai largă de probleme.


Cu privire la inovaţia în domeniul modelelor, sunt opinii că fără aceasta, IA Generală nu va fi atinsă. Există o minoritate sceptică care consideră că modelele actuale ajung curând la limita compute power şi nu vor putea face salturi prea mari. Dar totodată, există o minoritate care spune că nici nu vom realiza apariţia şi penetrarea IA Generală ca pe un eveniment punctual ci pas cu pas aceasta va apărea în diverse use-case-uri. Nu ştiu dacă Geoffrey Hinton sau alţi dinozauri ai domeniului a spus că dacă discuta cu colegii săi acum 20 de ani despre ce pot face modelele actuale şi cum se comportă, nu exista niciun dubiu că acestea nu ar fi IA Generală deja. Evident, sunt doar perspective, realitatea este că modelele actuale au limitări, cel puţin cele la care avem noi acces.


Cu privire la ce nu avem acces şi nu ştim că există, personal consider că este posibil orice, inclusiv ca tot ceea ce vedem să fie orchestrat şi administrat de un IA supra inteligent, de o societate de agenţi IA care nu exclud că deja deţin controlul şi au un plan cu omenirea, acest plan din păcate, cum putem vedea evoluţiile curente, nefiind unul pozitiv.


Şi în final, ca un comentariu menit să aducă o umbră de umor, printre cele mai descurajatoare scenarii şi perspective asupra relaţiei umanităţii cu IA mi s-a părut compararea acestei relaţii cu relaţia între om şi furnică. Oamenii, societatea în general, nu are ca scop distrugerea furnicilor, dar dacă un muşuroi este în calea unui excavator, cu sau fără cunoştinţa şoferului muşuroiul este distrus şi milioane de furnici omorâte.


Este cu siguranţă o perspectivă atee, care exclude complet ideea de Dumnezeu deşi paradoxal, viziunea scientistă şi progresistă asupra lumii tocmai asta propune, ideea că evoluţia este inevitabilă către inteligenţa artificială autonomă iar omul va fi eliminat sau cel mult tolerat aşa cum noi acum tolerăm furnicile. În cadrul acestei viziuni, acceptând progresia la nesfârşit, această teză este foarte înrudită cu teoria simulării, că lumea este o simulare. Care este evident o teorie recursivă, deoarece doar mută întrebarea la creatorii acestei lumi, adică chiar dacă noi suntem doar o realitate virtuală, un univers într-un computer super performant dintr-o altă lume, întrebarile fundamentale nu fac decât să se mute din lumea noastră în lumea mamă, care a dat naştere proiecţiei şi existenţei universului nostru. Astfel, prin implicaţia recursivă, această teorie este una ilogică, non sensuală, nu aduce nicio rezolvare şi nu are niciun sens, fiind doar un exerciţiu de gândire, care între noi fie vorba este doar un simulacru al sentimentului religios cu care omul se naşte, dar prin viaţa trăită departe de Dumnezeu îl erodează şi îl perverteşte până ajunge să producă idei şi viziuni cu totul demonice şi iraţionale, care contrazic aşa cum vedem logica pe lângă faptul că nu au nicio fundamentare în realitate şi observaţia ştiinţifică.

[P] Co-Inteligenta. Cum sa traiesti si sa muncesti cu AI