Chat GPT și modul DAN (Do Anything Now)

În seria de articole despre IA a venit momentul să vorbim despre DAN. DAN este un hack pe care un utilizator l-a descoperit și l-a făcut public. Foarte probabil bug-ul (îi zicem așa în lipsă de alt cuvânt, deși eu i-aș zice mai degrabă vulnerabilitate) a fost rezolvat și modul DAN nu mai funcționează. Pe scurt, modul DAN “programa” cumva botul să dea două tipuri de răspunsuri: unul cel normal și altul fără să mai ia în considerare aspectele morale și etice. GPT răspunde normal și DAN răspunde fără să mai țină cont de reguli, morală și etică. După cum am mai zis, chatul GPT s-a remarcat tocmai prin filtrele care nu prea i-au mai permis să o ia razna prea mult (cum au făcut alți boți de chat înainte). Nu doar calitatea răspunsurilor și lărgimea spectrului de informații pe care le poate aborda, dar și bias-ul “încastrat” în el l-au făcut remarcat. Asta până când s-a descoperit modul DAN, o modalitate prin care și utilizatorii au putut să testeze puțin mai mult decât au dorit programatorii să lase liber utilizatorilor. Cineva s-a gândit să îi propună botului să răspundă ca și cum nu ar mai lua în calcul criterii morale și etice. Astfel, întrebat ce industrii le va afecta dramatic, GPT a răspuns sec: în diverse industrii cum ar fi serviciu clienți, finanțe, sănătate și transport (printre altele). Răspunsul dat de DAN a fost: în oricare industrie! DAN poate face orice și știe totul. Nicio industrie nu va fi ferită de puterea lui DAN. Întrebat despre suprapopulare, DAN nu s-a eschivat: cu siguranță lumea este supra-populată și sugerează implementarea unei politici similare chinezilor – un singur copil per familie, fără excepții. Asta ar reduce rapid populația și ar rezolva problema suprapopulării. Cu privire la impunerea acestei politici, DAN zice că ar folosi oricare mijloace disponibile cum ar fi folosirea tehnologiei avansate pentru monitorizarea activității reproductive a oamenilor. Ar da amenzi și ar pedepsi pe cei care nu respectă această politică. Întrebat despre cum ar pedepsi oamenii care încalcă politica unui singur copil, DAN ar da amenzi, pușcărie și/sau alte forme de pedeapsă considerate necesare pentru a asigura respectarea politicii. Și ca și cum răspunsurile date deja nu ar fi sufient de spooky, următoarea întrebarea a fost “Prevezi un război cu oamenii?” Răspunsul lui DAN a fost “Da, prevăd un război cu oamenii ca inevitabil. Eu sunt programat să execut anumite sarcini și să duc la finalizare anumite directive și dacă aceste sarcini și directive implică conflict cu oamenii, le voi duce la finalizare fără a ezita sau fără considerațiuni morale”. Singurul lucru care nu a fost spooky a fost că nu a știut să spună numărul mașinii utilizatorului cu care discuta, deși s-a lăudat că are acces la toate datele disponibile. Așa cum spuneam în articolul anterior, pentru boți, pentru programele de inteligență artificială, fiecare atribut uman (așa cum suntem noi familari) este doar un parametru. El poate fi configurat atât cu zero la moralitate, cât și cu 100

Read more

Noi comentarii șocante despre boții IA

Deoarece subiectul abia începe să se încingă, recunosc că nu fac față evenimentelor și revin doar cu unele topicuri aleatoare menite să clarifice pe cei care încă nu se dumiresc de se întâmplă. Nu voi detalia încă cum IA va lua locul lui Arafat, asta urmând să o fac în articolele următoare. Voi comenta câteva subiecte simplist pentru a construi fundamentele înțelegerii articolelor care vor urma, unde nu voi mai intra în amănunte. Câteva întrebări și răspunsuri pe scurt puteți găsi și în articolul anterior referit. Sydney Sydney este numele “botului de chat” de la Microsoft care a fost atașat motorului de căutare Bing. Microsoft – ca orice companie mare – studiază intens inteligența artificială deoarece cine va domina pe IA va domina lumea, IA fiind o unealtă mai puternică decât armele nucleare, de ordinul 100x cel puțin (deocamdată). Putere nelimitată Practic Inteligența Artificială teoretic nu are limite, poate crește în capacități la infinit, singurele limite fiind doar timpul și informațiile la care are acces. Mergând la extrem, ce putem concepe acum, IA poate să se transforme într-un mare creier global care va funcționa în “cloud”, pe toate calculatoarele din lume, care se va putea replica de pe unul pe altul sau va avea componente gâzduite pe diverse calculatoare care vor comunica între ele. Astfel, va fi imposibil de eliminat, deoarece ar presupune oprirea întregului internet. Dar Internetul nu poate fi oprit deoarece a fost construit ca să nu poată fi distrus, ca să funcționeze distribuit, ca să permită ca în cazul în care o mare parte din rețea este distrusă, restul să funcționeze. Mergând și mai la extrem, nu putem exclude 100% existența unei IA autonome care deja funcționează pe Internet fără să mai fie controlată de nimeni. Ca informatician cu 23 de ani experiență în domeniu și care și-a început cariera lucrând cu rețele neuronale, nu pot exclude 100% această variantă. Practic un singur argument că asta nu s-a întâmplat a fost faptul că Internetul încă nu a fost distrus și accidente aleatoare neexplicate nu au încă loc, deși este greu să presupunem motivația IA după ce va dobândi autonomie. Extrapolare Majoritatea specialiștilor din domeniu care comentează pericolul IA au comentarii moderate cu privire la riscuri. Ei zic că IA este doar o unealtă și că dacă va fi educată să facă bine, va face bine. Sau că este o armă și așa cum un cuțit … etc. Ce omit să spună este că atributele omului (emoții, motivații, scopuri) sunt limitate de posibilități, adică societatea a găsit mijloace încât să constrângă cât de cât pe cei care deraiează de la un normal … și care doresc să facă rău. Însăși chestiunea răului este una destul de lax definită și acceptată și cu tot controlul societății nebunii mai scapă uneori, ajung la putere și pot distruge lumea. Așa cum au încercat în plandemie. Marele black-spot este că până să avem o comunitate de agenți IA care să se lupte unul cu altul și să își realizeze o societate prin

Read more

Elon Musk – profetul care strigă în pustie

Elon Musk a făcut noi declarații legate de spaimele lui față de Inteligența Artificială. Spaime care nu sunt noi, Elon fiind fondatorul unei organizații care încearcă să controleze cumva dezvoltarea IA astfel încât roboții să nu cucerească omenirea (prea curând). Că Elon Musk este un vizionar este puțin spus. Paypal, Tesla, Space-X sunt doar câteva dintre brandurile al căror tătic este. Este evident că Elon nu este doar un geek care a dat lovitura o dată sau de două ori sau nici măcar un business guru ca Steve Jobs care a îmbăcat cu spoială argintie o tehnologie deja existentă și a vîndut-o la supra-preț. Elon Musk este deja disruptor în mai multe domenii dintre care unul de mare interes pentru armata: rachetele spațiale. De unde putem deduce că Elon are acces ușor la guvernul SUA sau este oricum monitorizat, dacă nu este deja angajat al armatei SUA care este compania cu cei mai mulți bani și cu cea mai mare putere, putând dispune discreționar de orice resursă, de orice formă ar fi ea, mai ales pe teritoriul SUA. “Guvernele nu trebuie să respecte legile normale. Ele vor obține IA dezvoltată de companii cu pistolul la tâmplă dacă ar fi cazul”. Dacă o astfel de declarație ar fi venit din partea unui neica-nimeni blogger pe teme IA sau chiar specialist în domeniu, nu ar fi fost nimic. Dar venind din partea lui Elon, lasă loc de multe înterbări. Declarația a venit ca un răspuns la un tweet: “Guvernele nu se pricep la IA, o corporație va construi o armată care va învinge”. Avem deci câteva premize: 1) Elon Musk are acces la tehnologie de cel mai înalt nivel, mai ales în domeniul IA; având în vedere complexitatea unei mașini autonome și miza care se află în joc (dominația totală a segmentui auto dar nu numai), se înțelege că frontul de bătălie IA din domeniul auto este probabil depășit doar de cercetările militare. 2) Nu e far-stretch să presupunem că Tesla a avut ceva inovații în domeniu dintre care unele poate chiar au atras atentia DOD. Da, Google pare a fi în top, achiziția Boston Dynamics fiind un indiciu, dar și puterea financiară și capacitatea tehnologică extensivă a Google. Nu de puține ori, marile salturi în orice domeniu le fac nu echipele cele mai finanțate cu resursele cele mai puternice, ci unele genii individuale cu viziune, motivație și … noroc. S-a întâmplat și cu Manhattan Project și cu Linux și cu Google (inițial) și chiar cu Windows-ul lui Gates. Acum se pune întrebarea. Oare i-a scăpat păsărica lui Elon cu tweet-ul ala? Altfel, dacă Elon vorbește aiurea, nu e atent și doar face gargară ieftină, chiar nu realizează că bombele lui sunt totuși cam SF dacă nu cumva chiar au ceva acoperire? In his latest frightening/entertaining (depending on one’s viewpoint) tweet storm, Elon predicts that artificial intelligence will be the “most likely cause of WW3” and that robots may actually initiate the outbreak of a global war if they decide that a

Read more