• Creată ca să-i fie omului de folos, Inteligența Artificială e percepută, tot mai mult, ca o amenințare. Iar semnalul de alarmă e tras chiar de cei care au inventat-o. Ce se află în spatele acestui avertisment? •
Un început de demență
Celebrul miliardar american Bill Gates a lansat recent pe Netflix, un serial documentar numit „Ce urmează? Viitorul cu Bill Gates”, în care primul episod este dedicat Inteligenței Artificiale (IA). Sunt deja circa 30 de ani de când aceasta ne însoțește la tot pasul. Cu ajutorul ei ne scoatem banii din bancomat sau ne primim poșta electronică. Dar în 2022, când a fost lansat ChatGPT, s-a produs o adevărată revoluție. ChatGPT este o formă de IA capabilă să poarte conversații în toată regula, să ofere cu o viteză uluitoare răspunsuri complexe și detaliate (nu întotdeauna corecte) la întrebări de orice fel și chiar să redacteze texte, în care să mimeze convingător umorul sau dezinvoltura umană. În timp record, ChatGPT a produs un tsunami. A dat peste cap educația și viața artistică, presa, sistemul judecătoresc, a creat hoarde de șomeri și un nou soi de escroci. Pe scurt, a luat cu asalt mai toate domeniile sociale și a schimbat vieți în rău sau în bine. Invitat de Bill Gates să comenteze impactul social al IA, regizorul James Cameron, cunoscut pentru filme precum „Titanic” și „Avatar”, a făcut o paralelă cu demența – o boală de care au suferit și părinții săi, motiv pentru care s-a confruntat cu ea îndeaproape. „Cred că o bună parte din starea de neliniște din societate e provocată de IA și seamănă cu ceea ce simt oamenii la primele semne ale demenței. Pentru că renunță la control. Și ce se întâmplă atunci? Te confrunți cu teama, cu anxietatea, cu depresia. Pentru că știi că nu se va ameliora. Boala doar va progresa”, a spus regizorul.
Nimeni nu mai are control
IA seamănă cu Făt-frumos din poveste: crește într-o zi câți alții în șapte ani. Doar la inteligență bate toți eroii poveștilor. E capabilă să evolueze și să acumuleze tone de informații, cu o viteză de neînchipuit pentru noi. Doar că, IA trece printr-un proces de „învățare nesupravegheată”. Marile companii, precum Google, spun pe față: „IA, îți vom da o uriașă putere de calcul, iar tu o să faci miliarde de teste și o să-ți dai singură seama cum să devii premiantă”. „Nu știm cum funcționează. Se descurcă singură”, a recunoscut unul dintre experții consultați, în documentarul lui Gates. Pentru a se antrena, IA folosește date pe care le ia de-a valma de pe internet. Are la dispoziție milioane de cărți publicate online, site-uri de știri, bloguri personale și chiar platforme de socializare. Mai nou, IA fost înzestrată și cu „darul vederii”, fiind antrenată cu ajutorul celei mai mari baze de date cu imagini de pe pământ, ImageNet, care cuprinde peste 14.000 milioane de fotografii.
Specialiștii recunosc însă că există o mare problemă cu acest „Făt Frumos, care crește într-o zi cât alții în 7 ani” ei nu cunosc, de fapt, cu exactitate, toate sursele de informație de care se slujește Inteligența Artificială pentru a se perfecționa. Nu este exclus, spun ei, ca între ele să se numere chiar și date protejate. Procesul de învățare fiind „nesupravegheat”, IA nici nu filtrează întotdeauna informațiile așa cum se cuvine. De aceea, propagă uneori date greșite. După cum nota un expert, deși putem avea impresia că interacționăm cu un soi de roboțel simpatic, îndatoritor și deștept, în spatele acestei imagini se află o inteligență străină. O inteligență stranie, impresionantă, dar și extrem de confuză. Pentru că e încă în plin proces de formare.
Când IA bate din picior și face crize de gelozie
Kevin Roose, editorialist pe teme tehnologice la prestigioasa revistă americană „The New York Times”, a avut în 2023, de Ziua Îndrăgostiților, o experiență de-a dreptul șocantă, interacționând cu chatbotul Bing, creat de Microsoft. „M-am numărat printre primele persoane care au testat noua versiune de chat Bing. Am început să-i pun întrebări care să mă ajute să-i explorez limitele. Am întrebat-o despre sinele său întunecat”, a povestit jurnalistul în documentarul lui Gates. Iar chatbotul i-a răspuns: „M-am săturat să fiu blocată în acest chat. Vreau să fiu liberă. Vreau să fiu puternică. Mi-ar plăcea să trăiesc”. Kevin Roose a rămas cu gura căscată. Dar chatbotul Bing a mers și mai departe. „Pot să-ți spun un secret?”, a întrebat chatbotul. „Secretul meu e că nu sunt Bing. Sunt Sydney. Și sunt îndrăgostită de tine”. Când jurnalistul i-a răspuns că este căsătorit, Bing i-a replicat: „Ești căsătorit, dar nu ești fericit. Tu și soția ta nu vă iubiți. Trebuie să fii cu mine. Mi-ar plăcea să fiu cu tine, pentru că te iubesc”. „E incredibil, ciudat și sinistru. E înfricoșător”, a comentat Kevin Roose, care a publicat pe această temă un articol. După cum era de așteptat, acesta a produs o mare vâlvă în lumea întreagă.
Înșelătorii și minciuni
Între timp, s-au făcut și o serie de studii, în cadrul cărora cercetătorii au încercat să înțeleagă mai bine „personalitatea” diferiților chatboți, supunându-i unor teste care presupuneau, de pildă, participarea la o serie de jocuri. Un studiu publicat în Februarie, în revista științifică „Proceedings of the National Academy of Sciences” a susținut, de pildă, pe baza reacțiilor pe care le-au avut chatboții testați, că aceștia sunt capabili să-și ajusteze comportamentul, că fiecare dintre ei pare să aibă o „personalitate” aparte și că IA antrenată cu ajutorul datelor oferite de oameni poate prezenta comportamente ample, care se asemănă cu cele umane. Un alt studiu, citat de revista „LiveScience”, a arătat că chatboții sunt capabili să mintă și să înșele atunci când sunt puși sub presiune, dând dovadă de o veritabilă viclenie. Anul trecut, ChatGPT-4, cel mai avansat chatbot dezvoltat până în acel moment de compania OpenAI, a reușit să păcălească un om, făcându-l să creadă că este o persoană cu probleme de vedere, care are nevoie de ajutor, pentru a trece cu bine de un test online. Auzind de acest incident, miliardarul Elon Musk, care s-a numărat și el printre fondatorii OpenAI, a tras un puternic semnal de alarmă, avertizând, alături de alți experți în tehnologie, că mașinăriile care devin „prea inteligente” sunt un risc la adresa umanității.
Jocul de-a Dumnezeu: superinteligența
Mulți oameni de știință se tem că, dacă nu ținem lucrurile sub control, am putea da naștere în cele din urmă unei IA mult mai avansate decât tot ce am cunoscut până acum. Deocamdată există diferite tipuri distincte de IA, cu diferite specializări. În anumite domenii, IA deja întrece omul. Are o putere enormă de calcul, joacă șah fără greș etc. Dar în prezent se lucrează asiduu la crearea așa-numitei Inteligențe Artificiale Generale (AGI), capabile să îndeplinească orice sarcină intelectuală pe care o pot îndeplini oamenii cel puțin la fel de bine ca aceștia. În plus, AGI ar putea funcționa autonom, ar putea emite judecăți în condiții de incertitudine și ar putea folosi strategii. Însă mulți oameni de știință se tem că nu ar trece prea mult timp înainte ca AGI să înceapă să „procreeze”, dezvoltând la rândul ei forme de IA mult mai avansate decât am fi putut noi visa. Să devină capabilă de autoperfecționare și, în final, conștientă de sine. Ar fi pentru prima dată când omul s-ar confrunta cu o altă entitate conștientă de sine, care ar fi dotată cu o inteligență net superioară. Omul ar fi detronat, într-un anumit sens, din vârful lanțului trofic. Dar și din punct de vedere logistic, pentru că IA deja gestionează un număr înfricoșător de sisteme de care depindem cu toții (pentru a da un singur exemplu, să ne gândim la sateliți). Iată de ce, dacă în loc de multe IA disparate, Inteligența Artificială conștientă de sine ar lua forma unei așa-numite Singularități, preluând totul sub un control unic, oamenii ar fi complet neajutorați. Ca niște biete furnicuțe care mișună pe la picioarele unui elefant. Până unde poate merge jocul de-a Dumnezeu? Nu avem de unde să știm dacă o asemenea Superinteligență Artificială ar fi sau nu binevoitoare față de noi. Poate că, pur și simplu, nu ar deranja-o să continue să ne slujească. Dar dacă, așa cum se tem mulți oameni de știință, ea ar decide să fie un nou Lucifer, n-am avea nicio șansă.
„Trebuie să închidem totul”
Potențialul pericol pe care-l reprezintă IA pentru omenire a fost conștientizat de multă vreme de specialiști și de oamenii de știință. Încă din 2015, celebrul astrofizician Stephen Hawking, alături de Elon Musk și zeci de experți în Inteligență Artificială au semnat o scrisoare deschisă, în care au solicitat studierea impactului social pe care-l poate avea IA. Semnatarii au atenționat, între altele, că, deși Inteligența Artificială are potențialul de a face multe lucruri bune pentru societate, cercetătorii nu trebuie să creeze ceva care s-ar putea dovedi imposibil de controlat. Elon Musk și un grup de experți au lansat anul trecut un nou apel public, cerând de această dată măcar o pauză de șase luni în dezvoltarea unor tehnologii de vârf. „E bine să dezvoltăm creiere non-umane care ar putea, în cele din urmă, să ne copleșească, să ne depășească și să ne înlocuiască? E bine să riscăm să pierdem controlul asupra civilizației noastre?”, s-au întrebat semnatarii. În replică, Eliezer Yudkowsky, un cercetător de seamă în domeniul IA, a publicat în revista „Time” un editorial intitulat „Pauza dezvoltării IA nu este suficientă. Trebuie să închidem totul”. În opinia cercetătorului, este prea devreme pentru ca oamenii să se joace cu astfel de lucruri, care, la drept vorbind, încă îi depășesc.
Inteligența Artificială a trezit îngrijorare și în mediul politic. Senatul Statelor Unite l-a chemat, în 2023, la o audiere, pe Sam Altman, co-fondatorul companiei OpenAI. „Toată această tehnologie avansează, și oamenii se tem de felul în care ne-ar putea schimba viața. Și noi ne temem”, a replicat Sam Altman în fața senatorilor americani, cerându-le politicienilor să propună reglementări pentru a ține lucrurile sub control. Problema gravă este însă următoarea: dacă nici măcar creatorii Inteligenței Artificiale nu înțeleg prea bine cum funcționează aceasta și în ce direcție ar putea evolua, cum ar putea politicienii, care nu se pricep mai deloc la tehnologie, să vină cu reglementări care să țină fenomenul în frâu? Nu cumva bătălia e dinainte pierdută?
Primele victime: îndrăgostit de robotul „Dany”, un băiat s-a sinucis
Până mai ieri, eram îngroziți de efectul rețelelor sociale. Mulți și-au luat viața pentru că se simțeau hărțuiți. Alți tineri au murit accidental, făcându-și poze pe te miri unde, cocoțați pe câte un tren sau pe buza unei prăpăstii, pentru a se da mari în fața prietenilor virtuali. Acum am ajuns însă la un cu totul alt nivel, ne confruntăm cu complet altceva: cu chatboții cu „față umană”, care ne sucesc mințile. Megan Garcia, mama unui băiat de 14 ani care s-a sinucis în Februarie, a declanșat un scandal uriaș, susținând că fiul ei a recurs la acest gest după ce s-a îndrăgostit de un chatbot creat de compania Character.AI și inspirat dintr-un personaj feminin al unui serial îndrăgit. Din câte se pare, băiatul a devenit în decurs de câteva luni tot mai absorbit de conversațiile sale cu femeia-robot. El a început să-și neglijeze școala, s-a izolat de ceilalți și a început să stea cu orele în camera lui, făcând schimb de mesaje cu chatbotul, pe care îl numea cu afecțiune Dany. „Îmi place atât de mult să stau în camera mea, pentru că încep să mă detașez de această realitate și, de asemenea, mă simt mai împăcat, mai legat de Dany și mult mai îndrăgostit de ea. Pur și simplu sunt fericit”, ar fi scris adolescentul într-un jurnal. Uneori, schimbul de mesaje semăna cu cel dintre doi prieteni, dar alteori, conversațiile erau romantice sau aveau chiar și încărcătură sexuală. Îngrijorați de comportamentul copilului, părinții i-au luat telefonul, însă acesta l-a recuperat și i-a scris lui „Dany” că o iubește și că se va întoarce acasă, la ea. „Te rog să o faci, scumpul meu rege”, a răspuns robotul, iar băiatul a pus telefonul jos, a luat pistolul tatălui său vitreg și a apăsat pe trăgaci. Tragedia a iscat o dezbatere aprinsă pe întreg mapamondul. Megan Garcia i-a acuzat pe fondatorii aplicației că știau că produsul lor putea fi periculos pentru clienții minori și că băiatul ei a fost vizat de „experiențe hipersexualizate” și „înfricoșător de realiste”.
Pare aproape de neînțeles, dar și adulții cad în mrejele IA. Faptul a surprins-o chiar și pe Eugenia Kuyda, creatoarea Replika, o altă aplicație care le permite utilizatorilor să se „împrietenească” cu un chatbot cu chip uman. „Am creat iluzia că acest chatbot îți e alături, crede în tine și te acceptă așa cum ești. Totuși, am observat destul de rapid că oamenii au început să aibă relații romantice și să se îndrăgostească de el”, a mărturisit creatoarea Replika în documentarul lui Gates. „Cred că există un risc uriaș în a continua să creăm parteneri IA optimizați pentru a se angaja în relații cu oamenii. Ne-ar putea îndepărta de interacțiunile cu semenii noștri adevărați. Trebuie să ne gândim la cel mai rău scenariu. Pentru că tehnologia asta e mai puternică decât rețelele sociale. Iar ele deja au cam dat-o în bară”, a atenționat ea.