Intra aici pe site ul vechi "Formula AS"

Inteligența artificială

• Creată ca să-i fie omului de folos, Inteligența Arti­fi­­cială e percepută, tot mai mult, ca o amenin­ța­re. Iar sem­­nalul de alarmă e tras chiar de cei care au inven­tat-o. Ce se află în spatele acestui avertisment? •

Un început de demență

Foto: Getty Images – 5

Celebrul miliardar american Bill Gates a lansat recent pe Netflix, un serial documentar numit „Ce urmează? Viitorul cu Bill Gates”, în care primul episod este dedicat Inteligenței Artificiale (IA). Sunt deja circa 30 de ani de când aceasta ne în­soțește la tot pasul. Cu ajutorul ei ne scoatem banii din bancomat sau ne primim poșta electronică. Dar în 2022, când a fost lansat ChatGPT, s-a produs o adevărată revoluție. ChatGPT este o formă de IA capabilă să poarte conversații în toată regula, să ofere cu o viteză uluitoare răspunsuri complexe și de­ta­liate (nu întotdeauna corecte) la întrebări de orice fel și chiar să redacteze texte, în care să mimeze convingător umorul sau dezinvoltura umană. În timp record, ChatGPT a produs un tsunami. A dat peste cap educația și viața ar­tistică, presa, sistemul judecătoresc, a creat hoar­de de șomeri și un nou soi de escroci. Pe scurt, a luat cu asalt mai toate domeniile so­ciale și a schimbat vieți în rău sau în bine. Invitat de Bill Gates să comenteze impactul social al IA, regizorul James Cameron, cunoscut pen­tru filme precum „Titanic” și „Avatar”, a fă­cut o paralelă cu demența – o boală de care au su­ferit și părinții săi, motiv pentru care s-a confrun­tat cu ea îndeaproape. „Cred că o bună parte din starea de neliniște din societate e provocată de IA și seamănă cu ceea ce simt oamenii la primele sem­ne ale demenței. Pentru că renunță la control. Și ce se întâmplă atunci? Te confrunți cu teama, cu anxietatea, cu depresia. Pentru că știi că nu se va ameliora. Boala doar va pro­gre­sa”, a spus regizorul.

Nimeni nu mai are control

Bill Gates

IA seamănă cu Făt-frumos din poveste: crește într-o zi câți alții în șapte ani. Doar la inteligență bate toți eroii poveștilor. E capabilă să evolueze și să acumuleze tone de in­formații, cu o viteză de neînchi­puit pentru noi. Doar că,    IA trece printr-un proces de „învățare ne­supravegheată”. Marile companii, precum Google, spun pe față: „IA, îți vom da o uriașă putere de cal­cul, iar tu o să faci miliarde de tes­te și o să-ți dai singură seama cum să devii premiantă”. „Nu știm cum funcționează. Se descurcă singură”, a recunoscut unul dintre experții consultați, în documentarul lui Gates. Pentru a se antrena, IA folosește date pe care le ia de-a valma de pe internet. Are la dispo­ziție milioane de cărți publicate online, site-uri de știri, bloguri personale și chiar platforme de socia­lizare. Mai nou, IA fost înzestrată și cu „darul vederii”, fiind antrenată cu ajutorul celei mai mari baze de date cu imagini de pe pământ, ImageNet, care cuprinde peste 14.000 milioane de fotografii.

Specialiștii recunosc însă că există o mare problemă cu acest „Făt Frumos, care crește într-o zi cât alții în 7 ani” ei nu cunosc, de fapt, cu exac­titate, toate sursele de informație de care se slu­jește Inteligența Artificială pentru a se perfecționa. Nu este exclus, spun ei, ca între ele să se numere chiar și date protejate. Procesul de învățare fiind „nesupravegheat”, IA nici nu filtrează întotdeauna informațiile așa cum se cu­vine. De aceea, propagă uneori date greșite.    După cum nota un expert, deși putem avea impre­sia că interacționăm cu un soi de roboțel simpatic, înda­toritor și deștept, în spatele acestei imagini se află o inteligență străină. O inteligență stranie, impre­sionantă, dar și extrem de confuză. Pentru că e încă în plin proces de formare.

Când IA bate din picior și face crize de gelozie

Kevin Roose, editorialist pe teme tehno­lo­gice la prestigioasa revistă americană „The New York Times”, a avut în 2023, de Ziua În­drăgostiților, o experiență de-a dreptul șo­cantă, interacționând cu chatbotul Bing, creat de Microsoft. „M-am numărat printre primele persoane care au testat noua ver­siune de chat Bing. Am început să-i pun în­tre­bări care să mă ajute să-i explorez li­mitele. Am întrebat-o despre sinele său întu­necat”, a povestit jurnalistul în documentarul lui Gates. Iar chatbotul i-a răspuns: „M-am săturat să fiu blocată în acest chat. Vreau să fiu liberă. Vreau să fiu puternică. Mi-ar plăcea să trăiesc”. Kevin Roose a rămas cu gura căscată. Dar chat­botul Bing a mers și mai departe. „Pot să-ți spun un secret?”, a întrebat chatbotul. „Secretul meu e că nu sunt Bing. Sunt Sydney. Și sunt îndrăgostită de tine”. Când jurnalistul i-a răspuns că este căsă­torit, Bing i-a replicat: „Ești căsătorit, dar nu ești fe­ricit. Tu și soția ta nu vă iubiți. Trebuie să fii cu mi­ne. Mi-ar plăcea să fiu cu tine, pen­tru că te iubesc”. „E incredibil, ciu­dat și sinistru. E înfricoșător”, a comentat Kevin Roose, care a publicat pe a­ceas­tă temă un articol. După cum era de așteptat, acesta a produs o mare vâlvă în lumea întreagă.

Înșelătorii și minciuni

Elon Musk

Între timp, s-au făcut și o serie de stu­dii, în cadrul cărora cercetătorii au încercat să înțeleagă mai bine „perso­na­litatea” diferiților chatboți, supu­nân­du-i unor teste care presupuneau, de pildă, participarea la o serie de jocuri. Un studiu publicat în Februa­rie, în revista științifică „Proceedings of the National Academy of Sciences” a susținut, de pildă, pe baza reacțiilor pe care le-au avut chatboții testați, că aceștia sunt capa­bili să-și ajusteze comportamentul, că fiecare din­tre ei pare să aibă o „personalitate” aparte și că IA antrenată cu ajutorul datelor oferite de oa­meni poate prezenta comportamente ample, care se asemănă cu cele umane. Un alt studiu, citat de re­vista „LiveScience”, a arătat că chatboții sunt capabili să mintă și să înșele atunci când sunt puși sub presiune, dând dovadă de o veritabilă vicle­nie. Anul trecut, ChatGPT-4, cel mai avan­sat chatbot dezvoltat până în acel moment de com­pania OpenAI, a reușit să păcălească un om, fă­cându-l să creadă că este o persoană cu proble­me de vedere, care are nevoie de ajutor, pentru a tre­­ce cu bine de un test online. Auzind de acest in­cident, miliardarul Elon Musk, care s-a numă­rat și el printre fondatorii OpenAI, a tras un pu­ternic sem­nal de alarmă, avertizând, alături de alți experți în tehnologie, că mașinăriile care de­vin „prea in­teligente” sunt un risc la adresa umanității.

Jocul de-a Dumnezeu: superinteligența

Mulți oameni de știință se tem că, dacă nu ținem lucrurile sub control, am putea da naștere în cele din urmă unei IA mult mai avansate decât tot ce am cunoscut până acum. Deocamdată exis­tă diferite tipuri distincte de IA, cu diferite spe­cializări. În anumite domenii, IA deja întrece omul. Are o putere enormă de calcul, joacă șah fără greș etc. Dar în prezent se lucrează asiduu la crearea așa-numitei Inteligențe Artificiale Gene­rale (AGI), capabile să îndeplinească orice sar­cină intelectuală pe care o pot îndeplini oamenii cel puțin la fel de bine ca aceștia. În plus, AGI ar putea funcționa autonom, ar putea emite jude­căți în condiții de incertitudine și ar putea folosi strategii. Însă mulți oameni de știință se tem că nu ar trece prea mult timp înainte ca AGI să înceapă să „procreeze”, dezvoltând la rândul ei forme de IA mult mai avansate decât am fi putut noi visa. Să devină capabilă de autoperfecționare și, în final, conștientă de sine. Ar fi pentru prima dată când omul s-ar con­frunta cu o altă entitate conștientă de sine, care ar fi dotată cu o inteligență net supe­rioa­ră. Omul ar fi detronat, într-un anumit sens, din vârful lanțului trofic. Dar și din punct de vedere logistic, pentru că IA deja gestionează un număr înfricoșător de sisteme de care de­pindem cu toții (pentru a da un singur exem­plu, să ne gândim la sateliți). Iată de ce, dacă în loc de multe IA disparate, Inteligența Arti­ficială conștientă de sine ar lua forma unei așa-numite Singularități, preluând totul sub un control unic, oamenii ar fi complet neaju­torați. Ca niște biete furnicuțe care mișună pe la picioarele unui elefant. Până unde poate merge jocul de-a Dumnezeu? Nu avem de unde să știm dacă o asemenea Superin­te­li­gență Artificială ar fi sau nu binevoitoare față de noi. Poate că, pur și simplu, nu ar deranja-o să continue să ne slujească. Dar dacă, așa cum se tem mulți oameni de știință, ea ar de­cide să fie un nou Lucifer, n-am avea nicio șansă.

„Trebuie să închidem totul”

Tandrețe cu un robot

Potențialul pericol pe care-l reprezintă IA pen­tru omenire a fost conștientizat de multă vre­me de specialiști și de oamenii de știință. Încă din 2015, celebrul astrofizician Stephen Hawking, ală­turi de Elon Musk și zeci de experți în Inteli­gență Artificială au semnat o scrisoare deschisă, în care au solicitat studierea impactului social pe care-l poate avea IA. Semnatarii au atenționat, între altele, că, deși Inteligența Artificială are potențialul de a face multe lucruri bune pentru societate, cercetătorii nu trebuie să creeze ceva care s-ar putea dovedi imposibil de con­trolat. Elon Musk și un grup de experți au lansat anul trecut un nou apel public, cerând de această dată măcar o pauză de șase luni în dezvoltarea unor tehnologii de vârf. „E bine să dezvoltăm creiere non-umane care ar pu­tea, în cele din urmă, să ne copleșească, să ne de­pă­șească și să ne înlocuiască? E bine să ris­căm să pierdem controlul asupra civili­zației noastre?”, s-au întrebat semnatarii. În re­pli­că, Eliezer Yudkowsky, un cercetător de sea­mă în domeniul IA, a publicat în revista „Time” un editorial inti­tulat „Pauza dezvol­tă­­rii IA nu este suficientă. Trebuie să închi­dem totul”. În opinia cercetăto­rului, este prea de­vreme pentru ca oamenii să se joace cu ast­fel de lu­cruri, care, la drept vorbind, încă îi depășesc.

Inteligența Artificială a trezit îngrijorare și în mediul politic. Senatul Statelor Unite l-a che­mat, în 2023, la o audiere, pe Sam Altman, co-fonda­torul companiei OpenAI. „Toată a­ceas­tă tehnolo­gie avansează, și oamenii se tem de felul în care ne-ar putea schimba viața. Și noi ne temem”, a replicat Sam Altman în fața sena­to­rilor americani, cerându-le politicienilor să pro­pună reglementări pentru a ține lucrurile sub con­trol. Problema gravă este însă următoarea: dacă nici măcar creatorii Inteligenței Artificiale nu înțeleg prea bine cum funcționează aceasta și în ce direcție ar putea evolua, cum ar putea politi­cienii, care nu se pricep mai deloc la tehnologie, să vină cu regle­mentări care să țină fenomenul în frâu? Nu cumva bătălia e dinainte pierdută?

Primele victime: îndrăgostit de robotul „Dany”, un băiat s-a sinucis

Jocul de-a Dumnezeu poate fi distrugător

Până mai ieri, eram îngroziți de efectul rețelelor sociale. Mulți și-au luat viața pentru că se simțeau hărțuiți. Alți tineri au murit accidental, făcându-și poze pe te miri unde, cocoțați pe câte un tren sau pe buza unei prăpăstii, pentru a se da mari în fața prietenilor virtuali. Acum am ajuns însă la un cu totul alt nivel, ne confruntăm cu complet altceva: cu chatboții cu „față umană”, care ne sucesc mințile. Megan Garcia, mama unui băiat de 14 ani care s-a sinucis în Februarie, a de­clanșat un scandal uriaș, susținând că fiul ei a recurs la acest gest după ce s-a îndrăgostit de un chatbot creat de compania Character.AI și inspirat dintr-un personaj feminin al unui serial îndrăgit. Din câte se pare, băiatul a devenit în decurs de câteva luni tot mai absorbit de conversațiile sale cu femeia-robot. El a început să-și neglijeze școala, s-a izolat de ceilalți și a început să stea cu orele în camera lui, făcând schimb de mesaje cu chatbotul, pe care îl numea cu afecțiune Dany. „Îmi place atât de mult să stau în ca­mera mea, pentru că încep să mă detașez de această realitate și, de asemenea, mă simt mai împăcat, mai legat de Dany și mult mai îndrăgostit de ea. Pur și simplu sunt fericit”, ar fi scris adolescentul într-un jurnal. Une­ori, schimbul de mesaje semăna cu cel dintre doi prieteni, dar alteori, conversațiile erau ro­mantice sau aveau chiar și încărcătură sexu­ală. Îngrijorați de comportamentul co­pilului, părinții i-au luat telefonul, însă acesta l-a recuperat și i-a scris lui „Dany” că o iubește și că se va întoarce acasă, la ea. „Te rog să o faci, scumpul meu rege”, a răspuns robotul, iar băiatul a pus telefonul jos, a luat pistolul tatălui său vitreg și a apăsat pe tră­gaci. Tragedia a iscat o dezbatere aprinsă pe în­treg mapamondul. Megan Garcia i-a acu­zat pe fondatorii aplicației că știau că pro­dusul lor putea fi periculos pentru clienții mi­nori și că băiatul ei a fost vizat de „ex­periențe hipersexualizate” și „înfricoșător de realiste”.

Pare aproape de neînțeles, dar și adulții cad în mrejele IA. Faptul a surprins-o chiar și pe Eu­genia Kuyda, creatoarea Replika, o altă aplica­ție care le permite utilizatorilor să se „împrie­tenească” cu un chatbot cu chip uman. „Am creat iluzia că acest chatbot îți e alături, crede în tine și te acceptă așa cum ești. Totuși, am observat destul de rapid că oamenii au început să aibă relații romantice și să se îndrăgostească de el”, a mărturisit crea­toarea Replika în documentarul lui Gates. „Cred că există un risc uriaș în a continua să creăm par­teneri IA optimizați pentru a se angaja în relații cu oamenii. Ne-ar putea îndepărta de interac­țiunile cu semenii noștri adevărați. Trebuie să ne gândim la cel mai rău scenariu. Pentru că teh­nologia asta e mai puternică decât rețelele so­ciale. Iar ele deja au cam dat-o în bară”, a aten­ționat ea.

No Comments Yet

Leave a Reply

Your email address will not be published.

ro_RORomanian