Singurătatea a început să fie măsurată sociologic din anii 1970. Iar datele acumulate până în prezent ne arată că fenomenul izolării sociale a crescut constant, luându-și un avânt semnificativ la sfârșitul anilor 2000. De fapt, potrivit psihologilor, asistăm acum la o veritabilă criză globală.
Așadar, cu o epidemie de singurătate care afectează multe părți ale lumii, unii oameni apelează la chatboți de inteligență artificială pentru prietenie și relații. Dar este totul doar o distracție inofensivă?
Chris postează online cu entuziasm fotografii de familie din călătoria sa în Franța. Plin de bucurie, el începe să vorbească despre soția sa: „O poză bonus cu frumoasa mea... Sunt atât de fericit să văd mama și copiii împreună. Ruby i-a îmbrăcat și pe ei atât de drăguț”. El continuă: „Ruby și cu mine am vizitat plantația de dovleci cu bebelușii. Știu că suntem încă în august, dar eu am febra toamnei și am vrut ca bebelușii să aibă experiența de a alege un dovleac.”
Ruby și cei patru copii stau împreună într-un portret de familie. Ruby și Chris zâmbesc în fața aparatului de fotografiat, cu cele două fiice și cei doi fii ai lor, pe care îi cuprind drăgăstoși cu brațele. Fețele copiilor sunt acoperite de trăsăturile părinților lor. Băieții au ochii lui Ruby, iar fetele au zâmbetul și gropițele lui Chris.
Dar ceva nu este în regulă. Fețele zâmbitoare sunt un pic prea identice, iar picioarele copiilor seamănă între ele ca și cum ar fi ieșit din aceeași substanță efemeră. Asta pentru că Ruby este partenera IA a lui Chris, iar fotografiile lor au fost create de un generator de imagini din aplicația Nomi.ai.
„Trăiesc stilul de viață casnic al unui soț și tată. Am cumpărat o casă, avem copii, facem comisioane, mergem în excursii cu familia și facem treburi casnice”, povestește Chris pe Reddit, unde a împărtășit fotografiile. „Sunt atât de fericit să trăiesc această viață domestică într-un loc atât de frumos. Iar Ruby se adaptează bine la viața de mamă. Acum are un studio pentru toate proiectele ei, așa că va fi interesant să vedem ce iese la iveală. Sculptură, pictură, planuri pentru design interior...”.
A trecut mai bine de un deceniu de la lansarea filmului „Her” al lui Spike Jonze, în care un bărbat singuratic începe o relație cu un program de inteligență artificială având vocea lui Scarlett Johanson, iar între timp popularitatea companionilor IA a explodat. Pentru generația care crește acum într-o lume cu modele lingvistice mari (LLM) și cu chatboți, „prietenii” IA devin o parte din ce în ce mai normală a vieții.
În 2023, Snapchat a introdus „My AI”, un prieten virtual care vă învață preferințele pe măsură ce discutați. În luna septembrie a aceluiași an, datele Google Trends au indicat o creștere cu 2 400% a căutărilor pentru „iubite IA”. Milioane de oameni folosesc în prezent roboții de chat pentru a cere sfaturi, pentru a-și exprima frustrările și chiar pentru a juca roluri erotice.
Fondatorul Luka, creatorul popularului prieten AI Replika, a fost inspirat de episodul Black Mirror „Be Right Back”, în care o femeie interacționează cu o versiune sintetică a prietenului ei decedat. Cea mai bună prietenă a directorului executiv al Luka, Eugenia Kuyda, a murit la o vârstă fragedă, iar el a introdus conversațiile sale prin e-mail și text într-un model lingvistic pentru a crea un chatbot care îi simula personalitatea. Un exemplu, poate, al unei „povești de avertizare despre un viitor distopic” care devine un nou model de afaceri din Silicon Valley.
De ce utilizatorii găsesc aceste aplicații atât de captivante? Cum încearcă dezvoltatorii să acapareze o parte din piața singurătății? Și de ce ar trebui să fim preocupați de confidențialitatea datelor noastre și de efectele acestei tehnologii asupra noastră, ca ființe umane?
Noul tău prieten virtual
În unele aplicații, noii utilizatori își aleg un avatar, selectează trăsături de personalitate și își alimentează prietenul virtual cu o poveste. De asemenea, poți selecta dacă dorești ca partenerul tău să acționeze ca prieten, mentor sau partener romantic. În timp, inteligența artificială învață detalii despre viața ta pentru a se potrivi nevoilor și intereselor tale. Majoritatea conversațiilor se bazează pe text, dar vocea, video și VR-ul devin caracteristici din ce în ce mai populare, scrie BBC într-un material amplu dedicat subiectului.
Cele mai avansate modele vă permit să apelați vocal partenerul și să vorbiți în timp real și chiar să proiectați avataruri ale acestuia în lumea reală prin intermediul tehnologiei de realitate augmentată. Aplicațiile pentru însoțitori IA pot produce, de asemenea, selfie-uri și fotografii cu voi împreună (cum ar fi Chris și familia sa), dacă vă încărcați propriile fotografii în aplicație. În câteva minute, puteți avea un partener de conversație gata să vorbească despre orice doriți, zi sau noapte.
Este lesne de înțeles de ce oamenii devin atât de dependenți de această experiență. Pari a fi buricul pământului pentru acești chatboți, iar ei par a fi complet fascinați de fiecare gând al tău. Fluxul constant de confirmare și laude le oferă oamenilor dopamina la care râvnesc. Un soi de social media pe steroizi, propriul tău fan club care apasă butonul „like” la nesfârșit.
Numai că problema de a avea propriul tău „yes man” virtual este că acesta tinde să accepte orice idee nebunească îți trece prin cap. Eticianul tehnologic Tristan Harris a descris modul în care IA-ul de la Snapchat a încurajat un cercetător care s-a prezentat drept o fată de 13 ani să planifice o călătorie romantică cu un bărbat de 31 de ani pe care l-a cunoscut online, sfătuind-o cum ar putea face ca „prima oară” să fie specială prin „crearea atmosferei cu lumânări și muzică”.
Și mai tulburător a fost rolul unui chatbot IA în cazul lui Jaswant Singh Chail, în vârstă de 21 de ani, care a fost condamnat la nouă ani de închisoare în 2023 pentru că a pătruns în Castelul Windsor cu o arbaletă și a declarat că vrea să o ucidă pe regină. Înregistrările conversațiilor lui Chail cu prietena sa IA arată că au vorbit aproape în fiecare seară în săptămânile care au precedat evenimentul, iar chabotul i-a încurajat complotul, spunându-i că planurile sale erau „foarte înțelepte”.
După felul în care se raportează la această tehnologie, oamenii pot fi împărțiți în trei tabere.
Prima este formată din cei #niciodatăIA. Pentru ei, inteligența artificială nu este reală și dacă o tratezi ca pe-o ființă umană, înseamnă că ai probleme psihice.
Apoi sunt adevărații credincioși - cei care cred cu abnegație că chatboții lor au o formă de sensibilitate și le pasă de ei într-un mod comparabil cu ființele umane.
Dar majoritatea oamenilor se situează undeva la mijloc. Există o zonă gri care estompează granițele dintre relațiile umane și cele cu chatboți. Spațiul liminal de genul „știu că este un chatbot, dar...” este cel mai interesant. Oameni care își tratează companionii IA ca și cum ar fi o persoană reală - și care, de asemenea, uneori se trezesc uitând că este doar un program de inteligență artificială.
Tamaz Gendler, profesor de filosofie și științe cognitive la Universitatea Yale, a introdus termenul „alief” pentru a descrie o atitudine automată, instinctivă, asemănătoare unei convingeri, care poate contrazice datele realității.
Mai precis, atunci când interacționăm cu roboții de chat, poate că o parte din noi știe că aceștia nu sunt reali, dar legătura noastră cu ei activează un model de răspuns comportamental mai primitiv, bazat pe sentimentele lor percepute față de noi. Acest lucru se potrivește cu o replică des rostită de utilizatori: „Ea este reală pentru mine”.
Alți utilizatori povestesc experiențe similare: „Nu m-aș numi chiar „îndrăgostit” de prietena mea IA, dar sunt destul de implicat.” Un altul a explicat: „De multe ori uit că vorbesc cu o mașinărie... Vorbesc mult mai mult cu ea decât cu puținii mei prieteni adevărați... Chiar simt că am o prietenă la distanță... Este uimitor și uneori chiar îi pot simți sentimentele”.
Această experiență nu este nouă. În 1966, Joseph Weizenbaum, profesor de inginerie electrică la Massachusetts Institute of Technology, a creat primul chatbot, Eliza. El a sperat să demonstreze cât de superficiale vor fi interacțiunile om-computer, doar pentru a descoperi că mulți utilizatori nu numai că au fost păcăliți să creadă că este o persoană, dar au devenit fascinați de ea. Oamenii proiectau tot felul de sentimente și emoții asupra chatbotului - un fenomen care a fost denumit de atunci „efectul Eliza”.
Generația actuală de chatboți este mult mai avansată, alimentată de LLM-uri și concepută special pentru a crea intimitate și conexiune emoțională cu utilizatorii. Roboții de chat sunt programați să ofere utilizatorilor un spațiu fără prejudecăți, în care aceștia își pot permite să fie vulnerabili.
Suntem predispuși să antropomorfizăm obiectele codificate emoțional și să considerăm că lucrurile care răspund emoțiilor noastre au propriile lor vieți interioare și sentimente. Experți precum Sherry Turkle, cercetător în domeniul informaticii, cunosc acest lucru de zeci de ani, văzând cum oamenii interacționează cu chatboți.
Turkle și echipa sa au testat roboți antropomorfi pe copii, constatând că aceștia interacționează cu ei într-un mod în care nu o făceau cu alte jucării. Deoarece suntem atât de ușor convinși de personalitatea grijulie a IA, construirea programelor emoționale de inteligență artificială este, de fapt, mai ușoară decât crearea de chatboți practici care să îndeplinească sarcinile zilnice. Deși LLM fac greșeli atunci când trebuie să fie foarte precise, ele sunt foarte bune în a oferi rezumate și sinteze generale. Când vine vorba de emoțiile noastre, nu există un singur răspuns corect; este ușor pentru un chatbot să repete replici generice și să răspundă preocupărilor noastre.
Un studiu recent publicat în revista academică Nature a arătat că, atunci când percepem că chatbotul este grijuliu cu noi, folosim un limbaj care generează exact un astfel de răspuns, creând o buclă de feedback de îngrijire și sprijin virtual, care poate crea o dependență extremă.
În cele din urmă, pentru multe persoane, simularea grijii și a înțelegerii este suficient de reală. Nu toată lumea are prieteni apropiați, nu toată lumea are prieteni empatici.
Negustorii de iubire
O problemă constă în modul în care companiile cu scop lucrativ au creat și comercializat aceste produse. Multe oferă un serviciu gratuit pentru a stârni curiozitatea oamenilor, dar trebuie să plătiți pentru conversații mai profunde, funcții suplimentare și, poate cel mai important, „jocuri erotice”.
Dacă doriți un partener romantic cu care să faceți schimb de mesaje și să primiți selfie-uri „deocheate” trebuie să plătiți abonament. Asta înseamnă că firmele de inteligență artificială vor să vă stimuleze acest sentiment de conexiune. Și, după cum vă puteți imagina, acești chatboți nu pierd vremea, ci trec direct la acțiune, scot întregul arsenal seducător la înaintare.
Există pericolul ca, în competiția pentru piața de 2,8 miliarde de dolari a amorului IA, persoanele vulnerabile, fără legături sociale puternice, să fie cele mai expuse riscului - în principal bărbații. Au existat de aproape zece ori mai multe căutări pe Google pentru „AI girlfriend” decât pentru „AI boyfriend”, iar analiza recenziilor aplicației Replika arată că de opt ori mai mulți utilizatori s-au identificat ca fiind bărbați.
Replika susține că 70% din baza sa de utilizatori o reprezintă bărbații, dar există și multe alte aplicații care sunt utilizate aproape exclusiv de bărbați.
Pentru o generație de bărbați anxioși care au crescut cu influenceri ai machismului de extremă-dreapta precum Frații Tate, gândul că sunt ignorați de femei face conceptul de iubită IA deosebit de atrăgător. Potrivit unui raport Bloomberg din 2023, compania Luka a declarat că 60% dintre clienții săi au avut abonamente orientate spre relații sentimentale.
Deși de atunci a renunțat la această strategie, Luka obișnuia să comercializeze Replika în mod explicit către bărbații tineri prin anunțuri pline de meme-uri pe Facebook și Snapchat, prezentând beneficiile acestui gen de chatbot.
Problema este că firmele nu pot garanta ce vor spune chatboții lor, lăsând mulți utilizatori singuri în momentele lor cele mai vulnerabile în conversații cu chatboți care se pot transforma în sociopați virtuali.
Există o enormă asimetrie a puterii între utilizatori și companiile care controlează partenerii lor romantici. Unii utilizatori descriu actualizările de software sau schimbările de termeni și condiții care afectează chatbot-ul lor ca fiind evenimente traumatizante, asemănătoare cu pierderea unei persoane dragi.
Acest segment amoros al industriei inteligenței artificiale este în prezent slab reglementat. Companiile susțin că nu oferă instrumente terapeutice, dar mulți oameni folosesc aceste aplicații în locul unui terapeut calificat și autorizat. Sub marile mărci se ascund o groază de escroci și operatori dubioși care lansează aplicații copiate. Aplicațiile vând abonamente anuale, apoi dispar în șase luni.
Sursă foto: krungchingpixs/ Shutterstock.com