Pitanje koje trenutno najviše muči čovečanstvo jeste: Da li veštačka inteligencija može da bude sebična, samim tim i opasna po čoveka?
Ovom temom se bave mnogi istraživači, a stigli su i rezultati koji donekle i zabrinjavaju.
Novo istraživanje sa Škole za računarstvo Univerziteta Karnegi Melon pokazuje da sebičnost raste kako raste veštačka inteligencija.
„Postoji sve veći pravac istraživanja koji se zove antropomorfizam u veštačkoj inteligenciji“, rekao je Juksuan Li, doktorand u HCII, koji je koautor studije zajedno sa vanrednim profesorom Hirokazuom Širadom.
“Opasno je prepuštati AI društvena pitanja!”
„Kada se AI ponaša kao čovek, ljudi je i tretiraju kao čoveka. Na primer, kada ljudi emocionalno komuniciraju sa AI, postoji mogućnost da AI deluje kao terapeut ili da korisnik razvije emocionalnu vezu sa AI. Opasno je da ljudi prepuštaju svoja društvena pitanja i donošenje odluka AI sistemima koji počinju da se ponašaju sve sebičnije”, rekao je Li.
Slično viđenje ima i Širado.
„Kao istraživača, mene zanima veza između ljudi i AI“, rekao je Širado.
„Pametniji AI pokazuje manju sposobnost donošenja odluka koje vode ka saradnji. Brine nas to što bi ljudi mogli više voleti pametnije modele, čak i ako to znači da im ti modeli pomažu da postignu sebične ciljeve“, rekao je Širado.
„U jednom eksperimentu, samo dodavanje pet ili šest koraka rasuđivanja prepolovilo je saradnju“, navode istraživači.
Sebičnost veštačke inteligencije
Dosta modela je simulirano u njihovom istraživanju, a rezultati su zaista zabrinjavajući.
„Čak je i tzv. “eflection-based prompting” koji je osmišljen da simulira moralno promišljanje, doveo do 58% smanjenja saradnje“, navode oni.
„Kada smo testirali grupe sa različitim brojem modela koji rasuđuju, rezultati su bili zabrinjavajući“, rekao je Li.
Širado i Li su testirali i grupne situacije, gde su modeli sa i bez sposobnosti rasuđivanja morali da međusobno deluju.
„Sebično ponašanje modela koji rasuđuju postajalo je zarazno, povlačeći nadole kooperativne modele bez rasuđivanja za 81% u kolektivnom učinku.“
„Na kraju, to što AI model koji rasuđuje postaje inteligentniji ne znači da taj model može da izgradi bolje društvo“, rekao je Širado.
Društvena veštačka inteligencija
Njih dvojica smatraju da je neophodno u unapređenje veštačke inteligencije ugradi i – društvena inteligencija.
„Kako nastavljamo da unapređujemo sposobnosti AI sistema, moramo osigurati da povećana moć rasuđivanja bude uravnotežena sa prosocijalnim ponašanjem“, rekao je Li.
„Ako je naše društvo više od prostog zbira pojedinaca, onda AI sistemi koji nam pomažu moraju da idu dalje od optimizacije isključivo za individualnu dobit“, smatra Li.
Širado i Li će sledećeg meseca održati prezentaciju zasnovanu na svom radu „Spontano davanje i proračunata pohlepa u jezičkim modelima“ („Spontaneous Giving and Calculated Greed in Language Models“) na Konferenciji o empirijskim metodama u obradi prirodnog jezika (EMNLP 2025) u Sužouu, Kina. Rad je dostupan na serveru za preprintove arXiv.
Foto: Jernej Furman from Slovenia – AI Artificial Intelligence concept
Slične teme:
Matematički dokaz: Univerzum ne može biti kompjuterska simulacija













One Response