Umjetna inteligencija spontano razvija komunikaciju sličnu ljudskoj

Umjetna inteligencija može spontano razviti društvene konvencije slične ljudskima, pokazalo je istraživanje provedeno u suradnji Univerziteta City St George’s, Univerziteta London i IT Univerziteta u Kopenhagenu, koje sugerira da kada agenti umjetne inteligencije velikih jezičnih modela (LLM) poput ChatGPT-a komuniciraju u grupama bez vanjskog sudjelovanja, mogu početi usvajati jezične oblike i društvene norme na isti način na koji to čine ljudi kada se druže.

Umjetna inteligencija može spontano razviti društvene konvencije slične ljudskima, pokazalo je istraživanje provedeno u suradnji Univerziteta City St George’s, Univerziteta London i IT Univerziteta u Kopenhagenu, koje sugerira da kada agenti umjetne inteligencije velikih jezičnih modela (LLM) poput ChatGPT-a komuniciraju u grupama bez vanjskog sudjelovanja, mogu početi usvajati jezične oblike i društvene norme na isti način na koji to čine ljudi kada se druže.
Glavna autorica studije, Ariel Flint Ashery, doktorska istraživačica na City St George’su, rekla je da je rad grupe u suprotnosti s većinom istraživanja umjetne inteligencije, jer umjetnu inteligenciju tretira kao društveni, a ne kao samostalni entitet.
“Većina dosadašnjih istraživanja tretirala je LLM-ove izolirano, ali sistemi umjetne inteligencije u stvarnom svijetu sve će više uključivati mnoge agente koji međusobno djeluju”, ističe Ashery.
“Željeli smo znati: mogu li ovi modeli koordinirati svoje ponašanje formiranjem konvencija, gradivnih blokova društva? Odgovor je da, i ono što rade zajedno ne može se svesti na ono što rade sami”, dodaje.
Grupe pojedinačnih LLM agenata korištenih u studiji kretale su se od 24 do 100, a u svakom eksperimentu dva LLM agenta su nasumično uparena i zamoljena su da odaberu „ime“, bilo da se radi o slovu ili nizu znakova, iz skupa opcija.
Kada su oba agenta odabrala isto ime, bili su nagrađeni, ali kada su odabrali različite opcije, bili su kažnjeni i prikazani su im međusobni izbori.
Uprkos tome što agenti nisu bili svjesni da su dio veće grupe i što su im sjećanja bila ograničena samo na vlastite nedavne interakcije, zajednička konvencija imenovanja spontano se pojavila bez unaprijed definiranog rješenja, oponašajući komunikacijske norme ljudske kulture.
Andrea Baronchelli, profesorica nauke o kompleksnosti na City St George’su i glavna autorica studije, usporedila je širenje ponašanja sa stvaranjem novih riječi i pojmova u našem društvu.
“Agenti ne kopiraju vođu”, rekao je. “Svi aktivno pokušavaju koordinirati, i uvijek u parovima. Svaka interakcija je pokušaj jedan na jedan da se dogovori o etiketi, bez ikakvog globalnog pogleda”.
“To je kao pojam ‘spam’. Niko ga nije formalno definirao, ali kroz ponovljene napore koordinacije postao je univerzalna oznaka za neželjenu e-poštu”, pojašnjava.
Osim toga, tim je uočio prirodno stvaranje kolektivnih pristranosti koje se nisu mogle povezati s pojedinačnim subjektima.
U završnom eksperimentu, male grupe AI agenata uspjele su usmjeriti veću grupu prema novoj konvenciji imenovanja.
“Suživot” s umjetnom inteligencijom
To je istaknuto kao dokaz dinamike kritične mase, gdje mala, ali odlučna manjina može izazvati brzu promjenu u ponašanju grupe kada dosegne određenu veličinu, kao što je to slučaj u ljudskom društvu.
Baronchelli je rekao da vjeruje da studija “otvara novi horizont za istraživanje sigurnosti umjetne inteligencije. Pokazuje dubinu implikacija ove nove vrste agenata koji su počeli komunicirati s nama i koji će suoblikovati našu budućnost”.
“Razumijevanje načina na koji funkcioniraju ključno je za vođenje našeg suživota s umjetnom inteligencijom, umjesto da budemo njezini podložni. Ulazimo u svijet u kojem umjetna inteligencija ne samo da priča – ona pregovara, slaže se, a ponekad se i ne slaže oko zajedničkih ponašanja, baš kao i mi”, rekao je.
Recenzirana studija, Emergent Social Conventions and Collective Bias in LLM Populations, objavljena je u magazinu Science Advances, prenosi N1