Pomocí modelu GPT-4o, který stojí za ChatGPT, vědci replikovali osobnost a chování více než 1000 lidí ve snaze vytvořit alternativu k ohniskovým skupinám a průzkumům veřejného mínění.
Experiment simulující více než 1000 skutečných lidí pomocí modelu umělé inteligence, který stojí za ChatGPT, úspěšně a s vysokou přesností replikoval jejich jedinečné myšlenky a osobnosti, což vyvolává obavy o etiku napodobování jednotlivců tímto způsobem.
Joon Sung Park ze Stanfordovy univerzity v Kalifornii a jeho kolegové chtěli využít generativní nástroje umělé inteligence k modelování jednotlivců jako způsobu předvídání dopadu politických změn. V minulosti se o to pokoušeli pomocí jednodušších statistických modelů založených na pravidlech, avšak s omezeným úspěchem.
„Abychom mohli tyto modely vytvořit, museli jsme lidské chování opravdu hodně zjednodušit,“ říká Park. „To, co máme nyní možnost udělat, je vytvořit modely jednotlivců, které jsou skutečně vysoce věrné. Můžeme vytvořit agenta člověka, který zachytí mnoho z jeho složitostí a idiosynkratické povahy.“
Pro vytvoření svých agentů generovaných umělou inteligencí tým naverboval 1052 lidí v USA, kteří reprezentují širší populaci. Každý z účastníků se zúčastnil dvouhodinového mluveného rozhovoru s hlasovou verzí GPT-4o, nejsofistikovanější verzí modelu, který pohání nástroj ChatGPT společnosti OpenAI. Umělá inteligence dostala obecný scénář, podle kterého se měla řídit, ale také instrukce, aby poslouchala odpovědi v reálném čase a podle potřeby upravovala své otázky a ptala se účastníků na příběh jejich života a názory na společenské otázky. Výzkumníci poté vložili přepis každého rozhovoru vytvořený umělou inteligencí do jiné instance nástroje GPT-4o a požádali model, aby každou osobu napodobil.
Tým podrobil každého z těchto aktérů AI řadě testů, včetně dlouhodobého průzkumu společenských postojů nazvaného General Social Survey (GSS), hodnocení „velké pětky“ osobnostních rysů, pěti behaviorálních ekonomických her a pěti společenskovědních experimentů. Původní lidští účastníci byli rovněž podrobeni stejným testům dvakrát, s odstupem dvou týdnů.
Obecně lze říci, že aktéři umělé inteligence pozorně následovali odpovědi účastníků na testy. Lidé po dvou týdnech neposkytovali totožné odpovědi, přičemž shoda mezi oběma testováními v případě GSS činila přibližně 81 %. Na druhou stranu, aktéři AI měli hrubou přesnost přibližně 69 procent oproti prvnímu testovacímu sezení, což znamená, že byli v podstatě 85 procentně přesní, pokud vezmeme v úvahu rozdílné lidské odpovědi mezi oběma sezeními. U ostatních testů byly hodnoty přesnosti podobné, i když o něco nižší. Generativní aktéři také překonali jednodušší modely založené na demografických údajích při porovnávání odpovědí jednotlivců o 14 procentních bodů.
„Nevěděli jsme přesně, co jsme očekávali,“ říká Park, i když vzhledem k anekdotám o uživatelích ChatGPT, kteří zjistili, že umělá inteligence o nich dokáže intuitivně odhadnout fakta, tušil, že by modely umělé inteligence mohly v těchto testech uspět. „Bylo to příjemné vědecké potvrzení.“
Park říká, že jeho „hlavní motivací“ je poskytnout tvůrcům politik lepší nástroje pro testování dopadu jejich návrhů diferencovanějším způsobem, než je plošné modelování populací. I když se někteří mohou obávat, že schopnost replikovat lidské emoce by byla zlatým dolem pro obchodníky, etický souhlas, o který výzkumníci požádali účastníky, omezuje použití agentů a jejich podkladových dat „výhradně pro akademické účely“, říká.
„Potenciál efektivní simulace lidského chování pro testování dopadu politiky je obrovský,“ říká Richard Whittle ze Salfordské univerzity ve Velké Británii. Politici by podle něj mohli tyto nástroje využívat také k testování sdělení, a to způsobem, který je rychlejší a nákladově efektivnější než současné metody, jako jsou cílové skupiny nebo průzkumy veřejného mínění. „Možnost vyzkoušet strategii kampaně na simulované reprezentativní skupině by byla neocenitelná.“
Přesto Whittle upozorňuje na opatrnost. „Lidské chování je velmi složité a závislé na kontextu,“ říká. „Simulované skupiny mohou být velmi užitečné, ale pokud se kontext výrazně změní, bude pravděpodobně stále rozhodovat lidská reakce.“
Příliš rychlé spoléhání se na aktéry AI tímto způsobem by mohlo způsobit problémy, říká Catherine Flicková z University of Staffordshire ve Velké Británii. „I když si myslím, že jde o opravdu zajímavý výzkum, myslím si, že má docela problematický potenciál,“ říká, „ti [aktéři] nikdy nebudou rozumět [ničemu], protože nemohou pochopit, co to znamená být v komunitě.“
Práce také vyvolává širší otázky o etice tak přesného napodobování chování jednotlivých lidí. Ačkoli nic nenasvědčuje tomu, že by agenti umělé inteligence byli v simulaci ve stylu Black Mirror živí nebo vědomí, i Park a tým se těmito obavami rádi zabývali.
„Etiku bereme nesmírně vážně,“ říká Park. Poukazuje na to, že každý účastník, který chce, může svá data – a tedy i svého aktéra umělé inteligence – ze studie stáhnout, nebo k nim získat přístup jiní výzkumníci. „Je to obrovská příležitost, ale jsme také nesmírně opatrní, aby to nevyvolalo pocit, že jde o špatný precedens, který ovlivní naši společnost způsobem, který, jak zmiňujete, je děsivý nebo neposiluje jednotlivce.“
Zdroj: AI simulations of 1000 people accurately replicate their behaviour | Autor článku: Chris Stokel-Walker, New Scietist | Překlad a úprava textu: Jiří Zlatuška, Masarykova univerzita
Česká televize: Vědci vytvořili tisíc AI avatarů skutečných lidí. Pomohou předvídat chování společnosti
Obyčejně se sociologické dotazníky a výzkumy veřejného mínění dělají tak, že se osloví velké skupiny lidí. Je to drahé a časově náročné – ale nic lepšího vědci nemají. Nebo až doposud neměli. Teď přišli na to, jak proces nahradit umělou inteligencí. Podařilo se jim získat tisícovku simulací skutečných osobností, což stačilo na vytvoření modelů chování. Když tento model AI avatarů reálných lidí otestovali, dával jen o něco horší výstupy než reálné lidské skupiny.