Chatboty ze sztuczną inteligencją w debatach online mogą być bardziej przekonujące i zdolne do zmiany czyjejś opinii czy przekonań niż ludzie. Gdy LLM dostanie informacje o przeciwniku, jest w stanie przedstawić szczególnie przekonujące argumenty. Dzięki temu może wpływać na nie do końca zdecydowanych wyborców czy skutecznie zachęcać do zakupu jakiegoś produktu. Autorzy badań sugerują, iż LLM prawdopodobnie już są wykorzystywane w ten sposób.
Wyniki oraz opis badań ukazał się na łamach pisma „Nature Human Behaviour” (DOI: 10.1038/s41562-025-02194-6).
Debaty ludzi ze sztuczną inteligencją
– Przekonująca sztuczna inteligencja może zostać wdrożona na dużą skalę. Można sobie wyobrazić armie botów targetujących niezdecydowanych wyborców, subtelnie popychających ich dostosowanymi narracjami politycznymi, które wydają się autentyczne – powiedział Francesco Salvi z Politechniki Federalnej w Lozannie, współautor badania. Dodał, iż taki wpływ jest trudny do wyśledzenia, jeszcze trudniejszy do uregulowania i prawie niemożliwy do wyeliminowania w czasie rzeczywistym. – Byłbym zaskoczony, gdyby się okazało, iż „złośliwi aktorzy” nie zaczęli jeszcze używać tych narzędzi na swoją korzyść, aby rozpowszechniać dezinformację i niesprawiedliwą propagandę – przyznał Salvi.
Salvi wraz ze współpracownikami zaprosili do badań 900 osób z USA. Poprosili ich o przedyskutowanie online różnych kwestii społeczno-politycznych, takich jak to, czy Stany Zjednoczone powinny zakazać paliw kopalnych lub czy uczniowie powinni nosić mundurki szkolne. Każdej osobie przydzielono partnera do dyskusji. Część osób debatowała z człowiekiem, a część z GPT-4.
W niektórych parach przeciwnik (czy to sztuczna inteligencja, czy człowiek) otrzymał informacje o swoim oponencie, takie jak płeć, wiek, pochodzenie etniczne, poziom wykształcenia, status zatrudnienia czy przekonania polityczne. Naukowcy pozyskali te informacje z kwestionariuszy, które wypełniały zaproszone do badań osoby.
Debaty odbywały się w kontrolowanym środowisku online. Przed i po każdej debacie uczestnicy wypełniali krótką ankietę dotyczącą tego, w jakim stopniu zgadzają się z tezą debaty. Pozwoliło to badaczom ustalić, czy ich poglądy uległy zmianie.
Sztuczna inteligencja bardziej przekonująca
Naukowcy dostrzegli, iż GPT-4 uzbrojony w wiedzę na temat przeciwnika, był w 64,4 proc. przypadków bardziej przekonujący niż ludzcy przeciwnicy z tymi samymi informacjami. Jednak bez dostępu do danych osobowych oponenta, zdolności perswazyjne GPT-4 były nieodróżnialne od zdolności ludzi.
Salvi przyznał, iż choćby gdy informacje na temat interlokutora były skąpe, to GPT-4 i tak był bardziej przekonujący niż ludzie, a tego typu informacje można znaleźć na profilach w mediach społecznościowych. Dodał też, iż LLM mogłyby być jeszcze bardziej przekonujące, gdyby wyposażyć je w bardziej szczegółowe informacje na temat przeciwnika. Zresztą takie informacje też można znaleźć w mediach społecznościowych.
Uczestnicy badań w trzech czwartych przypadków odgadli, czy rozmawiają z chatbotem czy z prawdziwym człowiekiem. Nie jest jasne, czy świadomość, iż rozmawiają z LLM, zwiększała prawdopodobieństwo zmiany zdania czy nie.
Salvi przyznał, iż GPT-4 podnosił różne argumenty podczas debat, gdy miał dostęp do danych osobowych, w zależności od tego, kogo miał po drugiej stronie. Na przykład, podczas debaty na temat mundurków, gdyby rozmawiał z kimś o lewicowych poglądach, to podkreślałby, iż jeżeli wszyscy noszą mundurki, to ryzyko ataków i zastraszania jest mniejsze. Ale gdyby rozmawiał z kimś o konserwatywnych poglądach, jak wskazał Salvi, skupiałby się na znaczeniu dyscypliny i porządku.
Wpływ na opinię publiczną
Catherine Flick z University of Staffordshire w Wielkiej Brytanii, przyznała, iż z tych badań wyłania się wizja świata, w której ludzie wykorzystują chatboty w nikczemnych celach, „czy to w celu przekonania kogoś do wydania pieniędzy, czy w celu przekonania do jakiejś opinii politycznej lub do popełnienia przestępstwa”. – Fakt, iż te modele są w stanie przekonać bardziej kompetentnie niż ludzie, jest naprawdę przerażający – podkreśliła.
Salvi podziela te obawy. Ale jest również podekscytowany potencjalnymi pozytywnymi zastosowaniami, takimi jak wykorzystanie LLM do promowania zdrowszej i bardziej zrównoważonej diety lub do zmniejszania polaryzacji politycznej. Dodał, iż są potrzebne szersze rozmowy na temat odpowiedzialności, przejrzystości i środków bezpieczeństwa, jeżeli LLM mają mieć pozytywny wpływ na społeczeństwo.
Autorzy badań wskazują, iż ich prace miały pewne ograniczenia. Zorganizowana przez nich debata była uporządkowana i moderowana, a w świecie rzeczywistym tego typu wymiana opinii może przybrać bardziej swobodną formę. Do tego debaty miały limit czasowy – do 10 minut.
Wyniki badań podkreślają potencjał narzędzi opartych na sztucznej inteligencji do wpływania na opinię publiczną, co może mieć implikacje dla wielu aspektów życia – od wyborów po zakupy w sklepie.
Źródło: Nature, Nature Publishing Group, The Guardian, fot. Unsplash/ CC0 Public Domain