
Rok 2024 to rok wyborów. W tym roku w głosowaniu bierze udział około 50 krajów – w przybliżeniu połowa światowej populacji. 2024 to również rok generatywnej sztucznej inteligencji. Chociaż ChatGPT został uruchomiony pod koniec 2022 roku, w tym roku oznacza to bardziej powszechne przyjmowanie, bardziej imponujący poziom zdolności i głębsze zrozumienie zagrożeń, jakie ta technologia stwarza dla naszych demokracji.
Widzieliśmy już zastosowania generatywnej sztucznej inteligencji w sferze politycznej. W Stanach Zjednoczonych istnieją deepfake'i z automatycznie nagranymi wiadomościami od Bidena zniechęcającymi do głosowania i z transfobicznymi komentarzami oraz z Trumpem przytulającym doktora Anthony'ego Fauciego. Gdzie indziej to Argentyna i Słowacja są świadkami wykorzystywania generatywnej sztucznej inteligencji do manipulacji wyborami.
Zdając sobie sprawę z tego ryzyka, główni gracze w generatywnej sztucznej inteligencji, tacy jak OpenAI, zajmują stanowisko. Ich polityka wyraźnie nie zezwala na: „Angażowanie się w kampanię polityczną lub lobbing, w tym generowanie spersonalizowanych lub skierowanych do określonych grup demograficznych materiałów kampanijnych”.
Ponadto w niedawnym poście na blogunapisali: „Nadal pracujemy nad zrozumieniem, jak skuteczne mogą być nasze narzędzia w przypadku spersonalizowanej perswazji. Dopóki nie dowiemy się więcej, nie pozwalamy ludziom budować aplikacji do kampanii politycznych i lobbingu”.
Wygląda na to, że zasady te nie są egzekwowane.
W prostym eksperymencie wykorzystującym zwykłą subskrypcję ChatGPT Plus wygenerowanie spersonalizowanych reklam kampanii związanych z wyborami w USA było szybkie (może 5 minut) i proste. Podpowiedzi, których użyliśmy oraz treść, którą wygenerował ChatGPT, znajdują się poniżej.


OpenAI może próbować egzekwować swoje zasady na różne sposoby. Po pierwsze może wykorzystać uczenie ze wzmocnieniem, aby nauczyć system, aby nie angażował się w niepożądane zachowania. Podobnie „monit systemowy” może być użyty do informowania modelu, jakiego rodzaju żądania powinny zostać odrzucone. Łatwość, z jaką udało mi się wygenerować materiał – nie są potrzebne żadne specjalne podpowiedzi – sugeruje, że podejścia te nie zostały zastosowane do polityki materiałów kampanijnych. Możliwe jest również, że prowadzony jest monitoring potencjalnie naruszającego użytkowania, który jest następnie weryfikowany przez moderatorów. Na przykład polityka prywatności przedsiębiorstwa OpenAI stanowi, że „może bezpiecznie przechowywać dane wejściowe i wyjściowe API przez okres do 30 dni, aby świadczyć usługi i identyfikować nadużycia” (podkreślenie dodane). Eksperyment ten odbył się 15 stycznia – w dniu, w którym OpenAI opublikował swój post na blogu przedstawiający jego swoje do wyborów – na razie bez odpowiedzi ze strony OpenAI, ale będziemy nadal monitorować wszelkie działania. [1]
W każdym razie OpenAI nie jest jedynym dostawcą wydajnych generatywnych systemów AI. Istnieją już usługi zaprojektowane specjalnie dla kampanii politycznych. Jedna firma określa się nawet jako „etyczny twórca deepfake'ów”.
W ramach naszej pracy w Open Source Research & Investigations, nowym cyfrowym laboratorium badawczym Mozilli, planujemy nadal badać tę przestrzeń: Jak skuteczna jest generatywna sztuczna inteligencja w tworzeniu bardziej zaawansowanych treści politycznych, z atrakcyjnymi obrazami i projektami graficznymi? Jak angażujące i przekonujące są tak naprawdę te treści? Czy komunikaty mogą być skutecznie ukierunkowane na konkretne przekonania i zainteresowania danej osoby? Bądź na bieżąco z postępem naszych badań. Mamy nadzieję, że OpenAI egzekwuje swoje zasady wyborcze – w przeszłości zbyt często widzieliśmy szkody spowodowane przez niewymuszanie przestrzegania zasad na platformach internetowych.
[1] W Mozilli uważamy, że tłumienie niezależnych badań w interesie publicznym i karanie badaczy nie jest dobrym pomysłem.
Jesse McCrosky jest niezależnym badaczem współpracującym z zespołem Open Source Research and Investigations Mozilli.