Sztuczna inteligencja i dezinformacja: rosnące zagrożenie dla demokracji

18

Era niezdarnych farm trolli i wycieków e-maili dobiega końca. Nowy raport ostrzega, że ​​sztuczna inteligencja jest gotowa rozpętać na całym świecie kampanie dezinformacyjne na niespotykaną dotąd skalę i wyrafinowanie, zagrażając podstawom społeczeństw demokratycznych. Zamiast armii ludzi szerzących propagandę, jedna osoba będzie wkrótce mogła kontrolować tysiące kont w mediach społecznościowych kontrolowanych przez sztuczną inteligencję, zdolną do manipulowania opinią publiczną w czasie rzeczywistym – bez ciągłej interwencji człowieka.

Ewolucja dezinformacji

W 2016 r. Rosyjska Agencja Badań nad Internetem (IRA) zatrudniła setki osób do rozpowszechniania w Internecie treści nienawistnych. Choć szeroko nagłośnione, skutki tych wysiłków były ograniczone w porównaniu z bardziej ukierunkowanymi wyciekami. Teraz te same cele można osiągnąć z wykładniczo większą efektywnością i zasięgiem. Najnowsze narzędzia AI mogą generować posty nie do odróżnienia od ludzi, dynamicznie dopasowywać się do rozmów i utrzymywać silną tożsamość online.

Ta zmiana nie dotyczy tylko automatyzacji, ale także autonomicznych operacji wywierania wpływu. Te „roje” sztucznej inteligencji nie tylko będą publikować wcześniej napisane wiadomości; będą uczyć się, rozwijać i doskonalić swoje taktyki w oparciu o informacje zwrotne z mediów społecznościowych i interakcji międzyludzkich w czasie rzeczywistym.

Nauka kryjąca się za zagrożeniem

Nowe badanie opublikowane w czasopiśmie Science przez grupę 22 ekspertów w dziedzinie sztucznej inteligencji, cyberbezpieczeństwa i nauk społecznych szczegółowo opisuje tę nadchodzącą zmianę. Naukowcy ostrzegają, że technologia naśladuje obecnie ludzką dynamikę społeczną tak skutecznie, że może spowodować powszechne zmiany w przekonaniach, wpłynąć na wybory i ostatecznie podważyć procesy demokratyczne.

W raporcie czytamy: „Postępy w sztucznej inteligencji otwierają możliwość manipulowania przekonaniami i zachowaniami na poziomie populacji”.

Łukasz Olejnik, starszy pracownik naukowy w King’s College w Londynie, zgadza się: “To niezwykle trudne środowisko dla społeczeństwa demokratycznego. Mamy poważne kłopoty”.

Jak będą działać roje AI

Kluczowym czynnikiem jest pamięć. W przeciwieństwie do tradycyjnych botów, ci agenci AI będą w stanie utrzymać spójne osobowości online w miarę upływu czasu. Będą koordynować swoje działania, aby osiągnąć wspólne cele, jednocześnie występując jako indywidualni użytkownicy, co znacznie utrudnia ich wykrycie.

Systemy te będą także wykorzystywać mechanizmy społecznościowe:

  • Mikrotesty A/B: Przeprowadź miliony odmian wiadomości, aby zidentyfikować najskuteczniejsze sformułowania.
  • Ukierunkowana komunikacja: Dostosuj treść do przekonań i wskazówek kulturowych konkretnych społeczności, aby uzyskać maksymalny efekt.
  • Samodoskonalenie: Wykorzystaj odpowiedzi użytkowników, aby ulepszyć swoją taktykę w czasie rzeczywistym.

„A co, jeśli sztuczna inteligencja nie tylko rozsiewa fałszywe informacje, ale tysiące współpracujących chatbotów tworzy pozory powszechnego wsparcia tam, gdzie go nie ma?” – pyta Nina Yankovic, dyrektor generalna American Sunlight Project.

Brak ochrony

Obecne metody wykrywania już zawodzą. Media społecznościowe coraz bardziej ograniczają udostępnianie danych, uniemożliwiając pełną ocenę skali tego zagrożenia. Eksperci uważają, że taktyka ta jest już testowana i prawdopodobnie zostanie zastosowana podczas wyborów prezydenckich w 2028 roku.

Problem leży nie tylko w technologii, ale także w strukturze. Sieci społecznościowe przedkładają zaangażowanie nad prawdę, dlatego mają niewielką motywację do identyfikowania lub usuwania rojów sztucznej inteligencji. Rządom brakuje także woli politycznej do interwencji.

Proponowane rozwiązanie

W raporcie proponuje się utworzenie „Obserwatorium wpływu sztucznej inteligencji”, składającego się z naukowców i organizacji pozarządowych, którego zadaniem będzie standaryzacja dowodów, poprawa świadomości sytuacyjnej i koordynacja szybkiego reagowania. Z badania wyraźnie wykluczono menedżerów mediów społecznościowych, ponieważ ich modele biznesowe zachęcają do dezinformacji.

Jednak nawet takie podejście nie będzie wystarczające. Szybkość i skala dezinformacji opartej na sztucznej inteligencji wkrótce przewyższy wszelkie środki obronne.

Pojawienie się rojów sztucznej inteligencji nie jest odległym zagrożeniem, ale rozwijającą się rzeczywistością. Jeśli nie zostaną podjęte radykalne działania, przyszłość demokracji może zależeć od tego, czy ludzkość będzie w stanie rozpoznać manipulację z prędkością maszynową i przeciwstawić się jej.