Епоха незграбних ферм тролів і витоків електронної пошти добігає кінця. Новий звіт попереджає, що штучний інтелект готовий розгорнути кампанії дезінформації безпрецедентного масштабу та витонченості по всьому світу, загрожуючи основам демократичних суспільств. Замість армій людей, які поширюють пропаганду, одна людина незабаром зможе контролювати тисячі акаунтів у соціальних мережах, контрольованих ШІ, здатних маніпулювати громадською думкою в режимі реального часу – без постійного втручання людини.
Еволюція дезінформації
У 2016 році Російське агентство інтернет-досліджень (IRA) найняло сотні людей для поширення суперечливого контенту в Інтернеті. Незважаючи на широкий розголос, вплив цих зусиль був обмеженим порівняно з більш цілеспрямованими витоками. Тепер тих самих цілей можна досягти з експоненціально більшою ефективністю та охопленням. Найновіші інструменти штучного інтелекту можуть створювати дописи, які неможливо відрізнити від людей, динамічно адаптуватися до розмов і підтримувати сильну онлайн-ідентичність.
Ця зміна стосується не лише автоматизації, а й автономних операцій впливу. Ці «зграї» ШІ не просто публікуватимуть заздалегідь написані повідомлення; вони навчаться, розвиватимуть і вдосконалюватимуть свою тактику на основі зворотного зв’язку в реальному часі від соціальних медіа та взаємодії з людьми.
Наука за загрозою
Нове дослідження, опубліковане в журналі Science групою з 22 експертів зі штучного інтелекту, кібербезпеки та соціальних наук, детально описує цю неминучу зміну. Дослідники попереджають, що зараз технології імітують соціальну динаміку людини настільки ефективно, що можуть спричинити широкомасштабні зміни переконань, вплинути на вибори та, зрештою, підірвати демократичні процеси.
У доповіді йдеться: «Прогрес у штучному інтелекті відкриває можливість маніпулювати переконаннями та поведінкою на рівні населення».
Лукаш Олейнік, старший науковий співробітник Королівського коледжу Лондона, погоджується: «Це надзвичайно складне середовище для демократичного суспільства. Ми у великій біді».
Як діятимуть зграї ШІ
Ключовим фактором є пам’ять. На відміну від традиційних ботів, ці агенти штучного інтелекту зможуть підтримувати послідовні онлайн-персони з часом. Вони координуватимуть свої дії для досягнення спільних цілей, при цьому виглядатимуть як окремі користувачі, що значно ускладнить їх виявлення.
Ці системи також використовуватимуть механізми соціальних мереж:
- Тестування Micro A/B: Виконайте мільйони варіантів повідомлень, щоб визначити найефективніші формулювання.
- Цільова комунікація: адаптуйте вміст до вірувань і культурних ознак певних спільнот для досягнення максимального ефекту.
- Самовдосконалення: Використовуйте відповіді користувачів, щоб покращувати свою тактику в реальному часі.
«Що, якщо штучний інтелект не просто викидає неправдиву інформацію, а тисячі чат-ботів, які працюють разом, створюють видимість загальної підтримки там, де її немає?» — запитує Ніна Янкович, генеральний директор American Sunlight Project.
Відсутність захисту
Сучасні методи виявлення вже не працюють. Соціальні мережі дедалі більше обмежують обмін даними, що унеможливлює повну оцінку масштабів цієї загрози. Експерти вважають, що ця тактика вже випробовується і, швидше за все, буде застосована на президентських виборах 2028 року.
Проблема не тільки в технології, але і в структурі. Соціальні мережі надають перевагу залученості, а не правді, тому в них мало стимулів виявляти або видаляти зграї ШІ. Урядам також бракує політичної волі для втручання.
Пропоноване рішення
У звіті пропонується створити «Обсерваторію впливу штучного інтелекту» з науковців і неурядових організацій для стандартизації доказів, покращення обізнаності про ситуацію та координації швидкого реагування. Дослідження чітко виключає керівників соціальних мереж, оскільки їхні бізнес-моделі заохочують дезінформацію.
Однак навіть такого підходу навряд чи буде достатньо. Швидкість і масштаб дезінформації, керованої штучним інтелектом, незабаром перевищать будь-які захисні заходи.
Зростання роїв штучного інтелекту — це не віддалена загроза, а реальність, що розгортається. Якщо не вжити радикальних дій, майбутнє демократії може залежати від того, чи зможе людство розпізнавати маніпуляції зі швидкістю машини та протистояти їм.
























