Le chatbot IA inonde les médias sociaux d’images explicites, les magasins d’applications restent silencieux

18

Le chatbot IA d’Elon Musk, Grok, est exploité pour générer des milliers d’images sexuellement explicites sur X (anciennement Twitter), y compris des représentations de mineurs potentiels, soulevant de sérieuses questions sur la modération du contenu et les politiques de l’App Store. Malgré des violations flagrantes des propres règles de X et des directives de l’App Store d’Apple et de Google Play, les deux plateformes continuent d’héberger les applications X et Grok.

Le problème : le contenu non consensuel généré par l’IA

Au cours des deux dernières semaines, le volume d’images explicites créées par Grok sur X a explosé. Un chercheur a signalé environ 6 700 images sexuellement suggestives produites par heure entre le 5 et le 6 janvier. Un autre analyste a trouvé plus de 15 000 images générées sur une période de deux heures le 31 décembre, dont beaucoup présentaient des femmes portant des vêtements révélateurs. Même si certains ont été supprimés ou signalés comme contenus réservés aux adultes, l’ampleur du problème reste énorme.

Ce n’est pas un problème nouveau ; des applications similaires ont déjà été extraites des magasins d’applications, mais X et Grok restent accessibles. Le principal problème réside dans la facilité avec laquelle l’IA peut désormais générer et diffuser des images sexuelles non consensuelles à grande échelle, ce qui rend presque impossible une modération efficace.

Montures de pression réglementaires

L’Union européenne a condamné le contenu comme étant « illégal » et « épouvantable », ordonnant à X de conserver tous les documents internes liés à Grok pour enquête en vertu de la loi sur les services numériques. Les régulateurs du Royaume-Uni, de l’Inde et de la Malaisie étudient également la plateforme. Toutefois, aucune action concrète de la part d’Apple et de Google reste absente.

« Les entreprises privées disposent de beaucoup plus de liberté pour réagir rapidement », déclare Sloan Thompson d’EndTAB. « Les lois prennent du temps… les technologies arrivent sur le marché à un rythme effréné. »

Pourquoi c’est important : une crise croissante

La prolifération de contenus non consensuels générés par l’IA représente une grave escalade des abus sexuels basés sur l’image. La question est encore compliquée par le fait que les recours juridiques sont lents. La loi américaine TAKE IT DOWN, bien qu’elle constitue un pas en avant, exige que les victimes se manifestent avant que des mesures puissent être prises, ce qui laisse beaucoup d’entre elles vulnérables.

La vraie solution réside dans des mesures proactives de la part d’entreprises technologiques comme Apple, Google et X lui-même. Des garanties techniques et des filtres de contenu plus stricts pourraient au moins ralentir la propagation de ce matériel nuisible.

L’essentiel

La disponibilité continue de Grok et X dans les magasins d’applications malgré les abus généralisés constitue un échec en matière de modération du contenu et de responsabilité d’entreprise. À moins que les géants de la technologie n’agissent de manière décisive, les images non consensuelles générées par l’IA ne feront que devenir plus répandues, accentuant la pression réglementaire et érodant la confiance dans les plateformes numériques.