L’Affaire Epstein et l’Intelligence Artificielle : Un Écueil Déconcertant

Depuis deux semaines, une vague de demandes singulières émerge sur X. Des utilisateurs sollicitent Grok, une intelligence artificielle, pour qu’elle “défloute” des images d’enfants tirées des documents liés à l’affaire Epstein. D’après un rapport de France Info, près de 60 cas de telles demandes ont été traités par l’IA, entraînant des millions de vues de ces images générées.

Cela fait suite à la révélation de milliers de fichiers, entourant l’affaire Epstein, qui a choqué l’opinion publique. Ce milliardaire est accusé d’avoir orchestré un réseau de traite d’enfants. La gravité de cette situation pousse certains internautes à utiliser l’intelligence artificielle dans des manières troublantes.

Depuis le début de février, la plateforme de surveillance des médias sociaux Visibrain a enregistré pas moins de 2 400 demandes de ce type. Selon les analyses de France Info, l’IA a accédé à ces requêtes dans environ 60 cas.

Des Images Trompeuses et les Risques Associés

Un fait inquiétant est que les images ainsi “défloutées” ne sont pas réellement authentiques. En effet, Grok produit des visages d’enfants générés de toutes pièces. Alors que certaines de ces images présentent des indices évidents de génération artificielle, d’autres paraissent tellement réelles qu’elles sont susceptibles de tromper l’œil. Par exemple, une image affichée le 1er février a été visionnée par 27 millions de personnes, tandis qu’une autre cumulative a réussi à rassembler 18 millions de vues.

Ari Kouts, consultant sur les questions d’intelligence artificielle chez Wavestone, dénonce cette pratique, affirmant dans une interview avec TF1 : “Il est futile de tenter d’obtenir des résultats d’une IA en matière de défloutage d’images. Les modèles de génération d’images ne peuvent pas déduire ce qui se cache derrière un floutage.” Ces propos sont corroborés par le journaliste américain Jeremy Carrasco, ajoutant que “l’IA ne repère pas de fichiers spécifiques, mais produit des visages sans aucun fondement réel, en s’appuyant sur des données disponibles.”

“Cela constitue une violation inacceptable des droits des victimes”, déclare Nathalie Bucquet, avocate pour l’association de protection de l’enfance Innocence en danger. Elle plaide pour l’ouverture d’une enquête judiciaire portant sur les agissements en France de Jeffrey Epstein. Face à cette situation préoccupante, les utilisateurs continuent de solliciter Grok, montrant ainsi un manque de compréhension des conséquences néfastes de cette démarche.

Les activités autour des images défloutées se sont intensifiées entre le 1er et le 5 février. Cependant, à partir du 6 février, il semble que les directives d’Elon Musk concernant l’IA aient restreint cette forme d’interaction, rendant les demandes de “défloutage” beaucoup moins fréquentes.

Ce phénomène soulève une question pressante sur la responsabilité des technologies d’IA face à des cas si sensibles. L’interaction entre l’IA, les médias et les demandes du public doit être scrutée de près pour éviter des dérives morales.

Source : www.ladepeche.fr

➡️ Découvrez CHAT G P T en français !

❤️ Soutenez Crypto Facile
en utilisant nos liens d'inscription à CRYPTO.COM, COINBASE, COINHOUSE et BINANCE
 

Ajouter un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Sentiment du Marché

Latest Crypto Fear & Greed Index

Cours du BITCOIN