Par Myriam BEN SALEM-MISSAOUI
Le monde entier est sous le choc suite à la publication sur X de milliers de photos de femmes nues grâce à l’Intelligence artificielle. Cette affaire met en lumière les risques éthiques, juridiques et sociaux de l’IA générative...
La pression sur X (anciennement Tweeter) s’intensifie après la diffusion de fausses vidéos sur le réseau social d’Elon Musk. La Grande-Bretagne et l’Union européenne exigent des explications sur la manière dont la plateforme protège ses utilisateurs, face à des images de femmes et de mineures à caractère sexuel, générées par son assistant d’intelligence artificielle Grok.
A titre d’exemple, l'Ofcom, le régulateur officiel des communications au Royaume-Uni, a indiqué dans un communiqué relayé par RFI : « Nous sommes conscients des sérieuses inquiétudes concernant une fonctionnalité de Grok sur X qui génère des images de personnes dénudées et des images sexualisées d'enfants", Le régulateur a indiqué avoir contacté "urgemment" X pour "comprendre quelles mesures" ce réseau social a introduites afin de "respecter ses obligations légales » concernant la protection des utilisateurs au Royaume-Uni.
« En fonction de leur réponse, nous procéderons à une évaluation rapide pour déterminer s'il existe des problèmes de conformité susceptibles de justifier une enquête" », a ajouté l'Ofcom.
Selon le journal français Le Monde, entre le 25 décembre et le 1ᵉʳ janvier, près de la moitié des images générées par l’IA Grok représentaient des personnes partiellement dénudées.
Des milliers d’internautes ont donc utilisé cet outil pour créer des contenus visant à "déshabiller" des femmes, des adolescentes et même des enfants, expliquent les chercheurs de l’ONG européenne AI Forensics, qui ont tenté de mesurer l’ampleur du phénomène en analysant 20000 images produites par Grok durant cette période. Cette affaire met, en effet, en lumière les risques éthiques, juridiques et sociaux de l’IA générative. Comment, justement, faire face aux dérapages de l’IA
Régulation…
Même si l'assistant d'intelligence artificielle du réseau X a reconnu vendredi l'existence de "failles" ayant permis à des utilisateurs d'obtenir de lui des images à caractère sexuel impliquant des mineures ou des femmes, les experts sont unanimes quant à la régulation de l'IA qui devient un enjeu mondial majeur.
A cet effet, l’ingénieur en informatique, Fakher Karouida, nous a indiqué : « Une étude menée par deux chercheurs, Marin de La Rochefoucauld et Adnane Chader, a montré que depuis le déploiement de technologies telles que ChatGPT en 2022 et Gemini plus récemment, la diffusion de ces IA s’est rapidement accélérée, affectant des domaines sensibles tels que la santé, la sécurité et les droits fondamentaux.
Cette adoption rapide et étendue a soulevé des préoccupations éthiques, sociales et sécuritaires majeures. Elle a provoqué une prise de conscience croissante soulignant la nécessité d’une réponse réglementaire adaptée pour réguler cette technologie disruptive. Malgré ses avantages, l’IA s’accompagne cependant de risques et soulève nécessairement des préoccupations économiques et sociales.
Le risque pour cette technologie est d’être, en effet, utilisée à des fins malveillantes, par exemple dans le cadre de cyberattaques ou de manipulations du marché, qui pourrait déstabiliser les industries et avoir des conséquences économiques considérables. Aussi, au niveau moral, l’IA peut être utilisée pour générer des contenus à caractère sexuel comme c’est la cas dans cette affaire de Grok.
En ce sens, l’année 2024 marque un tournant décisif avec l’adoption de l’AI Act par l’Union européenne, reflétant une volonté forte de réguler l’usage de l’IA. Cet acte législatif vise à établir un cadre juridique pour l’utilisation de l’IA en mettant en place des exigences strictes pour les systèmes d’IA considérés à haut risque, notamment dans les domaines de la transparence et de l’interopérabilité.
La Tunisie est appelée ainsi à mettre en place ses propres outils de régulation. La régulation de l’IA par les pouvoirs publics est cruciale pour garantir que son développement et son utilisation servent le bien-être général de la société, tout en minimisant les risques potentiels. Néanmoins, bien que ce cadre juridique européen ainsi que les initiatives internationales représentent des avancées significatives, la régulation de l’IA demeure un défi complexe.
Les questions de sécurité, de transparence, de responsabilité et de non-discrimination sont au cœur des préoccupations. La mise en œuvre effective de ces réglementations nécessite une coopération continue entre les législateurs, les organismes de recherche mais aussi avec les entreprises pour adapter les lois aux évolutions technologiques rapides ».
M.B.S.M.

