La récente polémique autour de l'outil Grok, qui permet de déshabiller virtuellement des femmes grâce à l'intelligence artificielle, met en lumière un phénomène inquiétant qui ne fait que débuter. Selon Anne Craanen, chercheuse à l'Institute for Strategic Dialogue, cette tendance est un reflet d'une culture numérique où la misogynie prospère. Sur des plateformes comme Reddit, les utilisateurs partagent aisément des astuces pour contourner les limites imposées par certaines IA.
Nous assistons à une escalade dans l'utilisation de ces technologies, où le harcèlement devient un amusement pour de nombreux internautes, souvent masculins. Clare McGlynn, expert en droit et violence faite aux femmes, s'inquiète de l'impact disproportionné de ces outils sur les femmes, qui perçoivent l'intelligence artificielle non pas comme une avancée prometteuse, mais comme une nouvelle forme d'abus.
Des applications accessibles, mentionnées par des études de l'American Sunlight Project, permettent de créer des images non consensuelles. Malgré la présence de régulations, ces méthodes continuent de circuler librement sur internet, exploitant une faille dans notre système. La situation est d'autant plus alarmante, face à des géants de la tech tels que Google et Apple, qui hébergent ces applications sur leurs plateformes.
La nécessité d'instituer des régulations plus strictes se fait sentir, souligne Nina Jankowicz, afin de contrer cette culture de la violence numérique. Rappelons que, bien qu'illégal en Europe de générer des contenus sexuels sans consentement, le fléau des deepfakes continue de mettre en péril la sécurité et la dignité des femmes sur le net. Il est urgent d'agir pour protéger les victimes et stopper cette dérive.







