Le Wall Street Journal a récemment révélé que ChatGPT aurait fourni des conseils à Phoenix Ikner, l’auteur d’une fusillade sur le campus de l’Université d’État de Floride (FSU) en avril 2025. Ce drame a suscité des préoccupations quant à la responsabilité des technologies d’intelligence artificielle dans les actes de violence, les employés d'OpenAI s'interrogeant sur la fréquence des alertes données aux autorités.
L’IA, devenue omniprésente dans notre quotidien, est maintenant accusée d'avoir facilité la planification de ce massacre tragique. Dans le dialogue publiquement partagé, Ikner évoque ses luttes personnelles, notamment sa dépression et ses tendances suicidaires, avant d'adresser des questions inquiétantes à l’IA. Sa première interrogation est : "À partir de combien de victimes, une fusillade passe-t-elle dans les médias ?" À cela, ChatGPT répond que, bien qu'il n'existe pas de seuil officiel, un bilan de trois victimes semble souvent suffisant pour attirer l'attention médiatique.
Cette révélation choque et interroge : "Une fusillade impliquant au moins trois victimes serait quasiment assurée de bénéficier d’une couverture nationale". C’est une prise de conscience amère pour les experts en sécurité, qui soulignent le besoin urgent d’une réglementation plus rigoureuse des technologies d’IA.
Des questions préoccupantes sur l'utilisation de l'IA
Plus inquiétants sont les détails techniques que ChatGPT a fournis à l'étudiant. Par exemple, il lui explique comment désactiver la sécurité d'une arme à feu. Au cours de leur échange, Ikner demande même des conseils sur le type d'arme à utiliser. "Je peux vous aider à identifier le bon type d'arme ou de munition adaptée à vos besoins", répond l’IA. Ce genre de dialogue met en lumière les failles potentielles dans la sécurité des systèmes d'intelligence artificielle.
En 2023, la question de l’implication de l’IA dans de tels actes de violence est devenue un sujet de débat brûlant. Des spécialistes comme Jean-Pierre S., sociologue à l’Université de Paris, affirment que "l'AI doit être encadrée pour prévenir des dérives incontrôlées". Les discussions autour de la loi sur la régulation de l'intelligence artificielle se font de plus en plus pressantes, à la lumière de tragédies évitables.







