Anthropic a récemment lancé une enquête suite à la découverte d'un accès non autorisé à Mythos, le modèle d'IA qu'il a positionné comme l'un des plus avancés au monde. Ce modèle, par ses capacités d'analyse, pourrait potentiellement générer des cyberattaques d'une ampleur sans précédent. Selon les révélations de Bloomberg, un nombre restreint d'utilisateurs professionnels aurait accédé à Mythos via l'environnement d'un prestataire externe.
Une enquête ouverte
"Nous faisons des investigations sur un signalement d'accès non autorisé à Claude Mythos Preview, effectué via un de nos prestataires tiers", a indiqué un porte-parole d'Anthropic à l'AFP. Ce à quoi il a ajouté que l'accès s'était produit dans un environnement réservé aux sous-traitants développant le modèle, et non à travers les systèmes utilisés par Anthropic pour ses clients commerciaux. Cela réduit le périmètre de l'incident, même si des éléments demeurent flous quant à d'éventuels abus.
Un accès limité
Mythos a été lancé début avril auprès de partenaires triés sur le volet comme Amazon, Microsoft et Apple, qui ont été chargés de tester le modèle avant son lancement officiel. Cet incident représente le troisième problème de sécurité que la start-up a rencontré en l'espace d'un mois, suscitant des inquiétudes quant à ses pratiques de sécurité interne. L'expert en cybersécurité, Simon Dupuis, a déclaré que ces failles dans la sécurité des IA avancées pourraient donner naissance à des scénarios de cybercriminalité alarmants.







