La DGSI alerte sur les risques et dérives liées à l’usage non maîtrisé de l’IA en entreprise
Dans le cadre de sa mission de sécurité économique, la DGSI accompagne les sociétés et les établissements de recherche dans la prise en compte des risques d’ingérences liés à des outils novateurs tels que l’Intelligence Artificielle Générative. Le « flash ingérence » du mois de décembre 2025 évoque le cas de trois entreprises françaises ayant été confrontées à des dérives ou des comportements à risque associés ou permis par l’usage de l’IA.

- Fuite de données sensibles : des salariés d’une entreprise française stratégique ont utilisé des outils d’IA grand public pour traduire ou traiter des documents confidentiels, exposant involontairement ces informations à des serveurs étrangers.
- Décisions stratégiques biaisées : une société a délégué l’évaluation de ses partenaires commerciaux à un outil d’IA et a accordé une confiance excessive aux recommandations émises, sans contrôle humain, entraînant des erreurs d’évaluation et des risques pour la gouvernance.
- Escroqueries via deepfake : une entreprise française a été victime d’une tentative d’escroquerie par hypertrucage associant le visage et la voix de son dirigeant lors d’une visioconférence pour demander un virement urgent dans le cadre d’un soi-disant projet d’acquisition du groupe.
Notre accompagnement
HEXAGRAM, expert reconnu en cybersécurité, vous accompagne dans l’adoption de nouveaux outils tels que l’IA en les alignant sur votre SI et vos exigences réglementaires. Institutionnelle et concrète à la fois, la mise en garde vise à encadrer intelligemment les usages :
- Protéger les données
- Classer ce qui peut / ne peut pas sortir de l’entreprise (confidentiel, interne, public)
- Préférer des solutions IA internes ou souveraines et RGPD‑compatibles, avec maîtrise des journaux et du chiffrement
- Garder l’humain dans la boucle
- Interdire toute décision critique sur la base d’une sortie IA non revue (principe de double validation)
- Exiger une traçabilité des prompts et des sources
- Anticiper les attaques
- Procédures anti‑fraude au faux dirigeant : code de contre‑appel hors canal, seuils de validation et verrouillage des virements
- Formations ciblées shadow IT / IA pour collaborateurs sensibles (finance, juridique, achats, R&D)
Besoin d’encadrer l’usage de l’IA au sein de votre entreprise, n’attendez plus pour nous contacter :
