Veille Intelligence Artificielle
Intelligence Artificielle
L’IA a profondément changé notre façon d’apprendre et de travailler. À titre personnelle, je l’utilise comme un assistant qui me permet d’optimiser ma compréhension et mon travail sur des sujets complexes. L’objectif n’est pas de faire faire, mais bien de faire de façon assistée. Cela permet d’optimiser considérablement le temps et constitue un facteur de performance qu’il ne faut pas ignorer.
Cette veille couvre la période septembre 2024 – mai 2026.
Faits marquants
L’IA générative comme vecteur d’attaque
Il y a deux, cela relevait encore du domaine de la science fiction. Aujourd’hui l’IA générative est devenue un outil d’attaque accessible, permettant de produire des milliers d’e-mails de phishing personnalisés en quelques heures, de générer un deepfake vocal crédible en moins d’une minute.
Un incident documenté par le CERT-FR en novembre 2025 illustre concrètement le risque. Il s’agit d’un virement frauduleux déclenché à la suite d’un deepfake vocal imitant un dirigeant d’entreprise dans l’Est de la France. Ce n’est plus un cas isolé. Ninon.ia a montré en décembre 2025 qu’il est possible de générer une photo ultra-réaliste d’une personne inexistante en quelques secondes avec des outils grand public.
La réponse à ce type de menace n’est pas uniquement technique mais doit également être procédurale. C’est dans ce cadre qu’interviennent les actions de formation auprès du public.
cert.ssi.gouv.fr – Menaces et incidents, CERT-FR
ninonia.fr – Créer une personne ultra-réaliste en quelques secondes (déc. 2025)
i-leadconsulting.com – IA générative : 6 cyberattaques invisibles en 2026 (avr. 2026)
L’IA intégrée aux outils du quotidien
En deux ans, l’IA s’est intégrée dans la quasi-totalité des outils professionnels du quotidien, qu’il s’agisse denvironnements de développement (GitHub Copilot, GitLab Duo), d’outils ITSM (ServiceNow AIOps), de plateformes d’observabilité (Dynatrace, Elastic AI Assistant), ou encore suites bureautiques. De nombreux professionnels du secteur informatique ont aujourd’hui recours à l’IA pour accomplir des tâches.
L’AIOps utilise l’intelligence artificielle pour automatiser la surveillance et la gestion des infrastructures. Il s’agit d’une approche assistée de la supervision qui, par corrélation des logs et métriques, élimine les alertes inutiles, détecte les anomalies avant la panne et identifie précisément la cause racine. C’est une démarche analytique que je reconnais dans ma façon d’aborder la supervision des systèmes.
synapsys-groupe.com – Comment déployer l’IA pour les opérations IT (mai 2025)
gitlab.com – Qu’est-ce que l’AIOps ? (déc. 2025)
L’AI Act : un cadre réglementaire qui me concerne
L’AI Act européen est entré en vigueur le 1er août 2024. Il classe les systèmes d’IA en quatre niveaux de risque. Les interdictions (scoring social, manipulation subliminale, identification biométrique en temps réel dans les espaces publics) s’appliquent depuis le 2 février 2025. Les obligations pour les modèles à usage général (LLMs comme GPT, Claude, Mistral) sont en vigueur depuis le 2 août 2025. L’application complète pour les systèmes jugés à haut risque est prévue pour le 2 août 2026. Les sanctions prévus pourront atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial et présentent donc un caractère dissuasif.
Ce cadre réglementaire est selon moi indispensable. Il permet d’encadrer le développement et le déploiement de l’IA, d’imposer une transparence sur les niveaux de risque, et de responsabiliser les entreprises de ce qu’elles déploient. En tant que futur technicien en solutions d’infrastructure systèmes et réseau, je serai amené à déployer des systèmes intégrant de l’IA. Maîtriser le niveau de risque et les obligations afférentes fait partie du métier.
cnil.fr – Entrée en vigueur du règlement européen sur l’IA
i-actu.fr – Régulation européenne de l’IA : le AI Act décrypté (mars 2026)