En 2025, AI Act et IA générative sont devenus des sujets incontournables pour les directions informatiques. Les outils d’IA se diffusent dans les métiers, pendant que les réglementations et la souveraineté cloud resserrent le cadre. La question n’est plus de savoir s’il faut utiliser l’IA, mais comment garder la maîtrise des usages, des coûts et des risques.
L’AI Act vise à encadrer les systèmes d’IA qui ont un impact sur des personnes : clients, citoyens, collaborateurs. L’IA générative, elle, apporte une nouvelle façon de produire du texte, du code ou des contenus à grande échelle.
Ce qui change pour les DSI, c’est la combinaison des deux. D’un côté, des outils très faciles à déployer. De l’autre, une obligation de montrer que l’on sait ce que l’on fait avec ces systèmes et leurs données
Dans beaucoup d’organisations, l’IA est arrivée par petites touches : projets pilotes, fonctionnalités intelligentes dans des logiciels existants, assistants connectés à des modèles de langage. Ces initiatives ont souvent été utiles, mais rarement centralisées.
Résultat : la DSI se retrouve face à une question simple, mais difficile à documenter : où l’IA est-elle réellement utilisée dans le système d’information, et avec quelles conséquences ? C’est là que le couple AI Act et IA générative devient un sujet de gouvernance, pas seulement un sujet technique.
Pour ne pas subir ces évolutions, la DSI doit structurer sa réponse. Il ne s’agit pas de tout refaire, mais de se concentrer sur quelques priorités claires. Ces priorités servent à la fois de repère pour les équipes IT, de discours pour les métiers et de base d’échange avec la direction générale.
La première priorité est d’obtenir une vision d’ensemble. Tant que l’on ne sait pas où l’IA est utilisée, il est impossible de parler sérieusement de conformité, de risques ou de coûts.
L’objectif est d’identifier les usages d’IA déjà en place, qu’ils soient visibles ou discrets. Cela inclut les projets structurés, les fonctionnalités IA intégrées dans des outils SaaS et les assistants utilisés par certaines équipes. On découvre souvent, à cette occasion, des usages sensibles qui n’étaient pas perçus comme tels, ou au contraire des expérimentations limitées mais nombreuses.
Une fois les usages recensés, il devient possible de distinguer ceux qui présentent un enjeu fort. Tous les systèmes d’IA n’ont pas le même impact. Certains contribuent à des décisions RH, financières ou de sécurité. D’autres améliorent surtout la rédaction, la recherche ou la productivité quotidienne.
L’AI Act invite les DSI à faire cette distinction. Les usages les plus sensibles doivent être mieux encadrés : plus de traçabilité, plus de supervision, plus de vigilance sur les données. Les usages moins critiques peuvent rester plus légers, à condition d’être connus et assumés. Cette hiérarchisation permet de concentrer les efforts là où ils sont réellement utiles.
L’IA générative a souvent été adoptée via des services en ligne simples à activer. C’est efficace pour démarrer, mais cela peut générer une hausse de coûts et une forte dépendance à certains fournisseurs.
Pour reprendre la main, la DSI doit comprendre quels usages consomment le plus de ressources et pourquoi. Elle doit aussi décider plus clairement où l’IA générative tourne : chez un hyperscaler, dans un cloud européen, ou dans un environnement plus souverain lorsque les données ou les contraintes réglementaires l’imposent.
L’enjeu n’est pas de tout déplacer, mais d’être capable de justifier ces choix. Pour chaque usage important, on doit pouvoir expliquer où il est hébergé, quels sont les impacts sur la facture et comment les données sont protégées.
Les idées de nouveaux usages d’IA et d’IA générative vont continuer à arriver. Si la DSI ne propose pas de cadre, chaque projet avancera à sa manière, avec des niveaux de risque très différents.
Un cadre simple est souvent le plus efficace. Il peut prévoir un passage par la DSI dès le démarrage, quelques questions de base sur les données utilisées, l’impact métier, le lien avec l’AI Act, ainsi qu’une validation rapide de l’environnement d’hébergement. L’objectif n’est pas de alourdir les démarches, mais d’offrir un chemin clair pour lancer un projet IA dans de bonnes conditions.
Chez l’Oiseau Rare, ces sujets sont abordés à partir de la réalité des DSI : héritage applicatif, attentes des métiers, contraintes budgétaires et réglementaires. L’accompagnement combine ateliers de cadrage, inventaire des usages d’IA, recommandations d’architecture et définition de règles simples adaptées à chaque organisation.
Le duo AI Act et IA générative ne doit pas être vécu comme un obstacle, mais comme l’occasion de structurer l’IA dans l’entreprise. En clarifiant les usages, en assumant les choix d’hébergement et en posant quelques priorités simples, les DSI gardent la main sur les coûts, les risques et les décisions. C’est cette approche pragmatique que L’Oiseau Rare défend auprès des organisations qu’il accompagne.
Chez l’Oiseau Rare, nous aidons les directions IT à structurer leurs usages d’IA et d’IA générative dans le respect de l’AI Act.
Notre expertise en gouvernance SI, cloud et données permet aux DSI de garder la main sur leurs choix technologiques, leurs risques et leurs coûts, tout en avançant sereinement sur la souveraineté numérique.
