21 août 2025
Formation intelligence artificielle Belgique: te mettre à l'abri
Temps de lecture : ± 5 minutes
Obligation de formation à l’IA : ce que les PME belges doivent savoir
Depuis l’entrée en vigueur de l’AI Act européen le 1er août 2024, les règles du jeu ont changé pour tous les acteurs qui conçoivent ou utilisent des systèmes d’intelligence artificielle. La mesure la plus concrète, et déjà en application, est l’obligation de veiller à la littératie IA des personnes amenées à utiliser ou à déployer des systèmes d’IA : autrement dit, il faut former les équipes. Pas besoin d’être data‑scientist, mais il faut comprendre ce que l’outil fait, comment il le fait et ses limites.
L’objectif de cet article : expliquer en langage clair ce qu’impose l’AI Act, pourquoi la formation n’est pas qu’une contrainte et comment les PME peuvent s’y préparer sans y laisser leur chemise.
1. AI Act et littératie IA : de quoi parle‑t‑on ?
L’AI Act est la première réglementation européenne dédiée à l’intelligence artificielle. Elle s’appuie sur une approche graduée : les pratiques présentant un risque inacceptable (manipulation subliminale, exploitation des vulnérabilités, crédit social…) sont interdites, tandis que les systèmes à haut risque (recrutement, santé, justice…) sont strictement encadrés.
À l’opposé, les applications à risque limité – chatbots, générateurs d’images ou de textes – font l’objet d’obligations de transparence, et les outils à risque minimal (filtres antispam, jeux vidéo) restent libres.
L’article 4 de l’AI Act impose une obligation inédite : fournisseurs et déployeurs de systèmes d’IA doivent prendre des mesures pour assurer un niveau suffisant de littératie IA chez leurs collaborateurs et les personnes amenées à utiliser ou exploiter ces systèmes. Cette littératie correspond aux compétences, connaissances et compréhension permettant de prendre des décisions éclairées et d’être conscient des risques et opportunités.
La Commission précise que cette obligation s’applique à tous les systèmes d’IA, y compris les applications génératives comme ChatGPT
Source: digital-strategy.ec.europa.eu.
Qui est visé ?
Ne crois pas que seuls les grands groupes sont concernés. Sont visés :
Les fournisseurs de solutions IA : développeurs, éditeurs de logiciels et intégrateurs doivent former leurs équipes (R&D, produit, support) pour comprendre le fonctionnement et les biais des modèles qu’ils conçoivent.
Les déployeurs et utilisateurs professionnels : toute entreprise qui utilise des outils IA – qu’il s’agisse d’un ATS pour trier des CV, d’un outil d’analyse de données ou d’un simple chatbot – doit s’assurer que ses collaborateurs savent s’en servir correctement. Même une PME qui utilise ChatGPT pour rédiger des offres est considérée comme déployeur.
Les personnes affectées : clients, candidats, patients… doivent comprendre comment l’IA influence les décisions qui les concernent.
2. Le calendrier : des dates à retenir
Le calendrier d’application est échelonné sur plusieurs années. Voici les jalons qui touchent la formation :

Date | Ce qui change | Référence |
---|---|---|
2 février 2025 | Entrée en application des interdictions de systèmes d’IA « inacceptables » et de l’obligation de littératie IA | |
2 août 2025 | Entrée en vigueur des règles pour les modèles d’IA à usage général (comme ChatGPT) et désignation des autorités nationales de surveillance | |
3 août 2026 | Application générale du reste de l’AI Act. Les autorités belges commenceront à superviser et sanctionner | |
2 août 2027 | Date limite pour la mise en conformité des modèles d’IA mis sur le marché avant août 2025 |
À retenir : la formation n’est plus une option depuis le 2 février 2025, et les contrôles débutent en août 2026. Mieux vaut s’y préparer dès maintenant !
3. Pourquoi cette obligation ?
La littératie IA vise à garantir une utilisation responsable de l’IA. Bien formées, les équipes :
Réduisent les biais : une compréhension des modèles permet d’identifier des discriminations et d’éviter des décisions injustes.
Assurent la transparence : elles peuvent expliquer aux clients et collaborateurs comment fonctionne l’IA et quelles données elle utilise.
Gardent la main : la formation renforce l’importance du contrôle humain et évite de déléguer aveuglément des décisions à la machine.
Protègent les personnes concernées : elles s’assurent que les patients, candidats ou clients comprennent l’impact de l’IA sur les décisions qui les touchent.
Ces arguments sont repris dans la FAQ de la Commission, qui rappelle que l’objectif est de doter tous les acteurs « des notions nécessaires pour prendre des décisions éclairées concernant les systèmes d’IA ».
4. Adapter la formation à ses besoins
Il n’existe pas de modèle unique : l’AI Act laisse aux entreprises une flexibilité pour définir le contenu des formations, mais fixe un minimum.
Concrètement, une formation conforme devrait :
Offrir une compréhension générale de l’IA : qu’est‑ce qu’une IA ? Comment fonctionne‑t‑elle ? Quels outils utilisons‑nous dans l’entreprise ? Quels sont leurs avantages et leurs limites ?
Clarifier le rôle de l’organisation : sommes‑nous fournisseurs d’IA ou simple utilisateur ? Développons‑nous nos propres modèles ou utilisons‑nous ceux d’un tiers ?
Évaluer les risques des systèmes utilisés : à quel niveau de risque appartiennent‑ils ? Les collaborateurs doivent connaître les dangers et les mesures d’atténuation.
Adapter la formation aux profils : chaque public a un niveau de technicité différent. Un dirigeant doit avoir une vision globale et juridique ; un responsable RH ou financier doit comprendre les biais et obligations ; un développeur doit maîtriser les aspects techniques ; tandis que les utilisateurs occasionnels doivent savoir interpréter les réponses et signaler les erreurs.
La Commission insiste : il ne suffit pas de partager un manuel d’utilisation, il faut des actions adaptées au contexte et au public.
Quels formats ?
Les slides suggéraient plusieurs approches : ateliers en présentiel, e‑learning, webinaires, sessions de sensibilisation courtes. L’important est de varier et de combiner la théorie avec des exercices pratiques.
Une analogie utile : la littératie IA, c’est comme le permis de conduire. On ne demande pas aux collaborateurs d’être mécaniciens, mais de savoir démarrer, freiner et respecter le code de la route. Le niveau requis dépend du véhicule et de la route : pas la peine de former tout le monde au pilotage de Formule 1 si vous utilisez uniquement des chatbots.
5. Plan d’action pour les PME
Voici une feuille de route pragmatique pour te mettre en conformité :
Cartographie des systèmes d’IA : fais l’inventaire de tous les outils utilisés (même un simple ChatGPT) et classe‑les selon les catégories de risque.
Vérifie les pratiques interdites : interdis immédiatement toute utilisation d’IA « inacceptable ».
Évalue la littératie IA interne : mesure le niveau de connaissances de tes collaborateurs, identifie les écarts et priorise les profils les plus exposés.
Mets en place un programme de formation : structure des modules adaptés aux fonctions (dirigeants, RH, marketing, équipes opérationnelles) et aux outils.
Formalise une politique d’usage de l’IA : rédige une charte précisant quels outils sont autorisés, comment les utiliser et qui contacter en cas de problème.
Documente les actions : conserve les preuves des formations, évaluations et décisions ; elles pourront être demandées par l’autorité de surveillance.
Reste informé : suis les mises à jour de l’AI Office et des autorités belges, participe à des webinaires et rejoins des communautés d’entraide (comme la nôtre, REVOLia 😉).
6. Un contexte belge encore timide
Une enquête réalisée par Acerta Consult fin juillet 2025 auprès de 2 000 travailleurs et 500 entreprises montre que la Belgique est encore en phase « attentiste ».
43,1 % des travailleurs ne savent pas si leur employeur autorise l’usage d’outils d’IA.
Plus d’un tiers (35,7 %) des entreprises n’ont pas encore dispensé de formation à l’IA et ne prévoient pas d’en organiser.
Pour autant, l’appétit des collaborateurs est réel : 60 % des travailleurs se disent intéressés par des formations sur l’IA.
Le paysage réglementaire belge
L’AI Act est un règlement européen, mais sa mise en œuvre passe par chaque État membre. En Belgique, plusieurs acteurs sont déjà dans la danse :
SPF Économie → point d’entrée officiel, coordination, calendrier, FAQ, sandbox, sanctions.
Autorités de notification (art. 77 AI Act) → 27 organismes au total, dont :
APD pour la protection des données,
Unia/IEFH pour la non-discrimination et l’égalité,
FIRM/VMRI pour les droits humains,
CCB pour la cybersécurité,
les médiateurs (rail, poste, fédéral…), etc.
Commission européenne → suit l’application et publie des FAQ régulièrement mises à jour (dernière le 18 août 2025).
📌 Et surtout : depuis le 2 février 2025, l’obligation de formation est bel et bien en vigueur en Belgique. Les premières sanctions tomberont à partir du 2 août 2026.
8. Sanctions et opportunités
L’AI Act prévoit des amendes potentiellement élevées, mais la Commission précise que les sanctions seront proportionnées et tiendront compte de la situation financière des PME.
Au‑delà des amendes, le principal risque est la perte de confiance : un incident lié à l’IA non maîtrisée peut nuire à ta réputation et entraîner des litiges.
À l’inverse, investir dans la littératie IA est une opportunité : conformité réglementaire, innovation responsable, confiance des clients et avantage compétitif s’obtiennent en cultivant des équipes capables d’utiliser l’IA de façon éthique et efficace.
9. En conclusion
L’obligation de formation à l’IA imposée par l’AI Act n’est pas un caprice de Bruxelles ; c’est une invitation à prendre de l’avance. En cartographiant tes usages, en évaluant les besoins de formation et en créant une culture d’usage responsable, tu transformes une contrainte en levier de compétitivité.
Chez REVOLia, nous accompagnons les dirigeants et les équipes dans cette démarche. N’attends pas le contrôle pour passer à l’action !
Sources et ressources
AI Literacy – Questions & Answers, Commission européenne : définitions, champ d’application et minimums à respecter pour un programme de littératie.
Implementation Timeline du AI Act, Future of Life Institute : calendrier des obligations et dates clés.
European approach to artificial intelligence, Commission européenne : explication des quatre niveaux de risque.
Utilisation de l’IA en entreprise : les travailleurs insuffisamment informés/formés…, AKTus – CCI Magazine (28 juillet 2025) : statistiques belges sur la formation à l’IA.
En savoir plus et accéder à toutes nos ressources?
💥 Accès à l'article complet, à tous les liens, ainsi qu'aux documents pdf pouvant t'aider via REVOLia Campus
Article d’information — ne vaut pas avis juridique. Les dates peuvent évoluer via les décrets d’application nationaux.