L’IA augmente la productivité
L’intelligence artificielle n’est plus un concept futuriste, mais elle est de plus en plus présente dans tous les aspects de la vie quotidienne. Des outils comme Copilot et ChatGPT ont transformé notre façon de travailler, d’apprendre et de communiquer. De la rédaction de courriels à l’analyse avancée, l’IA est devenue un moteur essentiel de la productivité et de l’innovation. Les entreprises tirent même parti de cette technologie pour le service à la clientèle, la détection des fraudes et même la prise de décisions stratégiques.
L’IA pose un risque sociétal
Malheureusement, cette catégorie de technologies présente également un risque sociétal réel. Des modèles pourraient être utilisés pour déterminer si vous êtes éligible à un prêt hypothécaire ou si vous êtes apte à occuper un emploi. Il est donc facile de voir que le cours de votre vie peut être sérieusement modifié par un modèle statistique. Cela devient problématique s’il s’avère que ce modèle a été formé sur des données biaisées et qu’il a mis en évidence de fausses tendances. Tout cela sans même envisager des cas d’utilisation plus exotiques comme la reconnaissance des émotions ou la police prédictive.
Compromis entre innovation et risque
Ce compromis entre les possibilités de croissance économique et les risques pour la société s’est avéré être un véritable casse-tête pour les décideurs politiques du monde entier. De la capitalisation totale de la croissance économique à l’interdiction pure et simple de l’IA, la Commission européenne a décidé d’opter pour une approche équilibrée et fondée sur les risques, sous la forme de la loi sur l’IA.
La loi européenne sur l’IA
La loi européenne sur l’IA commence par reconnaître que tous les cas d’utilisation de l’IA ne présentent pas le même niveau de risque sociétal. Elle distingue ensuite plusieurs catégories de risques :
- Risque inacceptable (interdit) : par exemple, la police prédictive individuelle
- à haut risque : par exemple, les modèles d’évaluation du crédit
- Risque de transparence : par exemple, les chatbots de service à la clientèle
Lors de l’examen d’un cas d’utilisation spécifique, la Commission a également reconnu que tous les participants à la chaîne de valeur du système sous-jacent n’ont pas les mêmes responsabilités.
Par conséquent, en vertu de la loi sur l’IA, les obligations auxquelles une organisation doit se conformer dépendent à la fois de la classification des risques de son cas d’utilisation de l’IA et de son rôle dans la chaîne de valeur du système sous-jacent.
Déroulement
Partant du constat que tous les cas d’utilisation de l’IA ne présentent pas le même niveau de risque, la Commission a opté pour un déploiement du règlement par étapes et en fonction des risques. Les entreprises et les organismes publics disposent ainsi d’un délai suffisant pour se préparer.
Au début de cette année, les obligations relatives aux cas d’utilisation interdits et aux modèles à usage général sont entrées en vigueur. L’année prochaine, au mois d’août, les autres parties du règlement entreront en vigueur, à l’exception d’un seul paragraphe qui étend le champ d’application des systèmes à haut risque. Ce dernier paragraphe s’appliquera à partir d’août 2027.
Ce que cela signifie pour votre organisation
Tout cela nous amène à nous poser la question suivante : « Que signifie la loi sur l’IA pour mon organisation ? « Quelles sont les implications de la loi sur l’IA pour mon organisation ? En bref, quelle que soit la taille ou la nature de votre organisation, les trois étapes suivantes vous permettront d’évaluer votre exposition et d’assurer votre conformité.
- Établissez une vue d’ensemble : La première étape de l’évaluation de l’exposition à la conformité consiste à dresser la liste de tous les cas d’utilisation structurellement intégrés dans les processus de votre organisation.
- Classer les cas d’utilisation : La deuxième étape consiste à classer chacun des cas d’utilisation identifiés dans la taxonomie AI Act, en tenant compte du rôle de votre organisation dans la chaîne de valeur du système sous-jacent.
- Fournir des connaissances en matière d’IA : La loi sur l’IA exige que toutes les organisations qui utilisent l’IA fournissent une formation et une Awareness à leur personnel pour s’assurer qu’ils sont en mesure de prendre des décisions éclairées basées sur les résultats et de comprendre les risques et les limites.
Conclusion
Pour conclure cette brève introduction à la loi sur l’IA, il est juste de dire que l’IA est là pour durer, tout comme sa réglementation. Les organisations qui réussiront dans cette nouvelle ère seront celles qui mettront en place dès le départ de solides pratiques de gouvernance de l’IA. En vous alignant aujourd’hui sur la loi sur l’IA, vous posez les bases de la réussite de demain.
➡️ Vous voulez aller plus loin ? Rejoignez notre collègue Kevin lors du webinaire organisé avec Yields le 20/01 à 11:00 CET et repartez avec des étapes claires pour commencer à mettre en place une gouvernance de l’IA dans votre organisation.