L’Artificial Intelligence Act est un projet de règlement de la Commission européenne établissant un cadre juridique harmonisé concernant l’Intelligence Artificielle. Celui-ci a pour principal objectif de réguler l’intelligence artificielle d’un point de vue éthique et juridique. L’enjeu sera de préserver la compétitivité des entreprises et de déployer intelligemment ces nouvelles technologies. L’Union Européenne est pionnière en la matière.
Les acteurs majeurs sur le marché ont déjà investi sur le marché de l’Intelligence Artificielle. La Chine ou encore les Etats-Unis veulent imposer leur cadence. L’Union Européenne souhaite rester dans la course à l’innovation et au déploiement de toute forme d’Intelligence Artificielle. Afin de rester compétitif et de réguler les enjeux inhérents à ce sujet, l’Union Européenne propose une réglementation avec son propre rythme et ses règles.
L’Intelligence Artificielle ou I.A est un ensemble de techniques qui fait appel à des systèmes ou des machines qui effectuent des tâches relevant habituellement de l’intelligence humaine. On peut répertorier 4 types d’IA : la réactivité, la mémoire limitée, la théorie de l’esprit, et l’auto-conscience. Et les Systèmes d’IA intégrant certaines de ces capacités peuvent être classés en 3 catégories : systèmes auto-apprenant (« machine learning », dont le niveau d’apprentissage varie), systèmes logiques (ou « systèmes experts », suivent une logique prédéfinie), systèmes statistiques (méthodes de recherche et optimisation). L’IA, à l’image de l’intelligence humaine, fonctionne grâce à l’interconnexion d’un réseau de neurones, et l’étendue de ses capacités et son degré d’autonomie n’ont de cesse d’augmenter. Parallèlement, les entreprises intègrent de plus en plus l’IA dans leurs produits, services ou process, parfois dans des domaines très risqués pour les usagers/clients. Avec une technologie aussi évolutive et désormais encrée dans les usages quotidiens, comment réguler et sauvegarder les droits fondamentaux et la sécurité des personnes ? Quelle place pour l’humain face à l’innovation ? Comment permettre le développement d’une technologie, en matière de législation européenne, afin d’allier progrès mais aussi protection des données, confiance, contrôle et investissement.
Une proposition de réglementation a été élaborée par la Commission européenne, après plusieurs années de travail. Elle établit des règles en matière d’Intelligence Artificielle afin de concilier à la fois la protection des individus, l’innovation et la sécurité juridique. Cette proposition s’intègre plus globalement dans une communication en faveur d’une approche européenne de l’intelligence artificielle (COM(2021) 205 final) avec un nouveau plan de coordination (révision du plan de 2018) et également une proposition de règlement afin de réformer la directive sur les machines (COM(2021) 202final). Ce projet concerne tout opérateur économique d’un système d’IA, c’est à dire tout logiciel développé avec un système auto-apprenant, logique ou statistique, en capacité de suivre des instructions humaines et de générer des résultats de sortie. Cela peut être du simple contenu mais également des prédictions, des recommandations, ou des décisions influençant les environnements matériels ou immatériels avec lequel le système interagit.
L’Intelligence Artificielle est bel et bien présente dans notre quotidien et ce depuis de nombreuses années. Pour autant, nous avons du mal à déterminer son champ d’action et comprenons assez peu la multiplicité de ses potentialités. Nous la trouvons innovante et elle nous attire tout autant qu’elle nous fait peur en nous rappelant des images de films de science fiction peu réconfortantes. Rassurons-nous, elle est encadrée par le droit, mais il est difficile pour tout un chacun de la comprendre et de lui faire confiance. Elle interroge sur nos droits fondamentaux et la protection de nos données personnelles, en effet ses résultats peuvent être biaisés, discriminatoires, empreints de préjugés, non-équitables, émettant parfois des décisions subjectives de façon autonome. L’exemple des caméras dites « intelligentes » (caméras à reconnaissance faciale ou encore caméras thermiques utilisées pour la sécurité civile et sanitaire) essuie de nombreuses peurs, incompréhensions et critiques.
Ces nouvelles perspectives technologiques et scientifiques, mises au point par l’homme, nécessite un cadre législative et réglementaire que l’Union Européenne souhaite proposer dans son nouveau projet de réglementation. Elle espère distinguer les IA « inoffensives » versus celles qui pourraient potentiellement représenter un danger pour les droits et les libertés individuelles et collectives.
Le règlement IA s’applique aux fournisseurs d’un système d’IA établis au sein de l’U.E, aux utilisateurs de ce même système, mais également aux fournisseurs et utilisateurs d’un système IA établis dans un pays tiers lorsque les données produites par l’IA sont utilisées au sein de l’U.E. Le règlement explique que certains systèmes d’IA non commercialisés devraient bénéficier de ce cadre juridique. Il peut tout à fait se nourrir de données personnelles provenant de personnes physiques situées sur le territoire d’un état membre et impacte en définitive leur vie privée, qu’il ait été ou non commercialisé. Le texte pose des exceptions et ne s’appliquera pas aux dépends d’une convention internationale conclue avec un état tiers ou une organisation internationale. Il ne s’appliquera pas non plus aux systèmes d’IA développés ou utilisés exclusivement à des fins militaires.
En se concentrant sur les risques potentiels de l’utilisation de l’I.A, la Commission européenne souhaite cadrer selon le niveau de dangerosité vis-à-vis des utilisateurs. La mise en œuvre devrait suivre dans un deuxième temps afin d’effectuer des contrôles dans chaque état. Les textes soulignent l’importance pour les entreprises de procéder à des phases de tests, de développement et de mise en conformité des innovations utilisant l’IA. Il est important de sensibiliser quant à la réglementation applicable et de bénéficier d’une communication avec des orientations personnalisées. Les start-up et les PME sont appelées à être moteur de cette réglementation sous l’encadrement d’autorités nationales compétentes.
Le parlement et les représentants des états membres doivent adopter les propositions de la Commission par une procédure législative ordinaire. Puis, ce règlement sera publié au Journal Officiel de l’Union Européenne (JOUE) et entrera en vigueur le 20ème jour après sa publication. Des autorités de contrôle nationales compétentes seront alors désignées dans les 3 mois suivant son entrée en vigueur et des sanctions financières devront être déterminées par les états membres dans les 12 mois. Le règlement sera mis en application 24 mois après son entrée en vigueur (il a été validé par les instances européenne et devra entrée en vigueur début 2024).
L’approche par les risques est classée selon : les risques inacceptables (menace évidente pour la sécurité et les droits des personnes), les risques élevés (technologie d’IA utilisés dans les infrastructures critiques comme les transports pouvant mettre en danger la vie et santé des personnes, dans le domaine de l’éducation et de la formation professionnelle, dans les composants de sécurité des produits, dans le domaine de l’emploi, de la gestion de la main d’œuvre, des services privés et publics essentiels, le maintien de l’ordre, la migration, l’asile et le contrôle aux frontières). Les systèmes d’IA à haut risque devront être conformes à des obligations strictes pour pouvoir être mis sur le marché. En particulier, les systèmes d’identification biométrique à distance. Concernant les risques limités, il s’agit des systèmes d’IA avec des obligations en matière de transparence. Enfin, pour les risques minimes, la proposition législative autorise l’utilisation libre d’applications telles que les jeux vidéo, les filtres anti-spam reposant sur l’IA. La grande majorité des systèmes d’IA relèvent de cette catégorie.
La Commission européenne propose que les autorités nationales compétentes de surveillance du marché veillent au respect de ces nouvelles règles. Sa mise en œuvre sera facilitée par la création d’un comité européen de l’intelligence artificielle chargé de stimuler l’élaboration des normes pour l’IA.