L’AI Act est soumis aujourd’hui au vote du Parlement européen. Le texte, pionnier dans la réglementation de l’intelligence artificielle (IA), va introduire de nombreuses mesures pour les fournisseurs et distributeurs d’IA. Au point d’entraver l’innovation ?
De nouvelles contraintes
Les sociétés ont de plus en plus de mal à progresser sur un terrain réglementaire jonché de contraintes législatives, environnementales et technologiques qui ne cesse de s’étendre. Après le RGPD, le Digital Services Act et le Digital Markets Act, les entreprises doivent maintenant s’acclimater à l’encadrement de l’IA. Par expérience, elles tiennent déjà compte des grandes lignes de l’AI Act dans leurs projets, même si certaines modalités du texte sont encore floues.
L’AI Act se base sur une approche des modèles selon leurs risques, avec des règles plus pointues concernant l’IA générative. Dans cette logique, un système de filtres anti-spam pour une boîte mail sera moins surveillé qu’un système de notation de crédit pour une institution financière. Ce type d’application obligera les fournisseurs à livrer une documentation technique aux autorités compétentes.
Pour les entreprises, l’obligation de mise en conformité devrait s’apparenter aux méthodes de classification des risques existant déjà dans d’autres domaines comme la cybersécurité, commente Nosing Doeuk, directeur du pôle IA/Data chez mc2i. « Ce qui manque aujourd’hui, c’est un système de scoring plus précis, » indique-t-il. Les systèmes d’IA déjà existants seront soumis aux mêmes règles de transparence.
Pour les modèles à risque, les tests devront s’effectuer dans le cadre de bacs à sable réglementaires. Des essais dans la vie réelle sont aussi préconisés, les fournisseurs ayant l’obligation d’obtenir l’autorisation des organes nationaux au préalable. L’Office européen de l’IA, créé dans le cadre de la législation, sera chargé d’élaborer une méthodologie permettant de définir si des modèles présentent un risque systémique. Il aidera également les développeurs et distributeurs à se mettre en conformité.
Rassurer les utilisateurs pour instaurer un climat de confiance
Lors des houleuses négociations autour du texte, la France, l’Allemagne ainsi que plusieurs acteurs du secteur ont défendu une vision moins rigoureuse de la réglementation, appelant à une meilleure protection de l’industrie. Les deux pays, considérés comme les leaders européens dans le domaine, ne veulent surtout pas freiner la croissance de leurs jeunes pousses comme Mistral AI ou Aleph Alpha.
Outre-Atlantique, les débats sont plus calmes. Comme pour les données personnelles, les géants américains bénéficient d’un cadre réglementaire moins contraignant.
L’AI Act peut-il vraiment entraver l’innovation européenne ? À court terme, car les entreprises auront une pression réglementaire supplémentaire sur leurs épaules. En revanche, il devrait s’inscrire dans un cercle vertueux accélérant l’adoption de l’IA au sein de l’Union européenne sur le long terme, selon Nosing Doeuk. « L’intelligence artificielle fait peur, plus en Europe qu’aux États-Unis. Pour développer la technologie, les entreprises ont besoin que les Européens se rassurent et cela passe par la loi. Elle va protéger, cadrer, » argumente l’expert.
La législation va instaurer un climat de confiance entre les fournisseurs et les utilisateurs, qui sera à terme bénéfique aux entreprises. Une situation comparable au marquage CE sur les produits, juge-t-il : « Aujourd’hui, les gens n’achèteraient pas un produit pour enfant qui n’est pas muni de ce marquage ».
L’analyste fait également l’analogie avec le RGPD, premier grand règlement européen du numérique. Celui-ci n’a pas octroyé un avantage considérable aux entreprises américaines. Au contraire, ces dernières ont été contraintes de s’y plier aussi. Un exemple probant du « Brussels effect », quand les normes et réglementations de l’Union européenne finissent par influencer les législations et pratiques d’autres pays.
Le choix de l’Union européenne de défendre une IA basée sur l’open source pourrait avantager les entreprises du Vieux Continent ; l’AI Act imposera davantage de restrictions aux modèles fermés comme ceux d’OpenAI.
« Avec l’open source, vous laissez la possibilité au client de choisir de créer son propre environnement. Sur les modèles fermés, vous êtes bien souvent tributaire de ce que souhaite faire l’éditeur, » explique-t-il. Un élément non négligeable pour une entreprise lorsqu’elle sélectionne un partenaire, d’autant plus au regard de la confidentialité de ses données.
Vers une norme mondiale ?
C’est l’un des objectifs des législateurs européens : établir l’AI Act comme norme mondiale. Est-ce possible ? Oui, selon Nosing Doeuk, car le besoin des utilisateurs d’être rassurés poussera les autorités à agir. « Les peuples vont réclamer des cadres, ce qui forcera les gouvernements à en adopter, » estime l’expert. Le RGPD a notamment inspiré des textes en Chine et en Californie, rappelle-t-il.
Réglementer l’IA s’imposera comme une évidence, tant la technologie est vouée à s’inscrire dans le paysage professionnel. Les États-Unis, aussi, se penchent sur la question. Selon une étude réalisée par le cabinet McKinsey, l’IA générative pourrait ajouter 4 400 milliards de dollars de valeur à l’économie mondiale dans les prochaines années. Tous les acteurs proposant leurs services en Europe seront soumis aux mêmes exigences, garantissant ainsi une concurrence équitable pour tous. La question est désormais de savoir si les États-Unis, habituellement permissifs sur ces sujets, emboîteront le pas à leurs alliés.