Débat parlementaire au Bundestag sur l´Intelligence artificielle générative : la réglementation est à la croisée des chemins

Il faut trouver un équilibre entre une réglementation efficace et la promotion de modèles commerciaux innovants dans le contexte de l’intelligence artificielle (IA) générative : c’est ce qu’ont préconisé mercredi 25 mai les experts de la commission numérique du parlement allemand. Lors de l’audition qui lui était consacrée, les experts ont évalué les potentiels et les risques de l’IA générative pour le monde du travail et pour la société, et ont souligné à l’unisson que le temps était compté.

Il faut  agir rapidement sur les questions de transparence, en particulier pour identifier les textes, les images ou les vidéos basés sur l’IA, mais aussi pour se positionner sur  le projet d’AI Act, sur lequel le Parlement européen devrait voter à la mi-juin.

L´intervenant Jonas Andrulis de la start-up Aleph Alpha de Heidelberg a plaidé pour que le niveau de réglementation soit aussi bas que possible et que le bénéfice apporté par la vitesse d´exécution de l´IA soit prise en compte. Il a qualifié l’état actuel de la réglementation de « préoccupant ». Le projet proposé contient de nombreux termes juridiques indéterminés et des analyses d’impact incertaines. Ceci entraine  beaucoup d’incertitude pour les entreprises et leurs clientsts. L’IA est la technologie de base d’une « nouvelle révolution industrielle » dans laquelle les géants américains de la technologie donnent le ton avec des « offres peu transparentes ». Mais pour l’Allemagne et l’Europe, la souveraineté en matière de contenu et d’économie est décisive. « Nous n’avons pas de Microsoft et de Google en Europe », a déclaré Andrulis en faisant référence aux moyennes et petites entreprises du secteur de l’IA.

Rasmus Rothe (expert pour l´association fédérale de l’IA) s’est également prononcé en faveur de la nécessité de ne pas mettre de bâtons dans les roues des PME et de rester pragmatique afin de préserver la  compétitivité des entreprises allemandes. Il a fait remarquer que l’IA générative exécutera de nombreuses tâches mieux que l’homme et que cette technologie peut permettre d´améliorer la croissance économique. Il a suggéré qu’il fallait toujours tenir compte de l’utilisation concrète d’une application IA et qu’à l’avenir, il faudrait davantage penser en termes de « contrôle technique » pour en règlementer les applications.

Philipp Hacker de l’université Viadrina de Francfort sur Oder a souligné que l’IA générative allait changer massivement la manière de communiquer, de vivre et de travailler. En ce qui concerne la réglementation, nous sommes actuellement à la croisée des chemins : le dernier projet du Parlement européen va « dans la bonne direction », mais il y a encore des lacunes considérables, a déclaré Hacker. Il voit notamment le risque que des applications utiles pour la société soient freinées ou empêchées. Il a cité l’exemple de Bard, le chatbot basé sur l’IA développé par Google, qui n’est pas disponible dans l’UE. Il a également évoqué les coûts de conformité que les petites et moyennes entreprises ne peuvent pas assumer. Hacker s’est prononcé en faveur de certaines normes minimales, par exemple pour les données d’entraînement, ainsi que pour la réglementations des applications de l’IA générative dans les domaines à haut risque, comme  par exemple le domaine médical.

Natali Helberger, de l’université d’Amsterdam, a également salué les progrès réalisés dans la proposition de réglementation des « foundation models »(modéles de base). Étant donné la diversité des finalités où ces modèles sont utilisés, il est essentiel d’inciter les développeurs à se préoccuper de la sécurité des systèmes. Sinon, des problèmes liés à la légalité ou à la qualité des données d’apprentissage surviendront, en aval, dans un nombre imprévisible d’utilisations. Selon l’experte, il est possible de tirer des enseignements des dispositions prises par le Digital Services Act (DSA) pour l’évaluation des risques systémiques des très grandes plateformes en ligne. Elle a également plaidé en faveur d’une utilisation accrue de la recherche pour renforcer la surveillance des risques et a souligné la nécessité d’une collaboration entre les développeurs et les utilisateurs en ce qui concerne la responsabilité. Sandra Wachter de l’Oxford Internet Institute a également souligné cet aspect. Celui qui prend les décisions pour la  conception des applications, a une influence sur le risque. Il peut par exemple décider d’intégrer de nouveaux textes pour contrer un biais.

Christian Kellermann de la Hochschule für Technik und Wirtschaft de Berlin a expliqué les répercussions de l’IA sur le travail et l’emploi. Il a souligné que les études en cours progressaient, mais que leur pertinence était encore limitées, il a, en particulier , mis en doutes la fiabilité des évaluations sur le degré de substitution du travail humain par des procédures IA. On peut supposer que l’IA générative fonctionne bien pour la traduction, la génération de code ou l’écriture créative, de sorte que les traducteurs, les sondeurs d’opinion ou les spécialistes des relations publiques pourraient  être effectivement être menacés- mais il en va tout autrement pour les ouvriers de l’assemblage ou du travail en usine, a déclaré Kellermann.

Catelijne Muller (ALLAI) a souligné qu´il n´était  pas exact d´ affirmer que les efforts de régulation européens ne peuvent pas suivre le rythme. Les grands systèmes sont  déjà en mesure d´être réglementés, c’est d´ailleurs ce que les entreprises comme OpenAI demandent elles-mêmes, a déclaré Catelijne Muller en faisant référence aux problèmes tels que la désinformation, les fausses nouvelles ou l' »hallucination » des systèmes, mais aussi le risque de classification de technologie à haut risque.

La focalisation sur les nombreux détails prennent actuellement le dessus dans l´analyse globale, a déclaré Doris Weßels (Université spécialisée de Kiel). Trois problèmes fondamentaux passent alors à l’arrière-plan : premièrement, le manque de hiérarchisation des problème, deuxièmement, la lenteur dans les décision et troisièmement le fait qu’il est nécessaire de distribuer les compétences, a-t-elle déclaré. La dynamique dans ce sens existe mais les processus et les structures sont constamment  freinés, a déclaré Mme Weßels, en indiquant aussi qu´il fallait faire appel à davantage de soutien. Elle s’est prononcée en faveur de piliers clairs dans l’AI Act et d’une obligation de labellisation, mais a souligné qu’il ne fallait pas en arriver à une surrèglementation.

Le commissaire fédéral à la protection des données et à la liberté d’information, Ulrich Kelber, a qualifié les dispositions du règlement général sur la protection des données (RGPD) de « bon point de départ » en vue de l‘AI Act – mais il faut ici un cadre juridique différent et plus spécialisé. Gerhard Schabhüser, de l’Office fédéral de la sécurité des technologies de l’information, a souligné que des recherches étaient encore nécessaires, en particulier sur les conséquences exactes qui peuvent survenir de décisions prises à l’aide de l’IA.

 

Vidéo de l’audition publique de la commission : https://www.bundestag.de/dokumente/textarchiv/2023/kw21-pa-digitales-ki-947976

 

Source : Communiqué Nr. 397 du parlement allemand