L’Europe veut tuer l’innovation en limitant l’intelligence artificielle !

La Commission du marché intérieur et la Commission des libertés civiles du Parlement européen ont adopté un mandat de négociation pour créer la première législation sur l’intelligence artificielle (IA) dans l’UE.

L’objectif est de s’assurer que les systèmes d’IA sont « sûrs, transparents, traçables, inclusifs et respectueux de l’environnement« . Des mesures restrictives ont été proposées pour limiter l’utilisation de l’IA dans les systèmes de reconnaissance faciale ou de crédit social. De plus, la définition d’un système d’IA a été travaillée pour s’adapter non seulement aux systèmes actuels, mais aussi à ceux du futur.

Les risques liés à l’utilisation de l’intelligence artificielle à haut risque pour l’Union européenne sont nombreux. La proposition de règlement du Parlement européen et du Conseil relatif à des règles harmonisées en matière d’IA soulève un certain nombre de questions. Qui est concerné ? Les prestataires, les utilisateurs et les fournisseurs employant ou fournissant un système d’IA dans l’UE. Tout système d’IA employé par des entreprises relevant de la juridiction de l’UE, qui inclut les systèmes américains employés directement ou indirectement, sera également impacté par cette nouvelle législation.

Les systèmes d’IA seront classés selon leur niveau de risque inhérent. Les utilisations nuisibles de l’IA seront interdites car elles contreviennent aux valeurs de l’UE, tout comme les systèmes qui ont un impact négatif sur la sécurité des individus ou leurs droits fondamentaux. Les systèmes d’IA à faible risque, tels que les filtres contre les spams dans les courriels, seront exemptés de cette législation. En revanche, les systèmes à haut risque, tels que ceux basés sur la biométrie, utilisés par les forces de l’ordre, ou encore les systèmes de migration et de contrôle des frontières, nécessiteront une évaluation de la conformité et seront soumis à un ensemble d’obligations.

Lire aussi :   Pourquoi demander à ChatGPT de répéter quelque chose «pour toujours» constitue une violation de ses conditions d'utilisation

L’intelligence artificielle générative sera également soumis à cette législation. Bien qu’elle ne soit pas considérée systématiquement comme un système à haut risque, elle devra garantir la transparence sur le fait que le contenu est généré par un système d’IA et non par des humains. Enfin, la législation prendra en compte la protection de l’environnement, afin que les systèmes d’IA soient également respectueux de l’environnement.

Cette nouvelle législation sera soumise à un vote en juin 2023, avant que les termes définitifs ne soient convenus entre les représentants du Parlement, du Conseil et de la Commission de l’UE. Les personnes concernées auront alors deux ans pour se conformer au règlement. Avec cette nouvelle législation, l’UE sera en mesure de superviser étroitement l’utilisation de l’IA et de garantir que les systèmes soient sûrs, transparents, traçables, inclusifs et respectueux de l’environnement.