L’intelligence artificielle jette une ombre bien plus grande que toute autre innovation potentiellement perturbatrice en ce début de 21e siècle. Afin de s’assurer que le prochain grand bond en avant de l’humanité atterrisse en toute sécurité et ne se fasse pas au détriment des principes démocratiques et des droits civils, les hommes politiques du monde entier font leurs premiers pas dans la rédaction d’une législation qui servira de filet de sécurité contre les préjudices futurs.
Bien entendu, la tâche consistant à définir un cadre juridique pour le développement et la mise en œuvre des outils d’intelligence artificielle est extrêmement complexe, car elle implique de prévoir à la fois les applications potentielles et les abus éventuels. Même si nous ne pouvons pas être totalement sûrs que l’essor actuel des outils d’intelligence artificielle n’est qu’un battage artificiel, toutes les grandes entreprises du monde courent après la proverbiale poule aux œufs d’or sans pareille.
Selon Goldman Sachs, le montant investi à l’échelle mondiale dans la seule IA générative s’élèvera à près de 200 milliards de dollars d’ici 2025. Et ce, même si elle n’a pas d’effets réels et mesurables sur la productivité. Une adoption rapide est indispensable, tout comme une réglementation rapide.
Lois sur l’IA : Une politique cruciale en devenir
Le mois d’août 2023, un texte législatif intitulé Interim Measures for the Management of Generative Artificial Intelligence Services (mesures provisoires pour la gestion des services d’intelligence artificielle générative) est entré en vigueur en Chine. Elle décrit les restrictions imposées aux entreprises qui fournissent de tels services aux consommateurs. Ces restrictions s’appliquent à la fois aux données d’entraînement utilisées et aux résultats produits.
Par ailleurs, l’année dernière, le Bureau de la politique scientifique et technologique de la Maison Blanche a publié un document intitulé Blueprint for an AI Bill of Rights, qui reconnaît la nécessité d’empêcher que le développement technologique ne soit entaché de préjugés raciaux, sexistes et sociaux, ne viole systématiquement la vie privée et les droits d’auteur ou n’empêche les citoyens d’accéder à des ressources essentielles.
Les préoccupations liées à la biométrie
D’ici la fin de l’année 2023, le Conseil européen et le Parlement européen sont parvenus à un accord sur une loi européenne relative à l’intelligence artificielle. À l’instar des cadres juridiques en cours d’élaboration dans d’autres pays et d’autres positions politiques, cette loi préconise la mise en place de protections et entend également protéger le droit des consommateurs et du public en général de déposer des plaintes et de recevoir des explications pertinentes de la part des fournisseurs de services sans qu’il soit nécessaire d’engager une action en justice proprement dite.
Mais la loi européenne sur l’IA va plus loin et interdit également les cas d’utilisation spécifiques suivants :
- Les systèmes de catégorisation biométrique qui utilisent des caractéristiques sensibles (par exemple, les convictions politiques, religieuses ou philosophiques, l’orientation sexuelle, la race).
- L’extraction non ciblée d’images faciales à partir d’Internet ou d’images de vidéosurveillance pour créer des bases de données de reconnaissance faciale.
- Reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement.
Investir dans l’intelligence artificielle en matière de sécurité
Selon une étude récente, la taille du marché de la sécurité de l’IA est estimée à 25 milliards de dollars en 2024, et devrait atteindre 60 milliards d’ici 2029, avec un taux de croissance annuel composé de 19% durant cette période. Mais cet investissement devra nécessairement prendre en compte les nouveaux cadres juridiques qui émergent partout dans le monde.
Les fabricants doivent être attentifs lorsqu’il s’agit d’offrir des fonctions supplémentaires permises par la même technologie qu’ils utilisent pour améliorer l’efficacité de leurs systèmes de sécurité. Du moins, jusqu’à ce que le cadre juridique en cours d’élaboration fournisse une image plus claire de ce qui est conforme ou non à la loi en ce qui concerne l’utilisation de l’IA.