L'IA est largement utilisée, mais les législateurs ont établi peu de règles
MaisonMaison > Blog > L'IA est largement utilisée, mais les législateurs ont établi peu de règles

L'IA est largement utilisée, mais les législateurs ont établi peu de règles

Dec 28, 2023

L'écran d'accueil de l'application OpenAI "ChatGPT" s'affiche sur un écran d'ordinateur portable dans une illustration photo. De plus en plus d'États envisagent de réglementer l'intelligence artificielle et d'autres systèmes automatisés. Léon Neal/Getty Images.

À l'automne 2016, le Département des enfants et des familles du Connecticut a commencé à utiliser un outil d'analyse prédictive qui promettait d'aider à identifier les enfants en danger imminent.

L'outil a utilisé plus de deux douzaines de points de données pour comparer les cas ouverts dans le système du Connecticut aux cas antérieurs d'aide sociale avec de mauvais résultats. Ensuite, chaque enfant a reçu un score prédictif qui signalait certains cas pour une intervention plus rapide.

Même si de plus en plus d'États ont commencé à adopter l'outil, certaines agences ont constaté qu'il semblait manquer des cas urgents et signaler de manière inexacte les moins graves. Une étude publiée dans la revue Child Abuse & Neglect a révélé plus tard que cela n'améliorait pas les résultats des enfants. Le Connecticut et plusieurs autres États ont abandonné l'outil, qui a été développé par une société privée en Floride. En 2021 – cinq ans après que le Département de l'enfance et de la famille du Connecticut a utilisé l'outil pour la première fois, et deux ans après que l'État l'a abandonné – des chercheurs de l'Université de Yale ont demandé des informations sur les mécanismes de son fonctionnement et ont conclu que l'agence ne l'avait jamais compris.

"Il s'agit d'un énorme, énorme problème de responsabilité publique", a déclaré Kelsey Eberly, maître de conférence clinique à la Yale Law School. "Les agences obtiennent ces outils, elles les utilisent, elles leur font confiance - mais elles ne les comprennent même pas nécessairement. Et le public ne comprend certainement pas ces outils, car il ne les connaît pas."

Le Connecticut est le dernier État à adopter des réglementations explicites pour l'intelligence artificielle et d'autres systèmes automatisés, en partie grâce à l'héritage de l'outil de dépistage des enfants à risque. Un projet de loi bipartisan adopté le 30 mai, que le gouverneur démocrate Ned Lamont devrait signer, obligerait les agences d'État à inventorier et à évaluer tous les systèmes gouvernementaux utilisant l'intelligence artificielle et à créer un groupe de travail permanent pour recommander de nouvelles règles.

De nombreux États réglementent déjà certains aspects de ces technologies par le biais de lois anti-discrimination, de protection des consommateurs et de confidentialité des données. Mais depuis 2018, au moins 13 États ont créé des commissions pour étudier spécifiquement l'IA – et depuis 2019, au moins sept États ont adopté des lois visant à atténuer les préjugés, à accroître la transparence ou à limiter l'utilisation de systèmes automatisés, tant dans les agences gouvernementales que dans le secteur privé.

Rien qu'en 2023, les législateurs de 27 États, plus Washington, DC et Porto Rico, ont examiné plus de 80 projets de loi liés à l'IA, selon la Conférence nationale des législatures d'État.

Les outils d'intelligence artificielle - définis au sens large comme des technologies capables d'effectuer des tâches complexes d'analyse et de résolution de problèmes autrefois réservées aux humains - déterminent désormais fréquemment ce que les Américains voient sur les réseaux sociaux, quels étudiants entrent à l'université et si les candidats obtiennent des entretiens.

Plus d'un quart de toutes les entreprises américaines ont utilisé l'IA sous une forme ou une autre en 2022, selon l'IBM Global AI Adoption Index. Dans une illustration frappante de l'omniprésence croissante de l'IA, un récent projet de loi visant à réglementer la technologie en Californie a attiré les commentaires d'organisations aussi diverses qu'une association professionnelle pour l'industrie de l'épicerie et un syndicat d'infirmières d'État.

Mais la législation fédérale est au point mort, laissant la réglementation aux gouvernements locaux et créant un patchwork de lois étatiques et municipales.

"Les États-Unis ont été très libéraux en matière de réglementation technologique pendant de nombreuses années", a déclaré Darrell M. West, chercheur principal au Center for Technology Innovation du groupe de réflexion Brookings Institution et auteur d'un livre sur l'intelligence artificielle. "Mais alors que nous voyons les pièges de l'absence de réglementation - le spam, le phishing, la surveillance de masse - le climat public et l'environnement politique ont changé. Les gens veulent voir cela réglementé."

L'intérêt des législateurs pour la réglementation de la technologie a augmenté au cours de cette session législative et devrait encore croître l'année prochaine, grâce à l'adoption généralisée de ChatGPT et d'autres outils d'IA destinés aux consommateurs, a déclaré Jake Morabito, directeur du groupe de travail sur les communications et la technologie au conservateur American Legislative Exchange Council (ALEC), qui favorise moins de réglementation.

Autrefois l'étoffe de la science-fiction, l'intelligence artificielle fait maintenant surface dans pratiquement tous les coins de la vie américaine. Les experts et les décideurs ont souvent défini le terme au sens large, pour inclure des systèmes qui imitent la prise de décision humaine, la résolution de problèmes ou la créativité en analysant de grandes quantités de données.

L'IA alimente déjà une suite d'outils de reconnaissance de la parole et d'images, des moteurs de recherche, des filtres anti-spam, des programmes de cartographie numérique et de navigation, des publicités en ligne et des systèmes de recommandation de contenu. Les gouvernements locaux ont utilisé l'intelligence artificielle pour identifier les conduites d'eau en plomb à remplacer et accélérer les interventions d'urgence. Un algorithme d'apprentissage automatique déployé en 2018 a réduit les décès par septicémie dans cinq hôpitaux de Washington, DC et du Maryland.

Mais même si certaines applications d'IA offrent des avantages sociaux nouveaux et inattendus, les experts ont documenté d'innombrables systèmes automatisés avec des résultats biaisés, discriminatoires ou inexacts. Les services de reconnaissance faciale utilisés par les forces de l'ordre, par exemple, se sont avérés à plusieurs reprises identifier à tort les personnes de couleur plus souvent que les personnes blanches. Amazon a abandonné un outil de recrutement basé sur l'IA après avoir découvert que le système pénalisait systématiquement les femmes à la recherche d'un emploi.

Les critiques décrivent parfois les biais et les erreurs de l'IA comme un problème de "poubelle entrante, poubelle sortante", a déclaré Mark Hughes, directeur exécutif de l'organisation de justice raciale Justice for All basée dans le Vermont. Lors de plusieurs comparutions devant un comité sénatorial de l'État l'année dernière, Hughes a déclaré que les législateurs devraient intervenir pour empêcher les systèmes automatisés de perpétuer les préjugés et le racisme systémique qui apparaissent souvent de manière inhérente dans leurs données de formation.

"Nous savons que la technologie, en particulier quelque chose comme l'IA, va toujours reproduire ce qui existe déjà", a déclaré Hughes à Stateline. "Et il va le reproduire pour la distribution de masse."

Plus récemment, l'avènement de ChatGPT et d'autres outils d'IA générative - qui peuvent créer une écriture humaine, des images réalistes et d'autres contenus en réponse aux invites de l'utilisateur - ont soulevé de nouvelles inquiétudes parmi les responsables de l'industrie et du gouvernement. De tels outils pourraient, craignent les décideurs politiques, déplacer des travailleurs, porter atteinte à la vie privée des consommateurs et aider à la création de contenus qui violent le droit d'auteur, propagent la désinformation et amplifient les discours de haine ou le harcèlement. Dans un récent sondage Reuters/Ipsos, plus des deux tiers des Américains ont déclaré qu'ils étaient préoccupés par les effets négatifs de l'IA - et 3 sur 5 ont déclaré qu'ils craignaient qu'elle ne menace la civilisation.

"Je pense que l'IA a un énorme potentiel pour révolutionner notre façon de travailler et nous rendre plus efficaces, mais il y a aussi des dangers potentiels", a déclaré le sénateur de l'État du Connecticut, James Maroney, démocrate et champion de la loi sur l'IA de cet État. "Nous devons juste être prudents à mesure que nous avançons."

Les nouvelles réglementations sur l'IA du Connecticut fournissent un modèle précoce et complet pour s'attaquer aux systèmes automatisés, a déclaré Maroney, qui espère voir les réglementations s'étendre du gouvernement de l'État au secteur privé lors des futures sessions législatives.

La loi crée un nouveau Bureau de l'intelligence artificielle au sein de la branche exécutive de l'État, chargé d'élaborer de nouvelles normes et politiques pour les systèmes d'IA gouvernementaux. D'ici la fin de l'année, le bureau doit également créer un inventaire des systèmes automatisés utilisés par les agences de l'État pour prendre des "décisions critiques", comme celles concernant le logement ou les soins de santé, et documenter qu'ils répondent à certaines exigences de transparence et de non-discrimination.

La loi s'inspire des recommandations d'universitaires de Yale et d'autres universités, a déclaré Maroney, ainsi que d'une loi similaire de 2021 dans le Vermont. Le modèle fera probablement surface dans d'autres États également : les législateurs du Colorado, du Minnesota et du Montana travaillent actuellement avec le Connecticut pour développer des politiques d'IA parallèles, a déclaré Maroney, et plusieurs États - dont le Maryland, le Massachusetts, le Rhode Island et Washington - ont introduit des mesures similaires.

Au Vermont, la loi a déjà donné naissance à un nouveau groupe de travail consultatif et à une division d'État de l'intelligence artificielle. Dans son premier inventaire annuel, Josiah Raiche, qui dirige la division, a trouvé "une douzaine" de systèmes automatisés utilisés dans le gouvernement de l'État. Ceux-ci comprenaient un projet de vision par ordinateur au sein du ministère des Transports qui utilise l'IA pour évaluer les nids-de-poule et un logiciel antivirus commun qui détecte les logiciels malveillants dans le système informatique de l'État. Aucun des deux outils ne présente un risque de discrimination, a déclaré Raiche.

Mais les technologies émergentes pourraient nécessiter plus de vigilance, même si elles améliorent les services gouvernementaux, a-t-il ajouté. Raiche a récemment commencé à expérimenter des façons dont les agences d'État pourraient utiliser des outils d'IA génératifs, tels que ChatGPT, pour aider les électeurs à remplir des documents complexes dans différentes langues. Dans un essai interne préliminaire, cependant, Raiche a constaté que ChatGPT générait des réponses de meilleure qualité à des exemples de questions en allemand qu'en somali.

"Il y a beaucoup de travail à faire pour s'assurer que l'équité est maintenue", a-t-il déclaré. Mais s'ils sont bien faits, les systèmes automatisés "pourraient vraiment aider les gens à naviguer dans leurs interactions avec le gouvernement".

Comme le Connecticut, le Vermont prévoit également d'étendre sa surveillance de l'IA au secteur privé à l'avenir. Raiche a déclaré que l'État y parviendrait probablement grâce à une loi sur la confidentialité des données des consommateurs, qui peut régir les ensembles de données sous-jacents aux systèmes d'IA et servir ainsi de porte dérobée à une réglementation plus large. La Californie, le Connecticut, le Colorado, l'Utah et la Virginie ont également adopté des lois complètes sur la confidentialité des données, tandis qu'une poignée de juridictions ont adopté des réglementations plus strictes ciblant les utilisations sensibles ou à haut risque de l'intelligence artificielle.

Début juillet, par exemple, les employeurs de New York qui utilisent des systèmes d'IA dans le cadre de leur processus d'embauche devront vérifier ces outils pour détecter les biais et publier les résultats. Le Colorado, quant à lui, exige que les compagnies d'assurance documentent leur utilisation de systèmes automatisés et démontrent qu'ils n'entraînent pas de discrimination injuste.

Le patchwork émergent de lois étatiques et locales a contrarié les entreprises technologiques, qui ont commencé à réclamer une réglementation fédérale de l'IA et des systèmes automatisés. La plupart des entreprises technologiques ne peuvent pas adapter leurs systèmes à différentes villes et États, a déclaré West, de la Brookings Institution, ce qui signifie qu'en l'absence de législation fédérale, beaucoup devront plutôt adopter les réglementations locales les plus strictes sur l'ensemble de leur empreinte géographique.

C'est une situation que de nombreuses entreprises espèrent éviter. En avril, des représentants d'un large éventail de groupes commerciaux et technologiques se sont alignés pour s'opposer à un projet de loi californien sur l'IA, qui aurait obligé les entreprises privées à surveiller les outils d'IA pour détecter les biais et à signaler les résultats – sous peine de lourdes amendes et de poursuites judiciaires. Le projet de loi a survécu à deux votes en commission en avril avant de mourir devant la commission des crédits de l'Assemblée.

"Les gouvernements devraient collaborer avec l'industrie et ne pas s'y attaquer avec cette approche contradictoire", a déclaré Morabito, de l'ALEC. "Laissez le marché prendre la tête ici… de nombreux acteurs du secteur privé veulent faire ce qu'il faut et construire un écosystème d'IA digne de confiance."

L'ALEC a proposé une approche alternative de la réglementation de l'IA basée sur l'État. Appelé "bac à sable réglementaire", le programme permet aux entreprises d'essayer des technologies émergentes qui pourraient autrement entrer en conflit avec les lois des États en collaboration avec les bureaux des procureurs généraux des États. De tels bacs à sable encouragent l'innovation, a déclaré Morabito, tout en protégeant les consommateurs et en éduquant les décideurs politiques sur les besoins de l'industrie avant qu'ils ne rédigent une législation. L'Arizona et l'Utah, ainsi que la ville de Detroit, ont récemment créé des bacs à sable réglementaires où les entreprises peuvent mener des expériences d'IA.

Cependant, ces programmes n'ont pas empêché les législateurs de ces États de poursuivre également la réglementation de l'IA. En 2022, un projet de loi parrainé par les républicains visait à interdire à l'IA de porter atteinte aux "droits constitutionnels" des Arizonans, et la législature de l'Utah a récemment convoqué un groupe de travail pour examiner une éventuelle législation sur l'IA.

Les décideurs politiques ne considèrent plus l'IA comme une préoccupation vague ou future, a déclaré Eberly de Yale – et ils n'attendent pas que le gouvernement fédéral agisse.

"L'IA est là, que nous le voulions ou non", a-t-elle ajouté. "Cela fait partie de nos vies maintenant … et les législateurs essaient juste de prendre de l'avance."

Recevez les gros titres du matin dans votre boîte de réception

NOUVELLES DE SOUTIEN QUE VOUS AVEZ CONFIANCE.

par Caitlin Dewey, Ohio Capital Journal 6 juin 2023

Nos histoires peuvent être republiées en ligne ou imprimées sous licence Creative Commons CC BY-NC-ND 4.0. Nous vous demandons de modifier uniquement pour le style ou pour raccourcir, fournir une attribution appropriée et un lien vers notre site Web. Veuillez consulter nos directives de republication pour l'utilisation des photos et des graphiques.

Caitlin Dewey est une correspondante de Stateline basée à Buffalo, à New York, et a fait des reportages pour des médias tels que le Washington Post, le New York Times, The Guardian, Slate, Elle et Cosmopolitan.