La loi sur l’IA proposée par les libéraux est trop vague et coûteuse, disent les dirigeants des grandes entreprises technologiques aux députés
[ad_1]
Les représentants des grandes entreprises technologiques affirment qu’un projet de loi du gouvernement libéral qui commencerait à réglementer certains systèmes d’intelligence artificielle est trop vague.
Les dirigeants d’Amazon et de Microsoft ont déclaré mercredi aux députés lors d’une réunion du comité de l’industrie de la Chambre des communes que le projet de loi C-27 ne faisait pas suffisamment de différence entre les systèmes d’IA à haut et à faible risque.
Les entreprises ont déclaré que respecter la loi telle qu’elle est rédigée coûterait cher.
Nicole Foster, directrice de l’intelligence artificielle mondiale et des politiques publiques canadiennes chez Amazon, a déclaré que l’utilisation de la même approche pour toutes les applications est « très peu pratique et pourrait par inadvertance étouffer l’innovation ».
L’utilisation de l’IA par un agent de la paix est considérée comme ayant un impact élevé dans tous les cas, a-t-elle déclaré, même lorsqu’un agent utilise la correction automatique pour remplir une contravention pour une infraction au code de la route.
“Les lois et réglementations doivent clairement différencier les applications à haut risque de celles qui présentent peu ou pas de risque. Il s’agit d’un principe fondamental que nous devons respecter”, a déclaré Foster.
« Nous devrions être très prudents avant d’imposer des fardeaux réglementaires sur les applications d’IA à faible risque qui peuvent potentiellement apporter des gains de productivité indispensables aux entreprises canadiennes, grandes et petites.
Microsoft a donné son propre exemple de la façon dont la loi ne semble pas faire de différence en fonction du niveau de risque introduit par certains systèmes d’IA.
Un système d’IA utilisé pour approuver l’hypothèque d’une personne et gérer les détails sensibles concernant ses finances serait considéré comme le même que celui utilisé pour optimiser les itinéraires de livraison des colis à l’aide de données publiques.
Le ministre de l’Industrie, François-Philippe Champagne, a donné quelques informations sur les amendements que le gouvernement compte proposer au projet de loi pour assurer sa mise à jour.
Mais malgré ces détails supplémentaires, les entreprises ont déclaré que les définitions contenues dans le projet de loi restaient encore trop ambiguës.
Amanda Craig, directrice principale des politiques publiques au Bureau de l’IA responsable de Microsoft, a déclaré que ne pas faire la différence entre les deux « disperserait le temps, l’argent, le talent et les ressources des entreprises canadiennes — et pourrait signifier que les ressources limitées ne sont pas suffisamment concentrées sur les risques les plus élevés ». “.
Le projet de loi C-27 a été déposé en 2022 pour cibler ce qui est décrit comme les systèmes d’IA « à fort impact ».
Mais les systèmes d’IA générative tels que ChatGPT, capables de créer du texte, des images et des vidéos, ne sont devenus largement accessibles au public qu’après le premier dépôt du projet de loi.
Les libéraux affirment maintenant qu’ils modifieront la loi pour introduire de nouvelles règles, dont une obligeant les entreprises à l’origine de tels systèmes à prendre des mesures pour garantir que le contenu qu’elles créent est identifiable comme étant généré par l’IA.
Plus tôt cette semaine, Yoshua Bengio, surnommé le « parrain » de l’IA, a déclaré au même comité qu’Ottawa devrait mettre en place une loi immédiatement, même si cette législation n’est pas parfaite.
Bengio, directeur scientifique de Mila, l’Institut québécois d’IA, a déclaré qu’une intelligence « surhumaine » aussi intelligente qu’un être humain pourrait arriver dans quelques années seulement.
Des systèmes avancés pourraient être utilisés pour des cyberattaques, a-t-il déclaré, et la loi doit anticiper ce risque.
L’IA présente déjà des risques. Les vidéos Deepfake, générées pour donner l’impression qu’une personne réelle fait ou dit quelque chose qu’elle n’a jamais fait, peuvent être utilisées pour diffuser de la désinformation, a déclaré Bengio.
[ad_2]