L’IA pourrait avoir des conséquences catastrophiques : le Canada est-il prêt ?
[ad_1]
Les pays – y compris le Canada – manquent de temps pour concevoir et mettre en œuvre des garanties complètes sur le développement et le déploiement de systèmes avancés d’intelligence artificielle, a averti cette semaine une grande entreprise de sécurité de l’IA.
Dans le pire des cas, les systèmes d’IA surhumains en quête de pouvoir pourraient échapper au contrôle de leurs créateurs et constituer une menace de « niveau d’extinction » pour l’humanité, ont écrit des chercheurs en IA dans un rapport commandé par le Département d’État américain intitulé Défense en profondeur : un plan d’action pour accroître la sûreté et la sécurité de l’IA avancée.
Le ministère insiste sur le fait que les opinions exprimées par les auteurs dans le rapport ne reflètent pas celles du gouvernement américain.
Mais le message du rapport remet sous les projecteurs les actions du gouvernement canadien à ce jour en matière de sécurité et de réglementation de l’IA – et un député conservateur prévient que le projet de loi sur l’intelligence artificielle et les données du gouvernement est déjà obsolète.
L’IA contre tout le monde
La société américaine Gladstone AI, qui milite pour le développement responsable d’une intelligence artificielle sûre, a rédigé le rapport. Ses avertissements se répartissent en deux catégories principales.
Le premier concerne le risque que les développeurs d’IA perdent le contrôle d’un système d’intelligence artificielle générale (AGI). Les auteurs définissent l’AGI comme un système d’IA capable de surpasser les humains dans tous les domaines économiques et stratégiques.
Bien qu’aucun système AGI n’existe à ce jour, de nombreux chercheurs en IA pensent qu’ils n’en sont pas loin.
“Il existe des preuves suggérant qu’à mesure que l’IA avancée se rapproche des niveaux de capacité générale humaine et surhumaine de type AGI, elle peut devenir effectivement incontrôlable. Plus précisément, en l’absence de contre-mesures, un système d’IA hautement performant peut s’engager dans ce que l’on appelle des comportements de recherche de pouvoir. “, écrivent les auteurs, ajoutant que ces comportements pourraient inclure des stratégies visant à empêcher l’IA elle-même d’être arrêtée ou de modifier ses objectifs.
Dans le pire des cas, les auteurs préviennent qu’une telle perte de contrôle « pourrait constituer une menace d’extinction pour l’espèce humaine ».
“Il y a ce risque que ces systèmes commencent à devenir fondamentalement dangereusement créatifs. Ils sont capables d’inventer des stratégies dangereusement créatives qui atteignent leurs objectifs programmés tout en ayant des effets secondaires très nocifs. C’est donc un peu le risque que nous envisageons avec une perte de contrôle. “, a déclaré jeudi Jeremie Harris, PDG de Gladstone AI, l’un des auteurs du rapport, dans une entrevue avec la chaîne CBC. Pouvoir et politique.
La deuxième catégorie de risque catastrophique citée dans le rapport est l’utilisation potentielle de systèmes d’IA avancés comme armes.
“Un exemple est le cyber-risque”, a déclaré Harris. P&P l’animateur David Cochrane. “Nous voyons déjà, par exemple, des agents autonomes. Vous pouvez maintenant accéder à l’un de ces systèmes et demander… ‘Hé, je veux que vous créiez une application pour moi, n’est-ce pas ?’ C’est une chose étonnante. Il s’agit essentiellement d’automatiser l’ingénierie logicielle. Toute cette industrie. C’est une très bonne chose.
“Mais imaginez le même système… vous lui demandez de mener une attaque massive par déni de service distribué ou une autre cyberattaque. La barrière à l’entrée pour certaines de ces applications d’optimisation très puissantes tombe, et l’empreinte destructrice des logiciels malveillants tombe. Le nombre d’acteurs qui utilisent ces systèmes augmente rapidement à mesure qu’ils deviennent plus puissants. »
Harris a averti que l’utilisation abusive des systèmes d’IA avancés pourrait s’étendre au domaine des armes de destruction massive, notamment les armes biologiques et chimiques.
Le rapport propose une série d’actions urgentes que les pays, à commencer par les États-Unis, devraient prendre pour se prémunir contre ces risques catastrophiques, notamment des contrôles à l’exportation, des réglementations et des lois sur le développement responsable de l’IA.
La législation canadienne est-elle déjà obsolète?
Le Canada ne dispose actuellement d’aucun cadre réglementaire spécifique à l’IA.
Le gouvernement a présenté la Loi sur l’intelligence artificielle et les données (AIDA) dans le cadre du projet de loi C-27 en novembre 2021. Elle vise à établir les bases d’une conception, d’un développement et d’un déploiement responsables de systèmes d’IA au Canada.
Le projet de loi a passé la deuxième lecture à la Chambre des communes et est actuellement étudié par le comité de l’industrie et de la technologie.
Le gouvernement fédéral a également introduit en 2023 le Code de conduite volontaire pour le développement et la gestion responsables des systèmes avancés d’IA générative, un code conçu pour fournir temporairement aux entreprises canadiennes des normes communes jusqu’à l’entrée en vigueur de l’ACRA.
Lors d’une conférence de presse vendredi, on a demandé au ministre de l’Industrie François-Philippe Champagne pourquoi, compte tenu de la gravité des avertissements contenus dans le rapport Gladstone sur l’IA, il restait convaincu que le projet de loi sur l’IA proposé par le gouvernement était équipé pour réglementer cette technologie qui progresse rapidement.
“Tout le monde fait l’éloge du projet de loi C-27”, a déclaré Champagne. “J’ai eu la chance de parler à mes collègues du G7 et… ils voient le Canada à l’avant-garde de l’IA, vous savez, pour bâtir la confiance et une IA responsable.”
Dans une entrevue avec CBC News, la députée conservatrice Michelle Rempel Garner a déclaré que la caractérisation du projet de loi C-27 par Champagne était absurde.
“Ce n’est pas ce que les experts ont dit lors de leurs témoignages au comité et ce n’est tout simplement pas la réalité”, a déclaré Rempel Garner, coprésident du caucus parlementaire sur les technologies émergentes et qui a écrit sur la nécessité pour le gouvernement d’agir plus rapidement en matière d’IA.
“Le C-27 est tellement dépassé.”
AIDA a été introduit avant qu’OpenAI, l’une des principales sociétés d’IA au monde, ne dévoile ChatGPT en 2022. Le chatbot IA représentait une évolution étonnante dans la technologie de l’IA.
“Le fait que le gouvernement n’ait pas abordé de manière substantielle le fait qu’il a présenté ce projet de loi avant qu’un changement technologique fondamental n’apparaisse… c’est un peu comme essayer de réglementer les scribes après que l’imprimerie soit devenue largement distribuée”, a déclaré Rempel. Recueillir. “Le gouvernement doit probablement retourner à la planche à dessin.”
En décembre 2023, Harris de Gladstone AI a déclaré au comité de l’industrie et de la technologie de la Chambre des communes que l’AIDA devait être modifiée.
“Au moment où AIDA entrera en vigueur, nous serons en 2026. Les systèmes Frontier AI auront été mis à l’échelle des centaines, voire des milliers de fois, au-delà de ce que nous voyons aujourd’hui”, a déclaré Harris aux députés. “AIDA doit être conçu en tenant compte de ce niveau de risque.”
Harris a déclaré au comité qu’AIDA doit interdire explicitement les systèmes qui introduisent des risques extrêmes, s’attaquer au développement open source de modèles d’IA dangereusement puissants et garantir que les développeurs d’IA assument la responsabilité d’assurer le développement sûr de leurs systèmes – en empêchant, entre autres choses, leur vol par des acteurs étatiques et non étatiques.
“AIDA constitue une amélioration par rapport au statu quo, mais elle nécessite des amendements importants pour relever pleinement le défi que représenteront probablement les capacités d’IA dans un avenir proche”, a déclaré Harris aux députés.
[ad_2]