Des leaders de l’IA ouvrent leurs modèles pour une évaluation lors de la DEF CON

ABONNEZ-VOUS GRATUITEMENT À NOS ACTUALITÉS
Si vous aimez nos actus inédites, ABONNEZ-VOUS A ZATAZ VIA GOOGLE NEWS

Un groupe de sociétés d’intelligence artificielle (IA) de premier plan aux États-Unis a annoncé son engagement à ouvrir leurs modèles à des – red teams – lors de la conférence DEF CON de Las Vegas.

Alors que l’Europe vient de voter une loi sur la gestion et le contrôle de l’Intelligence Artificielle (IA), aux USA, une initiative, soutenue par la Maison Blanche, vise à faire face aux risques de sécurité liés à la rapide évolution de l’IA. L’événement de la DEF CON de Las Vegas et son espace dédié « generative red team » proposé dans le village IA, permettra aux chercheurs en sécurité de s’attaquer aux modèles d’Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI et Stability AI pour identifier des vulnérabilités.

Ces sociétés leaders dans le domaine de l’IA ont accepté de soumettre leurs modèles à l’évaluation de – red teams – (groupe de chercheurs en cyber sécurité ayant pour mission de trouver des failles). L’initiative marque la première évaluation publique de cette envergure des grands modèles linguistiques.

Les défis de la sûreté et de la sécurité de l’IA

La rapidité des progrès de l’apprentissage automatique a conduit à de nombreux lancements de produits intégrant des outils d’IA génératifs. Cependant, des préoccupations ont été soulevées quant à la sûreté et à la sécurité de ces modèles. Les experts en IA craignent que les entreprises ne précipitent leur commercialisation sans résoudre les problèmes de sécurité. De plus, l’accès limité aux modèles fermés rend difficile pour les chercheurs indépendants d’identifier les lacunes potentielles. L’événement DEF CON, avec son évaluation publique des modèles d’IA, vise à combler cette lacune en permettant une approche collaborative pour identifier et résoudre les problèmes de sécurité liés à ces modèles.

L’annonce coïncide avec une série d’initiatives de la Maison Blanche visant à améliorer la sûreté et la sécurité des modèles d’IA, y compris un financement de 140 millions de dollars pour la National Science Foundation afin de lancer sept nouveaux instituts nationaux d’IA. L’administration Biden a également annoncé que le Bureau de la gestion et du budget publiera cet été des directives pour commentaires du public sur la manière dont les agences fédérales devraient déployer l’IA.

A noter que ZATAZ sera présent à la DEF CON pour vous faire suivre, de l’intérieur, ce grand rendez-vous international dédié au Hacking Ethique.

L’Union européenne prend la tête de la réglementation de l’IA avec l’AI Act

Le Parlement européen a récemment marqué une avancée significative en adoptant la première législation mondiale encadrant l’utilisation et le développement de l’intelligence artificielle (IA), connue sous le nom d’AI Act. L’Union européenne a pris une longueur d’avance sur les autres gouvernements en entamant l’élaboration de cette nouvelle législation bien avant l’engouement médiatique entourant des applications comme ChatGPT. Grâce à cette anticipation, elle a déjà mis en place un projet de loi solide, qui a été adopté sans difficulté par le Parlement européen avec 499 voix pour et seulement 28 voix contre. Cette décision est globalement bénéfique, car l’IA est un outil puissant qui nécessite une réglementation adéquate.

Un cadre solide pour l’avenir de l’IA

La réglementation de l’IA ne peut pas être réalisée de manière rétroactive, c’est pourquoi l’adoption de ce projet de loi constitue une base solide pour le développement futur de l’IA et de la législation qui l’entoure. L’Union européenne a reconnu les risques associés à ces avancées technologiques et ne les ignore pas. Comparé au Règlement général sur la protection des données (RGPD), qui a nécessité une prise de recul avant une intervention réglementaire, cette nouvelle législation sur l’IA montre une approche proactive. Les médias sociaux sont un exemple frappant des conséquences néfastes qui peuvent résulter de l’absence de réglementation préalable.

Limites de la législation sur l’IA

Il est important de souligner que cette législation n’est pas la solution parfaite pour prévenir les abus liés à l’IA. Elle ne couvrira que les activités liées à l’IA au sein de l’Union européenne, ce qui laisse la possibilité que des « paradis de l’IA » émergent dans des régions où l’utilisation malveillante de cette technologie ne serait pas interdite. Par conséquent, la cybersécurité et l’innovation en matière d’IA se livreront à une course effrénée pour déterminer qui se développera le plus rapidement. Par exemple, les outils d’IA générative vocale pourraient être utilisés pour créer de faux appels téléphoniques, causant ainsi des dommages émotionnels et financiers considérables. Pour contrer de telles escroqueries, il sera essentiel de télécharger des logiciels de reconnaissance vocale basés sur l’IA, capables de détecter et d’identifier les faux messages audio.

Les approches réglementaires américaines

Il reste à voir si les législateurs américains adopteront une approche similaire à celle utilisée pour réguler les réseaux sociaux à leurs débuts. Historiquement, ils ont souvent accordé aux géants des médias sociaux le bénéfice du doute et ont favorisé l’autorégulation. Des indices laissent penser que leur attitude envers l’IA pourrait être similaire. Par exemple, plutôt que de mettre en place de nouvelles règles, le financement fédéral a été introduit pour le développement de l’IA « éthique ». De plus, il est possible que les lois existantes soient utilisées pour réglementer l’IA. Un exemple intéressant est l’outil « Algorithmic disgorgement enforcement » de la Federal Trade Commission (FTC), qui permet au gouvernement américain de supprimer des ensembles de données ou des algorithmes développés à partir de données acquises illégalement.

Les règles antitrust pourraient également être invoquées pour réglementer les grands modèles de langage qui confèrent à une entreprise un avantage concurrentiel trop important. Comme pour le RGPD, les entreprises doivent se préparer à l’arrivée de cette réglementation et mettre en œuvre tous les changements nécessaires en avance de phase. Les grandes entreprises peuvent tenter de repousser les limites de la législation sur l’IA, comme elles l’ont fait avec le RGPD. Cependant, comme le montant des amendes ne cesse d’augmenter, et que toute contravention à la loi sur l’IA est actuellement fixée à 6 % du chiffre d’affaires annuel, cela représente une forte dissuasion. « L’AI Act obligera de nombreuses organisations commerciales à travailler dans le cadre législatif de l’UE. Il s’agit d’un marché puissant et bien établi au sein duquel de nombreuses entreprises souhaitent exercer leurs activités. Pour ce faire, elles doivent se conformer à la législation européenne. Cela a un impact immédiat au niveau mondial. » confirme Chris Vaughan de chez Tanium.

Au sujet de l'auteur
Damien Bancal - Fondateur de ZATAZ.COM / DataSecurityBreach.fr Travaille sur les sujets High-tech/Cybercriminalité/Cybersécurité depuis 1989. Gendarme réserviste - Lieutenant-Colonel (RC) ComCyberGend. Fondateur du Service Veille ZATAZ : https://www.veillezataz.com En savoir plus : https://www.damienbancal.fr

Articles connexes

Laisser un commentaire

*

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.