Les recommandations basées sur l’IA sont faciles à abuser, avertissent des chercheurs

Des expériences démontrent la facilité avec laquelle un attaquant peut manipuler l’IA pour promouvoir la désinformation, les théories du complot et d’autres récits.

Les systèmes de recommandation basés sur l’IA sont utilisés dans de nombreux services en ligne que nous apprécions aujourd’hui, notamment les moteurs de recherche, les sites d’achat en ligne, les services de streaming et les médias sociaux. Cependant, leur influence croissante sur ce que les gens voient et font sur Internet a suscité des inquiétudes quant à leur susceptibilité à divers types d’abus, comme leur utilisation active pour diffuser de la désinformation et promouvoir des théories du complot.

Andy Patel, chercheur au Centre d’excellence en intelligence artificielle du fournisseur de cybersécurité F-Secure, a récemment réalisé une série d’expériences pour apprendre comment de simples techniques de manipulation peuvent affecter les recommandations basées sur l’IA sur un réseau social.

« Twitter et d’autres réseaux sont devenus des champs de bataille où différentes personnes et différents groupes poussent différents récits. Il s’agit notamment de conversations organiques et de publicités, mais aussi de messages destinés à saper et à éroder la confiance dans les informations légitimes« , a déclaré Patel. « Examiner comment ces « combattants » peuvent manipuler l’IA permet d’exposer les limites de ce que l’IA peut faire de manière réaliste, et idéalement, comment elle peut être améliorée.« 

Manipulation IA

Une enquête du PEW Research Center menée fin 2020 a révélé que 53 % des Américains obtiennent des nouvelles à partir des médias sociaux. Les personnes interrogées âgées de 18 à 29 ans ont identifié les médias sociaux comme leur source d’information la plus fréquente. Dans le même temps, la recherche a mis en évidence les risques potentiels liés au fait de se fier aux médias sociaux comme source : une enquête de 2018 a révélé que les messages Twitter contenant des faussetés ont 70 % plus de chances d’être retweetés.

Pour ses recherches, Patel a collecté des données sur Twitter et les a utilisées pour entraîner des modèles de filtrage collaboratif (un type d’apprentissage automatique utilisé pour coder les similitudes entre les utilisateurs et le contenu en fonction des interactions précédentes) destinés à être utilisés dans des systèmes de recommandation. Il a ensuite réalisé des expériences consistant à réentraîner ces modèles à l’aide d’ensembles de données contenant des retweets supplémentaires (empoisonnant ainsi les données) entre des comptes sélectionnés, afin de voir comment les recommandations changeaient.

En sélectionnant des comptes appropriés à retweeter et en faisant varier le nombre de comptes effectuant des retweets ainsi que le nombre de retweets qu’ils publiaient, même un très petit nombre de retweets suffisait à manipuler le système de recommandation pour qu’il favorise les comptes dont le contenu était partagé par les retweets injectés.

Déjà confrontés à ces attaques dans le monde réel

Bien que les expériences aient été réalisées à l’aide de versions simplifiées des mécanismes d’IA que les plateformes de médias sociaux et d’autres sites Web sont susceptibles d’utiliser lorsqu’ils fournissent des recommandations aux utilisateurs, M. Patel pense que Twitter et de nombreux autres services populaires sont déjà confrontés à ces attaques dans le monde réel.

« Nous avons effectué des tests contre des modèles simplifiés pour en savoir plus sur la façon dont les attaques réelles pourraient fonctionner. Je pense que les plateformes de médias sociaux sont déjà confrontées à des attaques similaires à celles démontrées dans cette recherche, mais il est difficile pour ces organisations d’être certaines que c’est bien ce qui se passe, car elles ne verront que le résultat, et non la façon dont cela fonctionne », a déclaré Patel.

Selon Matti Aksela, vice-président de l’intelligence artificielle chez F-Secure, il est important de reconnaître et de relever les défis potentiels liés à la sécurité de l’IA.

« Comme nous nous appuyons de plus en plus sur l’IA à l’avenir, nous devons comprendre ce que nous devons faire pour la protéger des abus potentiels. Le fait que l’IA et l’apprentissage automatique alimentent de plus en plus de services dont nous dépendons nous oblige à comprendre ses forces et ses faiblesses en matière de sécurité, en plus des avantages que nous pouvons obtenir, afin de pouvoir faire confiance aux résultats. Une IA sécurisée est le fondement d’une IA digne de confiance« , a déclaré M. Aksela.

Au sujet de l'auteur
Damien Bancal - Fondateur de ZATAZ.COM / DataSecurityBreach.fr Travaille sur les sujets High-tech/Cybercriminalité/Cybersécurité depuis 1989. Gendarme réserviste - Lieutenant-Colonel (RC) ComCyberGend. Fondateur du Service Veille ZATAZ : https://www.veillezataz.com En savoir plus : https://www.damienbancal.fr

Articles connexes

Laisser un commentaire

*

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.