close
AiTechnologies

Surveillance de l’IA : une nouvelle étude révèle des risques cachés pour votre vie privée

Un nouveau modèle mathématique améliore l’évaluation des risques d’identification de l’IA, offrant une solution évolutive pour équilibrer les avantages technologiques avec la protection de la vie privée.

Les outils d’IA sont de plus en plus utilisés pour suivre et surveiller les personnes en ligne et en personne, mais leur efficacité comporte des risques importants. Pour résoudre ce problème, des informaticiens de l’Oxford Internet Institute, de l’Imperial College de Londres et de l’UCLouvain ont développé un nouveau modèle mathématique conçu pour aider les gens à mieux comprendre les dangers de l’IA et aider les régulateurs à protéger la vie privée. Leurs conclusions ont été publiées dans Nature Communications.

Ce modèle est le premier à offrir un cadre scientifique solide pour évaluer les méthodes d’identification, notamment lors du traitement de données à grande échelle. Il peut évaluer l’exactitude de techniques telles que les codes publicitaires et les trackers invisibles pour identifier les utilisateurs en ligne sur la base d’informations minimales —telles que les fuseaux horaires ou les paramètres du navigateur—, un processus connu sous le nom de “empreinte digitale du navigateur.”

L’auteur principal, le Dr Luc Rocher, chercheur principal à l’Oxford Internet Institute, qui fait partie de l’Université d’Oxford, a déclaré : “Nous considérons notre méthode comme une nouvelle approche pour aider à évaluer le risque de réidentification lors de la publication de données, mais aussi pour évaluer les techniques d’identification modernes dans des environnements critiques à haut risque. Dans des endroits comme les hôpitaux, l’acheminement de l’aide humanitaire ou le contrôle des frontières, les enjeux sont incroyablement élevés et la nécessité d’une identification précise et fiable est primordiale.”

Tirer parti des statistiques bayésiennes pour une précision améliorée

La méthode s’appuie sur le domaine des statistiques bayésiennes pour apprendre comment les individus sont identifiables à petite échelle et extrapoler la précision de l’identification à des populations plus larges jusqu’à 10 fois mieux que les heuristiques et les règles empiriques précédentes. Cela confère à la méthode une puissance unique pour évaluer les performances à grande échelle de différentes techniques d’identification de données, dans différentes applications et contextes comportementaux. Cela pourrait aider à expliquer pourquoi certaines techniques d’identification de l’IA fonctionnent avec une grande précision lorsqu’elles sont testées dans de petites études de cas, mais identifient ensuite de manière erronée des personnes dans des conditions réelles.

Ces résultats arrivent à point nommé, compte tenu des défis posés à l’anonymat et à la vie privée par l’essor rapide des techniques d’identification basées sur l’IA. Par exemple, des outils d’IA sont testés pour identifier automatiquement les humains à partir de leur voix dans les services bancaires en ligne, de leurs yeux dans la fourniture de l’aide humanitaire ou de leur visage dans les forces de l’ordre.

Selon les chercheurs, la nouvelle méthode pourrait aider les organisations à trouver un meilleur équilibre entre les avantages des technologies d’IA et la nécessité de protéger les informations personnelles des personnes, rendant ainsi les interactions quotidiennes avec la technologie plus sûres et plus sécurisées. Leur méthode de test permet d’identifier les faiblesses potentielles et les domaines à améliorer avant une mise en œuvre à grande échelle, ce qui est essentiel pour maintenir la sécurité et la précision.

Un outil crucial pour la protection des données

Le co-auteur, le professeur associé Yves-Alexandre de Montjoye (Data Science Institute, Imperial College, Londres), a déclaré : “Notre nouvelle loi d’échelle fournit, pour la première fois, un modèle mathématique fondé sur des principes pour évaluer les performances des techniques d’identification à grande échelle. Comprendre l’évolutivité de l’identification est essentiel pour évaluer les risques posés par ces techniques de réidentification, notamment pour garantir le respect des législations modernes en matière de protection des données dans le monde entier.”

Dr. Luc Rocher a conclu : “Nous pensons que ce travail constitue une étape cruciale vers le développement de méthodes fondées sur des principes pour évaluer les risques posés par des techniques d’IA toujours plus avancées et la nature de l’identifiabilité des traces humaines en ligne. Nous espérons que ce travail sera d’une grande aide pour les chercheurs, les responsables de la protection des données, les comités d’éthique et d’autres praticiens visant à trouver un équilibre entre le partage de données à des fins de recherche et la protection de la vie privée des patients, des participants et des citoyens.

Tags : technologietrending
Sciences et Technologies