La Fondation Signal met en garde contre le projet de l’UE d’analyser les messages privés à la recherche de CSAM


18 juin 2024RédactionConfidentialité / Chiffrement

Une proposition controversée présentée par l’Union européenne visant à analyser les messages privés des utilisateurs pour détecter les contenus pédopornographiques (CSAM) présente de graves risques pour le cryptage de bout en bout (E2EE), a averti Meredith Whittaker, présidente de la Signal Foundation, qui maintient le service de messagerie du même nom axé sur la confidentialité.

« Obliger l’analyse massive des communications privées compromet fondamentalement le chiffrement. Point final », Whittaker dit dans un communiqué lundi.

« Que cela se produise en altérant, par exemple, la génération de nombres aléatoires d’un algorithme de cryptage, ou en mettant en œuvre un système de dépôt de clé, ou en forçant les communications à passer par un système de surveillance avant d’être cryptées. »

La réponse intervient alors que les législateurs européens proposent des réglementations pour lutter contre le CSAM avec une nouvelle disposition appelée « modération des téléchargements » qui permet d’examiner les messages avant leur cryptage.

La cyber-sécurité

Un récent rapport d’Euractiv révélé que les communications audio sont exclues du champ d’application de la loi et que les utilisateurs doivent consentir à cette détection selon les termes et conditions du fournisseur de services.

« Ceux qui ne consentent pas peuvent toujours utiliser des parties du service qui n’impliquent pas l’envoi de contenu visuel et d’URL », a-t-il ajouté.

Fin avril 2024, Europol a appelé l’industrie technologique et les gouvernements à donner la priorité à la sécurité publique, avertissant que des mesures de sécurité telles que E2EE pourraient empêcher les forces de l’ordre d’accéder à des contenus problématiques, relançant ainsi un débat en cours sur l’équilibre entre la vie privée et la lutte contre les crimes graves. .

Il a également appelé les plateformes à concevoir des systèmes de sécurité de telle manière qu’elles puissent toujours identifier et signaler les activités nuisibles et illégales aux forces de l’ordre, sans se plonger dans les détails de la mise en œuvre.

Le fabricant d’iPhone Apple a annoncé son intention de mettre en œuvre vérification côté client pour du matériel pédopornographique (CSAM), mais l’a annulé fin 2022 à la suite d’un retour de flamme soutenu de la part de défenseurs de la vie privée et de la sécurité.

La cyber-sécurité

« La recherche d’un type de contenu, par exemple, ouvre la porte à une surveillance massive et pourrait susciter le désir de rechercher d’autres systèmes de messagerie cryptés sur différents types de contenu », explique la société. dit à l’époque, expliquant sa décision. Il a également décrit le mécanisme comme une « pente glissante aux conséquences involontaires ».

Whittaker de Signal a en outre déclaré que qualifier l’approche de « modération des téléchargements » est un jeu de mots qui revient à insérer une porte dérobée (ou une porte d’entrée), créant ainsi une vulnérabilité de sécurité prête à être exploitée par des acteurs malveillants et des pirates informatiques d’États-nations.

« Soit le cryptage de bout en bout protège tout le monde et garantit la sécurité et la confidentialité, soit il est brisé pour tout le monde », a-t-elle déclaré. « Et rompre le chiffrement de bout en bout, en particulier à une époque aussi instable sur le plan géopolitique, est une proposition désastreuse. »

Vous avez trouvé cet article intéressant ? Suivez-nous sur Twitter et LinkedIn pour lire plus de contenu exclusif que nous publions.





ttn-fr-57