NeuralHash : Apple répond aux questions sur la confidentialité
Bientôt, Apple scannera votre smartphone à la recherche d'images d'abus d'enfants et enverra les données aux autorités. Suite au tollé initial de la communauté Internet, la société basée à Cupertino a fourni des informations complémentaires.
La fonction NeuralHash a fait parler d'elle ces derniers jours. Dans un deuxième livre blanc, Apple répond maintenant aux questions et fait face aux critiques des défenseurs de la protection des données et des utilisateurs de ses produits.
Les responsables de la protection des données sont consternés, tout comme les utilisateurs.
Apple répond à cette critique et à des arguments similaires. Vous trouverez ici les questions et réponses les plus pertinentes. NB : le livre blanc de six pages vaut la peine d'être lu si vous voulez comprendre comment Apple se voit toujours comme un défenseur de la protection des données malgré le contournement de son propre cryptage et la violation de la vie privée de ses utilisateurs.
De quoi parle le livre blanc ?
Deux fonctions de protection des enfants seront déployées dans une prochaine version d’iOS 15. Pour l'instant, ces fonctions ne marcheront qu'aux États-Unis. Apple n'a pas encore parlé d'un déploiement mondial. Ces deux caractéristiques sont appelées :
- Communication Safety in Messages
- NeuralHash
Si vous connaissez déjà ces deux systèmes, passez directement à la partie « Apple répond aux questions concernant Communication Safety in Messages ». Après les deux parties suivantes, vous trouverez un aperçu technique et une mini-analyse de la fonction « Communication Safety in Messages ».
Aperçu de NeuralHash
NeuralHash fait correspondre des images sur votre iPhone ou iPad avec des données montrant des enfants abusés. Ce processus se fait sur votre appareil, avant que vous ne chargiez les images sur iCloud. Ainsi, Apple peut contourner son propre chiffrement des sauvegardes iCloud et tout de même le conserver.
La base de données pour l'analyse sur votre smartphone ou votre tablette est fournie par le National Centre for Missing and Exploited Children (NCMEC) et d'autres organisations de protection de l'enfance. Et c'est également cette organisation qui contactera les autorités si les soupçons sont confirmés. En effet, si NeuralHash détecte un nombre suffisant d'images montrant des abus sur des enfants, ces images sont décryptées et envoyées à Apple. Là, elles sont analysées par des humains et si le soupçon est confirmé, le NCMEC est alerté.
Les images de votre appareil sont comparées aux valeurs numériques générées par le système de hachage d'Apple, NeuralHash, qui abstrait les données d'images. Ces valeurs numériques sont appelées valeurs de hachage. Jusqu'à présent, Apple n'a pas précisé que NeuralHash vérifiera aussi si des photos nues sont présentes dans les documents nouvellement générés.
Aperçu de Communication Safety in Messages
Communication Safety in Messages est une fonctionnalité de l'appli Messages de votre iPhone ou iPad. Il s'agit d'un outil facultatif permettant aux parents de protéger leurs enfants. Si la fonction est activée, il n'est pas possible pour un enfant d'envoyer ou de recevoir des photos au contenu sexuel.
Cette fonction exige que le compte qui n'est pas autorisé à envoyer ou à recevoir de telles photos soit géré dans un compte Partage familial. Comme NeuralHash, Communication Safety in Messages analyse les données directement sur le téléphone. Toutefois, contrairement à NeuralHash, aucune donnée n'est transmise à Apple si le système déclenche une alarme.
Si le service de sécurité des communications détecte une image dénudée dans les messages, celle-ci sera brouillée, l'enfant sera averti et des « ressources utiles », c'est-à-dire des conseils, lui seront transmis. L'iPhone ou l'iPad afficherait également un message rassurant l'enfant en lui disant que c'est ok si l'enfant ne veut pas voir la photo.
De plus, il est possible pour les parents de « jeunes enfants » soient informés si leur enfant envoie ou reçoit des photos au contenu sexuel explicit via Messages.
Communication Safety in Messages n'intervient que lorsque les images sont transférées via l'application « Messages ». WhatsApp, Signal, Threema, Snapchat, TikTok, Instagram et toutes les autres applications de messagerie ainsi que Safari et cie ne sont pas surveillés par Communication Safety in Messages.
Communication Safety in Messages prouve qu'Apple est capable de vérifier les images au-delà des données existantes. Le groupe peut reconnaître des images au contenu sexuel nouvellement générées qui n'existent encore dans aucune base de données.
Apple répond aux questions sur Communication Safety in Messages
Dans un document PDF publié le 9 août 2021, Apple répond aux critiques du public et explique comment ces deux fonctionnalités permettent de protéger le bien-être des enfants.
Les questions et réponses suivantes sont extraites du PDF et raccourcies pour une meilleure lisibilité. Je vous recommande quand même de lire les six pages rédigées par l'entreprise de Cupertino.
NeuralHash et Communication Safety in Messages utilisent-ils la même technologie ?
Non, les fonctionnalités ne sont pas identiques et n'utilisent pas la même technologie.
- Communication Safety in Messages est capable d'analyser le contenu des nouvelles données générées et d'y réagir.
- NeuralHash fait correspondre les données de l'iPhone avec les images d'une base de données. Si NeuralHash déclenche une alarme, les données sont décryptées et envoyées à Apple. Là, une personne confirme le soupçon et transmet les données au NCMEC. Ce dernier contactera des « autorités du monde entier ».
Qui peut utiliser Communication Safety in Messages ?
La fonction qui existe dans Messages et qui s'appelle Communication Safety in Messages ne peut être appliquée qu'aux comptes intégrés dans un compte Partage familial. Les parents ou les tuteurs doivent activer cette fonction. Elle n'est pas activée par défaut.
La notification de la réception ou de la tentative d'envoi d'images au contenu sexuel n'est possible que pour les enfants âgés de 12 ans ou moins.
Communication Safety in Messages transmet-elle des données à Apple, à la police ou aux autorités ?
Non, Apple n'a pas accès aux données contenues dans Messages. Communication Safety in Messages ne transmet pas de données à Apple, au NCMEC ou à la police.
NeuralHash, en revanche, le fait. NB : NeuralHash n'interagit pas avec Communication Safety in Messages.
Communication Safety in Messages rompt-elle le chiffrement de bout en bout dans Messages ?
Non. Les promesses de confidentialité faites par Apple dans Messages ne sont pas violées lors de l'utilisation de Communication Safety in Messages. Apple n'a pas connaissance des messages envoyés et reçus dans l'appli « Messages ».
Communication Safety in Messages est un système entièrement automatique que les parents ou les tuteurs doivent activer préalablement.
Communication Safety in Messages aide-t-elle les enfants victimes d'abus dans leur propre maison ?
Non. Communication Safety in Messages n'analyse que les images dont le contenu est « sexuellement explicite ». Toutes les autres communications ne sont pas affectées.
Mais Apple utilisera les ressources de Siri et de Search pour fournir une assistance plus importante aux victimes ou aux proches des victimes.
Apple répond aux questions sur NeuralHash
Étant donné que NeuralHash et Communication Safety in Messages sont deux fonctionnalités différentes, des règles et des normes différentes s'appliquent à NeuralHash.
Apple appelle aussi NeuralHash « CSAM Detection », où CSAM signifie « Child Sexual Abuse Material ». En clair : contenu pornographique avec des enfants.
Est-ce qu'Apple analyse toutes les photos de mon iPhone ?
Non. CSAM Detection analyse uniquement les images que l'utilisateur souhaite télécharger sur iCloud.
CSAM Detection n'intervient que dans les cas suivants :
- si plusieurs contenus pédopornographiques sont trouvés sur un même appareil ;
- si ces contenus sont connus de la base de données NCMEC.
Si un utilisateur n'a pas activé iCloud Photos, NeuralHash alias CSAM Detection n'est pas non plus activée.
Est-ce que des images de pornographies enfantines seront chargées sur mon iPhone et comparées avec des images sur mon iPhone ?
Non. Les images avec un contenu CSAM ne sont pas stockées sur l'appareil. Apple abstrait les images de la base de données NCMEC et les transforme en valeurs numériques. Ces valeurs numériques sont appelées valeurs de hachage. Il n'est pas possible de retransformer ces hachages en images sur lesquelles ils sont basés.
Pourquoi Apple fait cela maintenant ?
Pour Apple, c'est un grand défi de préserver la vie privée de ses utilisateurs tout en protégeant le bien-être des enfants. Grâce à NeuralHash, également appelé CSAM Detection, Apple peut savoir quels comptes stockent plusieurs contenus pédopornographiques dans iCloud.
Apple ne voit pas ce qui se passe localement sur l'iPhone.
Selon Apple, les produits d'autres fabricants dotés de la même fonction analysent toutes les images présentes sur l'appareil. Ce qui représente un risque pour la vie privée de tous les utilisateurs. Par conséquent, NeuralHash est une meilleure solution, car Apple n'a aucun aperçu des autres contenus.
NeuralHash, aussi appelé CSAM Detection, peut-il être utilisé pour détecter d'autres choses et pas seulement la pédopornographie ?
Apple a conçu les processus derrière NeuralHash, également appelé CSAM Detection, de sorte que le système ne puisse pas être utilisé à d'autres fins. Les bases de données pour la comparaison avec les photos téléchargées sur iCloud sont fournies par le NCMEC et d'autres agences de protection de l'enfance.
Aucun rapport automatique n'est fait à la police ou à d'autres autorités.
Dans la plupart des pays, la possession de matériel pédopornographique est un crime. Apple doit signaler ces contenus aux autorités.
Les gouvernements peuvent-ils forcer Apple à calibrer NeuralHash sur d'autres contenus ?
Apple s'oppose catégoriquement à toute demande allant dans ce sens. NeuralHash ne recherche dans iCloud que la pédopornographie déclarée comme telle par les experts du NCMEC et d'autres organisations de protection de l'enfance.
Par le passé, le gouvernement et les autorités ont souvent demandé à Apple de prendre des mesures qui violent ou affaiblissent la vie privée des utilisateurs. Apple a catégoriquement rejeté ces demandes.
Apple continue de rejeter ce genre de demandes.
Avant que les données ne soient envoyées au NCMEC, les alertes de NeuralHash, également appelé CSAM Detection, sont examinées par une personne chez Apple.
Les bases de données du NCMEC et d'autres agences de protection de l'enfance peuvent-elles être manipulées pour détecter et signaler d'autres images ?
Apple a pris des mesures pour rendre impossible le marquage des bases de données avec des images non pédopornographiques afin que NeuralHash sonne l'alarme. Les données sur la base desquelles la correspondance des photos est effectuée sont vérifiées par le NCMEC et d'autres agences de protection de l'enfance.
Ces bases de données, fournies par les organisations de protection de l'enfance, sont résumées en valeurs numériques appelées valeurs de hachage et stockées sur chaque iPhone et iPad. Il n'est donc pas possible de surveiller des individus avec NeuralHash.
Avant que le NCMEC ne soit informé, les images d'Apple sont examinées par une personne. C'est, au plus tard, cette personne qui se rend compte qu'il n'y a pas de pornographie enfantine dans l'image et aucun signalement n'est effectué.
CSAM Detection dénoncera-t-il à tort des personnes innocentes à la police ?
Non. Apple a créé NeuralHash de telle manière que la probabilité d'une fausse alerte soit extrêmement faible. Chaque année, Apple estime qu'un signalement sur un billion est erroné.
Étant donné qu'un être humain effectue en plus un contrôle, ces faux signalements seront détectés au plus tard à ce stade et aucun rapport ne sera fait au NCMEC.
Par conséquent, les attaques et les défaillances du système n'entraînent pas le signalement de personnes innocentes au NCMEC ou aux autorités.
Bilan
Le livre blanc d'Apple est clairement rédigé pour calmer les esprits. Il vise à redonner un sentiment de sécurité aux utilisateurs et à ne pas leur donner l'impression de mettre en danger leur vie privée.
La sécurité est trompeuse.
Une question de technologie, pas de sécurité des enfants
Le fait est qu'Apple lâche sur l'humanité un système qui peut analyser vos images et les transmettre à l'insu de l'utilisateur. Il est facile d'étouffer ce dialogue avec l'argument « Donc vous êtes pour la pédopornographie ». Dans le cadre de la discussion sur la technologie NeuralHash, cet argument ne doit pas s'appliquer.
Apple ne nie pas que NeuralHash puisse être appliqué à d'autres données. Il est technologiquement possible d'appliquer NeuralHash aux hijabs, aux pénis, aux chats ou aux transsexuels. C'est là que réside le danger. Il est absurde que quiconque s'oppose sérieusement à la promotion de l'intérêt supérieur de l'enfant. Mais il est raisonnable que les gens s'élèvent contre la technologie utilisée pour cette mesure.
Changement technologique
Apple prouve qu'avec Communication Safety in Messages, elle est capable d'analyser les données transférées en temps réel. Même si NeuralHash ne le fait pas, cela ne signifie pas que ce ne sera jamais le cas. Les mécanismes qui fonctionnent dans Communication Safety in Messages peuvent facilement être intégrés à NeuralHash. Les raisons pour lesquelles cela ne s'est pas encore produit pourraient être les suivantes :
- Apple n'a pas la main d'œuvre pour que des gens passent au peigne fin tous les messages ;
- les iPhone et iPad ne sont pas encore assez puissants pour faire cette analyse en temps réel avec tous les événements déclenchés par les rapports ;
- Apple n'en veut pas ;
- la reconnaissance d'image de Communication Safety in Messages n'est pas encore assez fiable pour être appliquée aux données en dehors de Messages ;
- …
La sécurité des partenaires
En outre, la sécurité a ajouté un autre facteur : Apple dispose peut-être de serveurs difficiles à pirater, même si la société est loin d'être aussi sûre qu'elle aime à le dire. Mais ce n'est pas forcément le cas pour les serveurs des partenaires externes.
Leurs données sont-elles aussi bien sécurisées que celles d'Apple ? Les bases de données externes peuvent-elles être manipulées pour détecter d'autres choses ? Apple ne le nie pas. Le groupe se réfère au dernier acteur qui peut le faire de manière fiable : l'être humain. C'est probablement aussi la raison pour laquelle Apple a introduit un contrôle effectué par une personne. Un dernier rempart contre l'abus d'un système dont les dirigeants de tout gouvernement sont friands.
Une question de confiance
Si Communication Safety in Messages et NeuralHash fusionnaient, le système pourrait essentiellement être appliqué à n'importe quoi. Que ce soit pour retrouver des femmes en Iran qui ne portent pas le hijab, ou simplement pour créer la plus grande collection au monde de photos de chats. Tout cela peut se produire sans que vous ne le sachiez, sans votre consentement et sans votre intervention. Cela ne doit pas se produire.
Les entreprises ne sont pas toujours et durablement à l'abri des interférences d'un gouvernement. En fin de compte, Apple, comme toute autre entreprise, doit faire ses calculs : l'entreprise peut-elle se permettre de perdre une zone politique entière, par exemple, un pays ou l'UE, comme marché si une réglementation gouvernementale n'est pas respectée ? Un exemple frappant : Apple est-elle prête à renoncer au marché chinois, si le gouvernement chinois exigeait que NeuralHash soit détourné pour « détecter » les Ouïghours ?
Apple promet actuellement que de telles demandes seront catégoriquement rejetées. Mais il n'y a aucune garantie que cela reste ainsi. Un management futur n'est pas obligé de suivre les choix pris aujourd'hui.
Une mesure plus raisonnable
Communication Safety in Messages, bien qu'elle rappelle fortement l'épisode « Arkangel » de la série télévisée dystopique Black Mirror, est une approche plus raisonnable pour préserver le bien-être des enfants. Les parents ne cèdent pas leur responsabilité à une machine ou à une entreprise qui se contente de faire confiance à tout le monde. Cela ne peut être donné de manière durable ou globale, car les intérêts économiques représentent toujours un facteur dans les actions d'une entreprise qu'il ne faut pas sous-estimer.
Il est raisonnable que les parents profitent d'une fonctionnalité pour protéger leurs enfants. Il en va de même pour le fait que la fonction n'est pas activée par défaut. Elle oblige les parents à se demander, dans le cadre de l'éducation de leurs enfants et dans le contexte familial, si Communication Safety in Messages est une fonction souhaitée.
Elle donne à la famille le pouvoir et la liberté de décision. Après tout, l'éducation de sa propre progéniture ne doit pas être laissée entre les mains de conglomérats internationaux à vocation économique. Peu importe s'ils semblent gentils sur le moment.
La question du « pourquoi ? »
Avec le livre blanc, Apple montre plus son jeu que d'accoutumés. Néanmoins, cela ne répond pas à la question de savoir pourquoi Apple introduit NeuralHash. Les réponses dans le PDF sont vagues et n'abordent même pas les raisons de l'existence de NeuralHashe.
Ou si ?
À la page 2 du livre blanc, Apple répond à la question concernant les différences entre NeuralHash, aussi appelé CSAM Detection, et Communication Safety in Messages, entre autres, en affirmant que la possession de matériel pédopornographique est illégale dans la plupart des pays. En lisant entre les lignes, il est possible d'interpréter les questions suivantes :
Apple est-elle passible de poursuites judiciaires si de la pédopornographie est stockée dans iCloud ? Est-ce qu'au final tout n'est pas fait pour qu'Apple ne puisse pas être tenu légalement responsable ?
Journaliste. Auteur. Hackers. Je suis un conteur d'histoires à la recherche de limites, de secrets et de tabous. Je documente le monde noir sur blanc. Non pas parce que je peux, mais parce que je ne peux pas m'en empêcher.