L’annonce que Siri enregistre des extraits de nos conversations avec l’assistant vocal n’est pas nouvelle, mais affirme que ces courts enregistrements sont écoutés par des agents humains – en particulier à la lumière de la grande poussée de l’entreprise en matière de confidentialité.
Ce sont de mauvaises optiques pour Apple
Je crois fermement à l’importance de la vie privée.
Ce n’est pas seulement important en termes de préservation des libertés durement acquises et de protection du discours public; il est également d’une importance croissante dans tous les aspects de l’existence humaine – pour chaque école, établissement médical ou entreprise. L’histoire montre que l’absence de vie privée a un effet corrosif sur la société, tournant les membres de la famille les uns contre les autres et freinant l’innovation.
Les avertissements d’Apple concernant la confidentialité – y compris l’avertissement du PDG d’Apple, Tim Cook, selon lequel de nombreuses entreprises technologiques avec lesquelles nous travaillons quotidiennement nous mettent dans un état de surveillance – sont importants (sinon toujours pratiques pour ceux qui soutiennent que la confidentialité est juste quelque chose que nous devrions sacrifier pour bien des robots que nous fabriquons).
Cependant, la révélation qu’Apple n’a pas clairement indiqué que les enregistrements de nos conversations privées sont partagés avec des «sous-traitants» à des fins de «contrôle qualité» et de «formation» est un très mauvais regard pour l’entreprise.
Ce que dit Apple
Apple déclare que:
«Une petite partie des demandes Siri est analysée pour améliorer Siri et la dictée.» Il promet également que «les demandes des utilisateurs ne sont pas associées à l’identifiant Apple des utilisateurs. Les réponses Siri sont analysées dans des installations sécurisées et tous les examinateurs sont tenus de respecter les strictes exigences de confidentialité d’Apple. »
C’est rassurant dans une certaine mesure, mais étant donné que dans certains cas, les critiques d’Apple auraient entendu des personnes partager des informations personnelles, y compris leur adresse, la décision de divorcer du son enregistré à partir de l’identifiant Apple concerné peut ne pas suffire.
Apple devra faire un peu plus.
Comment Apple peut remédier à la situation
Commencez par la transparence
Caché dans les conditions générales d’Apple, vous trouverez des avertissements selon lesquels les enregistrements réalisés à l’aide de Siri sont parfois utilisés à des fins de contrôle qualité.
Vous trouverez également une promesse que ces enregistrements (contrairement à des concurrents) ne sont en aucun cas liés à votre identifiant Apple ou à votre identité personnelle.
Ces promesses ne sont pas très claires.
C’est pourquoi je dis qu’Apple devrait introduire des avertissements de confidentialité beaucoup plus clairs et plus faciles à comprendre concernant l’utilisation de Siri sur ses appareils. Il doit déplacer ces avertissements au premier plan et indiquer clairement que non seulement il utilise parfois ces enregistrements, mais aussi comment il les utilise, comment il protège l’identité lors de leur utilisation et combien de temps exactement ces enregistrements sont conservés.
Mais donnez aux gens le contrôle
Apple devrait (je pense) faire de l’enregistrement Siri un opt-out.
Autrement dit, lors de la configuration de Siri sur un nouvel appareil, l’utilisateur doit avoir la possibilité de refuser explicitement l’utilisation de sa voix à des fins autres que la demande d’origine.
Vous devriez pouvoir dire que vous ne voulez pas que vos données soient utilisées dans la formation ou le contrôle qualité.
“Mais alors Apple ne pourra pas former l’assistant aussi rapidement”, pourraient se plaindre certains. Peut-être pas, mais cela maintiendra le leadership en matière de protection de la vie privée.
Non seulement cela, mais on peut discuter de l’utilité de ces enregistrements.
Devenez plus responsable
Qui sont les «sous-traitants» qu’Apple, Google, Amazon et tous les autres utilisent qui vérifient et écoutent ces courts enregistrements de ce que nous disons?
Comment sont-ils embauchés?
Quelles sont leurs descriptions de poste? Pour qui d’autre travaillent-ils?
Sur quelle base peut-on leur faire confiance et comment les individus peuvent-ils obtenir réparation en cas d’abus de cette confiance?
Et pourquoi les utilisateurs de Siri ne connaissent-ils pas déjà les réponses à toutes ces questions?
Que ces entrepreneurs soient externalisés n’a aucun sens.
Apple devrait apporter ce travail en interne, devenir entièrement responsable de ce que ses agents vocaux et sa direction font de ces enregistrements, et veiller à ce que les clients aient un moyen de punir toute infraction à la confidentialité de leurs données.
Assurez-vous vraiment que vous avez besoin des informations
Apple dit qu’il n’enregistre et n’utilise que de petites sections de mots qu’il entend, mais a-t-il même besoin de conserver ou de vérifier autant d’échantillons qu’il choisit de prendre?
Pensez-y comme ça:
Si Siri sur votre montre ou HomePod entend ce qu’il pense être la commande «Hey, Siri», mais qu’aucune demande n’est faite par la suite, alors il devrait sûrement être assez intelligent pour reconnaître qu’une fausse alarme a eu lieu.
Dans le cas d’une telle fausse alarme, Siri sur l’appareil devrait sûrement être assez intelligent pour apprendre ce qui a causé l’invocation accidentelle et être moins sensible à ce son à l’avenir.
(UNE Gardien rapport prétend que le son des zips réveille parfois Siri, par exemple – Siri peut sûrement apprendre à ignorer le son des zips en réponse.)
L’essentiel est que dans le cas où Siri est invoqué mais qu’aucune demande spécifique n’est faite, le système doit être suffisamment intelligent pour ignorer l’interaction et supprimer tout enregistrement réalisé à la suite de cette interaction, au-delà (éventuellement) des trois premières secondes dans lesquelles il pensait avoir entendu la commande de déclenchement.
Le simple fait de prendre cette mesure empêcherait à peu près certains des enregistrements les plus flagrants que Siri aurait entendus et partagés avec des entrepreneurs.
Je ne veux pas que Siri s’améliore à écouter ce que je dis quand je ne veux pas qu’il écoute. Je veux juste qu’il soit mieux à l’écoute lorsque je fais une demande.
Les humains sont-ils même nécessaires?
La technologie vocale progresse rapidement. Cela soulève la question: “Est-il même nécessaire que les entrepreneurs humains écoutent des extraits de conversation liés à Siri?”
Je pense que dans de nombreux cas, ce n’est tout simplement pas le cas.
Les enregistrements doivent être passés par Siri et d’autres technologies de reconnaissance vocale en premier lieu pour automatiser la vérification de l’exactitude.
Seulement dans les cas où différents systèmes de reconnaissance vocale ne peuvent pas trouver un moyen de s’entendre sur ce qui est dit si des oreilles humaines sont nécessaires.
Je ne suis pas un expert en IA, mais ce type d’analyse est le genre de chose pour laquelle les modèles / algorithmes de Random Forest sont construits – seulement lorsque la technologie ne peut pas s’entendre sur les raisons pour lesquelles une demande a été erronée si un humain était nécessaire.
Pourquoi est-ce important
Ce ne sont là qu’une petite collection de suggestions que j’espère qu’Apple prend pour faire de Siri l’assistant vocal le plus privé du secteur.
Ce truc est important.
Pensez-y:
Non seulement les mots que nous utilisons nous appartiennent, mais comme les technologies basées sur des capteurs et l’IA pénètrent dans différentes sphères de la vie quotidienne – de la cartographie à la réalité virtuelle omniprésente – le besoin de confidentialité devient encore plus important, car une plus grande partie de nos vies deviendra un livre ouvert.
Les décisions que nous prenons aujourd’hui en matière de voix définiront toutes les autres sphères de confidentialité.
Certains pensent que la vie privée est un prix que nous devrions payer pour la commodité informatique, mais je n’ai jamais été d’accord avec eux.
Nous nous trouvons à un moment de l’histoire humaine où les décisions que nous prenons en matière de confidentialité des assistants vocaux résonneront dans notre avenir.
Nous devons régler cela de manière efficace, car à moins que nous ne le fassions, alors les implémentations seront peu sûres et potentiellement éthiques.
Et Apple doit faire avancer sa demande d’une charte numérique des droits dans cet espace, un projet de loi qui place les utilisateurs au centre du contrôle de la confidentialité.