Tech

La surveillance de choc Siri d’Apple exige une réponse rapide

357views

La nouvelle que Siri enregistre des extraits de nos conversations avec l’assistant vocal n’est pas nouvelle, mais affirme que ces courts enregistrements sont écoutés par des agents humains, en particulier à la lumière de la grande pression de l’entreprise sur la confidentialité.

Ce sont de mauvaises optiques pour Apple

Je suis un fervent partisan de l’importance de la vie privée.

Ce n’est pas seulement important en termes de préservation des libertés durement acquises et de protection du discours public ; il revêt également une importance croissante dans tous les aspects de l’existence humaine – pour chaque école, établissement médical ou entreprise. L’histoire montre que l’absence de vie privée a un effet corrosif sur la société, tournant les membres de la famille les uns contre les autres et freinant l’innovation.

Les avertissements d’Apple concernant la confidentialité – y compris l’avertissement du PDG d’Apple, Tim Cook, selon lequel de nombreuses entreprises technologiques avec lesquelles nous travaillons quotidiennement nous entraînent dans un état de surveillance – sont importants (sinon toujours pratiques pour ceux qui soutiennent que la confidentialité est juste quelque chose que nous devrions sacrifier pour le bien des robots que nous fabriquons).

Cependant, la révélation selon laquelle Apple n’a pas clairement indiqué que les enregistrements de nos conversations privées sont partagés avec des « contractants » à des fins de « contrôle qualité » et de « formation » est un très mauvais aspect pour l’entreprise.

Ce que dit Apple

Apple déclare que :

“Une petite partie des demandes Siri est analysée pour améliorer Siri et la dictée.” Il promet également que « les demandes des utilisateurs ne sont pas associées à l’identifiant Apple des utilisateurs. Les réponses Siri sont analysées dans des installations sécurisées et tous les évaluateurs sont tenus de respecter les strictes exigences de confidentialité d’Apple.

C’est rassurant dans une certaine mesure, mais étant donné que dans certains cas, les examinateurs d’Apple auraient entendu des personnes partager des informations personnelles, y compris leur adresse, la décision de séparer le son enregistré de l’identifiant Apple concerné peut ne pas suffire.

Apple devra faire un peu plus.

Comment Apple peut remédier à la situation

Commencez par la transparence

Caché dans les conditions générales d’Apple, vous trouverez des avertissements indiquant que les enregistrements effectués à l’aide de Siri sont parfois utilisés à des fins de contrôle qualité.

Vous trouverez également une promesse que ces enregistrements ne sont (contrairement à des concurrents) liés en aucune manière à votre identifiant Apple ou à votre identité personnelle.

Ces promesses ne sont pas très claires.

C’est pourquoi je dis qu’Apple devrait introduire des avertissements de confidentialité beaucoup plus clairs et plus faciles à comprendre concernant l’utilisation de Siri sur ses appareils. Il doit déplacer ces avertissements au premier plan et indiquer clairement que non seulement il utilise parfois ces enregistrements, mais aussi comment il les utilise, comment il protège l’identité lorsqu’il les utilise et combien de temps exactement ces enregistrements sont conservés.

Mais donne aux gens le contrôle

Apple devrait (je pense) faire en sorte que l’enregistrement de Siri soit une option de retrait.

C’est-à-dire que lors de la configuration de Siri sur un nouvel appareil, l’utilisateur doit avoir la possibilité de refuser explicitement l’utilisation de sa voix à d’autres fins que la demande initiale.

Vous devriez pouvoir dire que vous ne voulez pas que vos données soient utilisées pour la formation ou le contrôle qualité.

« Mais alors, Apple ne sera pas en mesure de former l’assistant aussi rapidement », pourraient se plaindre certains. Peut-être pas, mais il conservera son leadership en matière de protection de la vie privée.

Non seulement cela, mais on peut soutenir à quel point ces enregistrements sont réellement utiles.

Devenir plus responsable

Qui sont les « sous-traitants » qu’utilisent Apple, Google, Amazon et tous les autres qui vérifient et écoutent ces courts enregistrements de ce que nous disons ?

Comment sont-ils embauchés ?

Quelles sont leurs descriptions de poste ? Pour qui d’autre travaillent-ils ?

Sur quelle base peut-on leur faire confiance et comment les individus peuvent-ils obtenir réparation en cas d’abus de cette confiance ?

Et pourquoi les utilisateurs de Siri ne connaissent-ils pas déjà les réponses à toutes ces questions ?

Que ces entrepreneurs soient sous-traités n’a aucun sens.

Apple devrait amener ce travail en interne, devenir entièrement responsable de ce que ses travailleurs vocaux et sa direction font avec ces enregistrements, et s’assurer que les clients ont un moyen de punir toute infraction à la confidentialité de leurs données.

Assurez-vous vraiment que vous avez besoin des informations

Apple dit qu’il n’enregistre et n’utilise que de petites sections de mots qu’il entend, mais a-t-il même besoin de conserver ou de vérifier autant d’échantillons qu’il choisit de prendre ?

Pensez-y comme ça:

Si Siri sur votre montre ou HomePod entend ce qu’il pense être la commande “Hey, Siri”, mais qu’aucune demande n’est faite par la suite, alors il devrait sûrement être assez intelligent pour reconnaître qu’une fausse alarme s’est produite.

Dans le cas d’une telle fausse alarme, Siri sur l’appareil devrait sûrement être assez intelligent pour savoir ce qui a causé l’invocation accidentelle et être moins sensible à ce son à l’avenir.

(UNE Gardien rapport a affirmé que le son des fermetures éclair réveille parfois Siri, par exemple – Siri peut sûrement apprendre à ignorer le son des fermetures éclair en réponse.)

L’essentiel est que dans le cas où Siri est invoqué mais qu’aucune demande spécifique n’est faite, le système doit être suffisamment intelligent pour ignorer l’interaction et supprimer tout enregistrement effectué à la suite de cette interaction, au-delà (éventuellement) des trois premières secondes au cours desquelles il pensait avoir entendu la commande de déclenchement.

Le simple fait de franchir cette étape empêcherait à peu près certains des enregistrements les plus flagrants que Siri aurait entendus et partagés avec les sous-traitants.

Je ne veux pas que Siri s’améliore à écouter ce que je dis quand je ne veux pas qu’il écoute. Je veux juste qu’il s’améliore à l’écoute quand je fais une demande.

Les humains sont-ils même nécessaires ?

La technologie vocale progresse rapidement. Cela soulève la question suivante : « Est-il même nécessaire que les entrepreneurs humains écoutent des extraits de conversation liés à Siri ? »

Je pense que dans de nombreux cas, ce n’est tout simplement pas le cas.

Les enregistrements doivent être transmis à Siri et à d’autres technologies de reconnaissance vocale dans un premier temps pour automatiser la vérification de l’exactitude.

Ce n’est que dans les cas où différents systèmes de reconnaissance vocale ne parviennent pas à se mettre d’accord sur ce qui est dit que les oreilles humaines sont nécessaires.

Je ne suis pas un expert en IA, mais ce type d’analyse est le genre de chose pour laquelle les modèles/algorithmes de forêt aléatoire sont conçus – uniquement lorsque la technologie ne peut pas s’entendre sur la raison pour laquelle une demande a été erronée si un humain était nécessaire.

Pourquoi est-ce important

Ce ne sont là qu’une petite collection de suggestions que j’espère qu’Apple prendra afin de faire de Siri l’assistant vocal le plus privé de l’industrie.

Ce truc compte.

Pensez-y:

Non seulement les mots que nous utilisons sont notre propre propriété, mais à mesure que les technologies basées sur les capteurs et l’IA entrent dans différentes sphères de la vie quotidienne – de la cartographie à la réalité virtuelle omniprésente – le besoin de confidentialité devient encore plus important, car notre vie deviendra encore plus importante. un livre ouvert.

Les décisions que nous prenons aujourd’hui concernant la voix définiront toutes les autres sphères de la vie privée.

Certains pensent que la confidentialité est un prix à payer pour la commodité informatisée, mais je n’ai jamais été d’accord avec eux.

Nous nous trouvons à un moment de l’histoire de l’humanité où les décisions que nous prenons concernant la confidentialité des assistants vocaux résonneront dans notre avenir.

Nous devons régler ce problème de manière efficace, car à moins que nous ne le fassions, les implémentations seront peu sûres et potentiellement déloyales sur le plan éthique.

Et Apple doit aller de l’avant avec sa demande d’une déclaration des droits numériques dans cet espace, un projet de loi qui place les utilisateurs au centre du contrôle de la confidentialité.

Leave a Response