Couper votre micro n’empêche pas les grandes technologies d’enregistrer votre audio

Chaque fois que vous utilisez une application de téléconférence vidéo, vous envoyez vos données audio à la société hébergeant les services. Et, selon une nouvelle étude, cela signifie tout de vos données audio. Cela inclut la voix et le bruit de fond, que vous diffusiez ou que vous soyez en sourdine.

Des chercheurs de l’Université du Wisconsin-Madison ont enquêté sur “de nombreuses applications populaires” pour déterminer dans quelle mesure les applications de visioconférence capturent des données pendant que les utilisateurs utilisent le bouton “muet” intégré au logiciel.

Selon un communiqué de presse universitaire, leurs conclusions étaient substantielles :

Ils ont utilisé des outils d’analyse binaire d’exécution pour tracer l’audio brut dans les applications de visioconférence populaires lorsque l’audio voyageait de l’application au pilote audio de l’ordinateur, puis au réseau pendant que l’application était mise en sourdine.

Ils ont constaté que toutes les applications qu’ils ont testées recueillent occasionnellement des données audio brutes lorsque la sourdine est activée, une application populaire recueillant des informations et fournissant des données à son serveur au même rythme, que le microphone soit coupé ou non.

Malheureusement, comme cette recherche n’est pas publiée, nous ne sommes pas en mesure de confirmer les applications spécifiques testées. Donc, pour l’instant, nous ne pouvons pas les nommer et leur faire honte.

Cependant, l’efficacité de ce document n’est pas nécessairement mise en doute en raison du fait qu’il a été accepté au Symposium 2022 sur les technologies de protection de la vie privée. Nous devrons simplement attendre et voir qui sera nommé lors de la publication du journal en juin.

Cependant, cela ne signifie pas que nous ne pouvons pas tirer certaines conclusions. Selon les chercheurs, ces données pourraient être utilisées pour extraire des informations significatives. Et, avec un peu d’apprentissage automatique, ces informations peuvent brosser un tableau incroyablement vivant de la réalité d’un utilisateur – encore une fois, même avec votre microphone en sourdine dans l’application.

L’équipe de recherche a pu déterminer quel son spécifique était envoyé pendant les tests et, en extrapolant ces données, ils ont pu prédire les inférences que les grandes technologies pourraient faire.

Bien sûr, les grandes technologies utilisent l’IA pour tout analyser. Les chercheurs ont donc construit leurs propres algorithmes pour étudier les données. Ce qu’ils ont trouvé était étonnant.

Selon le résumé de l’article non publié :

En utilisant le trafic réseau que nous interceptons en route vers le serveur de télémétrie, nous implémentons un classificateur d’activité d’arrière-plan de preuve de concept et démontrons la faisabilité de déduire l’activité d’arrière-plan en cours lors d’une réunion – cuisine, nettoyage, dactylographie, etc. Nous avons atteint une macro-précision de 81,9 % en identifiant six activités d’arrière-plan courantes à l’aide de paquets de télémétrie sortants interceptés lorsqu’un utilisateur est mis en sourdine.

En d’autres termes: des étudiants diplômés de l’Université du Wisconsin-Madison ont pu créer des modèles d’apprentissage automatique capables de déterminer ce que faisait un utilisateur d’application de téléconférence alors que son microphone était coupé avec une précision supérieure à 80 %.

Fichier sous : Imaginez ce que Google ou Microsoft pourraient faire avec leurs énormes modèles d’IA. Aïe !

Le point de vue de Neural : Faut-il s’inquiéter ? Oui. Absolument. Faut-il arrêter d’utiliser ces applications ? Non, parce que ce n’est pas vraiment une option pour tout le monde.

Notre véritable préoccupation est que la grande technologie ne se soucie pas de savoir si les utilisateurs savent qu’ils sont enregistrés même lorsqu’ils sont en sourdine, ou qu’elle n’a jamais cessé de penser aux utilisateurs voudrais se soucier. Quoi qu’il en soit, cela montre un niveau inquiétant de détachement de l’expérience utilisateur.

Le mantra tacite de la grande technologie est “des données à tout prix”, et cela prouve à quel point la bête a soif. Il n’y a aucune bonne raison de ne pas informer explicitement les utilisateurs en gros caractères que le bouton de sourdine n’arrête pas leur flux audio vers le serveur.

Heureusement, vous avez des options. Si vous voulez vraiment mettre en sourdine votre flux audio, vous devez effectuer une double mise en sourdine. Si vous avez la chance de posséder un casque doté d’un bouton de sourdine physique, utilisez-le pour désactiver votre casque, puis utilisez le bouton de l’application comme couche supplémentaire de mise en sourdine.

Si votre casque n’a pas de bouton de sourdine physique ou si vous utilisez un microphone intégré pour communiquer, vous devrez mettre le système en sourdine en désactivant votre microphone à partir des paramètres système de votre système d’exploitation, ainsi qu’en désactivant le application.

En fin de compte, on ne sait pas exactement ce que font les grandes technologies avec ces données. La portée de l’étude n’impliquait pas d’enquêter sur les grandes technologies – et nous mettrons à jour cet article si Zoom, Microsoft ou Google nous reviennent avec une déclaration.

Mais, quoi qu’il arrive, le fait qu’il soit collecté sous une telle trompeur circonstances est une source de préoccupation majeure.

Forcer les utilisateurs à accéder aux menus du système d’exploitation afin de s’assurer qu’ils atteignent un minimum de confidentialité est une politique anti-utilisateur. Et, en outre, cela démontre à quel point nos données audio peuvent être beaucoup plus sensibles que nos données vidéo.

Comme l’a déclaré l’auteur principal de l’étude, Kassem Fawaz dans le communiqué de presse de l’université :

Avec une caméra, vous pouvez l’éteindre ou même poser votre main dessus, et quoi que vous fassiez, personne ne pourra vous voir. Je ne pense pas que cela existe pour les micros.

N’oubliez pas de couper le son, les amis. Vous oublierez probablement de doubler réactiver de temps en temps, mais le compromis empêche Google, Microsoft et tous les autres d’entraîner leurs machines sur les sons ambiants de votre vie privée.

Leave a Comment