Une femme découvre que son petit ami la trompait en écoutant leurs enregistrements Alexa


Une femme a révélé comment elle a réussi à surprendre son désormais ex-partenaire en train de la tromper après avoir accédé aux enregistrements de son Amazon Alexa.

© sferrario1968 / pixabay

L’assistant vocal est un outil courant dans les foyers aujourd’hui, car il peut être contrôlé par la voix, mais certains peuvent être surpris d’apprendre qu’il est possible d’accéder à l’historique des commandes vocales – ce que Jessica Lowman (@jessicalowman1) ne savait pas, mais a rapidement découvert.

Lowman a posté une vidéo partageant l’enregistrement d’écran de différents clips qu’elle a trouvé sur son compte Alexa et qui semblaient lui confirmer qu’il voyait une autre femme.

Sur l’application Amazon Alexa, Lowman était sur l’onglet “Historique vocal”, où elle a fait défiler pour montrer un certain nombre d’enregistrements audio, et a appuyé sur l’un d’entre eux où une femme non identifiée a dit : “Alexa, que faites-vous alors ? Joue Power Trip de Miguel.”

Après cela, le petit ami d’alors de Lowman a demandé à Alexa de jouer le son à “volume huit”, ce qui semblait prouver qu’il était seul avec la femme dans leur maison.

“C’est comme ça que j’ai attrapé mon ex en train de me tromper, je ne savais même pas qu’Alexa enregistrait ce genre de choses”, disait le texte de Lowman à l’écran.

Depuis qu’elle a posté son moment Alexa gotcha, la vidéo de Lowman a été vue 3,5 millions de fois, plus de 198 000 fois et plus de mille commentaires de personnes.

Une personne a dit : “Girl code Alexa”

“Toutes les femmes courent vers l’application Alexa maintenant”, a écrit une autre personne.

Quelqu’un d’autre a ajouté : “C’est exactement de la même façon que je l’ai découvert aussi ! J’ai écouté pendant une soirée entre filles !”

“Tout le monde va recevoir Alexa pour Noël”, a commenté une quatrième personne.

Par ailleurs, une mise à jour d’Amazon Alexa a été annoncée en juin. Une nouvelle fonctionnalité permettra aux appareils d’imiter la voix de n’importe qui.

Lire aussi : Des plaintes accusent Siri, Alexa et Google d’écouter quand ils ne sont pas censés le faire

Source : indy100 – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *