Des milliers d’employés d’Amazon écoutent les conversations d’Alexa

Pour améliorer l’intelligence artificielle de son assistant, le géant américain emploie des collaborateurs qui analysent des enregistrements audio d’Aexa.

La nouvelle ne pas rassurer les utilisateurs d’enceintes Echo. Et, d’une façon plus générale, tous ceux qui font appel à des assistants vocaux. Dans un

article

bien informé,

Bloomberg révèle en effet que des milliers d’employés d’Amazon écoutent des conversations d’Alexa provenant du monde entier

. De quoi faire frémir – et fuir ! – tous ceux qui hésitent à s’équiper d’une enceinte connectée de peur justement d’être sur écoute permanente.

Comme le rapporte Bloomberg,

le géant américain emploie des équipes réparties un peu partout dans le monde

, des Etats-Unis à l’Inde en passant par le Costa Rica et la Roumanie,

pour analyser et retranscrire par écrit des conversations provenant d’Alexa

dans le but d’aider l’intelligence artificielle (IA) qui fait fonctionne l’assistant vocal à s’améliorer. De fait, aussi puissants que soient les algorithmes et les procédés d’apprentissage de type deep learning, l’expertise humaine reste encore indispensable pour faire progresser l’IA.

Dans le cas d’Amazon,

les auditeurs cherchent surtout à combler des lacunes d’Alexa, en aidant l’assistant à mieux comprendre certaines requêtes formulées en langage naturel

. Bloomberg donne ainsi l’exemple d’un auditeur qui aurait permis de mieux interpréter le nom de l’artiste américaine Taylor Swift, souvent déformé et mal compris. Bref, des écoutes pour le bien de tous, selon Amazon, d’autant que les enregistrements seraient en théorie débarrassés de toute information confidentielle sur l’identité des utilisateurs.

Sauf que, toujours selon Bloomberg, le tableau ne serait pas aussi idyllique dans la réalité. D’abord,

la plupart des auditeurs ne seraient pas employés directement par Amazon, mais par des sous-traitants travaillant dans des conditions assez "intensives"

. Chacun écouterait ainsi près d’un millier d’extraits sonores par jour, pendant environ neuf heures, en analysant, en retranscrivant et en annotent les enregistrements, de manière à identifier et à signaler les termes et les formules complexes, et en échangeant leurs résultats avec leurs collègues via une messagerie interne. De fait, les auditeurs échangent de nombreuses informations entre eux pour s’aider mutuellement à améliorer Alexa, mais

certaines conversations plus ou moins comiques, feraient l’objet de partages massifs et de moqueries

.

Quelques situations s’avéreraient toutefois délicates, voire troublante

s. Des témoins ont ainsi rapporté à Bloomberg qu’ils avaient entendu ce qu’ils ont interprété comme une agression sexuelle. Face à leur désarroi et à leur demande, leur hiérarchie leur aurait ordonné de ne rien, au prétexte que ce n’était pas de leur ressort, ni de celui d’Amazon… Mais il y a encore plus embarrassant.

L’enquête de Bloomberg révèle qu’Amazon permet à ses propres auditeurs salariés d’accéder à des informations sensibles des utilisateurs

, via le numéro de série des enceintes, comme leur prénom ou leur numéro de compte Amazon, ce qui va à l’encontre des engagements pris à l’égard de la protection des données personnelles.

Amazon se veut rassurant

, affirmant que seul

un très faible pourcentage de conversations sont ainsi enregistrées et analysées

, et que des mesures strictes – "tolérance zéro" – sont prises pour garantir la confidentialité des informations personnelles recueillies. Un discours officiel que l’enquête de Bloomberg met à mal. D’autant qu’

Amazon ne dit pas explicitement dans ses conditions d’utilisation du son service que des extraits de conversations peuvent être écoutées et analysées par des êtres humains

. Et même si l’anonymisation des données semble mieux assurée par Google Assistant et Siri d’Apple, les principaux concurrents d’Alexa, ces révélations risquent de semer le doute chez de nombreux utilisateurs potentiels, soucieux de leur vie privée.

Illustration : © Amazon

source : CommentCaMarche April 12, 2019 at 11:16PM