Les GAFA utilisent un outil « douteux » mesurant la dangerosité d’un individu par sa voix

Les géants du web utilisent un outil permettant de déterminer si un individu est jugé « à risque » ou dangereux par la simple analyse de sa voix et sa diction. George Orwell n’est pas loin.

Une solution permettant de classer les individus uniquement par leurs intonations

AC Global Risk

est une très jeune start-up, créée en 2016, mais qui impose déjà ses solutions dans les plus grandes entreprises de technologie américaines. La petite société développe un outil automatisé, RRA, permettant d’analyser le comportement d’un individu par sa

voix

.

Concrètement, le système génère un questionnaire dont les réponses doivent être « oui » ou « non ». Cet interview d’une dizaine de minutes est mené par téléphone et une

intelligence artificielle

analyse en temps réel les réponses données, mais surtout la manière dont elles sont énoncées.

De cette manière, l’outil peut produire une évaluation selon une grille d’

analyse

précise donnant le niveau de risque d’un individu, qu’il soit un candidat à un entretien d’embauche, mais également un réfugié ou un demandeur d’asile comme l’explique sans gêne le fondateur d’AC Global Risk, Alex Martin : «

RRA est la solution à la monumentale crise des réfugiés que connaissent actuellement les États-Unis et d’autres pays

. ». Donald Trump appréciera.

Une solution très utilisée qui pose un problème éthique

Le magazine en ligne

The Inetrcept

note dans son article la liste des clients actuels de la jeune start-up et ils sont nombreux. Apple, Facebook, Google utilisent déjà le système, possiblement dans les phases de recrutement de leurs employés. L’Armée américaine est également citée comme l’un de ses clients, notamment dans le déroulement des opérations militaires en Afghanistan.

Pourtant le système, présenté comme infaillible par AC Global Risk suscite de nombreux commentaires des chercheurs en sécurité et experts en analyse vocale. «

Il y a des informations dans les changements dynamiques de la voix et cet outil les détecte

», explique Alex Todorov, psychologue de l’Université de Princeton qui étudie la science de la perception sociale et des premières impressions, en ajoutant toutefois que «

la question est de savoir dans quelle mesure ces informations permettent de détecter sans ambiguïté la catégorie de personnes qu’elles définissent comme risquées. Il y a toujours de l’ambiguïté dans ce type de signaux

».

AC Global Risk ne fait aucun commentaire et refuse d’expliquer comment fonctionne sa technologie de

reconnaissance vocale

et d’analyse, Alex Martin ne communiquant que sur le chiffre de 97% d’exactitude dans les évaluations données.

À une époque où les usages de l’intelligence artificielle sont toujours plus importants, l’existence d’un tel système va relancer les débats autour de l’

éthique

à donner à l’utilisation des

algorithmes

par les entreprises et les pouvoirs publics.

source : Clubic.com December 5, 2018 at 11:46AM