La communication vocale pose des questions sur la confidentialité et la sécurité. L’utilisation d’assistants vocaux implique la collecte de données personnelles, ce qui génère à juste titre des préoccupations par rapport aux assistants vocaux. Il est donc essentiel de prendre des mesures appropriées pour protéger nos données et veiller à ce que les dispositifs vocaux respectent les normes de confidentialité.
Des défis à venir
Il n’y a qu’à observer l’épisode de BlackMirror où les données enregistrées par les appareils électroniques sont réutilisées pour créer des mini-séries personnalisées pour comprendre que la confidentialité des informations va jouer un rôle clé dans un proche avenir. Force est de constater que l’interaction vocale est parfois sujette à des erreurs d’interprétation ou à des difficultés de compréhension de la part des assistants vocaux. La reconnaissance vocale n’est pas encore performante et de ce fait génère des malentendus ou des réponses inattendues.
Des escroqueries qui se multiplient
Par ailleurs, les arnaques liées au clonage de voix par l’intelligence artificielle sont en augmentation. Elles représentent une véritable menace pour la sécurité des utilisateurs en France. Selon une étude de McAfee, un quart des Français ont déjà été victimes de ce type d’arnaque, entraînant des pertes financières pour 8 victimes sur 10. Les pirates utilisent des enregistrements audios de quelques secondes pour reproduire une voix identique. Ils trompent ainsi les victimes en imitant des personnes de confiance.
De nombreuses personnes partagent leur voix en ligne. Les escrocs utilisent ce partage et envoient de faux messages vocaux ou des notes audio aux contacts des victimes. Ils prétendent par exemple être en situation de danger pour les inciter à leur envoyer de l’argent.
L’étude de McAfee a ainsi révélé que 73 % des Français estiment ne pas pouvoir faire la distinction entre une vraie voix et une voix clonée, ce qui facilite les escroqueries. Les conséquences financières pour les victimes peuvent être importantes, avec des pertes dépassant 1 000 euros pour 40 % des personnes piégées. Certains ont même perdu entre 5 000 et 15 000 euros. Le clonage de voix ne requiert que quelques secondes d’audio et peu de connaissances informatiques. Par ailleurs, Il existe plus d’une dizaine d’outils gratuits accessibles au grand public permettant de le réaliser.
Les voix générées par intelligence artificielle, un « enjeu juridique »
L’utilisation de l’intelligence artificielle (IA) notamment dans la création musicale représente un enjeu juridique. C’est vrai pour les artistes interprètes et les doubleurs. Les musiques générées par des logiciels d’IA ne sont pas considérées comme des œuvres originales. Cela soulève des questions de droits d’auteur.
Face à cette problématique, la plateforme de streaming Deezer, par exemple, développe des outils pour détecter les contenus créés par l’IA, en particulier les chansons utilisant des voix synthétiques d’artistes, afin de distinguer les créations originales protégées par le droit d’auteur des contenus illégaux et frauduleux. L’IA pose également un problème spécifique en ce qui concerne les voix. Elles sont considérées comme un attribut de la personnalité et de la vie privée. Leur utilisation sans consentement soulève des questions juridiques. En effet, les artistes interprètes et les doubleurs sont protégés par le code de la propriété intellectuelle. Leur crainte, c’est que l’IA soit utilisée pour synthétiser leurs voix sans leur consentement.