On vante souvent le fait que les algorithmes seraient salvateurs pour les entreprises notamment car ils permettraient de gagner énormément de temps en automatisant de nombreuses tâches. Leur utilisation est à double tranchant comme nous le montre ce qui vient d’arriver à Facebook et certains soulignent déjà les risques qu’ils peuvent faire peser sur les entreprises et plus globalement sur notre société.
Le cas de Facebook : un exemple frappant
En l’occurrence, l’affaire est marquante : Facebook met en place un algorithme de recommandation de vidéos à la fin des vidéos. Or ici, l’algorithme a confondu des personnes noires … avec des singes en demandant aux lecteurs de la vidéo s’ils voulaient voir « d’autres vidéos sur les primates ». La vidéo en question était celle du Daily Mail, datant de plus d’un an, intitulée « un homme blanc appelle les flics contre des hommes noirs à la marina ». Bien entendu, si cette erreur a fait polémique c’est parce qu’elle ne montrait que des personnes et non des singes.
Nous nous doutons bien de la suite avec une réaction rapide du groupe qui a immédiatement présenté ses excuses en admettant qu’il s’agissait d’une « erreur inacceptable » qui avait pour origine le système d’intelligence artificielle selon le porte-parole de Facebook, sollicitée par l’AFP. En détail la réponse de Facebook a été « Nous présentons nos excuses à quiconque a vu ces recommandations insultantes. ». Facebook a désactivé l’outil de recommandation dès que les équipes sont « aperçues de ce qui se passait afin d’enquêter sur les causes du problème et empêcher que cela ne se reproduise. ».
Des exemples nombreux de limites
Si on peut se dire que l’intelligence artificielle n’en est qu’à ses débuts et devrait progresser dans l’avenir, il faut bien constater qu’elle est donc encore loin d’être au point. Si elle a souvent fait polémique pour la modération puisqu’elle servait surtout à identifier et bloquer des messages/images en amont, force est de constater que plusieurs problèmes sous-jacents sont encore à résoudre.
Ce ne sont pas les seuls domaines. Ainsi un robot de Singapour qui servait à faire respecter la distanciation sociale a connu les mêmes limites. Celui-ci se promenait dans la ville pour rappeler aux habitants de respecter celle-ci et a commis des erreurs.
D’autres l’utilisent par exemple lors de la présélection de CV. L’intelligence artificielle trie les cv en fonction des anciennes candidatures qui ont donné de bons résultats et se targuent d’un tri objectif mais la question peut se poser de l’exclusion de certains profils en fonction d’anciennes données par exemple.
Les limites de l’intelligence artificielle en cause
Si l’intelligence artificielle fait polémique c’est d’abord parce qu’elle est de plus en plus présente dans de nombreuses activités de notre quotidien. Elle s’utilisent ainsi dans les voitures autonomes, de nombreux objets connectés, tous les assistants intelligents comme Siri ou encore comme appui dans le secteur médical.
Certains n’hésitent pas à dénoncer le fait que l’intelligence artificielle pourrait à l’avenir prendre une part sur la morale, nommée l’IA forte. Nous en sommes relativement loin car pour définir ses concepts, il faudrait déjà que les êtres humains puissent expliquer leurs sentiments comme l’amour ou la compassion.
Finalement aujourd’hui, tout ce que peut faire une machine c’est d’identifier et de réagir à une tâche déjà prévue et encadrée. Elles n’ont pas une expérience subjective, ni ne dépasse ce pour quoi elles sont prévues. Si elle ne reconnaît pas une situation, elle ne réagira pas et ne pourra le faire selon la gravité de la situation ou d’autres éléments subjectifs comme la détresse ou le danger.
Elle ne prend donc aucune initiative ou le fera en fonction d’éléments qui ne sont pas forcément ceux de l’être humain. Ainsi en cas d’accident de voitures, l’algorithme aura tendance à privilégier le nombre de vies sauvées plus que d’autres comme l’âge. Une situation qui nous rappelle le film i-robot où la complexité d’une situation à prendre en compte (on se rappellera que la machine privilégie de sauver un homme en fonction de son pourcentage de survie par rapport à un enfant).
Des risques réels pour la démocratie
Si le sujet intrigue, il est encore peu connu et, selon un sondage IFOP, la majorité des français ne connaissent pas les tenants et les aboutissants. Ce nouveau domaine est encore tout neuf mais, il faut bien le souligner, les enjeux sont colossaux.
D’abord car l’IA à surveiller les individus et peuvent vite faire l’objet de fuites ou encore d’utilisations abusives. Ensuite, parce que d’un point de vue technique, les diagnostics sont encore loin d’être fiables, car les données disponibles ne sont pas encore en assez grande quantité. Autre souci, les données statistiques ne prennent pas en compte parfois l’originalité d’une situation comme le coronavirus, ce qui peut expliquer que certains la critiquent vivement.