Analyse d’images et Éthique avec DatakaLab

Pour écouter ce 1er podcast c’est par 👉 ici

 

Le 28 janvier, nous avons reçu Xavier Fischer, le CEO de DatakaLab, startup qui détecte le port du masque pour la RATP. Le sujet : l’éthique autour de l’analyse d’images. Stéphanie Hammett, responsable communication chez HR Team, a posé quelques questions à Xavier Fischer. Pour ce 1er podcast, il répond à la question suivante : « Selon toi, est-ce que tout est analysable et/ou quantifiable d’un point de vue éthique ? En Suède par exemple, un collège a utilisé un dispositif similaire au vôtre, dans le but de contrôler l’assiduité des élèves. »

 

Voici sa réponse :

« Avec mon équipe on s’est toujours dit qu’on ne voulait pas dépasser certaines limites et c’est pour cela que l’on réalise de l’analyse statistique uniquement. Si on fait partie d’un groupe et qu’on réalise une analyse sur 100 personnes, ce n’est pas de la donnée qui concerne une personne en particulier. En revanche, si l’on remonte des données sur chacun des élèves, ça devient plus problématique dans le sens où c’est de la donnée personnelle ; il faut alors le consentement de chacun. Des algorithmes d’analyses d’images peuvent comprendre et détecter pas mal de choses sur les individus. Donc nous ce qu’on s’est dit dès le démarrage, c’est de faire de la statistique uniquement. D’où la création de cette notion de « batch » qui nous permet de renvoyer de la donnée toutes les 15 minutes sur un groupe d’individus. C’est vraiment comme cela que l’on voit les choses chez DatakaLab.

Je vais vous donner un exemple avec Uber. Ils ont développé une technologie de détection de masque qu’ils ont inséré dans leur application pour vérifier que les chauffeurs portaient bien leurs masques avant de démarrer la course. Je ne suis pas forcément pour, pourquoi ? C’est de la donnée individuelle. Et tout ce que l’on fait n’est pas une science exacte encore. On teste des niveaux de précisions pour avoir des algorithmes qui fonctionnent bien sur tous types de personnes, il y a toutes les problématiques d’algorithmes racistes sur lesquelles on travaille en permanence, etc. Mais ce ne sont pas des sujets simples, il n’y a pas de réponses claires, nettes et précises. Et donc prétendre mettre dans nos vies un algorithme qui va changer la vie d’un individu, c’est trop tôt pour nous. C’est pour ça qu’on essaie de faire de la statistique et de la statistique uniquement. »