Analisis de imagenes et etica con DatakaLab
document.write(‘‹ Retour‘);

Puede escuchar este primer podcast 👉 aquí

 

El 28 de enero, recibimos a Xavier Fischer, consejero delegado de DatakaLab, la startup que detecta el uso de mascarillas para la RATP. El tema: la ética en el análisis de imágenes. Stéphanie Hammett, responsable de comunicación en HR Team, le ha hecho algunas preguntas a Xavier Fischer. En este primer podcast, Xavier responde a la siguiente pregunta: «Según tú, ¿todo es analizable y/o cuantificable desde un punto de vista ético? En Suecia, por ejemplo, un colegio ha utilizado un dispositivo similar al vuestro con el fin de controlar la asistencia de los alumnos.»

 

He aquí su respuesta:

«En mi equipo siempre hemos dicho que nno queríamos sobrepasar ciertos límites, razón por la que solo realizamos análisis estadístico. Si se forma parte de un grupo y se realiza un análisis sobre 100 personas, no se trata de un dato que ataña a una persona en concreto. Por el contrario, si subimos datos de cada uno de los alumnos, esto ya es más problemático desde la perspectiva de los datos personales; en ese caso, es necesario el consentimiento de cada uno. Los algoritmos de análisis de imágenes pueden entender y detectar no poca cantidad de cosas en los individuos. Así que lo que nosotros nos hemos dicho desde el principio es limitarnos únicamente a la estadística. De ahí la creación de esta noción de «batch» (lote) que nos permite enviar datos cada 15 minutos sobre un grupo de individuos. Así es como vemos realmente las cosas en DatakaLab.

Voy a daros un ejemplo con Uber. Han desarrollado una tecnología de detección de mascarillas que han insertado en su aplicación para verificar que los conductores lleven las mascarillas antes de empezar el trayecto. No entiendo muy bien por qué. Se trata de un dato individual. Y todo lo que hacemos todavía no es una ciencia exacta. Probamos niveles de precisiones para tener algoritmos que funcionen bien con todo tipo de personas, hay todo tipo de problemáticas con algoritmos racistas en las que trabajamos continuamente, etc. Pero no se trata de asuntos sencillos, no hay respuestas claras, limpias y precisas. Así que intentar meter en nuestras vidas un algoritmo que va a cambiar la vida de un individuo, eso es demasiado para nosotros. Por eso intentamos dedicarnos a la estadística y únicamente a la estadística.»