Analisis de imagenes y los Estados Unidos con Datakalab
document.write(‘‹ Retour‘);

Puede escuchar este segundo podcast acquí

El 28 de enero, recibimos a Xavier Fischer, consejero delegado de Datakalab, la startup que detecta el uso de mascarillas para la RATP. El tema: la ética en el análisis de imágenes. Stéphanie Hammett, responsable de comunicación en HR Team, le ha hecho algunas preguntas a Xavier Fischer. En este segundo podcast, Xavier responde a la siguiente pregunta: «En Estados Unidos, la tecnología de reconocimiento facial se utiliza en el marco legal federal. En el interior de la Unión Europea, el RGPD permite enmarcar su utilización. ¿Cuál es tu posición sobre el RGPD?» ¡Descubre cada semana un nuevo podcast extraído del evento!

«En Estados Unidos, por ejemplo, la tecnología de reconocimiento facial se utiliza para diferentes servicios de policía e incluso en servicios de seguridad privada sin marco legal ni federal. En Europa está el RGPD, que permite enmarcar sus usos. ¿Cuál es tu posición respecto al RGPD? ¿Crees que es algo bueno, o que plantea complejidades desde el punto de vista de la comercialización empresarial?

Voy a ser totalmente sincero, es algo complicado. Voy a responder como fundador de Datakalab y al mismo tiempo como ciudadano; son dos puntos de vista bastante diferentes. Antes de crear esta empresa, trabajaba en Silicon Valley para una empresa norteamericana. Me daba bastante miedo lo que hacían, se trataba de la detección de rostros y de comprender el nivel de atención de los individuos. Yo no conocía para nada el sector y me dije, «qué increíble, tengo ganas de ir a ver qué pasa», justo para comprender y para ver cómo va a avanzar el mundo. Así que empecé así cuando estaba haciendo prácticas después de terminar los estudios en esa empresa. Y cuando compraron esa empresa, me dije, «es momento de crear algo», precisamente para intentar crear una solución que cumpliese todas esas reglas. ¡El objetivo no es hacer lo que sea!

Volviendo a la pregunta sobre Estados Unidos, están empezando a prohibir cada vez más el reconocimiento facial. Cuando hablamos de «reconocimiento facial», la gente lo confunde a veces con «análisis de imágenes». El reconocimiento facial está prohibido, el análisis estadístico todavía no. Es necesario empezar a hablar del lugar que ocuparán estos usos en nuestras vidas futuras.

Para volver a la pregunta del RGPD, como ciudadano estoy completamente a favor, ya que esto impide desvíos, crea normas y se está obligado a cumplirlas. Como fundador de una empresa, es complicado. Para que vean la trastienda: el marzo pasado, como todo el mundo, nos sorprendió la crisis sanitaria. Dijimos, vamos a desarrollar un producto para analizar el uso de mascarillas y que eso sería útil, ya que permitiría tranquilizar a la gente sobre el buen uso de la mascarilla para continuar utilizando los transportes y también para gestionar las existencias de mascarillas. No hay que olvidar que al principio de la crisis, el problema era que no teníamos suficientes mascarillas para todo el mundo. Por tanto, al informar de que había más mascarillas en París que en Cannes, nos decíamos que íbamos a ayudar a gestionar las existencias de mascarillas para distribuir más en Cannes, por ejemplo. Así que creamos este producto, trabajábamos 20 horas al día, todo el equipo no trabajaba más que en eso, etc. Después fuimos a ver a la CNIL y nos dicen que les encanta lo que hemos hecho pero que el derecho de oposición no se respetaba totalmente. Fue en junio/julio, así que dejamos de vende prestaciones a nuestros clientes porque queremos que las cosas progresen legalmente, no queremos vender un producto que no respeta nuestros valores.

Hoy en día hay muchas otras empresas que hacen análisis de imágenes, pero la CNIL todavía no se ha pronunciado, lo que bloquea a todos los agentes del análisis de imágenes. El problema del derecho de oposición no es único de Datakalab, es un problema para cualquiera que desarrolle algoritmos. ¿Cómo se garantiza que la persona que aparece en nuestra cámara se opone a hacerlo? La única forma de detectar ese derecho de oposición es tratar la imagen de la persona que pasa, y por tanto, tener un algoritmo. Lo que nos ha dicho la CNIL es que a partir del momento en que se vea una parte del cuerpo entrar en el campo de visión de la cámara, no se trata de un derecho de oposición sino de supresión Así, el asunto aquí es que la tecnología se desarrolla a mayor velocidad que la ley y a veces sí, resulta duro para una empresa.

Además de eso, buscamos continuar autofinanciándonos durante el máximo tiempo, porque trabajamos en temas bastante delicados (cámaras, algoritmos, etc.). Por este motivo, no tenemos necesariamente ganas de abrir nuestro capital, para evitar tener presión financiera. El objetivo consiste a menudo en encontrar la rentabilidad a 5 o 7 años para poder revender la empresa. Y tampoco queremos mezclar rendimiento financiero, ética y todos los temas de los que acabo de hablar».