Entrevista con Gemma G. Clavell, CEO y fundadora de "Eticas Research and Consulting": "La posibilidad de evaluar estados de ánimo, experiencias o encaje para un trabajo en base a rasgos faciales es una pseudociencia peligrosa".



¿Creéis, tal y como afirma William Isaac, que a menudo la IA perpetúa los sesgos de los humanos en cuyas opiniones se entrenó?

Absolutamente, y lo hemos constatado en múltiples contextos. La IA incorpora y reproduce los sesgos del mundo real. Además, cuando se desarrolla un sistema de IA es muy fácil caer en los sesgos y en realidades en los que vive el equipo que lo diseña. Si a los algoritmos los entrenas con datos sesgados, no representativos o que, directamente, discriminan a grupos poblacionales (mujeres embarazadas, mayores de 50, desempleados de larga duración...puede ser cualquiera), perpetuarán los sesgos de la realidad que queremos evitar. 


¿Cómo podemos intentar solucionar esta problemática?

Por eso, es importante establecer controles externos como la auditoría de algoritmos, y garantizar que los principios éticos y jurídicos se reflejan en los sistemas de IA que toman decisiones sobre todos nosotros. Gracias a estas auditorías se hace la IA más transparente,explicable y eficaz, aplicando las garantías que ya exigen leyes como la GDPR a la vez que se fomenta la responsabilidad social de las empresas en el desarrollo y uso de algoritmos, y se mejora su experiencia y resultados con la tecnología.


¿Cómo se traduce esta problemática al sector de las video entrevistas, en el que la IA ya está evaluando a los candidatos para puestos de trabajo?

Aunque hay varias empresas ofreciendo IA de reconocimiento de emociones para evaluar a candidatos a un puesto de trabajo, conocemos pocos casos de uso práctico. Básicamente porque la posibilidad de evaluar estados de ánimo, experiencias o encaje para un trabajo en base a rasgos faciales es una pseudociencia peligrosa. Las expresiones faciales están vinculadas con el entorno cultural, temas físicos e incluso neuronales, con lo que todos los estudios han concluido la no idoneidad de valorar a personas en base a sus rasgos faciales o gestos. En realidad, los resultados de estas IAs equivalen a tirar una moneda al aire, esa es su fiabilidad.Además de discriminar a personas de otras culturas, neurodivergentes, etc. 


¿Sois optimistas respecto al futuro de la IA? ¿hay solución a estas problemáticas éticas que están surgiendo?

Somos optimistas sobre el futuro de la IA porque nosotros mismos hemos desarrollado una solución que funciona. Eticas Consulting realiza, desde 2017, auditorías algorítmicas para empresas y administraciones públicas de todo el mundo, que se ha traducido en una metodología publicada para que cualquiera pueda aplicarla. Necesitamos concienciar tanto a compañías y Administraciones Públicas como a la ciudadanía de sus derechos y las herramientas que tienen en su mano para exigir que se cumplan.Es precisamente nuestro optimismo sobre los potenciales impactos positivos de la IA lo que nos lleva a trabajar con ahínco para abordar las malas prácticas que observamos.



Gemma Galdon Clavell, es analista de políticas públicas especializada en el impacto social, legal y ético de las tecnologías intensivas en datos personales y en la auditoría de algoritmos. Fundadora y directora de Eticas Research and Consulting, fue finalista del Premio de la UE a las mujeres innovadoras 2017 y ha sido investigadora principal en más de 10 grandes proyectos de I+D.