La IA de los sistemas de reconocimiento facial tienen un problema racial: discriminación de razas por falta de muestras

La IA de los sistemas de reconocimiento facial tienen un problema racial: discriminación de razas por falta de muestras

1 comentario Facebook Twitter Flipboard E-mail
La IA de los sistemas de reconocimiento facial tienen un problema racial: discriminación de razas por falta de muestras

Hubo un tiempo en el que los sistemas de reconocimiento biométricos formaban parte de los augurios de la ciencia ficción pero, hoy en día, conviven con nosotros dentro de dispositivos tan comunes, como el teléfono móvil. Algunos de estos sistemas, como el reconocimiento facial, basan su funcionamiento en la inteligencia artificial y sus algoritmos.

Pero a pesar de los avances en el uso de la IA y su aprendizaje en la aplicación de algoritmos, este tema no se libra de la polémica. Hemos escuchado recientemente casos en los que estos algoritmos han favorecido o afectado a ciertos grupos de la población, y ahora, un nuevo estudio vuelve a revelar que en el caso del reconocimiento facial, sigue habiendo grupos claramente discriminados.

El claro sesgo del algoritmo

El estudio lo ha llevado a cabo el equipo de la investigadora Joy Buolamwini, del centro de investigación MIT Media Lab. En él muestra cómo el sistema de reconocimiento facial falla considerablemente cuando los grupos de individuos son distintos a los pertenecientes a varón de raza caucásica.

El estudio puso a prueba tres softwares de reconocimiento distintos: el de Microsoft, el de IBM y Face ++ de Megvii, el más utilizado en China para sistemas de pagos móviles. Los resultados de las pruebas dejaron en evidencia el sesgo existente en este tipo de sistemas de reconocimiento.

En el caso de las fotografías pertenecientes a hombres blancos, el margen de error fue de un 1%. Esto incrementaba notablemente cuando cambiaron de género, ya que en el caso de las mujeres blancas el porcentaje de error en las muestras aumentó hasta un 7%. Vemos una clara diferencia entre géneros, pero el problema resultó mucho más notable al cambiar de raza.

En el caso de las muestras correspondientes a hombres de piel más oscura, la tasa de error aumentaba hasta un 12%, porcentaje que se dispara en el caso de mujeres de piel oscura, donde los sistemas fallaron un 35% de ocasiones.

El porcentaje de error de los sistemas de reconocimiento facial es de un 1% en el caso de hombres blanco y de un 35% en mujeres de piel oscura

La responsabilidad algorítmica

Está claro que existe un problema con los algoritmos y su sesgo discriminatorio, pero radica en que aunque las inteligencias artificiales aprenden solas, requieren de una serie de datos que serán sobre los que basen su aprendizaje. Claramente, si hay muchos más hombres blancos que mujeres negras en el sistema de datos aportado, tendrán mayores problemas para reconocerlas (los datos revelan que las muestras son de un 75% es masculino y más del 80% blanco, según otro estudio de investigación).

Esto es algo que se está trabajando para mejorar desde asociaciones que promueven la responsabilidad algorítmica, algo que afecta a campos mucho más serios que el simple reconocimiento facial en un teléfono móvil. Investigadores de la Facultad de Derecho de Georgetown, calcularon que que 117 millones de adultos estadounidenses están en redes de reconocimiento facial que son utilizadas por las fuerzas del orden público.

Paradójicamente, los algoritmos de reconocimiento facial perjudican a los hombres afroamericanos en caso de investigación de delitos, debido a la desproporción de fotografías de su segmento que los sistemas de las fuerzas del orden público albergan

En dichas redes (paradójicamente frente a lo que acabamos de ver) los hombres afroamericanos tienen más posibilidades de ser reconocidos como delincuentes por la desproporción en la cantidad de fotografías de su segmento (debido a las tasas de detención desproporcionadamente altas) que albergan estos sistemas.

Por el camino de la igualdad

Como vemos queda mucho camino por pulir para que tecnología e igualdad vayan de la mano (sin señalar que nada de esto se haga intencionadamente) y no se repitan casos como el protagonizado por el algoritmo de la IA de Google que recientemente etiquetó indebidamente a seres humanos como animales.

Hay compañías que están trabajando en esto también, aunque en otros aspectos, como Transsion, un fabricante de teléfonos móviles que cada vez tiene más peso en mercados emergentes y que focalizó esfuerzos en mejorar el funcionamiento de sus cámaras en pieles más oscuras, algo en lo que hasta ahora ningún otro fabricante se había enfocado.

También ciudades como Nueva York están luchando por combatir la discriminación algorítmica creando una ley que regule e incluso permita solicitar revisiones en el caso en que se considere que la aplicación de un algoritmo perjudica, favorezca o discrimine a un ciudadano.

En Xataka Android | Reconocimiento facial en Android: de tecnología olvidada a una alternativa al lector de huellas

Comentarios cerrados
Inicio