Hoy es un sistema de inteligencia artificial el que decide si usted puede optar a un crédito o no, es el que ordena la compra o venta de sus valores en Bolsa y mañana decidirá sobre su salud o si su caso es o no es operable.
Sin llegar a estas decisiones importantes, la inteligencia artificial le ayudará a elegir gafas, ropa, qué seguro le conviene, cuál es la mejor ruta para llegar al restaurante en el que han quedado para cenar..., y también es la encargada de analizar rostros, imágenes, matrículas, calificarle como sospechoso o dejarle entrar en un recinto.
Muchas de estas decisiones que, en principio, deberían ser neutras no lo son. Están determinadas por los mismos sesgos que nos condicionan a los humanos. Porque, en definitiva, la inteligencia artificial no se autoprograma ni se autoenseña.
Ella, la inteligencia artificial, no tiene la culpa de sus fallos. La tenemos los humanos, que, queriendo o sin querer, le hemos trasladado nuestros propios prejuicios tanto en la selección de datos con la que la alimentamos como con los algoritmos con los que funciona. Conocemos multitud de casos de discriminación que se han hecho famosos que se debieron a fallos de los sistemas de inteligencia artificial. Aunque siendo puristas, como dice Xabi Uribe-Etxebarria, creador y CEO de Sherpa, «la inteligencia artificial, en sí, no tiene sesgos. Los sesgos los tienen los datos».
Uno de los ejemplos de sesgo más habituales es el traductor de Google. Si se le pide que traduzca nurse del inglés al castellano, el resultado será «enfermera», no «enfermero», y cuando traduce, será «doctor», pero no «doctora». El documental, de Netflix, cuenta que una investigadora negra del MIT tuvo que ponerse una máscara blanca para que el sistema de reconocimiento facial la aceptase.