AUTOMATIZAR LA ESTAFA
Va sabemos que los algoritmos pueden ser racistas, sexistas y clasistas. Pero cuando se descubre que uno de esos conjuntos de instrucciones diseñados por las grandes empresas tecnológicas para agilizar los departamentos de recursos humanos o facilitar el trabajo de policías y jueces suscita la contratación de solo hombres para puestos directivos o la detención de más afroamericanos que blancos, sus responsables: cuando entrenas al algoritmo con ejemplos del pasado, este aprende a repetir los errores del pasado, desgraciadamente con mucha más eficiencia. Es lo que llaman . Todavía peor, esta ocurre dentro de una caja negra protegida por la propiedad intelectual y el secreto industrial. No podemos saber si el error es genuino o deliberado. Si no vemos el código, no sabemos cuál es su intención. Eso también tiene un nombre: , esto es, blanqueado matemático.
Estás leyendo una previsualización, suscríbete para leer más.
Comienza tus 30 días gratuitos