LA REVOLUCIÓN QUE ESTÁ CAMBIANDO NUESTRA VIDA
PARTE I
YA NO HAY MORAL
Zemari Ahmadi, de 43 años, prestaba ayuda humanitaria en una ONG en Kabul. El 29 de agosto de 2021 estaba descargando su vagoneta delante de su casa, en un barrio humilde a las afueras de la ciudad afgana, ayudado por nueve miembros de su familia, siete de ellos niños, cuando un dron del ejército norteamericano les disparó un misil. Todos murieron. Nadie fue castigado por el “terrible error”, tal y como fue descrito por el alto mando a cargo de la operación. Según explicaron a la prensa los militares, teniendo en cuenta los datos de que disponían en ese momento, fue “razonable” concluir que ese vehículo estaba ocupado por terroristas. La posterior investigación de las Fuerzas Aéreas de EUA determinó que no hubo por su parte “violación de la ley, negligencia o incumplimiento del deber”. La decisión fue tomada con base en un programa de inteligencia artificial que apuntó que había una “certeza razonable” de que aquel era su objetivo. Y, claro, no pueden pedirse explicaciones a unos algoritmos, ¿o sí?
Margen de error
“Cuando dejamos las decisiones en manos de programas de deep learning y algo sale mal, es imposible saber en qué punto del proceso está en problema. El deep learning funciona con base en pura estadística e inmensas cantidades de datos y no permite conocer desde fuera cuáles han sido las razones ni los pasos empleados para tomar una decisión”, explica a Muy Interesante el programador Justo Rivera. Es lo mismo que ha ocurrido en los accidentes fatales que ha habido con vehículos Tesla. “Los coches autónomos están entrenados para responder a una serie de circunstancias más o menos habituales, pero cuando tiene lugar un edge case -una situación con muy pocas probabilidades de suceder-pueden actuar de cualquier manera. Igual de pronto da un volantazo y atropella a un peatón o se estrella contra un árbol, como ya ha pasado”, añade.
Aunque hay técnicas de inteligencia artificial (IA) en las que es-, más sofisticadas, no pueden explicar por qué actúan de una forma y no de otra. Están formadas por métodos matemáticos que se entrenan para que aprendan por sí mismos. A veces, incluso, se autoentrenan. Esa es la razón por la que los resultados pueden ser impredecibles. Según nos explica Rivera, “la IA se programa con un objetivo –como puede ser eliminar a terroristas del ISIS–, pero es una tecnología que no entiende de ética ni sabe discernir cuándo los medios no justifican el fin”. Algo así como una especie de Maquiavelo informático que carece de sentido común y capacidad para adaptarse a diferentes contextos.