Descubre este podcast y mucho más

Los podcasts se pueden disfrutar de forma gratuita sin necesidad de una suscripción. También ofrecemos libros electrónicos, audiolibros y mucho más por solo $11.99 al mes.

Episodio 2x14: La IA tiene que ir a clase de filosofía

Episodio 2x14: La IA tiene que ir a clase de filosofía

DeProyecto para una inteligencia. Conversaciones desde el Panóptico


Episodio 2x14: La IA tiene que ir a clase de filosofía

DeProyecto para una inteligencia. Conversaciones desde el Panóptico

valoraciones:
Longitud:
18 minutos
Publicado:
15 abr 2024
Formato:
Episodio de podcast

Descripción

“El avance de la Inteligencia Artificial en nuestra vida ha dado una relevancia a la Filosofía inédita hasta el momento. No cabe duda que los últimos desarrollos tecnológicos vinculados con la IA han generado una preocupación sobre cuál debe ser su encaje en nuestras vidas”.

Una de las ventajas de aplicar determinados algoritmos de inteligencia artificial para la generación de conceptos es que el sistema tiende a detectar patrones y luego aplicarlos sobre un mar de datos, con el objetivo de predecir y conseguir nuevos contenidos. Detectar patrones es un aspecto clave de este proceso de IA.

Hay que entrenar a la máquina para que vaya aprendiendo, primero en una fase supervisada por humanos y, posteriormente, con un modelo de aprendizaje autosupervisado, dada la ingente cantidad de información a digerir. A partir de aquí, este sistema de inteligencia artificial tendría que ser capaz de generar
abundantes propuestas de conceptos. Un ejemplo, el programa Lavender se utiliza para identificar a terroristas, pero no sabemos lo que entiende por terrorista. En el caso del ataque al convoy del chef José Andrés, han declarado
que fue un error de identificación. El peligro no es la IA sino la inteligencia humana que es la que en este caso ha utilizado el programa Lavender.
En 2018 el Parlamento Europeo promulgó un reglamento sobre la IA que se ha denominado “derecho a la explicación”.

El derecho a la explicación se refiere al derecho del usuario a conocer cómo funciona un sistema de IA y cómo llega a sus conclusiones. Este derecho implica que las decisiones tomadas por sistemas automatizados deben ser transparentes y comprensibles para los usuarios​. O sea, hay que introducir en la IA un nivel autocrítico.

Conclusión: La única forma de aliviar nuestra vulnerabilidad es desarrollando nuestro pensamiento crítico.
Publicado:
15 abr 2024
Formato:
Episodio de podcast

Títulos en esta serie (23)

Con este podcast inicio un nuevo modo de comunicación. Un intento de responder a la pregunta: ¿quién piensa cuando yo pienso?, es decir, de investigar cómo trabaja la inteligencia humana y la memoria. En “Proyecto para una inteligencia” hablo de una inteligencia resuelta que es aquella que nos ayuda a encontrar soluciones y poder tomar decisiones con decisión, características básicas de la inteligencia, que es una mezcla de conocimiento y valor.