Descubre millones de libros electrónicos, audiolibros y mucho más con una prueba gratuita

Solo $11.99/mes después de la prueba. Puedes cancelar en cualquier momento.

Inteligencia artificial: la cuarta revolución industrial
Inteligencia artificial: la cuarta revolución industrial
Inteligencia artificial: la cuarta revolución industrial
Libro electrónico495 páginas13 horas

Inteligencia artificial: la cuarta revolución industrial

Calificación: 0 de 5 estrellas

()

Leer la vista previa

Información de este libro electrónico

La Cuarta Revolución Industrial representa un cambio fundamental en la forma en que vivimos, trabajamos y nos relacionamos unos con otros. Es un nuevo capítulo en el desarrollo humano, habilitado por avances tecnológicos extraordinarios en proporción con los de la primera, segunda y tercera revoluciones industriales. Estos avances están fusionando los mundos físico, digital y biológico de manera que crean tanto una gran promesa como un peligro potencial. La velocidad, amplitud y profundidad de esta revolución nos obliga a repensar cómo se desarrollan los países, cómo las organizaciones crean valor e incluso lo que significa ser humano. La inteligencia artificial hoy en día se conoce adecuadamente como IA estrecha (o IA débil), ya que está diseñada para realizar una tarea estrecha (por ejemplo, solo reconocimiento facial o solo búsquedas en Internet o solo conducir un automóvil). Sin embargo, el objetivo a largo plazo de muchos investigadores es crear IA general (AGI o IA fuerte). Si bien la IA estrecha puede superar a los humanos en cualquier tarea específica, como jugar al ajedrez o resolver ecuaciones, el AGI superaría a los humanos en casi todas las tareas cognitivas.
Authors: Vasil Teigens, Peter Skalfist, Daniel Mikelsten

IdiomaEspañol
Fecha de lanzamiento15 sept 2020
ISBN9781005701819
Inteligencia artificial: la cuarta revolución industrial
Autor

Vasil Teigens

Vasil Teigens, is the pen name of a history and science author that aims to organize and collect technical, historical and scientific information.The student or the scientist, will be able to satisfy his needs of consultation and of study, by means of a work supported by abundant number of sources and bibliographical references.

Autores relacionados

Relacionado con Inteligencia artificial

Libros electrónicos relacionados

Inteligencia (IA) y semántica para usted

Ver más

Artículos relacionados

Comentarios para Inteligencia artificial

Calificación: 0 de 5 estrellas
0 calificaciones

0 clasificaciones0 comentarios

¿Qué te pareció?

Toca para calificar

Los comentarios deben tener al menos 10 palabras

    Vista previa del libro

    Inteligencia artificial - Vasil Teigens

    Introducción

    La Cuarta Revolución Industrial representa un cambio fundamental en la forma en que vivimos, trabajamos y nos relacionamos unos con otros. Es un nuevo capítulo en el desarrollo humano, habilitado por avances tecnológicos extraordinarios en proporción con los de la primera, segunda y tercera revoluciones industriales. Estos avances están fusionando los mundos físico, digital y biológico de manera que crean tanto una gran promesa como un peligro potencial. La velocidad, amplitud y profundidad de esta revolución nos obliga a repensar cómo se desarrollan los países, cómo las organizaciones crean valor e incluso lo que significa ser humano.

    Desde SIRI hasta autos autónomos, la inteligencia artificial (IA) está progresando rápidamente. Si bien la ciencia ficción a menudo retrata a la IA como robots con características similares a las humanas, la IA puede abarcar cualquier cosa, desde los algoritmos de búsqueda de Google hasta el Watson de IBM y las armas autónomas.

    La inteligencia artificial hoy en día se conoce adecuadamente como IA estrecha (o IA débil), ya que está diseñada para realizar una tarea estrecha (por ejemplo, solo reconocimiento facial o solo búsquedas en Internet o solo conducir un automóvil). Sin embargo, el objetivo a largo plazo de muchos investigadores es crear IA general (AGI o IA fuerte). Si bien la IA estrecha puede superar a los humanos en cualquier tarea específica, como jugar al ajedrez o resolver ecuaciones, el AGI superaría a los humanos en casi todas las tareas cognitivas.

    La Cuarta Revolución Industrial es más que un simple cambio impulsado por la tecnología; Es una oportunidad para ayudar a todos, incluidos los líderes, los responsables políticos y las personas de todos los grupos de ingresos y naciones, a aprovechar las tecnologías convergentes para crear un futuro inclusivo y centrado en el ser humano. La verdadera oportunidad es mirar más allá de la tecnología y encontrar formas de dar a la mayor cantidad de personas la capacidad de impactar positivamente a sus familias, organizaciones y comunidades.

    Inteligencia artificial general

    La inteligencia general artificial (AGI) es la inteligencia de una máquina que puede comprender o aprender cualquier tarea intelectual que un ser humano puede. Es un objetivo principal de algunas investigaciones de inteligencia artificial y un tema común en los estudios de ciencia ficción y futuros. AGI también se puede denominar IA fuerte, IA completa o acción inteligente general. (Algunas fuentes académicas reservan el término IA fuerte para máquinas que pueden experimentar la conciencia). Algunas autoridades enfatizan una distinción entre IA fuerte y IA aplicada (también llamada IA ​​estrecha o IA débil): el uso de software para estudiar o realizar tareas específicas de resolución de problemas o razonamiento. La IA débil, en contraste con la IA fuerte, no intenta realizar el rango completo de habilidades cognitivas humanas.

    Se han propuesto varios criterios para la inteligencia (la más famosa es la prueba de Turing), pero hasta la fecha, no existe una definición que satisfaga a todos. Sin embargo, existe un amplio acuerdo entre los investigadores de inteligencia artificial en que se requiere inteligencia para hacer lo siguiente:

    Razonar, usar estrategias, resolver acertijos y hacer juicios bajo incertidumbre;

    Representar el conocimiento, incluido el conocimiento de sentido común;

    Plan;

    Aprender;

    Comunicarse en lenguaje natural;

    E integrar todas estas habilidades hacia objetivos comunes.

    Otras capacidades importantes incluyen la capacidad de sentir (por ejemplo, ver) y la capacidad de actuar (por ejemplo, mover y manipular objetos) en el mundo donde se observa el comportamiento inteligente. Esto incluiría la capacidad de detectar y responder al peligro. Muchos enfoques interdisciplinarios de la inteligencia (por ejemplo, ciencia cognitiva, inteligencia computacional y toma de decisiones) tienden a enfatizar la necesidad de considerar rasgos adicionales como la imaginación (tomada como la capacidad de formar imágenes y conceptos mentales que no fueron programados) y la autonomía. existen sistemas que exhiben muchas de estas capacidades (por ejemplo, vea creatividad computacional, razonamiento automatizado, sistema de soporte de decisiones, robot, computación evolutiva, agente inteligente), pero aún no a nivel humano.

    Pruebas para confirmar AGI a nivel humano

    La prueba de Turing (Turing) Una máquina y un ser humano conversan sin ser vistos con un segundo ser humano, quien debe evaluar cuál de los dos es la máquina, que pasa la prueba si puede engañar al evaluador una fracción significativa del tiempo. Nota: Turing no prescribe lo que debería calificarse como inteligencia, solo que saber que es una máquina debería descalificarlo. La prueba del café (Wozniak) Se requiere una máquina para ingresar a un hogar estadounidense promedio y descubrir cómo hacer café: encuentre la máquina de café, encuentre el café, agregue agua, encuentre una taza y prepare el café presionando los botones correspondientes. La prueba de Robot College Student (Goertzel) Una máquina se inscribe en una universidad, toma y pasa las mismas clases que los humanos, y obtiene un título. La prueba de empleo (Nilsson) Una máquina realiza un trabajo económicamente importante, al menos tan bien como los humanos en el mismo trabajo.

    IQ-tests AGI

    Los investigadores chinos Feng Liu, Yong Shi y Ying Liu realizaron pruebas de inteligencia en el verano de 2017 con IA débil de acceso público y de libre acceso, como Google AI o Siri de Apple y otras. Como máximo, estos AI alcanzaron un valor de aproximadamente 47, que corresponde aproximadamente a un niño de seis años en primer grado. Un adulto llega a unos 100 en promedio. En 2014, se llevaron a cabo pruebas similares en las que la IA alcanzó un valor máximo de 27.

    Problemas que requieren AGI para resolver

    Los problemas más difíciles para las computadoras se conocen informalmente como AI-complete o AI-hard, lo que implica que resolverlos es equivalente a la aptitud general de la inteligencia humana, o IA fuerte, más allá de las capacidades de un algoritmo específico.

    Se supone que los problemas completos de AI incluyen visión general por computadora, comprensión del lenguaje natural y manejo de circunstancias inesperadas mientras se resuelve cualquier problema del mundo real.

    Los problemas de IA completa no se pueden resolver solo con la tecnología informática actual, y también requieren computación humana. Esta propiedad podría ser útil, por ejemplo, para evaluar la presencia de humanos, como lo hacen los CAPTCHA; y para la seguridad informática para repeler los ataques de fuerza bruta.

    Investigación AGI

    IA clásica

    La investigación moderna de IA comenzó a mediados de la década de 1950. La primera generación de investigadores de IA estaba convencida de que la inteligencia general artificial era posible y que existiría en solo unas pocas décadas. Como el pionero de la IA Herbert A. Simon escribió en 1965: las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer. Sus predicciones fueron la inspiración para el personaje HAL 9000 de Stanley Kubrick y Arthur C. Clarke, que encarnaba lo que los investigadores de IA creían que podrían crear para el año 2001. El pionero de la IA Marvin Minsky fue un consultor en el proyecto de hacer que HAL 9000 sea lo más realista posible según el predicciones consensuadas de la época; Crevier lo cita diciendo que había dicho sobre el tema en 1967: Dentro de una generación... el problema de crear 'inteligencia artificial' se resolverá sustancialmente, aunque Minsky afirma que fue citado erróneamente.

    Sin embargo, a principios de la década de 1970, se hizo evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. Las agencias de financiación se volvieron escépticas de AGI y pusieron a los investigadores bajo una presión creciente para producir IA aplicada útil. Cuando comenzó la década de 1980, el Proyecto Informático de Quinta Generación de Japón revivió el interés en AGI, estableciendo un cronograma de diez años que incluía objetivos AGI como mantener una conversación informal. En respuesta a esto y al éxito de los sistemas expertos, tanto la industria como el gobierno volvieron a poner dinero en el campo. Sin embargo, la confianza en la inteligencia artificial colapsó espectacularmente a fines de la década de 1980, y los objetivos del Proyecto de Computación de Quinta Generación nunca se cumplieron. En 20 años, se demostró que los investigadores de IA que habían predicho el inminente logro de AGI estaban fundamentalmente equivocados. En la década de 1990, los investigadores de IA se habían ganado la reputación de hacer vanas promesas. Se volvieron reacios a hacer predicciones y evitar cualquier mención de inteligencia artificial de nivel humano por temor a ser etiquetados como soñador de ojos salvajes.

    Investigación estrecha de IA

    En la década de 1990 y principios del siglo XXI, la IA convencional logró un éxito comercial y una respetabilidad académica mucho mayores al centrarse en subproblemas específicos donde pueden producir resultados verificables y aplicaciones comerciales, como redes neuronales artificiales, visión por computadora o minería de datos. Los sistemas de IA aplicada ahora se utilizan ampliamente en toda la industria de la tecnología, y la investigación en este sentido está muy financiada tanto en la academia como en la industria. Actualmente, el desarrollo en este campo se considera una tendencia emergente, y se espera que ocurra una etapa madura en más de 10 años.

    La mayoría de los investigadores de IA convencionales esperan que se pueda desarrollar una IA fuerte combinando los programas que resuelven varios subproblemas utilizando una arquitectura de agente integrada, arquitectura cognitiva o arquitectura de subsunción. Hans Moravec escribió en 1988:

    Confío en que esta ruta ascendente a la inteligencia artificial algún día se encontrará con la ruta tradicional descendente más de la mitad, lista para proporcionar la competencia del mundo real y el conocimiento de sentido común que ha sido tan frustrantemente difícil de alcanzar en los programas de razonamiento. Máquinas totalmente inteligentes resultará cuando la espiga de oro metafórica se impulse uniendo los dos esfuerzos .

    Sin embargo, incluso esta filosofía fundamental ha sido disputada; Por ejemplo, Stevan Harnad de Princeton concluyó su artículo de 1990 sobre la hipótesis de la conexión a tierra de símbolos al afirmar:

    A menudo se ha expresado la expectativa de que los enfoques de arriba hacia abajo (simbólicos) para modelar la cognición se encontrarán de alguna manera con enfoques de abajo hacia arriba (sensoriales) en algún punto intermedio. Si las consideraciones básicas en este documento son válidas, entonces esta expectativa es irremediablemente modular y en realidad solo hay una ruta viable desde el sentido hasta los símbolos: desde cero. Un nivel simbólico flotante como el nivel de software de una computadora nunca será alcanzado por esta ruta (o viceversa), ni está claro por qué deberíamos siquiera tratar de alcanzar ese nivel, ya que parece que llegar allí equivaldría a desarraigar nuestros símbolos de sus significados intrínsecos (por lo tanto, simplemente reduciéndonos al equivalente funcional de una computadora programable) .

    Investigación moderna de inteligencia artificial general

    La inteligencia general artificial (AGI) describe la investigación que tiene como objetivo crear máquinas capaces de acción inteligente general. El término fue utilizado ya en 1997 por Mark Gubrud en una discusión sobre las implicaciones de la producción y las operaciones militares totalmente automatizadas. El término fue reintroducido y popularizado por Shane Legg y Ben Goertzel alrededor de 2002. El objetivo de la investigación es mucho más antiguo, por ejemplo, el proyecto Cyc de Doug Lenat (que comenzó en 1984) y el proyecto Soar de Allen Newell se consideran dentro del alcance de AGI. La actividad de investigación de AGI en 2006 fue descrita por Pei Wang y Ben Goertzelas produciendo publicaciones y resultados preliminares. La primera escuela de verano en AGI fue organizada en Xiamen, China en 2009 por el Laboratorio de Cerebro Artificial de la universidad de Xiamen y OpenCog. Todor Arnaudov impartió el primer curso universitario en 2010 y 2011 en la Universidad de Plovdiv, Bulgaria. El MIT presentó un curso en AGI en 2018, organizado por Lex Fridman y con varios conferenciantes invitados. Sin embargo, hasta ahora, la mayoría de los investigadores de IA han prestado poca atención al AGI, y algunos afirman que la inteligencia es demasiado compleja para ser replicada por completo en el corto plazo. Sin embargo, un pequeño número de informáticos está activo en la investigación de AGI, y muchos de este grupo están contribuyendo a una serie de conferencias de AGI. La investigación es extremadamente diversa y a menudo pionera en la naturaleza. En la introducción de su libro, Goertzel dice que las estimaciones del tiempo necesario antes de que se construya un AGI verdaderamente flexible varían de 10 años a más de un siglo, pero el consenso en la comunidad de investigación de AGI parece ser que la línea de tiempo discutida por Ray Kurzweil en The Singularity está cerca (es decir, entre 2015 y 2045) es plausible.

    Sin embargo, la mayoría de los investigadores de IA convencionales dudan de que el progreso sea tan rápido. Las organizaciones que buscan explícitamente AGI incluyen el laboratorio suizo de IA IDSIA, Nnaisense, Vicarious, Maluuba, la Fundación OpenCog, Adaptive AI, LIDA y Numenta y el Redwood Neuroscience Institute asociado. Además, organizaciones como el Machine Intelligence Research Institute y OpenAI se han fundado para influir en el camino de desarrollo de AGI. Finalmente, proyectos como el Proyecto Cerebro Humano tienen el objetivo de construir una simulación funcional del cerebro humano. La encuesta A2017 de AGI clasificó cuarenta y cinco proyectos activos de I + D conocidos que investigan explícita o implícitamente (a través de investigaciones publicadas) AGI, siendo los tres más grandes DeepMind, el Proyecto Cerebro Humano y OpenAI (según el artículo).

    En 2019, el programador de videojuegos e ingeniero aeroespacial John Carmack anunció planes para investigar AGI.

    Es decir, DeepMind con su éxito en Human Player Simulation, por ejemplo, AlphaGo hizo uso de nuevos conceptos:

    Aprendizaje de refuerzo para mejorar redes ya formadas con nuevos datos o

    Aprendizaje no supervisado, por ejemplo, mediante una red de confrontación generativa para obtener redes mejoradas por competencia.

    Potencia de procesamiento necesaria para simular un cerebro

    Emulación de todo el cerebro

    Un enfoque popular discutido para lograr una acción inteligente general es la emulación del cerebro completo. Un modelo de cerebro de bajo nivel se construye escaneando y mapeando un cerebro biológico en detalle y copiando su estado en un sistema informático u otro dispositivo computacional. La computadora ejecuta un modelo de simulación tan fiel al original que se comportará esencialmente de la misma manera que el cerebro original, o para todos los fines prácticos, indistinguible. La emulación de cerebro completo se discute en neurociencia computacional y neuroinformática, en el contexto de la simulación cerebral para fines de investigación médica. Se discute en la investigación de inteligencia artificial como un enfoque para la IA fuerte. Las tecnologías de neuroimagen que podrían proporcionar la comprensión detallada necesaria están mejorando rápidamente, y el futurista Ray Kurzweil en el libro The Singularity Is Near predice que un mapa de suficiente calidad estará disponible en un plazo similar al poder de cómputo requerido.

    Estimaciones tempranas

    Para la simulación cerebral de bajo nivel, se requeriría una computadora extremadamente poderosa. El cerebro humano tiene una gran cantidad de sinapsis. Cada una de las 10 (cien mil millones) de neuronas tiene en promedio 7, 000 conexiones sinápticas con otras neuronas. Se ha estimado que el cerebro de un niño de tres años tiene alrededor de 10 sinapsis (1 billón). Este número disminuye con la edad, estabilizándose en la edad adulta. Las estimaciones varían para un adulto, que van de 10 a 5 × 10 sinapsis (100 a 500 billones). Una estimación de la potencia de procesamiento del cerebro, basada en un modelo de interruptor simple para la actividad neuronal, es de alrededor de 10 (100 billones) de actualizaciones sinápticas por segundo (SUPS). En 1997 Kurzweil analizó varias estimaciones del hardware requerido para igualar el cerebro humano y adoptó una cifra de 10 cálculos por segundo (cps). (En comparación, si un cálculo era equivalente a una operación de punto flotante, una medida utilizada para calificar las supercomputadoras actuales, entonces 10 cálculos serían equivalentes a 10 petaFLOPS, logrados en 2011). Utilizó esta cifra para predecir el hardware necesario estaría disponible en algún momento entre 2015 y 2025, si el crecimiento exponencial de la potencia de la computadora en el momento de la escritura continuara.

    Modelando las neuronas con más detalle

    El modelo de neurona artificial asumido por Kurzweil y utilizado en muchas implementaciones actuales de redes neuronales artificiales es simple en comparación con las neuronas biológicas. Una simulación cerebral probablemente tendría que capturar el comportamiento celular detallado de las neuronas biológicas, actualmente entendido solo en los contornos más amplios. La sobrecarga introducida por el modelado completo de los detalles biológicos, químicos y físicos del comportamiento neuronal (especialmente a escala molecular) requeriría poderes computacionales de varios órdenes de magnitud más grandes que la estimación de Kurzweil. Además, las estimaciones no tienen en cuenta las células gliales, que son al menos tan numerosas como las neuronas, y que pueden superar en número a las neuronas hasta en 10: 1, y ahora se sabe que juegan un papel en los procesos cognitivos.

    La investigación actual

    Hay algunos proyectos de investigación que están investigando la simulación del cerebro utilizando modelos neuronales más sofisticados, implementados en arquitecturas informáticas convencionales. El proyecto del Sistema de Inteligencia Artificial implementó simulaciones en tiempo no real de un cerebro (con 10 neuronas) en 2005. Se necesitaron 50 días en un grupo de 27 procesadores para simular 1 segundo de un modelo. El proyecto Blue Brain usó una de las arquitecturas de supercomputadora más rápidas del mundo, la plataforma Blue Gene de IBM, para crear una simulación en tiempo real de una columna neocortical de rata única que consta de aproximadamente 10, 000 neuronas y 10 sinapsis en 2006. Un objetivo a más largo plazo es para construir una simulación detallada y funcional de los procesos fisiológicos en el cerebro humano: No es imposible construir un cerebro humano y podemos hacerlo en 10 años, dijo Henry Markram, director del Blue Brain Project en 2009 en el TED conferencia en Oxford. También ha habido afirmaciones controvertidas de haber simulado un cerebro de gato. Las interfaces de neuro-silicio se han propuesto como una estrategia de implementación alternativa que puede escalar mejor.

    Hans Moravecad trató los argumentos anteriores (los cerebros son más complicados , las neuronas deben modelarse con más detalle) en su artículo de 1997 ¿Cuándo el hardware de la computadora coincidirá con el cerebro humano?. Midió la capacidad del software existente para simular la funcionalidad de tejido neural, específicamente la retina. Sus resultados no dependen de la cantidad de células gliales, ni de qué tipo de neuronas procesadoras realizan dónde.

    La complejidad real de modelar neuronas biológicas se ha explorado en el proyecto OpenWorm que tenía como objetivo la simulación completa de un gusano que solo tiene 302 neuronas en su red neuronal (entre aproximadamente 1000 células en total). La red neuronal del animal ha sido bien documentada antes del inicio del proyecto. Sin embargo, aunque la tarea parecía simple al principio, los modelos basados ​​en una red neuronal genérica no funcionaron. Actualmente, los esfuerzos se centran en la emulación precisa de las neuronas biológicas (en parte en el nivel molecular), pero el resultado aún no puede considerarse un éxito total. Incluso si la cantidad de problemas a resolver en un modelo a escala humano-cerebral no es proporcional a la cantidad de neuronas, la cantidad de trabajo a lo largo de este camino es obvia.

    Críticas a los enfoques basados ​​en simulación

    Una crítica fundamental del enfoque cerebral simulado se deriva de la cognición encarnada, donde la encarnación humana se toma como un aspecto esencial de la inteligencia humana. Muchos investigadores creen que la encarnación es necesaria para fundamentar el significado. Si esta visión es correcta, cualquier modelo cerebral completamente funcional deberá abarcar más que solo las neuronas (es decir, un cuerpo robótico). Goertzel propone una realización virtual (como Second Life), pero aún no se sabe si esto sería suficiente.

    Las computadoras de escritorio que usan microprocesadores capaces de más de 10 cps (cálculos por segundo" de la unidad no estándar de Kurzweil, ver arriba) han estado disponibles desde 2005. Según las estimaciones de potencia cerebral utilizadas por Kurzweil (y Moravec), esta computadora debería ser capaz de apoyando una simulación de un cerebro de abeja, pero a pesar de algún interés no existe tal simulación. Hay al menos tres razones para esto:

    El modelo de neurona parece estar demasiado simplificado (ver la siguiente sección).

    No hay una comprensión suficiente de los procesos cognitivos superiores para establecer con precisión con qué se correlaciona la actividad neuronal del cerebro, observada usando técnicas como la resonancia magnética funcional.

    Incluso si nuestra comprensión de la cognición avanza lo suficiente, es probable que los primeros programas de simulación sean muy ineficientes y, por lo tanto, necesitarán mucho más hardware.

    El cerebro de un organismo, aunque crítico, puede no ser un límite apropiado para un modelo cognitivo. Para simular un cerebro de abeja, puede ser necesario simular el cuerpo y el medio ambiente. La tesis de la mente extendida formaliza el concepto filosófico, y la investigación en cefalópodos ha demostrado ejemplos claros de un sistema descentralizado.

    Además, la escala del cerebro humano no está actualmente bien restringida. Una estimación calcula que el cerebro humano tiene alrededor de 100 mil millones de neuronas y 100 billones de sinapsis. Otra estimación es de 86 mil millones de neuronas, de las cuales 16,3 mil millones están en la corteza cerebral y 69 mil millones en el cerebelo. Las sinapsis de células gliales actualmente no están cuantificadas, pero se sabe que son extremadamente numerosas.

    Investigación de conciencia artificial

    Aunque el papel de la conciencia en una IA / AGI fuerte es discutible, muchos investigadores de AGI consideran que la investigación que investiga las posibilidades para implementar la conciencia es vital. En un esfuerzo inicial, Igor Aleksan argumentó que los principios para crear una máquina consciente ya existían, pero que tomaría cuarenta años entrenar a una máquina para entender el lenguaje.

    Relación con la IA fuerte

    En 1980, el filósofo John Searle acuñó el término IA fuerte como parte de su argumento en la sala china. Quería distinguir entre dos hipótesis diferentes sobre la inteligencia artificial:

    Un sistema de inteligencia artificial puede pensar y tener una mente. (La palabra mente tiene un significado específico para los filósofos, como se usa en el problema de la mente y el cuerpo o "la filosofía de la mente).

    Un sistema de inteligencia artificial puede (solo) actuar como piensa y tiene una mente.

    La primera se llama la hipótesis de la IA fuerte y la segunda es la hipótesis de la IA débil porque la primera hace la declaración más fuerte: se supone que algo especial le ha sucedido a la máquina que va más allá de todas sus habilidades que podemos probar. Searle se refirió a la hipótesis de IA fuerte como IA fuerte. Este uso también es común en la investigación académica de IA y en los libros de texto.

    La hipótesis de IA débil es equivalente a la hipótesis de que la inteligencia general artificial es posible. Según Russell y Norvig, la mayoría de los investigadores de IA dan por sentado la hipótesis de la IA débil y no les importa la hipótesis de la IA fuerte.

    A diferencia de Searle, Kurzweil usa el término IA fuerte para describir cualquier sistema de inteligencia artificial que actúe como si tuviera una mente, independientemente de si un filósofo podría determinar si realmente tiene una mente o no.

    Posibles explicaciones para el lento progreso de la investigación de IA

    Desde el lanzamiento de la investigación de IA en 1956, el crecimiento de este campo se ha ralentizado con el tiempo y ha estancado los objetivos de crear máquinas capacitadas con acción inteligente a nivel humano. Una posible explicación de este retraso es que las computadoras carecen de un alcance suficiente de memoria o potencia de procesamiento. Además, el nivel de complejidad que se conecta con el proceso de investigación de IA también puede limitar el progreso de la investigación de IA.

    Si bien la mayoría de los investigadores de IA creen que se puede lograr una IA fuerte en el futuro, hay algunas personas como Hubert Dreyfus y Roger Penrose que niegan la posibilidad de lograr una IA fuerte. John McCarthy fue uno de varios científicos informáticos que creen que se logrará la inteligencia artificial a nivel humano, pero no se puede predecir con precisión una fecha.

    Las limitaciones conceptuales son otra posible razón de la lentitud en la investigación de IA. Es posible que los investigadores de IA necesiten modificar el marco conceptual de su disciplina para proporcionar una base más sólida y una contribución a la búsqueda de lograr una IA fuerte. Como William Clocksin escribió en 2003: el marco comienza con la observación de Weizenbaum de que la inteligencia se manifiesta solo en relación con contextos sociales y culturales específicos.

    Además, los investigadores de IA han podido crear computadoras que pueden realizar trabajos que son complicados para las personas, pero a la inversa han tenido problemas para desarrollar una computadora que sea capaz de realizar tareas que sean simples para los humanos (paradoja de Moravec). Un problema descrito por David Gelernter es que algunas personas suponen que pensar y razonar son equivalentes. Sin embargo, la idea de si los pensamientos y el creador de esos pensamientos están aislados individualmente ha intrigado a los investigadores de IA.

    Los problemas que se han encontrado en la investigación de IA en las últimas décadas han impedido aún más el progreso de la IA. Las predicciones fallidas que han prometido los investigadores de IA y la falta de una comprensión completa de los comportamientos humanos han ayudado a disminuir la idea principal de la IA a nivel humano. Aunque el progreso de la investigación de IA ha traído mejoras y decepciones, la mayoría de los investigadores han demostrado optimismo sobre alcanzar potencialmente el objetivo de la IA en el siglo XXI.

    Se han propuesto otras posibles razones para la larga investigación en el progreso de la IA fuerte. La complejidad de los problemas científicos y la necesidad de comprender completamente el cerebro humano a través de la psicología y la neurofisiología han limitado a muchos investigadores a emular la función del cerebro humano en un hardware informático. Muchos investigadores tienden a subestimar cualquier duda relacionada con las predicciones futuras de la IA., pero sin tomar en serio esos problemas, las personas pueden pasar por alto las soluciones a preguntas problemáticas.

    Clocksin dice que una limitación conceptual que puede impedir el progreso de la investigación de IA es que las personas pueden estar usando las técnicas incorrectas para programas de computadora e implementación de equipos. Cuando los investigadores de IA comenzaron a apuntar al objetivo de la inteligencia artificial, un interés principal era el razonamiento humano.Los investigadores esperaban establecer modelos computacionales del conocimiento humano a través del razonamiento y descubrir cómo diseñar una computadora con una tarea cognitiva específica.

    La práctica de la abstracción, que las personas tienden a redefinir cuando trabajan con un contexto particular en la investigación, proporciona a los investigadores una concentración en unos pocos conceptos. El uso más productivo de la abstracción en la investigación de IA proviene de la planificación y la resolución de problemas. Aunque el objetivo es aumentar la velocidad de un cálculo, el papel de la abstracción ha planteado preguntas sobre la participación de los operadores de abstracción.

    Una posible razón de la lentitud en la IA se relaciona con el reconocimiento por parte de muchos investigadores de IA de que la heurística es una sección que contiene una brecha significativa entre el rendimiento de la computadora y el rendimiento humano. Las funciones específicas que se programan en una computadora pueden ser capaces de dar cuenta de muchos de los requisitos que le permiten igualar la inteligencia humana. No se garantiza necesariamente que estas explicaciones sean las causas fundamentales de la demora en lograr una IA fuerte, pero numerosos investigadores las han aceptado ampliamente.

    Ha habido muchos investigadores de IA que debaten sobre la idea de si las máquinas deben crearse con emociones. No hay emociones en los modelos típicos de IA y algunos investigadores dicen que programar emociones en máquinas les permite tener una mente propia. La emoción resume las experiencias de los humanos porque les permite recordar esas experiencias. David Gelernter escribe: Ninguna computadora será creativa a menos que pueda simular todos los matices de la emoción humana. Esta preocupación por la emoción ha planteado problemas para los investigadores de IA y se conecta con el concepto de IA fuerte a medida que su investigación avanza hacia el futuro.

    Conciencia

    Existen otros aspectos de la mente humana además de la inteligencia que son relevantes para el concepto de IA fuerte que juegan un papel importante en la ciencia ficción y la ética de la inteligencia artificial:

    Conciencia: Tener experiencia subjetiva y pensamiento.

    Autoconciencia: ser consciente de uno mismo como un individuo separado, especialmente para ser consciente de los propios pensamientos.

    Sentiencia: la capacidad de sentir percepciones o emociones subjetivamente.

    Sapiencia: La capacidad de la sabiduría.

    Estos rasgos tienen una dimensión moral, porque una máquina con esta forma de IA fuerte puede tener derechos legales, análogos a los derechos de los animales no humanos. Además, Bill Joy, entre otros, argumenta que una máquina con estos rasgos puede ser una amenaza para la vida o la dignidad humana. Queda por demostrar si alguno de estos rasgos es necesario para una IA fuerte. El papel de la conciencia no está claro, y actualmente no hay una prueba acordada para su presencia. Si una máquina se construye con un dispositivo que simula los correlatos neurales de la conciencia, ¿tendría automáticamente conciencia de sí mismo? También es posible que algunas de estas propiedades, como la sensibilidad, emerjan naturalmente de una máquina completamente inteligente, o que se vuelva natural atribuir estas propiedades a las máquinas una vez que comiencen a actuar de una manera claramente inteligente. Por ejemplo, la acción inteligente puede ser suficiente para la sensibilidad, y no al revés.

    En ciencia ficción, AGI se asocia con rasgos como la conciencia, la sensibilidad, la sapiencia y la autoconciencia observada en los seres vivos. Sin embargo, según el filósofo John Searle, es una pregunta abierta si la inteligencia general es suficiente para la conciencia. La IA fuerte (como se definió anteriormente por Ray Kurzweil) no debe confundirse con la hipótesis de IA fuerte de Searle. La hipótesis de IA fuerte es la afirmación de que una computadora que se comporta de manera tan inteligente como una persona también debe tener necesariamente una mente y una conciencia. AGI se refiere solo a la cantidad de inteligencia que muestra la máquina, con o sin mente.

    Controversias y peligros

    Factibilidad

    Las opiniones varían tanto sobre si y cuándo llegará la inteligencia general artificial. En un extremo, el pionero de la IA Herbert A. Simon escribió en 1965: las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer. Sin embargo, esta predicción no se hizo realidad. El cofundador de Microsoft, Paul Allen, creía que tal inteligencia es poco probable en el siglo XXI porque requeriría avances imprevisibles y fundamentalmente impredecibles y una comprensión científicamente profunda de la cognición. Escribiendo en The Guardian, el robotista Alan Winfield afirmó que el abismo entre la informática moderna y la inteligencia artificial a nivel humano es tan amplio como el abismo entre el vuelo espacial actual y el práctico vuelo espacial más rápido que la luz. Las opiniones de los expertos de IA sobre la viabilidad de la cera AGI y menguar, y puede haber visto un resurgimiento en la década de 2010. Cuatro encuestas realizadas en 2012 y 2013 sugirieron que la mediana de conjetura entre los expertos sobre cuándo estarían seguros al 50% de que llegaría un AGI era de 2040 a 2050, dependiendo de la encuesta, con una media de 2081. También es interesante observar el 16.5% de los expertos respondieron nunca cuando se les hizo la misma pregunta, pero con un 90% de confianza. Más adelante se pueden encontrar más consideraciones sobre el progreso actual de AGI debajo de Pruebas para confirmar AGI a nivel humano y pruebas de IQ AGI.

    Amenaza potencial para la existencia humana

    La creación de inteligencia general artificial puede tener repercusiones tan grandes y tan complejas que puede que no sea posible pronosticar lo que vendrá después. Así, el evento en el futuro hipotético de lograr una IA fuerte se llama singularidad tecnológica, porque teóricamente no se puede ver más allá. Pero esto no ha impedido que filósofos e investigadores adivinen lo que pueden hacer las computadoras inteligentes o los robots del futuro, incluida la formación de una utopía al ser nuestros amigos o abrumarnos en una toma de control de la IA. La última potencialidad es particularmente inquietante, ya que plantea un riesgo existencial para la humanidad.

    Máquinas autorreplicantes

    Las computadoras inteligentes o los robots podrían diseñar y producir versiones mejoradas de sí mismos. Una creciente población de robots inteligentes podría posiblemente competir con los humanos inferiores en los mercados laborales, en los negocios, en la ciencia, en la política (en busca de los derechos de los robots) y tecnológicamente, sociológicamente (actuando como uno) y militarmente. Incluso hoy en día, muchas máquinas pseudointeligentes ya funcionan con una IA débil. Por ejemplo, los robots para hogares, atención médica, hoteles y restaurantes han automatizado muchas partes de nuestras vidas: los bots virtuales convierten el servicio al cliente en autoservicio. servicio, las aplicaciones de inteligencia artificial de big data se utilizan para reemplazar a los administradores de cartera, y los robots sociales como Pepper se utilizan para reemplazar a los saludadores humanos para fines de servicio al cliente.

    Superinteligencia emergente

    Si la investigación de una IA fuerte produjera un software lo suficientemente inteligente, sería capaz de reprogramarse y mejorarse a sí mismo, una característica llamada

    ¿Disfrutas la vista previa?
    Página 1 de 1