Reflexiones sobre la Conciencia en la Inteligencia Artificial

La posibilidad de que los sistemas de inteligencia artificial (IA) desarrollen consciencia es un tema de gran interés científico. En este artículo "La Conciencia en la Inteligencia Artificial: Reflexiones desde la Ciencia de la Conciencia" se ofrece un análisis profundo basado en teorías neurocientíficas contemporáneas, para evaluar en detalle la conciencia de la IA con un enfoque riguroso. Este análisis se fundamenta en teorías conocidas de la conciencia, como la teoría del procesamiento recurrente, la teoría del espacio de trabajo global, las teorías computacionels de orden superior, el procesamiento predictivo y la teoría de esquemas de atención. A partir de estas teorías, el artículo deriva lo que se denominan "propiedades indicadoras" de la conciencia, que se clarifican en términos computacionales, permitiendo así evaluar los sistemas de IA existentes. El estudio concluye que, según los indicadores propuestos, los sistemas de IA actuales no son conscientes. Sin embargo, también sugiere que no existen barreras técnicas obvias que impidan la creación de sistemas que puedan cumplir con estos indicadores en el futuro. Este hallazgo abre la puerta a la especulación sobre la evolución futura de la IA, sugiriendo que podría ser posible construir sistemas conscientes, aunque este logro aún esté distante. Este artículo destaca que, aunque la IA avanzada sigue lejos de replicar la conciencia humana de manera plena, es posible que en el futuro puedan desarrollarse sistemas con propiedades conscientes. Sin embargo, las implicaciones filosóficas y técnicas sobre lo que significa "ser consciente" siguen siendo un desafío, ya que la conciencia humana involucra experiencias subjetivas que las máquinas podrían no ser capaces de replicar completamente.

La Conciencia en la Inteligencia Artificial Reflexiones.pdf 


La Conciencia en la Inteligencia Artificial: Reflexiones desde la Ciencia de la Conciencia
[[[----]]]

La Conciencia en la Inteligencia Artificial: Reflexiones desde la Ciencia de la Conciencia

Patrick Butlin1, Robert Long1, Eric Elmoznino, Yoshua Bengio, Jonathan Birch, Axel Constant, George Deane, Stephen M. Fleming, Chris Frith, Xu Ji, Ryota Kanai, Colin Klein, Grace Lindsay, Matthias Michel, Liad Mudrik, Megan A. K. Peters, Eric Schwitzgebel, Jonathan Simon, Rufin VanRullen.
22 de Agosto de 2023

Si los sistemas de IA actuales o a corto plazo podrían ser conscientes es un tema de interés científico y de creciente preocupación pública. Este informe aboga y ejemplifica un enfoque riguroso y empíricamente fundamentado para la conciencia de la IA: evaluar en detalle los sistemas de IA existentes, a la luz de nuestras teorías neurocientíficas de la conciencia mejor respaldadas. Analizamos varias teorías científicas prominentes de la conciencia, incluyendo la teoría del procesamiento recurrente, la teoría del espacio de trabajo global, las teorías de orden superior, el procesamiento predictivo y la teoría de los esquemas atencionales. De estas teorías derivamos ``propiedades indicadoras'' de la conciencia, aclaradas en términos computacionales que nos permiten evaluar los sistemas de IA en función de estas propiedades. Usamos estas propiedades de los indicadores para evaluar varios sistemas de IA recientes y discutimos cómo los sistemas futuros podrían implementarlos. Nuestro análisis sugiere que ningún sistema de IA actual es consciente, pero también sugiere que no existen barreras técnicas obvias para construir sistemas de IA que satisfagan estos indicadores.2








Resumen Ejecutivo

La cuestión de si los sistemas de IA podrían ser conscientes es cada vez más apremiante. Los avances en IA han sido asombrosamente rápidos y los principales investigadores se inspiran en las funciones asociadas a la conciencia en el cerebro humano para seguir mejorando las capacidades de la IA. Mientras tanto, el auge de los sistemas de IA que pueden imitar de forma convincente la conversación humana probablemente hará que muchas personas crean que los sistemas con los que interactúan son conscientes. En este informe, sostenemos que la mejor forma de evaluar la conciencia en la IA es basándose en las teorías neurocientíficas de la conciencia. Describimos teorías destacadas de este tipo e investigamos sus implicaciones para la IA.

Consideramos que nuestras principales contribuciones en este informe son:

  1. Demostrar que la evaluación de la conciencia en la IA es científicamente manejable porque la conciencia se puede estudiar científicamente y los hallazgos de esta investigación son aplicables a la IA;
  2. Proponer una rúbrica para evaluar la conciencia en la IA en forma de una lista de propiedades de indicadores derivadas de teorías científicas;
  3. Proporciona evidencia inicial de que muchas de las propiedades de los indicadores se pueden implementar en sistemas de IA utilizando técnicas actuales, aunque ningún sistema actual parece ser un candidato fuerte para la conciencia.

La rúbrica que proponemos es provisional, ya que esperamos que la lista de propiedades de los indicadores que incluiríamos cambie a medida que continúe la investigación.

Nuestro método para estudiar la conciencia en la IA tiene tres principios principales. Primero, adoptamos el funcionalismo computacional, la tesis de que realizar cálculos del tipo correcto es necesario y suficiente para la conciencia, como hipótesis de trabajo. Esta tesis es una posición dominante, aunque controvertida, en la filosofía de la mente. Adoptamos esta hipótesis por razones pragmáticas: a diferencia de opiniones rivales, implica que la conciencia en la IA es posible en principio y que estudiar el funcionamiento de los sistemas de IA es relevante para determinar si es probable que sean conscientes. Esto significa que es productivo considerar cuáles serían las implicaciones para la conciencia de la IA si el funcionalismo computacional fuera cierto. En segundo lugar, afirmamos que las teorías neurocientíficas de la conciencia gozan de un apoyo empírico significativo y pueden ayudarnos a evaluar la conciencia en la IA. Estas teorías tienen como objetivo identificar funciones que son necesarias y suficientes para la conciencia en los humanos, y el funcionalismo computacional implica que funciones similares serían suficientes para la conciencia en la IA. En tercer lugar, sostenemos que un enfoque con mucha teoría es más adecuado para investigar la conciencia en la IA. Esto implica investigar si los sistemas de IA realizan funciones similares a aquellas que las teorías científicas asocian con la conciencia, y luego asignar credibilidad en función de (a) la similitud de las funciones, (b) la solidez de la evidencia de las teorías en cuestión, y (c) la credibilidad de uno en el funcionalismo computacional. La principal alternativa a este enfoque es utilizar pruebas conductuales de conciencia, pero este método no es confiable porque los sistemas de IA pueden entrenarse para imitar comportamientos humanos mientras funcionan de maneras muy diferentes.

Actualmente, varias teorías son candidatas vivas en la ciencia de la conciencia, por lo que aquí no respaldamos ninguna teoría. En lugar de ello, derivamos una lista de "propiedades de los indicadores" a partir de un estudio de las teorías de la conciencia. Una o más teorías dicen que cada una de estas propiedades indicadoras es necesaria para la conciencia, y que algunos subconjuntos son conjuntamente suficientes. Nuestra afirmación, sin embargo, es que los sistemas de IA que poseen más propiedades indicadoras tienen más probabilidades de ser conscientes. Para juzgar si un sistema de IA existente o propuesto es un candidato serio para la conciencia, se debe evaluar si tiene o tendría estas propiedades.

Las teorías científicas que analizamos incluyen la teoría del procesamiento recurrente, la teoría del espacio de trabajo global, las teorías computacionales de orden superior y otras. No consideramos la teoría de la información integrada, porque no es compatible con el funcionalismo computacional. También consideramos la posibilidad de que agencia y encarnación sean propiedades indicadoras, aunque deben entenderse en términos de las características computacionales que implican. Esto produce la lista de propiedades del indicador, que se muestran en la Tabla 1

Describimos las teorías en las que se basan estas propiedades y describimos la evidencia y los argumentos que las respaldan en la sección 2 del informe, además de explicar las formulaciones utilizadas en la tabla.

Una vez formulada esta lista de propiedades de los indicadores, en la sección 3.1 analizamos cómo se podrían construir, o se han construido, sistemas de IA con cada una de las propiedades de los indicadores. En la mayoría de los casos, podrían utilizarse métodos estándar de aprendizaje automático para construir sistemas que posean propiedades individuales de esta lista, aunque sería necesario experimentar para aprender a construir y entrenar sistemas funcionales que combinen múltiples propiedades. Hay algunas propiedades en la lista que ya cumplen claramente los sistemas de IA existentes (como RPT-1, recurrencia algorítmica), y otras en las que podría decirse que este es el caso (como la primera parte de AE-1, agencia). Los investigadores también han experimentado con sistemas diseñados para aplicar determinadas teorías de la conciencia, como la teoría del espacio de trabajo global y la teoría de los esquemas de atención.

En la sección 3.2, consideramos si algunos sistemas específicos de IA existentes poseen las propiedades del indicador. Estos incluyen modelos de lenguaje grande basados en Transformer y la arquitectura Perceiver, que analizamos con respecto a la teoría del espacio de trabajo global. También analizamos el Adaptive Agent de DeepMind, que es un agente de aprendizaje por refuerzo que opera en un entorno virtual 3D; un sistema entrenado para realizar tareas controlando un cuerpo virtual de roedor; y PaLM-E, que ha sido descrito como un "modelo de lenguaje multimodal incorporado". Utilizamos estos tres sistemas como estudios de caso para ilustrar las propiedades de los indicadores relativas a la agencia y la encarnación. Este trabajo no sugiere que ningún sistema de IA existente sea un fuerte candidato para la conciencia.

Este informe está lejos de ser la última palabra sobre estos temas. Recomendamos encarecidamente el apoyo a futuras investigaciones sobre la ciencia de la conciencia y su aplicación a la IA. También recomendamos una consideración urgente de los riesgos morales y sociales de construir sistemas de IA conscientes, un tema que no abordamos en este informe. La evidencia que consideramos sugiere que, si el funcionalismo computacional es cierto, en el corto plazo se podrían construir de manera realista sistemas de IA conscientes.








Introducción

En la última década, los sorprendentes avances en inteligencia artificial (IA) han reavivado el interés en cuestiones profundas y de larga data sobre la IA, incluida la cuestión de si los sistemas de IA podrían ser conscientes. Este informe trata sobre lo que consideramos la mejor evidencia científica a favor y en contra de la conciencia en los sistemas de IA actuales y de corto plazo.

Dado que la conciencia es filosóficamente desconcertante, difícil de definir y difícil de estudiar empíricamente, las opiniones de los expertos sobre la conciencia -en general, y sobre los sistemas de IA- son muy divergentes. Sin embargo, creemos que es posible avanzar en el tema de la conciencia de la IA a pesar de esta divergencia. Existen teorías científicas de la conciencia que gozan de un importante apoyo empírico y son compatibles con una variedad de puntos de vista sobre la metafísica de la conciencia. Aunque estas teorías se basan en gran medida en investigaciones en humanos, hacen afirmaciones sobre propiedades y funciones asociadas con la conciencia que son aplicables a los sistemas de IA. Afirmamos que utilizar las herramientas que nos ofrecen estas teorías es el mejor método disponible actualmente para evaluar si es probable que los sistemas de IA sean conscientes. En este informe, explicamos este método en detalle, identificamos las herramientas que ofrecen las principales teorías científicas y mostramos cómo se pueden utilizar.

Una red neuronal recurrente
Una red neuronal recurrente desplegada como se muestra en LeCun, Bengio, & Hinton (2015). (Imagen diseñada en LibreOffice Draw 7.4. Lic. CC BY-NC-SA 4.0, Omar Ancka Quispe)

Publicamos este informe en parte porque nos tomamos en serio la posibilidad de que puedan construirse sistemas de IA conscientes a un plazo relativamente corto, dentro de las próximas décadas. Además, sea o no que la IA consciente sea una perspectiva realista a corto plazo, el surgimiento de grandes sistemas basados en modelos de lenguaje que son capaces de imitar la conversación humana probablemente haga que muchas personas crean que algunos sistemas de IA son conscientes. Estas perspectivas plantean profundas cuestiones morales y sociales, para la sociedad en su conjunto, para quienes interactúan con los sistemas de IA y para las empresas e individuos que desarrollan e implementan sistemas de IA. La humanidad estará mejor equipada para afrontar estos cambios si estamos mejor informados sobre la ciencia de la conciencia y sus implicaciones para la IA. Nuestro objetivo es promover la comprensión de estos temas proporcionando una perspectiva interdisciplinaria convencional, que ilustra el grado en que las preguntas sobre la conciencia de la IA son científicamente manejables y que puede ser una base para futuras investigaciones.

La Autoatención
En la autoatención, se permite que las representaciones de elementos de una secuencia de entrada (por ejemplo, palabras en una oración) interactúen multiplicativamen- te. (Imagen diseñada en LibreOffice Draw 7.4. Lic. CC BY-NC-SA 4.0, Omar Ancka Quispe)

En el resto de esta sección, describimos la terminología, los métodos y los supuestos que subyacen a este informe.




Terminología

¿Qué queremos decir con "consciente" en este informe? Decir que una persona, un animal o un sistema de IA es consciente es decir que actualmente está teniendo una experiencia consciente o que es capaz de tener experiencias conscientes. Usamos "conciencia" y términos afines para referirnos a lo que a veces se llama "conciencia fenoménica" (Block 1995). Otro sinónimo de "conciencia", en nuestra terminología, es "experiencia subjetiva". Por lo tanto, este informe trata sobre si los sistemas de IA podrían ser extraordinariamente conscientes o, en otras palabras, si podrían ser capaces de tener experiencias conscientes o subjetivas.

Ilustración de la ilusión de Kanizsa.
Ilustración de la ilusión de Kanizsa. Existe evidencia de que las unidades PredNet responden a contornos ilusorios en la ilusión de Kanizsa, cuya percepción depende de inferir la presencia de objetos a partir de un contexto más amplio (Lotter et al. 2020). (Imagen diseñada en LibreOffice Draw 7.4. Lic. CC BY-NC-SA 4.0, Omar Ancka Quispe)

¿Qué significa decir que una persona, un animal o un sistema de IA tiene experiencias (feno-ménicamente) conscientes? Una forma útil de decirlo es que un sistema tiene una experiencia consciente cuando hay "algo que se parece" a que el sistema sea el sujeto de esa experiencia (Nagel 1974). Más allá de esto, sin embargo, es difícil definir "experiencia consciente" o "conciencia" dando una frase o expresión sinónima, por lo que preferimos usar ejemplos para explicar cómo usamos estos términos. Siguiendo a Schwitzgebel (2016), mencionaremos ejemplos tanto positivos como negativos, es decir, tanto ejemplos de procesos cognitivos que son experiencias conscientes como ejemplos que no lo son. Por "conciencia" nos referimos al fenómeno que distingue más obviamente entre los ejemplos positivos y negativos.

Proceso de decisión de Markov.
Diagrama de aprendizaje por refuerzo de un proceso de decisión de Markov basado en una figura de Aprendizaje por Refuerzo: Una Introducción (2da Edición) por Sutton y Barto. (Imagen diseñada en LibreOffice Draw 7.4. Lic. CC BY-NC-SA 4.0, Omar Ancka Quispe)

Muchos de los ejemplos positivos más claros de experiencia consciente involucran nuestra capacidad de sentir nuestros cuerpos y el mundo que nos rodea. Si estás leyendo este informe en una pantalla, estás teniendo una experiencia visual consciente de la pantalla. También tenemos experiencias auditivas conscientes, como escuchar el canto de los pájaros, así como experiencias conscientes en otras modalidades sensoriales. Las sensaciones corporales que pueden ser conscientes incluyen dolores y picazones. Junto a estas experiencias de acontecimientos reales y actuales, también tenemos experiencias conscientes de imágenes, como la experiencia de visualizar el rostro de un ser querido.

Proceso de decisión de Markov.
La Arquitectura del Transformer. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., / Polosukhin, I., 2023. "Atención es Todo lo que Necesitas". arXiv:1706.03762. (Imagen derivada diseñada en LibreOffice Draw 7.4. Lic. CC BY-NC-SA 4.0, Omar Ancka Quispe)

Además, tenemos emociones conscientes como el miedo y la excitación. Pero hay desacuerdo sobre si las experiencias emocionales son simplemente experiencias corporales, como la sensación de tener la piel de gallina. También existe desacuerdo sobre las experiencias de pensamiento y deseo (Bayne \& Montague 2011). Es posible pensar conscientemente sobre qué mirar en la televisión, pero algunos filósofos afirman que las experiencias conscientes involucradas son exclusivamente sensoriales o imaginativas, como la experiencia de imaginar cómo sería ver un programa de juegos, mientras que otros creen que tienen experiencias conscientes "cognitivas", con una fenomenología distintiva3 asociada específicamente con el pensamiento.

Arquitectura del Perceptor
Arquitectura del Perceptor (Perceiver). Jaegle, A., Gimeno, F., Brock, A., Vinyals, O., Zisserman, A., / Carreira, J., 2021. En Actas de la 38ava Conferencia Internacional sobre Aprendizaje Automático, PMLR 139:4651-4664. (Imagen derivada diseñada en LibreOffice Draw 7.4. Lic. CC BY-NC-SA 4.0, Omar Ancka Quispe)

En cuanto a los ejemplos negativos, hay muchos procesos en el cerebro, incluido el procesamiento de información muy sofisticado, que son totalmente inconscientes. Un ejemplo es la regulación de la liberación de hormonas, que el cerebro maneja sin ninguna conciencia. Otro ejemplo es el almacenamiento de memoria: puedes recordar la dirección de la casa donde creciste, pero la mayoría de las veces esto no tiene ningún impacto en tu conciencia. Y la percepción en todas sus modalidades implica un procesamiento inconsciente extenso, como el procesamiento necesario para derivar la experiencia consciente que tienes cuando alguien te habla a partir del flujo de estimulación auditiva. Por último, la mayoría de los científicos de la visión coinciden en que los sujetos procesan inconscientemente los estímulos visuales que se hacen invisibles mediante diversas técnicas psicofísicas. Por ejemplo, en el "enmascaramiento", un estímulo aparece brevemente en una pantalla y luego rápidamente sigue un segundo estímulo, llamado "máscara" (Breitmeyer \& Ogmen 2006). No existe una experiencia consciente del primer estímulo, pero sus propiedades pueden afectar el desempeño en tareas posteriores, como "preparar" al sujeto para que identifique algo más rápidamente (por ejemplo, Vorberg et al. 2003).

Arquitectura PaLM-E
Arquitectura PaLM-E. Driess, D., Xia, F., Sajjadi, M. S. M., Lynch, C., Chowdhery, A., Ichter, B., Wahid, A., Tompson, J., Vuong, Q., Yu, T., Huang, W., Chebotar, Y., Sermanet, P., Duckworth, D., Levine, S., Vanhoucke, V., Hausman, K., Toussaint, M., Greff, K., / Florence, P., 2023. PaLM-E: Un Modelo de Lenguaje Multimodal Incorporado. arXiv:2303.03378. (Imagen derivada diseñada en LibreOffice Draw 7.4. Lic. CC BY-NC-SA 4.0, Omar Ancka Quispe)

Al utilizar el término "conciencia fenoménica", queremos distinguir nuestro tema de la "conciencia de acceso", siguiendo a Block (1995, 2002). Block escribe que "un estado es [consciente de acceso] si se transmite para uso libre en el razonamiento y para el control 'racional' directo de la acción (incluido el informe)" (2002, p. 208). Parece haber una estrecha conexión entre el hecho de que un estado mental sea consciente, en nuestro sentido, y que su contenido esté disponible para informar a otros o utilizarlo al tomar decisiones racionales. Por ejemplo, esperaríamos poder informar haber visto un estímulo visual presentado brevemente si tuviéramos una experiencia consciente de verlo y no poder informar haberlo visto si no la tuviéramos. Sin embargo, estas dos propiedades de los estados mentales son conceptualmente distintas. Cómo se relacionan entre sí la conciencia fenoménica y la conciencia de acceso es una cuestión abierta.

Finalmente, la palabra "Sintiente" a veces se usa como sinónimo de (fenoménicamente) "consciente", pero nosotros preferimos "consciente". "Sintiente" a veces se usa para significar tener sentidos, como la visión o el olfato. Sin embargo, ser consciente no es lo mismo que tener sentidos. Es posible que un sistema sienta su cuerpo o su entorno sin tener ninguna experiencia consciente, y puede ser posible que un sistema sea consciente sin sentir su cuerpo o su entorno. "Sintiente" también se utiliza a veces para significar capaz de tener experiencias conscientes como placer o dolor, que se sienten bien o mal, y no queremos dar a entender que los sistemas conscientes deban tener estas capacidades. Un sistema podría ser consciente en nuestro sentido incluso si sólo tuviera experiencias conscientes "neutrales". El placer y el dolor son importantes pero no son nuestro enfoque aquí.4







Notas de pie de pagina

  1. Conjunto de primeros autores y autores correspondientes (patrickbutlin@gmail.com, rgblong@gmail.com)  Volver
  2. Una versión anterior de esta frase decía ``... pero también muestra que no existen barreras obvias para construir sistemas de IA conscientes''. Lo hemos modificado para reflejar mejor el mensaje del informe: que satisfacer estos indicadores puede ser factible. Pero satisfacer los indicadores no significaría que un sistema de IA de este tipo fuera definitivamente consciente.  Volver
  3. La "fenomenología" o el "carácter fenomenal" de una experiencia consciente es lo que significa para el sujeto. En nuestra terminología, todas y sólo las experiencias conscientes tienen caracteres fenomenales.  Volver
  4. Para mayor ilustración, aquí hay algunas otras definiciones de conciencia fenoménica: Chalmers (1996): "Cuando pensamos y percibimos, hay un zumbido de procesamiento de información, pero también hay un aspecto subjetivo. Como ha dicho Nagel (1974), hay algo que se asemeja a ser un organismo consciente. Este aspecto subjetivo es la experiencia. Cuando vemos, por ejemplo, experimentamos sensaciones visuales: la cualidad sentida del enrojecimiento, la experiencia de la luz y la oscuridad, la cualidad de profundidad en un campo visual. Otras experiencias acompañan a la percepción en diferentes modalidades: el sonido de un clarinete, el olor de las bolas de naftalina. Luego están las sensaciones corporales, desde dolores hasta orgasmos; imágenes mentales que se evocan internamente; la cualidad sentida de la emoción y la experiencia de una corriente de pensamiento consciente. Lo que une a todos estos estados es que hay algo que se siente al estar en ellos." Graziano (2017): "Puedes conectar una computadora a una cámara y programarla para que procese información visual: color, forma, tamaño, etc. El cerebro humano hace lo mismo, pero además, reportamos una experiencia subjetiva de esas propiedades visuales. Esta experiencia subjetiva no siempre está presente. Una gran cantidad de información visual ingresa a los ojos, es procesada por el cerebro e incluso influye en nuestro comportamiento a través de efectos de priming, sin llegar nunca a la conciencia. Muestre algo verde en el rabillo del campo de visión y pida a las personas que nombren el primer color que les venga a la mente, y será más probable que digan "verde" sin siquiera saber por qué. Pero una cierta proporción del tiempo también afirmamos: "Tengo una experiencia visual subjetiva". Veo esa cosa con mi mente consciente. Ver se siente como algo".  Volver

Comentarios

Entradas más populares de este blog

El Movimiento Relativo de la Tierra y del Eter Luminifero - Michelson and Morley (1887)

!Se acaba de descubrir la ecuación que describe la Realidad Última!