«La Inteligencia Artificial vista desde la Filosofía y la Teología»

«La Inteligencia Artificial vista desde la Filosofía y la Teología»

Por Javier Sánchez Cañizares  (*) @jscanizares.- La Inteligencia Artificial (IA) es uno de los temas de moda. Sus implicaciones generan grandes expectativas pero también inquietudes que no podemos pasar por alto. Por ello la Cátedra CTR ha dedicado su IV Seminario Interdisciplinar a reflexionar sobre los desafíos que a distintos niveles está generando la IA, tanto éticos, como económicos, jurídicos, filosóficos, teológicos, etc. El presente artículo aborda, precisamente, las implicaciones de la IA para la filosofía y la teología.

1.  Introducción

¿Puede un robot tener alma? Quizás sea esta una de las preguntas que vienen a la mente de cualquier persona interesada en cuestiones de fondo sobre la inteligencia artificial (IA). Bastaría espigar los relatos de ciencia ficción sobre robots para darnos cuenta de porqué la pregunta no puede ser postergada. Si rechazamos la visión del fantasma en la máquina, del homúnculo y del Dios intervencionista no parecería haber razones a priori que lo impidan: o bien el alma está ya en la naturaleza como principio irreducible, o bien es un epifenómeno. Tanto en uno como en otro caso, no parece imposible ensamblar materia capaz de pensar y querer, actividades superiores reservadas tradicionalmente al alma humana inmortal.

Ciertamente, con los desarrollos actuales en el campo de la IA parece que nos encontramos en una situación nueva, difícilmente imaginable en otra época de la historia. No se trata evidentemente de que filosofemos desde cero, pero sí que lo hagamos teniendo en cuenta la realidad de los avances técnicos. La IA es testigo de un incremento exponencial en su utilización de artefactos y aplicaciones y, aunque no estemos en absoluto cerca de construir una máquina que tenga las capacidades de un ser humano o que sea capaz de actuar “racionalmente” en todos los escenarios posibles, hay cada vez más algoritmos para multitud de tareas en una gran variedad de dominios (Bringsjord and Govindarajulu 2018).

Ahora bien, ¿qué se entiende habitualmente por filosofía de la IA? Poco podemos decir respecto a la automatización de procesos susceptibles de ser reproducidos como algoritmos que, a fin de cuentas, no son más que una ayuda para otras actividades más propiamente humanas. Ayudar no es sustituir. No se trata por tanto de abordar el hecho incontrovertible de si las máquinas pueden ayudar en actividades humanas, sino la cuestión más controvertida acerca de si pueden pensar, desarrollar una conciencia o llegar a ser libres. Según la entrada de la Stanford Encyclopedia of Philosophy, el campo de la IA puede definirse como el ocupado en la construcción de un artefacto capaz de pasar el test de Turing. Y, de manera más general, puede definirse como el de las máquinas que piensan y/o actúan de manera humana y/o racional. (Bringsjord and Govindarajulu 2018).

La afirmación de que las máquinas podrían actuar como sifueran inteligentes es denominada la hipótesis de la IA débil, mientras que la afirmación de que las máquinas que actúan así, en realidad están pensando (y no solo simulanel pensamiento) se denomina la hipótesis de la IA fuerte. Y no está de más tener en cuenta que la IA se fundó asumiendo que, al menos, la IA débil es posible (Russell and Norvig 2009, 1020). Hay que tener en cuenta, además, que la primera conjetura acerca de los procesos mentales requeridos para producir un comportamiento dado suele ser errónea (Russell and Norvig 2009, 1022). Por eso se antoja extremadamente difícil para los filósofos derrocar a la IA en su versión débil —construir máquinas que parecen tener todo el repertorio mental y el comportamiento de los seres humanos. ¿Qué razón filosófica puede oponerse a que la IA produzca artefactos que aparentan ser animales o incluso humanos? (Bringsjord and Govindarajulu 2018)

Alan Turing apostaba a que con el tiempo, la distinción entre IA débil y fuerte se disolvería. Pero quizás eso es mucho apostar, aunque solo sea por el hecho de que para nosotros, seres humanos, sigue teniendo todo el sentido una distinción fuerte entre interioridad y exterioridad, entre realidad y simulación. Puede no ser imposible simular el comportamiento humano, pero las cuestiones referidas a la autoconciencia, el conocimiento (saber que se sabe), las emociones o la intencionalidad continúan siendo cruciales en cualquier acercamiento realista a la naturaleza humana. Evidentemente, todo ello toca también de lleno el llamado problema mente-cerebro o, si se prefiere, el problema de la naturalización de la mente humana.

2.  Las objeciones tradicionales contra las pretensiones de la IA

Es usual considerar tres grandes grupos de críticas contra las pretensiones de la IA. Me centraré ahora en los dos primeros —los argumentos derivados de los teoremas de Gödel y de la habitación china de Searle— porque apuntan más directamente a la cuestión del conocimiento, de la fundamentación del símbolo y de la inmaterialidad. La tercera gran crítica tiene que ver, a su vez, con la crítica de la inteligencia como simbólica (Dreyfus 1972)(Dreyfus and Dreyfus 1987)(Dreyfus 1992). En este último grupo podríamos incluir los argumentos que subrayan la informalidad de los razonamientos humanos y el problema de la “cualificación”. No obstante, los defensores de IA afirman que las imposibilidades de las que hablan los Dreyfus son oportunidades de mejora para la IA y no imposibilidades reales (Russell and Norvig 2009, 1024–26). Una crítica más actualizada en esta misma línea tendría que ver con una confusión de los defensores de la IA, al menos en sentido fuerte, respecto de la realidad. Para que la IA pudiera seguir avanzando se haría necesario pasar de la perspectiva del pensamiento orientado a objetos a la perspectiva del pensamiento orientado a eventos (Baer 2018).

2.1. Críticas “a la Gödel”

¿Es posible “mecanizar” la mente humana? Desde los descubrimientos de Gödel en 1931 se ha desarrollado toda una línea crítica respecto de esta posibilidad, iniciada por Lucas (Lucas 1961)y continuada por Penrose (Penrose 1989)(Penrose 1994). El punto fuerte de estas argumentaciones estriba en hacer uso del teorema de incompletitud de Gödel para mostrar que existen verdades accesibles a la mente humana que, sin embargo, quedarían fuera de lo que puede alcanzar a demostrar como verdadero un algoritmo. Pero esta línea de argumentación resulta criticada a su vez desde diversas perspectivas. Quizás la más potente es la de los lógicos que ponen en evidencia ciertos presupuestos críticos y usos implícitos de un tipo de lógica que restan universalidad a los argumentos de Lucas y Penrose. A riesgo de hacer una simplificación, se podría decir que los teoremas de Gödel conducen a un dilema lógico respecto de la posibilidad de mecanizar la mente humana: o bien cualquier intento de mecanizar la mente humana es inferior a las capacidades reales de la mente humana (no necesariamente de cualquier mente humana); o bien podría ser superior, pero inferior a un ámbito mental de verdades lógico-matemáticas, de corte platónico, no necesariamente humano.

Las críticas a Lucas y Penrose han venido también del mundo más terrenal de los defensores de la IA. Por una parte, se niega que un sistema inteligente tenga que ser capaz de probar la verdad o falsedad de todas sus afirmaciones (ser completamente consistente); por otra, es posible que también los humanos caigan bajo la limitación que imponen los teoremas de Gödel (Russell and Norvig 2009, 1022–23). Ahora bien, aunque formal o lógicamente esas objeciones sean todas relevantes, es problemático que no afronten el fondo del argumento de Gödel, que tiene que ver con la recursividad y con la capacidad, en principio universal, de la inteligencia humana para objetivar la realidad. Volveré sobre ello más adelante.

De una manera derivada pero en cierto modo natural, las objeciones inspiradas en Gödel han llevado a introducir la relevancia de la mecánica cuántica y sus interpretaciones para discernir los posibles límites de la IA. La cuestión es que la mecánica cuántica y, en particular, el problema de la medida, podrían resultar esenciales, en línea de principio, para resolver el problema mente-cerebro (Sánchez-Cañizares 2014). Desde luego, parecen existir argumentos fuertes para hacer incompatibles las diferentes versiones compatibilistas de la libertad con la indeterminación ontológica de la naturaleza a la que apuntan las correlaciones cuánticas tipo EPR (Sánchez-Cañizares 2017), cada vez mejor testeadas. La única vía de salida para los deterministas extremos es la asunción de un superdeterminismo que tiene poco de científico y mucho de metafísico. La otra cara de la moneda es que quizás la IA haya de reconvertirse en IA cuántica.

La misteriosa y controvertida realidad del proceso de reducción (R) de la función de onda podría ser clave para pasar de una IA en modo “clásico”, que solo simula la inteligencia —sin tener capacidad interpretativa, de conocimiento o de representación más allá de aquello que le ha sido implementado— a una IA “cuántica”, capaz de verdadero conocimiento y agencia (Laskey 2018). Sin embargo, el problema de fondo con el que chocamos una y otra vez llegados a este punto es que R no explica qué es la inteligencia y la volición sino que, por el contrario, asume que hay inteligencia y volición capaz de efectuar el proceso de reducción R al establecerse, por ejemplo, una configuración experimental capaz de obtener información sobre un sistema físico. De este modo, invocando a la mecánica cuántica, ganamos espacio para un verdadero ejercicio de libertad (no compatibilista) en una naturaleza fundamentalmente indeterminista, pero no nos acercamos necesariamente a una comprensión naturalista de la inteligencia y volición humanas.

2.2. La habitación china y el problema de la fundamentación del símbolo

Quizás el argumento más famoso para demostrar la imposibilidad de la IA, al menos en su sentido fuerte, sea el de la habitación china de John Searle (Searle 1980). A pesar de las propuestas acerca de cómo podría llegar a “entender” un robot, todas acaban cayendo en algún tipo de falacia o petición de principio, pues el lenguaje (la comunicación simbólica) es crucial para la inteligencia. Sin embargo, no parece existir un lenguaje “natural”, pues ni la semántica ni la sintaxis son intrínsecas a la naturaleza según Searle (Searle 1997, 14–17)si no se da antes el conocimiento.

Ya se argumentaba en 1988 que los sistemas de inteligencia artificial pueden ser realmente sintácticos y la sintaxis correcta puede constituir una semántica. Mas hemos de reconocer que las técnicas de aprendizaje en IA han avanzado escasamente en el importante problema de construir nuevas representaciones en niveles de abstracción superiores al vocabulario de entrada (Russell and Norvig 2009, chap. 27). El aprendizaje se considera, sobre todo, a partir del modelo de obtención de una función que correlaciona correctamente parejas de datos, pero esto no resuelve para las máquinas el problema del aprendizaje mediante la lectura. Y el hecho es que o bien las máquinas obtienen “conocimiento” a través de los seres humanos que codifican e insertan manualmente información, o bien deberán ser capaces de leer y escuchar sin supervisión alguna.

El problema, evidentemente, tiene que ver con la interpretación, el conocimiento de formas, y la capacidad —aparentemente innata en los humanos— de desarrollar de modo natural y autónomo un lenguaje simbólico. Luciano Floridi ha explicado brillantemente la dificultad del problema de la fundamentación del símbolo (symbol grounding problem) en el contexto de la naturalización de la información y la necesidad de pedir inicialmente el cumplimiento de la condición del “nulo compromiso semántico” (zero semantic commitment), si se quiere de verdad avanzar (Floridi 2011, 134–61). A mi modo de ver, este problema es insoluble, pues ni siquiera la “semántica basada en la acción” (action-based semantics) propuesta por el mismo Floridi (Floridi 2011, 162–81)se libra de circularidad en la argumentación (Sánchez-Cañizares 2016). La impresión es que el argumento de la habitación china sigue siendo bastante sólido, a pesar de su rechazo por parte de los defensores de la IA fuerte, recayendo sobre estos últimos la carga de la prueba.

En cierto modo, las últimas discusiones giran en torno al papel de la complejidad en la naturaleza y si esta, por si sola, es capaz de hacer que emerjan capacidades superiores como la inteligencia, la conciencia o la libertad. Los defensores de un materialismo no reduccionista, por ejemplo, critican el microfisicalismo usado en argumentos clásicos como el de la habitación china o el argumento zombi de Chalmers. Pero si el microfisicalismo no es cierto, como parece no serlo, se podría abrir la puerta a la emergencia de la conciencia a través de la complejidad material (Velasquez 2016), basada en la superveniencia nomológica. Parece que la complejidad, como proceso, está ínsita en la naturaleza y que en esta se da la aparición de ciertas leyes “formales”, que trascienden la pura materialidad o especificidad de los sistemas (Mitchell 2009). El concepto de conciencia como información integrada (Tononi 2008)resulta extremadamente sugerente a este respecto, por su alianza con la idea de complejidad, pero sigue resultando muy controvertido y ha sido criticado también desde presupuestos funcionalistas (Fallon 2017). La cuestión es que la complejidad, por sí sola, no parece suficiente para explicar qué es la inteligencia o la intencionalidad (Deutsch 2011)(Barrett, García-Valdecasas, and Sánchez-Cañizares, n.d.)

Una reflexión relevante, llegados a este punto, es la cuestión de si, en el fondo, es necesario el acontecer de toda la historia del universo para que aparezca la inteligencia. Ciertamente, no se pueden desechar a la ligera ideas como la de que el universo mismo esté llevando a cabo una gran computación (Mitchell 2009, pt. 3), aunque solo sea por su solidaridad de base con las perspectivas superdeterministas y el creciente número de artículos y ficciones al respecto. Pero si estamos dentro de una gran computación, se trata, desde luego, de una computación no algorítmica. Paradojas como la de Boltzmann (es más fácil, estadísticamente hablando, producir cerebros humanos como mera fluctuación aleatoria de la dinámica de nuestro sistema solar que llevar a cabo todo el proceso evolutivo), insinúan que debe haber algo más profundo detrás de la misma evolución del universo y su intrínseca historicidad. No parece posible sustituir la causalidad que se da en la historia real del universo para la emergencia de determinadas formas naturales. En el universo mismo parece haber una direccionalidad –como apunta la bajísima entropía inicial del Big Bang, quizás el misterio más importante de la cosmología actual (Penrose 2016)— y un ajuste fino que lo hace globalmente habitable (biofriendly) (Davies 2013). Pero si la evolución y la historia del universo no son computables, estaríamos perdiendo parte de la fuerza del argumento de los defensores de la IA fuerte. Es la evolución y no nuestra inteligencia la que permite emerger a la inteligencia.

3.  Consideraciones filosóficas

Al acabar la sección anterior enfatizábamos implícitamente la importancia de lo natural frente a lo artificial. Se trata ahora de elucidar algunas cuestiones relativas al concepto de inteligencia y ver, por ejemplo, en qué medida podría resultar producida o ser un efecto colateral o secundario de la evolución o la complejidad de las máquinas.

3.1. El conocimiento como compresión de información

Una primera connotación que viene a la mente a la hora de hablar de inteligencia es su oposición al concepto de azar o aleatoriedad como desconocimiento o incapacidad de ordenación desde algún respecto. En este sentido, el desarrollo de algoritmos para producir resultados o acciones aparentemente muy complejas resulta muy revelador de las capacidades de la inteligencia humana para comprimir información. Así, por ejemplo, la teoría de la información integrada acaba por identificar el fenómeno de la conciencia con información no ulteriormente simplificable. Sería injusto entonces no reconocer los aportes de la teoría de la información algorítmica al desarrollo de la IA y a nuestra misma comprensión más general de la inteligencia. Dicha teoría, supuestamente, proporciona un marco natural para estudiar y cuantificar la conciencia a partir de datos neurofisiológicos o de neuroimagen, asumiendo que la función principal del cerebro es el procesamiento de información. La compresión de esta última proporcionaría la estructura para la experiencia fenoménica (Ruffini 2017).

De hecho, cuando analizamos la estructura del deep learning, podemos aprender de algoritmos de optimización abiertos de qué manera, dentro de los mismos algoritmos, se generan determinadas estructuras y organizaciones capaces de optimizar resultados que hubiesen pasado inadvertidas en el proceso de aprendizaje humano. De modo análogo, el estudio de las correlaciones neurales en determinadas tareas puede enseñarnos acerca del mejor modo de codificar la información para abordar un determinado problema (Kasabov 2019). La investigación sobre IA y la organización del cerebro se estimulan mutuamente; de modo que la organización arquitectónica de uno puede servir para comprender mejor el trabajo en el otro. Pero, obviamente, que la organización cerebral, natural y artificial, resulten cruciales para entender la actividad cognitiva humana no significa que sean suficientes para entender qué es el conocimiento. Algunos siguen considerando esta brecha como algo meramente computacional (Reggia, Huang, and Katz 2017)y, ciertamente, el viaje entre las computadoras y el cerebro humano es de ida y vuelta, pero la brecha respecto del conocimiento no tiene visos de cerrarse (Lake et al. 2016).

3.2. La brecha entre información y conocimiento

A fin de cuentas, ¿qué es comprender?, ¿qué es conocer? La filosofía tradicional ha subrayado la existencia de niveles de abstracción, de diferentes operaciones cognitivas y, en último término, la inmaterialidad o intencionalidad del conocimiento: su referencia inmediata, como objeto, a una realidad extramental. Parece por tanto existir una distinción radical y fundamental entre el contenido o el objeto del conocimiento y sus correlatos neurales en la persona que conoce. Sin duda, hay entre ambos un vínculo que va más allá de las categorías de lo necesario y lo suficiente y que, al mismo tiempo, ha necesitado de un largo proceso histórico, evolutivo, para hacerse presente en la naturaleza. Como apuntábamos antes, la historicidad del universo señala una cierta necesidad de la evolución para que la inteligencia humana pueda aparecer. No se ve manera mejor de expresar la solidaridad del hombre con el cosmos y su proveniencia natural.

Dentro de una lógica diacrónica, parece difícil que la IA sea un sustituto de la inteligencia humana. Le correspondería a la primera más bien un rol de ayuda para la progresiva expansión de la segunda. La evolución del software, mientras que puede ser realmente potente en un sentido, parece ir siempre detrás del entendimiento humano en cuestiones más profundas (de recurrencia, identidad y sentido común). La capacidad creativa humana es clave. Pero cómo se alcanza a tener creatividad está lejos de ser una cuestión algorítmica y programable. Quizás no tanto por la cuestión de la novedad —que se puede simular, pero solo hasta cierto punto (Barrett and Sánchez-Cañizares 2018), introduciendo donde sea necesario cambios pseudoaleatorios— sino por la cuestión de cómo seleccionar las creaciones más prometedoras. Pero el criterio de selección que se alcanza con el conocimiento inmaterial —el de una cierta adecuacióncon (parte de) la realidad— no puede definirse de manera universal y a priori.

Una posible solución para salir del atolladero sería dejar que la propia IA evolucione para que se lleve a cabo la selección de las buenas creaciones (en esa línea van los programas de selección natural de algoritmos para resolver problemas específicos). Lo que resulta menos claro es cuál es el fin de la IA así definida, el problema al que se enfrenta y cuál es su dominio de variabilidad. Dicho con otras palabras, la evolución real no se puede representar de manera algorítmica —ni siquiera sabemos cuáles son los grados de libertad relevantes en la biosfera y mucho menos en el universo (Kauffman 2016)— y es bastante improbable, por no decir imposible, que podamos simular artificialmente toda la evolución (y no digamos ya la evolución de todo el universo). Por tanto, si el problema de la emergencia de la inteligencia personal no es un problema local sino global, que afecta a las condiciones de contorno y al valor de las constantes físicas del universo que nos acoge, resultaría una quimera pretender reproducir esa inteligencia from scratch. Así pues, mi intuición al respecto es que la evolución es necesaria para la aparición de la inteligencia humana: la inteligencia de un viviente particular con una capacidad de objetualización potencialmente infinita. ¿Pero es la evolución suficiente?

3.3. Conciencia y qualia

El conocimiento lleva anejo la autoconciencia como cierta reflexión a partir de lo conocido: conocer que se conoce. Sin embargo, para algunos defensores de la IA fuerte, las experiencias subjetivas llamadas qualiason un efecto secundario de la computación, que se produce involuntariamente mientras se procesa la información, de manera similar a la generación de calor, el ruido o la radiación electromagnética y sería igualmente no intencional. Se plantea por tanto la posibilidad de crear únicamente programas que se comporten de manera inteligente.

Ahora bien, si se deja al margen el problema de la autoconciencia y la experiencia subjetiva de lo conocido como un pseudoproblema, ¿podría convertirse el programa de la IA en un pseudoprograma? Como bien explica Searle, nuestra experiencia de la conciencia es la conciencia(Searle 1997)o, como espetó Rowan Williams a Richard Dawkins en el debate que mantuvieron en Oxford en 2012, si la conciencia es una ilusión, ¿qué no lo es? ¿Se puede pretender negar la “apariencia de realidad” a partir de una “realidad más profunda”? ¿No debería ser cualquier programa honesto de IA uno que pretenda seriamente recuperar la experiencia de primera persona desde sus propios presupuestos, en vez de simplemente negarla? El problema sería entonces cómo reconocer dicha experiencia de una manera no extrínseca.

3.4. Retorno al alma y al conocimiento inmaterial

Empezábamos esta contribución con la pregunta sobre el alma de los robots. Pero es notorio cómo este término se halla cada vez más ausente en las discusiones acerca de qué sea la inteligencia, artificial o natural. Curiosamente, el término “alma” se puede encontrar en cada período de la historia, en cada civilización, en cada filosofía y en cada religión. Sin embargo, las referencias al alma son prácticamente inexistentes en las ciencias contemporáneas. En mi opinión, las razones que han llevado a este olvido tienen que ver con la tendencia general en la ciencia moderna a identificar la causalidad con causalidad eficiente y material, de abajo a arriba (bottom-up) y la novedad con una emergencia epistémica o débil. Pero las explicaciones bottom-upsobre la emergencia de la mente, basándose en la causa eficiente de las interacciones físicas en el cerebro, descuida formas más sutiles de causalidad que operan en la naturaleza desde el principio y parecen ofrecer una mejor explicación, por ejemplo, de la existencia de sistemas adaptativos complejos. La verdadera causalidad de arriba hacia abajo (top-down), irreducible a la suma de las causaciones bottom-up, se desarrolla en aquellos seres naturales donde las condiciones de frontera y su relación específica con el entorno seleccionan la dinámica de los niveles inferiores compatibles con la existencia y los objetivos del ser en cuestión.

Se considera usualmente que los sistemas adaptativos complejos combinan óptimamente resiliencia y adaptabilidad para mantener su identidad en un entorno cambiante. Gozan de una plasticidad capaz de dedicar solo los recursos verdaderamente necesarios para afrontar con éxito las diversas condiciones ambientales. Ahora bien, ¿no podríamos ver entonces el conocimiento intelectual como aquella facultad que redefine los contextos relevantes para el hombre en cada situación y por ello resulta máximamente plástica? Como explica Gianfranco Basti, gracias a su capacidad para generalizar y abstraer con respecto a todos los datos singulares, el conocimiento humano se puede enfocar en una infinidad de casos similares. Y cuando el enfoque resulta inadecuado para un nuevo conjunto de datos, el procedimiento de adaptación cognoscitiva puede repetirse indefinidamente. Todo esto apunta a una clausura trascendente de la jerarquía finita de los sentidos internos y externos: una autoconciencia de índole no orgánica que no está condicionada materialmente por el pasado (es capaz de novedad) y que los antiguos solían denominar intelecto(Basti 2002).

Ya para Descartes, la diferencia específica que marca a la inteligencia humana se encuentra en que los procesos mecánicos no pueden en ningún caso alcanzar la universalidad de la primera. Por ello, la IA no es capaz de crear una inteligencia general o universal. En este sentido, Descartes parece ser mejor profeta que Turing (Bringsjord and Govindarajulu 2018). Mientras que todo ente material tiene necesidad de una adaptación especial para cada acción, el entendimiento humano, gracias a su inmaterialidad, es universal. En otras palabras, aunque también hunda sus raíces en la evolución, el conocimiento inmaterial que brinda el intelecto permite al ser humano abordar nuevos problemas más allá del peligroso ciclo de ensayo y error, sin estar totalmente condicionado por un entorno físico siempre amenazante para su vida, y sin tener que abordarlos de manera algorítmica. A diferencia de lo que sucede con la expresión genética, los conceptos e ideas se comparten y seleccionan entre los humanos de acuerdo con su validez intrínseca para describir adecuadamente el mundo. Por lo tanto, amén de conferir unidad a todas las actividades corporales, las operaciones cruciales y distintivas del alma humana no son fisiológicas sino informativas: aquellas que permiten un verdadero conocimiento del mundo.

“El alma es, en cierto modo, todo lo existente” (Aristóteles, De Anima, III, 8). ¿Lo puede ser un robot? Mucho me temo que no, pues eso significaría que los humanos hemos sabido desentrañar absolutamente todo el misterio del conocimiento intelectual, que perdería así su carácter de don para convertirse en un producto. Como recuerda la filosofía clásica, lo natural es generado y lo artificial es producido.

4.   Reflexiones teológicas

4.1. La pista del lenguaje

Realizo ahora una serie de consideraciones teológicas en relación con lo específicamente humano: la existencia de un alma inmaterial como forma del viviente hombre. Sé que asumo un riesgo al hablar de especificidad humana; no solo por la posibilidad de error sino por la proximidad a la denostada visión de Dios como “dios de los agujeros” (god of the gaps). Nada más lejos de mi intención que caer en dicha caricatura de lo divino, pero también creo que es necesario reconocer que hay agujeros y agujeros. Y no todos son del mismo tamaño ni se pueden rellenar con el mismo “material” en nuestro conocimiento.

En el último apartado he realizado una defensa fuerte del concepto de inmaterialidad como lo específico del intelecto humano. Para ser más preciso ahora, lo que quiero decir con ello no es que no haya inmaterialidad en la naturaleza infrahumana —pienso que la hay desde el principio— sino que en el ser humano se da lo que doy en llamar el “despegue” de la inmaterialidad: aquella singularidad en que lo material y lo inmaterial no tienen que estar necesariamente unidos, aunque de hecho lo estén mientras el hombre está vivo. Quizás sea en la convencionalidad del lenguaje donde esto se ilustre más claramente. Tenemos, como seres humanos, la libertad de utilizar el soporte material que deseemos para transmitir nuestros conceptos e ideas, de modo que la aparición de la capacidad de lenguaje simbólico y del hombre sobre la tierra parecen ser solidarios, siendo el primero manifestación inequívoca del segundo.

Parece ser comúnmente aceptado que la construcción del lenguaje está estrechamente ligada a la necesidad de comunicación social, esencial al hombre. Nos moveríamos aquí dentro de una comprensión más relacional de la naturaleza humana. Ahora bien, ¿dónde está la especificidad respecto de la comunicación que se da entre otros animales sociales? Pues bien, como señala Pannenberg, en la cuestión de los orígenes del lenguaje dentro de la historia humana, el verdadero enigma es su función representativa: la representación de objetos en palabras y oraciones. Los animales entienden las señales y se dan señales para influir en el comportamiento de los congéneres. Pero el paso decisivo en la construcción del lenguaje es la transición de las señales a nombres dirigidos a objetos (Pannenberg 2008, 79).

Más aún, el sonido reemplaza el objeto con el que se juega, evoca el significado asociado y representa para el individuo la objetividad del objeto. La presencia en la palabra del objeto ausente constituye la esencia de la palabra como símbolo. ¿Cómo es posible esto en un mundo supuestamente solo material, gobernado de modo efectivo por interacciones locales? Quizás porque la naturaleza no es solamente material con interacciones locales. Para Pannenberg, de hecho, el lenguaje surge de una emoción originalmente religiosa. Por lo tanto, no es menos una creación humana, pero precisamente como tal, como toda actividad humana creadora, está en deuda con la experiencia y la inspiración. Pero entonces, resulta una evidencia importante para reforzar la tesis de que la vida humana finalmente se sostiene y se mantiene en movimiento desde un estrato religioso más profundo (Pannenberg 2008, 80).

¿Cuál es este estrato religioso más profundo del que estamos hablando? Si resulta algo definitivo y definitorio de la especie humana, ¿podría tenerlo o desarrollarlo la IA? No existen muchas referencias a una eventual religiosidad de las máquinas. Podemos preguntar a Siri, Cortana o Google al respecto para escuchar su respuesta. La cuestión es que el lenguaje simbólico permite no solo el despegue de la inmaterialidad, sino el despegue relacional del hombre, capaz de relaciones cada vez más numerosas y cada vez más integradas —capaz, en definitiva, de una singular complejidad. El vértice o ápice de esta singularidad viene determinado por la capacidad de conocer el universo —la tendencia humana a la verdad como fin de su vida— y de ser interlocutor de Dios —una verdad que no es poseída o integrada sino en la que somos asumidos e integrados, “hasta que Dios sea todo en todos” (1Co15,28).

Siri, Cortana o Google no hacen sino reflejar la opinión de sus creadores humanos, pues quedan al margen de las finalidades y capacidades que corresponden a la inteligencia natural. ¿Qué finalidad última puede tener la IA más allá de la que le venga impuesta por sus creadores (hombre o robot construido por un hombre)? El tema no parece ser muy tratado por los teóricos de la IA, confiando quizás en que de la complejidad de los procesos emergerán las finalidades de las máquinas. ¿Pero cuánto de supervisado es, en realidad, el aprendizaje no supervisado? ¿Hay finalidades intrínsecas de las máquinas o se trata más bien de finalidades subrepticiamente impuestas por los creadores humanos en base a su ser natural con tendencias? ¿La finalidad última de la inteligencia humana, del hombre como ser con orexis, puede ser recreada artificialmente?

4.2. La relación personal con Dios como constitutivo esencial de la inteligencia natural

Estas preguntas nos conducen derechamente a la consideración clásica de la inteligencia como lo más directamente dado por Dios. Entiéndaseme bien: dado directamente no como producido directamente (en el sentido de la eficiencia), sino en el sentido de una relación directa, especial y única en todo el universo con el Creador: lo más transparente a Dios. Para Aristóteles, la inmaterialidad del noûses el elemento divino en el hombre, quizás más divino que aquel primer motor inmóvil al que corresponde el papel de deus ex machinaen la física del Estagirita. El Catecismo de la Iglesia Católica recuerda, en su número 356 que “de todas las criaturas visibles sólo el hombre es ‘capaz de conocer y amar a su Creador’ (…); es la ‘única criatura en la tierra a la que Dios ha amado por sí misma’ (…); sólo él está llamado a participar, por el conocimiento y el amor, en la vida de Dios. Para este fin ha sido creado y ésta es la razón fundamental de su dignidad”.

Nótese bien que el fin y la razón última de la dignidad coinciden. Y coinciden, a mi modo de ver, porque la inteligencia, como chispazo de la imagen divina, hace al hombre capax Dei, de un Dios que, de hecho, quiere entrar en relación con él, por sí mismo, desde su creación. Cuando, en el ya citado debate de Oxford, Richard Dawkins pregunta al arzobispo Williams si los cristianos aún siguen creyendo en la supervivencia de algo así como el alma después de la muerte, la respuesta del arzobispo resulta paradigmática a la hora de entender correctamente la subsistencia del alma y la especificidad humana: “los cristianos creemos que el diálogo que Dios inicia con cada uno de nosotros en la creación no resulta interrumpido ni siquiera con la muerte”. El problema de la subsistencia del alma se suaviza cuando la perspectiva fundamental es relacional y no sustancialista, sin que ello prejuzgue el que se pueda recuperar la individualidad y racionalidad de la definición boeciana de persona desde la relación fundamental con Dios.

Si nos atenemos al contenido del n. 22 de Gaudium et spesen un sentido fuerte, el misterio del hombre solo se revela plenamente a la luz del misterio del Dios encarnado. Entonces, la figura de Jesús significa que el hombre no es un producto trivial de la evolución sino algo radicalmente referido a otra cosa: el contenido de la vida de Jesús consiste precisamente en el encuentro, en el intercambio con aquel a quien llama Padre. En que se acepta desde Él y desde Él encuentra su camino. Creer en Jesús quiere decir, por consiguiente, creer que existe una verdad desde la que el hombre viene y que es su verdad más íntima, su verdadera esencia (Ratzinger 1985, 109). Pero el hombre pertenece a la naturaleza, es naturaleza. Por eso la encarnación posee una dimensión de recapitulación cósmica a través del envío del Espíritu Santo, de modo que el universo mismo está a la espera de adquirir su significado pleno mediante el hombre redimido (Rm8,19), capaz de superar el pacto roto con la naturaleza (Novo, Sánchez-Cañizares, and Pereda 2018). En mi opinión, la etiqueta “inteligencia artificial” es una metáfora, en el mejor de los casos, y un oxímoron en el peor. La inteligencia solo puede ser natural, porque solo Dios puede crear seres verdaderamente inteligentes llamados a la comunión con Él en la recapitulación universal.

5.  Conclusiones

Según Russell y Norwig, los argumentos a favor y en contra de la IA fuerte no son concluyentes. Pocos investigadores de la corriente principal de la IA creen que algo significativo depende del resultado del debate y la conciencia sigue siendo un misterio (Russell and Norvig 2009, 1040). ¿Pero por qué es tan difícil llegar a un acuerdo sobre estas cuestiones? Quizás porque el punto de partida es verdaderamente diverso y se dan muchas peticiones de principio escondidas. También la inteligencia es un misterio para los creyentes y, en la práctica, solo se puede aspirar a describirla. Pero no es esta, desde luego, la perspectiva del funcionalismo, la filosofía de la mente más naturalmente sugerida por la IA (Russell and Norvig 2009, 1042).

Para el funcionalismo, la perspectiva “basta con el cerebro” (narrow content) es la más apropiada y resulta suficiente: simplemente no tiene sentido decir que si un sistema de IA está realmente pensando o no depende de las condiciones fuera de ese sistema(Russell and Norvig 2009, 1029). Ahora bien, aquí se ve de modo muy claro el a priori funcionalista. Si solo se admite una definición funcional de la inteligencia es lógico que la IA aspire a producirla. Por el contrario, solo desde una perspectiva ampliada (wide content) —en el espacio y en el tiempo— tiene sentido decir que el estado físico del cerebro no determina el contenido mental. El estado mental no solo depende del cerebro. Los cerebros no son sistemas cerrados; están en continua interacción con el cuerpo y con el entorno. Tienen una historia. Se hace por ello también necesaria una teoría de la mente extendida (Fuchs 2017).

El funcionalismo, mediante el experimento mental del reemplazo de cerebro por su equivalente funcional, afirma que se debe creer que la conciencia se mantiene cuando todo el cerebro es reemplazado por un circuito que actualiza su estado y mapea las entradas y salidas a través de una enorme tabla de entradas y salidas (Russell and Norvig 2009, 1030). Pero el problema de fondo es la reducción que pretende encerrar la conciencia en un sistema físico aislado. El experimento es imposible porque el cerebro necesita estar en un ser vivo, lo que significa estar en un tipo de interacción muy determinada (y únicamente determinada por toda la historia del universo) con el entorno. Es difícil no estar de acuerdo con Searle en este punto cuando afirma que los estados mentales no se pueden duplicar solo sobre la base de que algún programa tenga la misma estructura funcional, con el mismo comportamiento de inputs y outputs. Necesitaríamos que el programa se ejecute en una arquitectura con el mismo poder causal que las neuronas. Pero mis objeciones van más allá de las de Searle.

Lo que sostengo en esta contribución es que hay inmaterialidad en la naturaleza. Es más, está desde el principio en ella como lo dado, y no como lo producido. La emergencia de la inteligencia personal —junto con la autoconciencia y la libertad— es un proceso evolutivo no algorítmico en el que se alcanza un vértice en el nivel de complejidad del viviente: la posibilidad de una inmaterialidad no ligada a la materia. Por eso, un robot solo puede aproximarse a simular el comportamiento humano en un rango determinado de tareas, susceptible de compresión algorítmica. Si este argumento no se admite creo que solo se puede añadir que la carga de la prueba reside en la IA. Para ello, la IA no debe simplemente constatar que se dan, supuestamente, comportamientos inteligentes en las máquinas, sino explicar, causalmente, cómo se llegarían a producir.

Las condiciones de habitabilidad e inteligibilidad globales del universo en que vivimos resultan, a mi modo de ver, una pista muy relevante para entender por qué la inteligencia está en la naturaleza como lo dado y no como lo producido. La pregunta adicional que ha de abordar el programa de IA es si en su visión del mundo hay lugar para la manifestación del don o simplemente para el dominio explotador de la producción. Quizás pocos discursos han expresado mejor este dilema como el del replicante Roy Batty, en el primer Blade Runner, después de buscar desesperadamente a su creador antes de morir: “Yo… he visto cosas que vosotros no creeríais: naves de combate en llamas más allá de Orión. He visto rayos C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Todos esos momentos se perderán… en el tiempo… como lágrimas en la lluvia. Es hora de morir”. Roy parece quedarse a las puertas de alcanzar el punto crucial de humanidad: la posibilidad, que trasciende a la muerte, de relacionarse con su auténtico Creador.

6.  Referencias

Baer, Wolfgang. 2018. “Countering the Artificial Intelligence Threat.” Cosmos and History: The Journal of Natural and Social Philosophy14 (1): 17–26.

Barrett, Nathaniel F., Miguel García-Valdecasas, and Javier Sánchez-Cañizares. n.d. “‘I Can’ vs. ‘I Want’: What’s Missing from Gallagher’s Picture of Non-Reductive Cognitive Science.” Australasian Philosophical Review. doi:10.1080/24740500.2018.1552099.

Barrett, Nathaniel F., and Javier Sánchez-Cañizares. 2018. “Causation as the Self-Determination of a Singular and Freely Chosen Optimality.” The Review of Metaphysics71 (4): 755–87.

Basti, Gianfranco. 2002. “Mind-Body Relationship.” INTERS – Interdisciplinary Encyclopedia of Religion and Science. doi:10.17421/2037-2329-2002-GB-2.

Bringsjord, Selmer, and Naveen Sundar Govindarajulu. 2018. “Artificial Intelligence.” The Stanford Encyclopedia of Philosophy. Edward N. Zalta. https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/.

Davies, Paul. 2013. “The Nature of the Laws of Physics and Their Mysterious Biofriendliness.” Euresis5 (Summer): 15–36.

Deutsch, David. 2011. The Beginning of Infinity. Explanations That Transform the World. London: Penguin Books.

Dreyfus, Hubert. 1972. What Computers Can’t Do. Cambridge, MA: MIT Press.

———. 1992. What Computers Still Can’t Do. Cambridge, MA: MIT Press.

Dreyfus, Hubert, and Stuart Dreyfus. 1987. Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. New York, NY: Free Press.

Fallon, Francis. 2017. “Integrated Information Theory (IIT) and Artificial Consciousness.” In Advanced Research on Biologically Inspired Cognitive Architectures, edited by Jordi Vallverdu, Manuel Mazzara, Max Talanov, Salvatore Distefano, and Robert Lowe, 1–23. Hershey, PA: IGI Global. doi:10.4018/978-1-5225-1947-8.ch001.

Floridi, Luciano. 2011. The Philosophy of Information. Oxford: Oxford University Press.

Fuchs, Thomas. 2017. Ecology of the Brain: The Phenomenology and Biology of the Embodied Mind. Oxford: Oxford University Press.

Kasabov, Nikola K. 2019. “From Brain-Inspired AI to a Symbiosis of Human Intelligence and Artificial Intelligence.” In , 701–14. Springer, Berlin, Heidelberg. doi:10.1007/978-3-662-57715-8_22.

Kauffman, Stuart A. 2016. Humanity in a Creative Universe. Oxford: Oxford University Press. https://global.oup.com/academic/product/humanity-in-a-creative-universe-9780199390458?cc=es&lang=en&.

Lake, Brenden M., Tomer D. Ullman, Joshua B. Tenenbaum, and Samuel J. Gershman. 2016. “Building Machines That Learn and Think like People.”ArXiv:1604.00289v1[Cs.AI], no. c: 1–55. doi:1511.09249v1.

Laskey, Kathryn Blackmond. 2018. “A Theory of Physically Embodied and Causally Effective Agency.” Information9 (10): 249. doi:10.3390/info9100249.

Lucas, John R. 1961. “Minds, Machines and Gödel.” Philosophy36: 112–27.

Mitchell, Melanie. 2009. Complexity: A Guided Tour. New York: Oxford University Press.

Novo, Javier, Javier Sánchez-Cañizares, and Rubén Pereda. 2018. Naturaleza Creativa. Madrid: Rialp.

Pannenberg, Wolfhart. 2008. The Historicity of Nature. Essays on Science and Theology. West Conshohocken, Pa.: Templeton Foundation Press.

Penrose, Roger. 1989. The Emperor’s New Mind. Concerning Computers, Minds, and The Laws of Physics. Oxford: Oxford University Press.

———. 1994. Shadows of the Mind. Oxford: Oxford University Press.

———. 2016. Fashion, Faith and Fantasy in the New Physics of the Universe. Princeton – Oxford: Princeton University Press.

Ratzinger, Joseph. 1985. Teoría de Los Prncipios Teológicos. Materiales Para Una Teología Fundamental. Barcelona: Herder.

Reggia, James A, Di-wei Huang, and Garrett Katz. 2017. “Exploring the Computational Explanatory Gap,” 1–20. doi:10.3390/philosophies2010005.

Ruffini, Giulio. 2017. “An Algorithmic Information Theory of Consciousness.” Neuroscience of Consciousness3 (1). doi:10.1093/nc/nix019.

Russell, Stuart, and Peter Norvig. 2009. Artificial Intelligence: A Modern Approach. 3rd ed. Saddle River, NJ: Prentice-Hall.

Sánchez-Cañizares, Javier. 2014. “The Mind-Brain Problem and the Measurement Paradox of Quantum Mechanics: Should We Disentangle Them?” NeuroQuantology12 (1): 76–95. doi:10.14704/nq.2014.12.1.696.

———. 2016. “Entropy, Quantum Mechanics, and Information in Complex Systems a Plea for Ontological Pluralism.” European Journal of Science and Theology12 (1).

———. 2017. “¿Es Compatible El Compatibilismo Con La Existencia de Correlaciones Cuánticas Del Tipo EPR?” Pensamiento73 (276): 599–602. doi:pen.v73.i276.y2017.027.

Searle, John R. 1997. The Mystery of Consciousness. New York: New York Review of Books.

Searle, John R. 1980. “Minds, Brains, and Programs.” Behavioral and Brain Sciences3 (3): 417–57.

Tononi, Giulio. 2008. “Consciousness as Integrated Information: A Provisional Manifesto.” Biological Bulletin, no. December: 216–42.

Velasquez, Reinaldo Bernal. 2016. “An Emergentist Argument for the Impossibility of Zombie Duplicates.” FMSH-WP-2016-120Décembre.

(*) Profesor de la Universidad de Navarra, Director del Grupo “Ciencia, Razón y Fe” (CRYF) y miembro del Grupo “Mente-cerebro” del Instituto Cultura y Sociedad (ICS).

Artículo publicado el 19 diciembre, 2018 en la revista electrónica FronterasCTR de la Cátedra Hana y Francisco José Ayala de Ciencia, Tecnología y Religión de la Universidad Pontifica Comillas, Madrid.

Editor