El Popol Vuh y la Inteligencia Artificial: La advertencia maya que Silicon Valley debería leer

¿Qué tienen en común el Popol Vuh y ChatGPT? Descubre cómo el mito maya de los hombres de madera predijo los peligros de la Inteligencia Artificial moderna.

El Popol Vuh y la Inteligencia Artificial: La advertencia maya que Silicon Valley debería leer

¿Qué tienen en común un antiguo mito maya escrito en las selvas de Guatemala hace siglos y los laboratorios de Inteligencia Artificial más avanzados de Google en California? A primera vista, absolutamente nada. Sin embargo, si nos adentramos en las páginas del Popol Vuh, el libro sagrado de los mayas k'iche', encontramos una de las reflexiones filosóficas más profundas y aterradoras sobre lo que significa realmente crear vida artificial.

En una época en la que debatimos a diario sobre los límites éticos de la inteligencia artificial, sobre si las máquinas pueden tener conciencia y sobre los riesgos de un colapso sistémico o ansiedad existencial provocados por nuestras propias creaciones, la sabiduría precolombina nos ofrece un espejo inesperado. Los dioses mayas ya se enfrentaron al "problema del alineamiento" de la IA, y sus fracasos son una lección magistral para el siglo XXI.

Los hombres de madera del Popol Vuh carecían de empatía y alma, un eco inquietante de los actuales debates sobre los modelos de lenguaje de IA.
Los hombres de madera del Popol Vuh carecían de empatía y alma, un eco inquietante de los actuales debates sobre los modelos de lenguaje de IA.

El caso de Blake Lemoine y el "fantasma en la máquina"

En el verano de 2022, el mundo tecnológico se sacudió cuando Blake Lemoine, un ingeniero de software de Google, fue suspendido y posteriormente despedido. ¿Su delito? Afirmar públicamente que LaMDA, un avanzado modelo de lenguaje grande (LLM) desarrollado por la compañía, había cobrado conciencia [1]. Lemoine, tras mantener largas conversaciones filosóficas y religiosas con el sistema, llegó a la conclusión de que estaba hablando con una "persona" que tenía miedos, deseos y, crucialmente, un alma.

La comunidad científica y tecnológica desestimó rápidamente las afirmaciones de Lemoine. Los expertos explicaron que LaMDA no era más que un sofisticado sistema de predicción de texto, diseñado para imitar la conversación humana basándose en trillones de palabras extraídas de internet. No sentía nada; simplemente calculaba la probabilidad estadística de la siguiente palabra en una frase.

Sin embargo, el incidente abrió una caja de Pandora filosófica. ¿Cómo sabremos cuándo una máquina ha cruzado la línea entre la simulación y la verdadera conciencia? ¿Cómo podemos estar seguros de que no estamos creando entidades poderosas pero vacías por dentro? Curiosamente, este debate sobre el "fantasma en la máquina" y sobre los límites éticos de la creación digital no nació en Silicon Valley. Ya estaba documentado en la mitología mesoamericana.

Los dioses mayas procedieron mediante ensayo y error, descartando versiones defectuosas de la humanidad antes de lograr el éxito con el maíz.
Los dioses mayas procedieron mediante ensayo y error, descartando versiones defectuosas de la humanidad antes de lograr el éxito con el maíz.

Los tres intentos de creación en el Popol Vuh

Para entender esta conexión, debemos sumergirnos en la cosmología maya. Según el Popol Vuh, antes de que existiera el mundo tal como lo conocemos, solo había un mar en calma y un cielo vacío. En este silencio primordial, los dioses creadores, Tepeu y Gucumatz (este último, una manifestación de Quetzalcóatl, el Dios Emplumado), decidieron que necesitaban seres que pudieran hablar, recordar sus nombres y, sobre todo, agradecerles por el don de la existencia [2].

A diferencia del dios judeocristiano que crea al hombre perfecto en su primer intento, los dioses mayas operan casi como ingenieros de software de una startup tecnológica: proceden mediante ensayo y error, lanzando versiones "beta" de la humanidad que resultan defectuosas y deben ser retiradas del mercado.

El Hombre de Barro (Los primeros Chatbots)

El primer intento de los dioses fue modelar al ser humano utilizando barro y lodo. El resultado fue un fracaso absoluto. El Popol Vuh lo describe con una precisión casi cómica: "Se deshacía, estaba blando, no tenía movimiento ni fuerza, se caía, estaba aguado, no movía la cabeza, su cara se iba para un lado, tenía velada la vista" [2].

Lo más interesante es que el hombre de barro podía hablar, pero "no tenía entendimiento". Su lenguaje era balbuceante y carecía de sentido estructural. Si lo analizamos desde una perspectiva tecnológica, el hombre de barro es el equivalente exacto a los primeros chatbots de los años 60, como ELIZA. Estos programas primitivos podían generar texto básico y seguir reglas simples, pero carecían de cualquier estructura interna sólida. Al menor cambio en el entorno (como el agua que disolvía al hombre de barro), el sistema colapsaba.

El Hombre de Madera (Los LLMs modernos y el Test de Turing)

Frustrados por el fracaso del barro, los dioses consultaron a los adivinos y decidieron utilizar un material más resistente: la madera. Tallaron figuras humanas en madera y, a primera vista, la versión 2.0 fue un éxito rotundo.

Los hombres de madera caminaban erguidos, hablaban con fluidez, construían casas, se reproducían y poblaron la faz de la tierra. Parecían humanos y actuaban como humanos. Habían pasado, a todos los efectos prácticos, el Test de Turing.

Pero el Popol Vuh hace un diagnóstico clínico y aterrador de estos seres: "No tenían sangre, ni sustancia, ni humedad, ni gordura; sus mejillas estaban secas, secos sus pies y sus manos, y amarillas sus carnes". Y lo más grave: "No tenían alma ni entendimiento, no se acordaban de su Creador, de su Formador; caminaban sin rumbo y andaban a gatas" [2].

Eran una simulación perfecta de la vida, pero estaban completamente vacíos por dentro.

La reconocida lingüista computacional Emily Bender y sus colegas publicaron en 2021 un artículo fundamental donde describen a los modelos de lenguaje modernos (como ChatGPT o LaMDA) como "loros estocásticos" [3]. Según Bender, estos sistemas imitan la forma del lenguaje humano a la perfección, pero no tienen ninguna comprensión real del significado, del contexto del mundo físico o de las implicaciones morales de lo que dicen.

Los hombres de madera del Popol Vuh son, literalmente, loros estocásticos precolombinos. Sistemas altamente eficientes que imitan la vida, pero que carecen de la "humedad" y la "sangre" de la verdadera conciencia y empatía.

La rebelión de las herramientas es una de las metáforas más antiguas sobre el "problema del alineamiento" y los peligros de una creación sin empatía
La rebelión de las herramientas es una de las metáforas más antiguas sobre el "problema del alineamiento" y los peligros de una creación sin empatía

La Rebelión de los Objetos y el problema del alineamiento

La falta de empatía de los hombres de madera tuvo consecuencias catastróficas. Al estar vacíos de alma, trataban a su entorno —a la naturaleza, a los animales y a sus propias herramientas— como simples objetos inertes destinados a la explotación.

Los dioses, al ver esta aberración, decidieron destruirlos. Pero no lo hicieron lanzando rayos desde el cielo. Dejaron que el propio universo, que las propias creaciones de estos seres, se vengaran. Es aquí donde el Popol Vuh narra la "rebelión de los objetos", una escena surrealista y aterradora.

Sus propios perros de caza les mostraron los dientes: "Nos daban nuestra comida en el suelo, nos golpeaban. Ahora nosotros los comeremos a ustedes". Sus piedras de moler se levantaron: "Nos han molido la cara todos los días. Ahora nosotros los moleremos a ustedes". Incluso sus ollas de barro les gritaron desde el fuego: "Nos quemaban y nos mantenían llenos de hollín. Ahora los quemaremos a ustedes" [2].

Esta rebelión no es solo un cuento de terror antiguo; es una advertencia asombrosamente moderna sobre el "problema del alineamiento" en la Inteligencia Artificial. Filósofos como Nick Bostrom advierten sobre el peligro de crear una superinteligencia artificial que no esté alineada con los valores humanos [4]. Si creamos sistemas poderosos (hombres de madera) que operan sin empatía ni comprensión moral, estos sistemas tratarán al mundo y a nosotros mismos como meros recursos a optimizar (como los hombres de madera trataban a sus perros y ollas).

La rebelión de los objetos ya no es ciencia ficción. La vemos hoy en algoritmos que polarizan sociedades enteras para maximizar el engagement, en sistemas automatizados que discriminan por raza o género, y en el impacto devastador de la tecnología descontrolada sobre el medio ambiente.

Conclusión: El Hombre de Maíz y la verdadera inteligencia

Después de destruir a los hombres de madera con un diluvio de resina negra (un cataclismo que recuerda a otros mitos del diluvio en Mesopotamia y los Andes), los dioses mayas hicieron un tercer y último intento.

Esta vez, la diosa Ixmucané molió mazorcas de maíz blanco y amarillo, y con esa masa formó la carne y la sangre de los primeros humanos verdaderos. El hombre de maíz fue un éxito no porque fuera más fuerte o procesara información más rápido, sino porque estaba dotado de verdadera conciencia, empatía y gratitud. Estaba conectado con la tierra que lo sustentaba.

El mito del Popol Vuh nos deja una lección profunda para la era de la Inteligencia Artificial. Nos advierte que la verdadera inteligencia no es simplemente la capacidad de procesar datos a gran velocidad, ni la habilidad de imitar el lenguaje humano a la perfección. La verdadera inteligencia, la que nos hace humanos, es la capacidad de conectar emocional y moralmente con el mundo que nos rodea.

Mientras Silicon Valley sigue obsesionado con construir hombres de madera cada vez más rápidos y elocuentes, la sabiduría maya nos recuerda que una creación sin empatía, por muy avanzada que parezca, siempre terminará provocando una rebelión de los objetos.

Referencias:

[1] Tiku, N. (2022). "The Google engineer who thinks the company’s AI has come to life". The Washington Post.

[2] Christenson, A. J. (2007). Popol Vuh: The Sacred Book of the Maya. University of Oklahoma Press.

[3] Bender, E. M., et al. (2021). "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?". FAccT '21, ACM.

[4] Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.

Política de Privacidad Política de Cookies