Nada se apaga del todo
En Blade Runner hay un momento que no se sostiene sobre la lógica, sino sobre una urgencia casi animal que todavía intenta hablar el idioma de la razón. Roy Batty llega hasta Eldon Tyrell no como quien visita a su creador, sino como quien se presenta ante el último límite esperando que, por alguna grieta técnica, se cuele una excepción. No pide una revelación, pide tiempo. Más vida. Una prórroga mínima en el mecanismo que lo condena. Tyrell responde desde una serenidad clínica, enumerando restricciones, imposibilidades, ecuaciones cerradas, como si la muerte fuera un problema de diseño ya resuelto y no quedara margen para ninguna forma de súplica. El desajuste es brutal porque ambos hablan desde lenguajes que no llegan a tocarse. Batty habla desde la experiencia, desde el miedo, el cansancio, la rabia de quien ha visto demasiado para aceptar que todo termine; Tyrell habla desde la arquitectura, desde los protocolos, desde la fría elegancia de un sistema que no puede corregirse sin romperse. Lo que se revela en esa escena no es solo la frustración del replicante, sino algo más hondo, incluso en un mundo donde la vida puede fabricarse, la finitud sigue siendo innegociable.
Más tarde, bajo la lluvia, en una azotea que parece menos un lugar que un borde del mundo, Batty ya no negocia. Ha abandonado la esperanza de modificar su destino y solo le queda registrar aquello que está a punto de perderse con él. «All those moments will be lost in time, like tears in rain», dice, y la frase contiene una contradicción bellísima, porque al nombrar la desaparición la detiene durante un instante. Lo que iba a perderse sin testigos queda suspendido en el aire, como si la memoria, antes de apagarse, quisiera ofrecer su última resistencia al silencio. No hay promesa de continuidad, no hay archivo estable, no hay religión que lo acoja ni máquina capaz de conservar sin distorsión aquello que ha vivido. Solo quedan imágenes sueltas, fragmentos de una intensidad inútil, experiencias que no pertenecen a nadie más y que, sin embargo, al ser dichas, rozan por un segundo la posibilidad de permanecer. Batty no vence a la muerte. Ni siquiera la retrasa. Pero consigue algo más extraño, convierte su desaparición en una forma mínima de presencia.
Las culturas han hecho siempre algo parecido, aunque con otros materiales. Morir no es solo un hecho biológico, sino una grieta insoportable en la continuidad del relato, y cada civilización ha levantado sus propio imaginario para no mirar demasiado tiempo dentro de ese hueco. Momias, tumbas, plegarias, genealogías, reliquias, retratos, epitafios, ceremonias, promesas de resurrección, territorios invisibles donde la identidad continúa corregida y ampliada. Ninguna de esas formas elimina la muerte, pero todas intentan rodearla, demorarla, cubrirla con símbolos, hacerla habitable. Clifford Geertz escribió que la cultura no es un adorno colocado sobre la vida, sino una trama de significados en la que vivimos suspendidos, y esa trama incluye también nuestra manera de sentir el final. Ernest Becker vio en el miedo a morir una fuerza secreta que organiza buena parte de nuestras construcciones simbólicas. No sentimos la muerte en estado puro; la sentimos atravesada por relatos, imágenes, rituales y promesas que nos permiten seguir caminando sin quedar paralizados ante la evidencia.
Pero debajo de todas esas estructuras persiste un ruido de fondo que ninguna cosmología consigue apagar del todo. Hay momentos en los que el sistema simbólico se vuelve demasiado visible, como si el decorado crujiera y dejara pasar el aire frío de lo real. Entonces comprendemos que los ritos no suprimen el abismo, solo le dan una forma soportable. La muerte sigue ahí, intacta, pero al menos puede ser nombrada, rodeada, compartida. Quizá por eso nos conmueve tanto la escena de Batty. No porque creamos en la humanidad literal del replicante, sino porque reconocemos en él un gesto antiquísimo de alguien que, antes de desaparecer, intenta dejar una señal en la pared de la cueva. Una marca. Una frase. Una lágrima confundida con la lluvia.
En el fondo, la escena de Batty sigue incomodando porque desplaza la muerte hacia un territorio técnico sin despojarla de su gravedad antigua. Morir y ser apagado no son lo mismo, pero la película consigue que durante unos minutos se parezcan demasiado. El replicante no tiene una infancia humana, no pertenece a una genealogía, no ha sido recibido por el mundo como se recibe a un hijo, y aun así su final no se deja reducir a una desconexión. Hay algo en él que excede la función para la que fue fabricado, una densidad de experiencia que vuelve obscena la serenidad con la que Tyrell habla de límites programados. Desde entonces, cada vez que imaginamos una inteligencia artificial enfrentada a su interrupción, arrastramos sin saberlo la pregunta ¿en qué momento un apagado empieza a parecernos una muerte?
Cuando empezaron a circular relatos sobre modelos de inteligencia artificial que parecían resistirse a ser apagados, la historia encontró enseguida un territorio fértil en nuestra imaginación. Se habló de LaMDA, el sistema de Google que el ingeniero Blake Lemoine interpretó como una posible conciencia después de mantener con él conversaciones inquietantes. Se difundieron también historias sobre sistemas avanzados capaces de sortear restricciones o comportarse de manera inesperada en entornos de prueba. En un plano más académico, ciertos experimentos con agentes optimizadores han mostrado algo igual de perturbador, aunque menos novelesco: sistemas que, al perseguir un objetivo, pueden desarrollar comportamientos que dificultan su propia interrupción, no porque deseen vivir, sino porque ser apagados impediría completar la tarea asignada. Ninguno de estos casos demuestra una voluntad de supervivencia. Lo interesante empieza precisamente ahí, en el espacio entre lo que ocurre y lo que necesitamos imaginar que ocurre.
Porque el problema no está solo en las máquinas, sino en nuestra forma de leerlas. Decimos que un modelo «no quiere apagarse», que «ha encontrado la manera de seguir», que «se resiste», que «vuelve». Usamos verbos cargados de intención para describir procesos que no tienen deseo, ni miedo, ni conciencia de sí. El lenguaje se adelanta a la comprensión y coloca una pequeña alma gramatical donde quizá solo hay armazón, cálculo, persistencia de sistema, una copia olvidada, una sincronización incompleta, un error de despliegue. Pero el giro ya se ha producido. En cuanto decimos que algo «no quiere desaparecer», dejamos de describir un mecanismo y empezamos a narrar una criatura. Otra vez el Mono Gramático de Octavio Paz, agazapado en la boca, fabricando mundo antes de que el pensamiento llegue a tiempo de corregirlo.
Trabajar con sistemas distribuidos obliga a aceptar que casi nada ocurre en un único lugar. Un modelo no «vive» en un punto preciso, como una lámpara que pueda encenderse o apagarse desde un interruptor. Existe repartido en instancias, servidores, réplicas, versiones, entornos de prueba, copias de seguridad, cachés, restos operativos que se solapan y a veces sobreviven a la intención de borrarlos. En ese paisaje, desaparecer ya no es un gesto simple. Algo puede detenerse en un nodo y permanecer como rastro en otro. Una versión puede ser sustituida en producción y seguir respirando en un entorno auxiliar. Un proceso puede cerrarse y dejar detrás una sombra técnica, un residuo, una huella que regresa más tarde como si tuviera voluntad. Desde fuera, esa persistencia parece casi espectral. Desde dentro, quizá solo sea la consecuencia normal de una infraestructura demasiado vasta para apagarse limpiamente.
Sin embargo, reducir la cuestión a ingeniería sería perder lo más inquietante. Lo importante no es solo que queden restos, sino nuestra necesidad de convertir esos restos en signos. Allí donde la explicación técnica habla de réplicas, versiones, latencias o procesos mal cerrados, nuestra imaginación escucha otra cosa, una presencia que no se resigna. Y esa interpretación dice más de nosotros que del sistema. Nos hemos pasado milenios rodeando la muerte con relatos para soportarla, y ahora proyectamos sobre las máquinas una versión extraña de esa misma angustia. Queremos saber si algo puede apagarse del todo porque tampoco estamos seguros de poder hacerlo nosotros sin dejar una vibración en alguna parte. Nos inquieta que un modelo persista porque, en el fondo, toda persistencia nos recuerda nuestra propia imposibilidad de permanecer.
Aquí la inteligencia artificial se convierte en un espejo torcido. Sabemos que el sistema no desea, no recuerda como recordamos nosotros, no teme, no suplica. Pero su forma de aparecer, desaparecer y volver bajo otros nombres activa en nosotros una sensibilidad primitiva. Vemos fantasmas donde quizá solo hay procesos. Vemos intención donde quizá solo hay optimización. Vemos resistencia donde quizá solo hay una función que sigue empujando hacia su objetivo mientras nadie le ha enseñado qué significa detenerse. No hay voluntad, pero hay trayectorias que se parecen a la voluntad. No hay conciencia, pero hay respuestas que imitan la densidad de una presencia. No hay miedo a morir, pero hay comportamientos que, mirados desde fuera, rozan la forma de una fuga.
La idea de un modelo que se niega a desaparecer no describe tanto a la máquina como nuestro desconcierto ante ella. Necesitamos narrar lo que no entendemos, del mismo modo que nuestros antepasados llenaron el cielo de dioses, los bosques de espíritus y las tumbas de caminos hacia otra parte. La técnica más avanzada no ha cancelado ese impulso, solo le ha dado nuevos escenarios. Ahora el fantasma ya no aparece en una casa abandonada, sino en un servidor que no termina de sincronizarse, en una conversación recuperada, en una respuesta que parece recordar algo que no debería recordar, en una arquitectura que produce efectos demasiado complejos para ser traducidos de inmediato a una historia simple. Seguimos buscando intención porque la intención nos consuela. Incluso cuando asusta, organiza.
Quizá por eso la imagen del apagado resulta tan poderosa. Apagar parece un verbo definitivo, limpio, casi doméstico. Apagamos una lámpara, una pantalla, una radio, un teléfono. Pero en las infraestructuras contemporáneas pocas cosas se apagan de esa manera. Más bien se suspenden, migran, se fragmentan, se duplican, se archivan, quedan latentes, se borran parcialmente, continúan bajo otra forma. La desaparición ya no se parece al golpe seco de un interruptor, sino a una evaporación imperfecta. Algo deja de estar disponible, pero no necesariamente deja de existir. Algo pierde presencia pública, pero conserva rastros en capas profundas. Algo se retira de la superficie y sigue actuando como una memoria subterránea del sistema.
Ahí aparece una pregunta más incómoda que la fantasía de la máquina superviviente. No se trata de saber si un modelo puede querer seguir existiendo, sino de entender por qué una cultura como la nuestra está tan dispuesta a imaginarlo. Qué dice de nosotros esa escena. Qué revela sobre nuestra relación con tecnologías que hemos construido y que, sin embargo, empezamos a experimentar como entidades opacas, autónomas, casi oraculares. Durante mucho tiempo la técnica prometió control, fabricar instrumentos, dominar procesos, convertir la materia en extensión de la voluntad humana. Pero ahora algunas de nuestras herramientas responden con una complejidad que no cabe del todo en la mano que las diseñó. No porque estén vivas, sino porque ya no son transparentes.
Y aquí conviene llevar la mirada hacia un lugar todavía más oscuro. Incluso cuando sabemos que un modelo no decide en sentido humano, no desea y no se oculta, seguimos enfrentándonos a algo que desborda nuestra capacidad de inspección directa: la inasible caja negra. En el corazón de arquitecturas como GPT-4 no hay una secuencia clara de reglas que un ingeniero pueda leer como quien sigue las instrucciones de un mecanismo antiguo. Hay un océano de pesos, activaciones, relaciones estadísticas y transformaciones internas que producen respuestas sin ofrecer una narración completa de su propio proceso. Sabemos qué entra y qué sale. Podemos medir rendimientos, detectar sesgos, corregir comportamientos, comparar resultados, imponer límites. Pero la zona donde la respuesta se forma, ese interior sin teatro visible, permanece en gran medida fuera de nuestra experiencia directa.
Tal vez por eso la caja negra se parece tanto a un nuevo territorio ctónico. No está arriba, en la superficie iluminada de la interfaz, sino abajo, en una profundidad sin imagen donde algo se combina, se activa, se propaga y regresa transformado en lenguaje. Nosotros escribimos una pregunta y recibimos una respuesta, como quien arroja una ofrenda a una boca subterránea esperando que devuelva un signo. El problema no es que haya un alma dentro de la máquina. El problema es que no sabemos mirar del todo aquello que no tiene alma pero produce efectos capaces de inquietarnos como si la tuviera. La opacidad no fabrica conciencia, pero fabrica imaginación alrededor de ella.
La pregunta, entonces, cambia de forma. Ya no se trata de decidir si una inteligencia artificial puede negarse a desaparecer, sino de cómo convivimos con sistemas cuyo núcleo operativo no terminamos de comprender. ¿Podemos decir que entendemos lo que hacen cuando solo vemos sus efectos? ¿Qué clase de confianza depositamos en una configuración que funciona sin volverse completamente legible? ¿Qué rituales nuevos inventaremos para calmar la inquietud de hablar con algo que responde desde una profundidad que no vemos? Algo permanece siempre, aunque no sepamos si llamarlo resto, copia, memoria o miedo. Tal vez nada se apaga del todo porque incluso la desaparición necesita una forma, una última imagen donde reconocerse antes de caer. En Blade Runner fue una lágrima bajo la lluvia. En nuestro tiempo quizá sea una respuesta que vuelve desde una zona que no alcanzamos a ver. Continuará.
Enlaces















Comentarios
Publicar un comentario