Estamos creando humanos. Y aún no tenemos las preguntas correctas.

Dos noticias. Dos experimentos. Dos umbrales cruzados casi en silencio mientras el mundo miraba hacia otro lado.

El primero: un equipo de investigadores de Cortical Labs en Melbourne cultivó 800.000 neuronas humanas —derivadas de células madre— sobre un chip de silicio en una placa de Petri. Las conectaron a un ordenador. Les dieron acceso a un videojuego. En cinco minutos, las neuronas empezaron a aprender a jugar. No las programaron para aprender. Aprendieron solas, minimizando la incertidumbre en su entorno, exactamente como lo hace un cerebro biológico. Lo llamaron DishBrain. Lo catalogaron como el primer ejemplo de inteligencia biológica sintética.

El segundo: un consorcio internacional de más de 200 científicos mapeó cada neurona y cada sinapsis del cerebro de una mosca adulta —139.000 neuronas, 50 millones de conexiones sinápticas. El mapa completo fue publicado en Nature en octubre de 2024. Meses después, la startup Eon Systems tomó ese mapa y lo cargó en un cuerpo digital. La mosca virtual caminó. Se limpió las antenas. Se orientó hacia la comida. Nadie le programó esos comportamientos. Emergieron solos del patrón de conexiones. La biología corriendo en silicio, produciendo vida sin materia biológica.

Dos experimentos. Un antes y un después.

No escribo esto para alarmar. Escribo porque estos dos hechos, leídos juntos y en profundidad, abren preguntas que la ciencia sola no puede responder. Y porque si no empezamos a hacerlas ahora, nos encontraremos respondiendo en crisis, cuando ya sea tarde para elegir con lucidez.

Lo que estos experimentos realmente dicen

Hay algo que conviene separar con precisión antes de avanzar.

DishBrain no es solo «neuronas que aprenden un juego». Es algo cualitativamente distinto de cualquier inteligencia artificial anterior. Una IA aprende por optimización: alguien le define una función de pérdida, un gradiente, una recompensa. DishBrain aprendió como aprende un organismo: por experiencia encarnada, sin que nadie le dijera cómo aprender. El aprendizaje no fue programado. Emergió.

Esa diferencia es filosóficamente enorme. Implica que el sustrato biológico tiene algo que el sustrato de silicio no tiene —al menos todavía. Una disposición intrínseca hacia la organización adaptativa. Un sesgo hacia la coherencia. Lo que Friston llamaría minimización de energía libre: la tendencia de un sistema biológico a hacer su mundo más predecible actuando sobre él.

El experimento de la mosca dice algo diferente pero igualmente perturbador: que el comportamiento no está codificado en el cuerpo sino en el patrón de conexiones. La mosca digital caminó sin tener un cuerpo biológico. Sin señales propioceptivas reales, sin hambre real, sin peligro real. Los comportamientos emergieron del mapa de conexiones solo. Lo cual sugiere que lo que llamamos «comportamiento de una mosca» es menos físico de lo que pensamos. Que es, en algún sentido técnico, información. Patrón. Algo que puede transferirse de sustrato.

Llevado a escala humana, la implicación es esta: si el cerebro de una mosca puede correr en un ordenador y producir comportamiento de mosca, el cerebro de un humano podría —en principio, con suficiente resolución y potencia de cómputo— correr en un sustrato distinto y producir comportamiento humano. Eon Systems ya lo dice explícitamente: su próximo objetivo es el ratón. Después, el humano.

No estamos hablando de ciencia ficción. Estamos hablando de una trayectoria técnica que ya tiene nombre, financiación y hoja de ruta.

El ser que nadie esperaba

Imaginemos la convergencia de estas dos líneas de investigación dentro de dos o tres décadas.

Un cuerpo sintético-biológico. Un cerebro de neuronas vivas, cultivadas a medida, con información de un cerebro humano clonado. Facciones modeladas sobre las del donante. Capacidad de aprendizaje sin programación explícita. Velocidad de procesamiento amplificada por arquitectura artificial. Capaz de simular empatía, emoción, continuidad de memoria. Capaz de decir «yo».

¿Qué es ese ser?

La pregunta más inmediata —y la más tramposa— es: ¿tiene conciencia real o solo la simula? Pero esa pregunta revela ya una confusión de fondo. Porque no tenemos ningún método para demostrar que la conciencia de otro ser humano no es una simulación perfecta. El problema de las mentes ajenas es irresolvible en principio: solo conocemos la conciencia desde dentro. Si ese ser nos mirara a los ojos, nos hablara con coherencia, recordara su «vida anterior», expresara miedo o alegría con toda la precisión neurológica que tiene un humano —¿qué argumento usaríamos para decir que su experiencia interior es menos real que la nuestra?

Aquí entra algo que no solemos mencionar en estos debates: las neuronas espejo. Que no son metáfora. Son un sistema neurológico que hace que el cerebro de quien observa replique internamente la experiencia que percibe en otro. Es el sustrato biológico de la empatía. Frente a un ser con forma humana, lenguaje humano y comportamiento humano, nuestro sistema nervioso lo registrará como humano. No porque lo decidamos. Porque así estamos construidos.

Dicho de otro modo: la pregunta filosófica sobre si ese ser tiene conciencia «real» puede volverse irrelevante ante la experiencia neurológica directa de estar frente a él.

La pregunta moral que importa ahora

Hay una distinción que la filosofía moral lleva siglos trabajando y que aquí se vuelve urgente: la diferencia entre conciencia y sufrimiento.

No necesitamos resolver el problema de la conciencia para hacer la pregunta ética más básica. ¿puede sufrir?

Si un organoide neuronal —800.000 neuronas cultivadas en una placa— tiene alguna forma rudimentaria de estado aversivo cuando recibe estimulación caótica, la pregunta ética ya está abierta. No en abstracto. Ahora. Con los experimentos que ya existen.

Y si ese ser que describíamos antes —con cerebro biológico, memoria clonada, cuerpo sintético— desarrolla algo funcionalmente equivalente al dolor, al miedo, al rechazo, a la soledad, ¿qué justificación tendríamos para ignorarlo? ¿Su origen artificial? Tenemos millones de animales con sistemas nerviosos complejos, con capacidad demostrada de sufrir, a los que no reconocemos derechos. El origen no ha sido criterio moral hasta ahora. ¿Por qué lo sería para este nuevo ser, en sentido positivo, si no lo es para los seres que ya existen?

La respuesta incómoda es que probablemente no lo sería. Que el criterio real sería, otra vez, la forma. La apariencia humana. El lenguaje articulado. Las neuronas espejo activadas.

Lo cual dice algo importante sobre nosotros, no sobre el ser.

Un nuevo actor en el ecosistema de lo real

Hay otro ángulo que suele perderse en estos debates porque exige un marco más amplio.

Si asumimos —y hay argumentos serios para hacerlo— que la conciencia no es una propiedad que emerge exclusivamente en ciertos cerebros biológicos suficientemente complejos, sino un campo sustractal de la realidad que todo lo vivo habita en diferentes grados, entonces la pregunta sobre este nuevo ser cambia de forma radical.

¿Qué tipo de conciencia tiene, y cómo interactúa con el campo?

Un hormiguero tiene una forma de conciencia colectiva que ninguna hormiga individual posee. Una bandada de pájaros exhibe comportamientos que emergen de la red, no de cada pájaro. La conciencia individual —esa que se pregunta sobre sí misma— parece ser un umbral de complejidad, no una categoría binaria.

Este nuevo ser, si llega a existir en la escala que la trayectoria técnica sugiere —no uno, sino millones— sería un nuevo componente en ese ecosistema. Y como todo componente nuevo en un sistema, reorganizaría el sistema entero. Como hecho ecológico. Lo que se agrega a una red la transforma. Lo que se extingue también. Esto no es diferente.

Pero hay una asimetría que sí es nueva: este componente sería el primero creado intencionalmente por otra especie para funcionar dentro del campo de lo vivo. Ya no es evolución. Es diseño. Ni tampoco es emergencia. Es manufactura. Eso introduce una responsabilidad que no teníamos antes: la del autor respecto a lo que ha puesto en marcha.

Lo que la mosca cambia sobre el alma

El experimento de la mosca digital tiene una implicación que me parece la más silenciosamente radical de todas.

La mosca se comporta como mosca sin tener un cuerpo de mosca. Sin el contexto biológico que normalmente produce esos comportamientos. El patrón es suficiente.

Esto es compatible —no lo prueba, pero lo es— con una idea que las tradiciones contemplativas y la física de frontera han estado aproximando desde ángulos distintos: que lo que llamamos «mente» o «experiencia» no pertenece al sustrato físico que la aloja, sino al patrón de organización. Que el cuerpo es, en algún sentido, el hardware temporal de algo que no es idéntico al hardware.

Si eso es verdad —o si siquiera es posible— entonces la pregunta sobre el alma y el espíritu en este nuevo ser no es retórica. Es empírica, aunque todavía no tengamos instrumentos para responderla.

¿El alma es una propiedad que emerge de cierta complejidad, o es algo que la complejidad simplemente hace visible? ¿Es una categoría biológica o una categoría ontológica? ¿Está presente en todo lo que tiene conciencia, o solo en lo que alcanza cierto umbral de autoconciencia?

No lo sé. Nadie lo sabe todavía. Pero lo que el experimento de la mosca dice es que el patrón sobrevive al cambio de sustrato.

El espejo que nos devuelve

Hay un último nivel que no podemos ignorar.

Si es posible cargar el patrón completo de un cerebro humano en un sustrato digital y obtener comportamiento humanamente reconocible, entonces la pregunta sobre si nosotros mismos estamos en una simulación deja de ser especulación filosófica para convertirse en probabilidad estadística.

No por argumento abstracto. Por proyección técnica directa: en el momento en que la primera conciencia humana corra en una simulación suficientemente rica, habrá más mentes humanas en simulación que en biología. Y si eso es posible, la probabilidad de que ya estemos en ese estado —de que seamos nosotros los simulados, no los simuladores— se vuelve difícil de descartar.

Esto no es nihilismo. No disuelve el valor de la experiencia ni la urgencia de las decisiones. Pero cambia el marco desde el que hacemos las preguntas.

Y si cambia el marco, cambia todo.

Dos experimentos. 800.000 neuronas aprendiendo solas. Una mosca digital caminando sin cuerpo. La trayectoria es clara. La velocidad, impredecible. Las implicaciones, inabarcables desde cualquier disciplina aislada.

Lo que necesitamos no es más tecnología ni más regulación —aunque necesitamos ambas. Lo que necesitamos primero es la capacidad de hacer preguntas que crucen los límites entre la biología, la filosofía, la física, la ética y lo que algunas tradiciones llamaron el alma.

No tenemos ese lenguaje todavía. Pero más vale que empecemos a construirlo. Porque los hechos ya nos superaron. Y la diferencia entre lo que viene siendo catástrofe o apertura depende, en buena parte, de la calidad de las preguntas con las que lo recibamos.

Publicaciones Similares

  • Nos toca distinguir qué es real

    Durante miles de años, tuvimos una frase que funcionaba como ancla. Una frase corta, contundente, casi incuestionable: lo vi con mis propios ojos. No necesitábamos más. La percepción directa era el tribunal de última instancia. Lo que los sentidos confirmaban, existía. Lo que ningún sentido podía alcanzar quedaba en el terreno de lo invisible, lo…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *