La conversación es sobre inteligencia colectiva y aunque el nivel es muy alto para quienes están por fuera de la biología y de la inteligencia artificial, es una conversación que deja pensando, que abre el apetito, que inspira, que hace soñar. Aquí está para quienes deseen oírla.
En este blog aparecen solo algunos párrafos de la conversación, y que el lector los juzgue. No hay un resumen de los distintos tópicos que el entrevistador y ambos especialistas tratan, pues son muchos, solo algunos apartes, que son especialmente interesantes.
Michale Levin tiene 54 años, nació en Rusia y hoy en día es americano. Es biólogo sintético y del desarrollo, de la Universidad de Tufts, donde es profesor distinguido de Vannevar Bush. Levin es director del Allen Discovery Center, en la Universidad de Tufts y del Centro de Biología Regenerativa y del Desarrollo. Investiga sobre cómo se regula la formación de patrones en los sistemas vivos, sobre cómo regenerar extremidades, cómo generar mentes e, incluso, sobre cómo extender la vida mediante la manipulación de señales eléctricas, en lugar de usar modificaciones genéticas o epigenéticas. Sus investigaciones lo han convertido en uno de los biólogos más importantes de la actualidad.
Levin
Joscha Bach tiene 49 años, nació y creció en Alemania Oriental. Tiene una maestría en ciencias de la computación, de la Humboldt-Universität Berlin y un doctorado en ciencias cognitivas, de la Universidad de Osnabrück. Pertenece a la AI Foundation. Actualmente es ingeniero principal de inteligencia artificial en el grupo de computación cognitiva de los Laboratorios Intel. Bach ha estado muy interesado en entender la mente humana y en construir un modelo de esta a partir de la IA.
Bach
Bach dice: descubrí algo obvio, después de pensar en cómo funcionan las células: que la mayoría de las personas en neurociencia pasan por alto, y es que cada célula tiene la capacidad de enviar y recibir múltiples tipos de mensajes. La célula funciona como una neurona que escribe mensajes, y lo hace condicionalmente, y aprende bajo qué condiciones hacerlo, y cómo modularlos; además, cada célula es un agente de aprendizaje de refuerzo individual. El animal unicelular que trata de sobrevivir, y para ello coopera con su entorno, obtiene la mayor parte de su recompensa del entorno. Esto significa que, en principio, la célula puede funcionar como una neurona, puede realizar las mismas tareas de aprendizaje y procesamiento de información que una neurona. La única diferencia que existe con respecto a las neuronas, es que no pueden hacer esto a larga distancia, porque en su mayoría, las células están conectadas con las células adyacentes. Una neurona es una célula telégrafo que usa mensajes muy específicos que se codifican como las señales Morse, en ráfagas extremadamente cortas y de alta energía, que permiten enviar mensajes a distancias muy largas y muy rápidamente, para distintas cosas, como mover los músculos de un animal al límite de lo que permite la física, para que pueda competir con otros animales en la búsqueda de alimento. También necesita tener un modelo del mundo que se actualice a un ritmo mayor, para lo cual requiere un sistema de procesamiento de información que se esté duplicando en este “cerebro celular”, que está hecho de todas las otras células en el cuerpo de un organismo. En algún momento estos dos sistemas se desacoplan, pues tienen sus propios códigos, su propio lenguaje, por así decirlo. Pero todavía tiene sentido, supongo, ver el cerebro como una extensión telegráfica de la comunidad de células del cuerpo.
Planaria
Dice Levin: evolutivamente, la maquinaria que ha existido durante mucho tiempo, desde la época de las bacterias, básicamente se reutiliza. Así que nuestros ancestros multicelulares y unicelulares tenían mucho de la misma maquinaria para sobrevivir. Creo que la evolución comenzó a reutilizar este conjunto de herramientas específicamente desde hace mucho tiempo, a usar este tipo de comunicación. Ya sabes, tomamos conceptos de la neurociencia y los aplicamos en otras partes del cuerpo, y en general, todo funciona exactamente igual. Y eso nos muestra, creo, lo que estabas diciendo, que existen estas simetrías.
Dice Bach: los bebés aprenden algo y luego sus cerebros se deshacen de las sinapsis sobrantes. Inicialmente, hay mucha más conectividad de la que necesitan. Y cuando el cerebro aprende, después de haber entrenado, optimiza la forma en que funciona el cableado, descartando las cosas que no necesita; por ejemplo, para calcular lo que quiere calcular. Así es como sacrifican las sinapsis. El cerebro no congela ni graba el aprendizaje, sino que optimiza el uso de energía. Los patrones de activación no son completamente estables en el cerebro. Si miras la corteza, encuentras que en un día se pueden haber movido, incluso haber rotado un poco, lo que también es difícil de hacer con las sinapsis. Y está la desfragmentación. Si se aprende algo, el mapa corporal va a estar en un área del cerebro, pero si se sufre un accidente, si por ejemplo se pierde un dedo, esta información se comienza a integrar al mapa corporal. Tenemos que preguntarnos: ¿Cómo cambian las representaciones? ¿Cómo se mueve algo en el cerebro o cómo se hace espacio para algo nuevo? Entonces, si uno se toma en serio la teoría basada en el ARN, obtiene que las neuronas no están aprendiendo una función local sobre sus vecinas, sino que están aprendiendo cómo responder a la forma de activación de un frente entrante, al patrón temporal espacial de su vecindario. Las neuronas están lo suficiente y densamente conectadas para que el vecindario sea solo un espacio a su alrededor. Y en este espacio, básicamente, interpretan las señales de acuerdo con cierta topología, para decir que tal vez sea una convolución que me da 2.5D o me da 2D o 1D o cualquier tipo de función que quieran calcular. Las neuronas aprenden a disparar en respuesta a esos patrones y, por lo tanto, a modular los patrones cuando transmiten. Entonces, las neuronas actúan como un éter automodulador, que realiza cálculos y almacena las respuestas de señales entrantes, y las distribuye posiblemente en ARN.
Dice Levin: uno de los experimentos que hemos hecho con las planarias ha sido entrenarlas para que reconozcan una especie de patrón irregular, grabado con láser en el fondo de un plato, y sepan que ahí es donde van a encontrar su comida. Ellas hicieron la asociación entre el patrón y la comida. Luego, les cortamos la cabeza, y dejamos las colas diez días, sin moverlas. Más adelante, el cerebro les volvió a crecer y las planarias nuevas recordaban la información. No sabemos si la información está en todas partes o si está en otros lugares del sistema nervioso periférico o en el núcleo nervioso. Está claro que lo aprendido puede moverse, que la información puede moverse en el cuerpo, porque puede estar en la mitad posterior y luego imprimirse en el cerebro de nuevo. Cada recuerdo es como un mensaje, es básicamente como un mensaje trasplantado de tu yo pasado a tu yo futuro, lo que significa que, además, es necesario ser capaz de decodificar los recuerdos. Así que todo el tema de la codificación y decodificación, cualquiera que sea el sustrato de la memoria, es una de las preguntas más importantes que existen.
Hay un trabajo relacionado que tiene que ver con la criogenia: si los recuerdos son un tipo particular de estado eléctrico dinámico, entonces algún tipo de congelación criogénica probablemente interrumpa ese estado eléctrico. Si, en cambio, los recuerdos están en una molécula estable, deben sobrevivir a la criogenia. Durante 400 millones de años, las planarias han acumulado todas las mutaciones de sus padres, que eso en los humanos no ocurre. Sus genomas son un desastre increíble. Sus células son básicamente mixoploides, lo que significa que son como un tumor. Cada célula tiene potencialmente un número diferente de cromosomas. Y este horror lleva a la inmortalidad. Ellas se regeneran con un 100 % de fidelidad, y son muy resistentes al cáncer. En un curso típico de biología te dicen para qué sirve el genoma. Se considera que está para establecer la estructura del cuerpo al que pertenece. Si te metes con el genoma, te das cuenta de que la información en este desaparece, pues por eso envejeces y tienes cáncer. Así que nos tenemos que preguntar ¿Por qué el animal con el peor genoma tiene la mejor fidelidad anatómica? Este es el tipo de cosas de las que nadie habla nunca, porque van en contra de la suposición general de lo que hacen los genomas realmente y de para qué sirven. Hemos visto una completa falta de correlación entre la calidad del genoma y la increíble capacidad de un animal de tener una anatomía sana.
El entrevistador les pregunta a ambos sobre el concepto de COMPETENCIA.
Levin dice: Hemos estado trabajando durante mucho tiempo en el concepto de competencia entre partes embrionarias. Esto significa básicamente que existen bucles de retroalimentación homeostática entre varias células, tejidos y órganos que intentan alcanzar resultados específicos en el espacio morfo- anatómico, a pesar de que haya perturbaciones de diversos tipos. Si tienes un renacuajo y lo modificas, ya sea con una mutación o con una droga o algo así, o porque le pones el ojo un poco descentrado o la boca un poco descentrada, los órganos saben dónde deben estar. El cuerpo empieza a cambiar para minimizar la distancia respecto a esos puntos de referencia, y se remodela hasta reconvertirse en una rana normal, hasta recuperar la anatomía correcta, a pesar de comenzar en la posición incorrecta o incluso empezar con daños, como cambios en el número de las células o en el tamaño de las células. El cuerpo hace su trabajo a pesar de todos estos cambios. Esto es competencia para optimizar aspectos específicos, como la posición de las partes, o para mantener la estructura y cosas por el estilo.
Aquí está lo interesante. Imagina que tienes una especie que tiene algún grado de esa competencia. Y entonces tienes un individuo de esa especie, seleccionado con una condición física alta. El problema está en que la selección no sabe si la aptitud es alta porque su genoma es asombroso, o si la aptitud es alta porque el genoma en realidad es regular, pero su competencia lo compensa y pone todo en su lugar. Lo que aparentemente hace la competencia es proteger la información de la evolución por encima del genoma real. No elige los mejores genomas, porque los individuos que se desempeñan bien no necesariamente tienen los mejores genomas, pero sí la mejor competencia.
Lo que sucede en las simulaciones que hacemos muestra que, si se comienza con un poco de esa competencia, la evolución pierde algo de poder, en la selección de los mejores genomas, pero la competencia sí aumenta. Las células y los tejidos son aún mejores para hacer el trabajo que tienen que hacer, a pesar de tener genomas defectuosos. Eso hace que sea aún más difícil para la evolución saber cuáles son los mejores genomas, cosa que alivia parte de la presión de tener un buen genoma, pero básicamente pone toda la presión en ser realmente competente. Básicamente, lo que sucede es que la aptitud genética se nivela a un nivel realmente subóptimo y, de hecho, no hay presión, por lo que es tolerante a todo tipo de locuras, pero la competencia y los mecanismos de competencia aumentan para compensar.
La conclusión final es que el algoritmo de competencia se ha vuelto tan bueno que, básicamente, cualquiera que sea el genoma, es capaz de crear y mantener al gusano adecuado, porque ya evolucionó en presencia de un genoma cuya calidad no podemos controlar. El bucle de retroalimentación desbocado llega tan lejos que el algoritmo es increíble: ha evolucionado específicamente para hacer lo que tiene que hacer, a pesar de que el hardware sea casi basura, además es increíblemente tolerante. Esto tiene una serie de implicaciones. Que yo sepa, nunca se han explicado. Me refiero a la planaria. No hay planarias anormales en ninguna parte, excepto las nuestras con dos cabezas, que la hemos logrado no genéticamente, sino bioeléctricamente. ¿No es asombroso?
Entonces, ¿no es sorprendente que nadie haya podido aislar una línea de planarias que no sea otra cosa que perfecta?, a pesar de 120 años de experimentos con ellas. Creo que es porque en realidad han sido seleccionadas para ser capaces de hacer lo que necesitan hacer, a pesar de que el hardware es chatarrudo. El énfasis está en el algoritmo y en la toma de decisiones entre ese colectivo celular de lo que se va a construir y el algoritmo, que asegura que todas las células trabajen para construir el animal correcto.
Bach dice: si traduces esta idea a la informática, se puede equiparar con algunas computadoras que tienen discos duros que son muy ruidosos, discos duros que básicamente cometen muchos errores al codificar cosas, con bits que a menudo se voltean, y así; sin embargo, estas computadoras aún funcionan, y funcionan de la misma manera que las otras. Hay una secta ortodoxa de informáticos que piensa que es necesario que cada bit del disco duro sea completamente fiable o fiable hasta el punto de que sólo cometa un error cada cien billones de copias. Y puede tener un código de corrección de errores ejecutándose en el disco duro, en el nivel bajo que corrige esto. Y después de algún punto, deja de ser eficiente. Por lo tanto, debes tener discos duros confiables para poder tener computadoras que funcionen así. Pero, ¿cómo funcionarían estas otras computadoras? básicamente significa que crearían una estructura virtual sobre la estructura ruidosa, que corrige cualquier grado de incertidumbre que tenga o cualquier grado de aleatoriedad que se inyecte en su sustrato.
Lo que me gusta de esta descripción que das sobre cómo surgen estos organismos se relaciona, en cierto sentido, con la forma en que funciona la percepción en nuestra mente. Por el momento, el aprendizaje automático se centra principalmente en el reconocimiento de imágenes o fotogramas individuales. Se alimenta la información cuadro por cuadro. La información está completamente desconectada. Un sistema como DALI-2 se entrena dándole varios cientos de millones de imágenes que están desconectadas. No son imágenes adyacentes en el espacio de las imágenes. Un bebé, probablemente, no podría aprender nada dándole 600 millones de imágenes en una habitación oscura, y que, con solo mirarlas, a partir de este proceder, supiera cómo es la estructura del mundo. Mientras que DALI sí puede. Da testimonio del poder de nuestros métodos estadísticos y del hardware que tenemos, que supera con creces, creo, el poder combinado y la fiabilidad de los cerebros humanos, que probablemente no serían capaces de integrar tanta información a una distancia tan grande.
Mi gato tiene dificultad para reconocer objetos estáticos, en comparación con objetos en movimiento. Le es mucho más fácil ver una pelota en movimiento que una pelota inmóvil. Y es porque en movimiento es mucho más fácil segmentarla fuera del entorno. Entonces, la tarea de aprender en un entorno en movimiento, en un entorno dinámico, es mucho más fácil, porque impone restricciones. ¿Cómo representamos un mundo en movimiento en comparación con un mundo estático? La semántica de las características cambia. Y un objeto se compone básicamente de características que pueden ser objetos en sí mismas. Y la escena es una descomposición de todas las características que vemos en un conjunto completo de objetos, que explican la totalidad de la escena y la interacción entre ellos. Y la causalidad es la interacción entre los objetos. Y en una imagen estática, estos objetos no hacen nada, no interactúan entre sí. Simplemente, se encuentran en algún tipo de relación que debes inferir, lo cual es muy difícil, porque solo tienes la instantánea estática. Entonces, las características son clasificadores que dicen si una característica es una mano, un pie, un bolígrafo, un sol, una linterna o lo que sea, y cómo se relacionan con la escena más grande, en la que, nuevamente, se tiene una relación estática en la que se necesita clasificar los objetos en función de las características que contribuyen a ellos. Se necesita encontrar algún tipo de descripción donde se interpreten las características que generalmente son ambiguas, y podrían ser muchas cosas diferentes según el contexto en el que se las interprete, en una configuración global óptima. Si la escena se mueve, todo cambia: las características se convierten en operadores. Ya no son clasificadores que dicen cómo debe cambiar nuestro estado interno, cómo debe cambiar nuestro mundo, cómo debe cambiar nuestra simulación del universo en nuestra mente, para rastrear los patrones sensoriales. La característica se convierte en un operador de cambio, en una transformación. La característica es, en cierto sentido, un controlador que te dice cómo se mueven los bits en tu modelo local del universo. Y están organizadas en una jerarquía de controladores. Los controladores deben encenderse y apagarse al nivel de la escena, tienen mucha flexibilidad y pueden moverse en la escena. Se convierten en entidades que se autoorganizan y se autoestabilizan, hasta negociar una interpretación válida de la realidad.
Profesor Levin, defina su idea de competencia
Levin dice: para definirla, quiero exponer dos conceptos. Una idea es que, para mí — y esto se remonta a lo que hablábamos antes sobre la postura de la ingeniería sobre las cosas— cuando algo es competente en un nivel particular, se puede pensar en la escala de cognición de Wiener y Rosenbluth. Esta va desde materiales pasivos simples, luego a reflejos, luego recorre todo el camino hasta llegar a una especie de metacognición de segundo orden. Cuando me dices que hay una escalera y dónde está, lo que realmente me estás diciendo es si quiero predecir su comportamiento, o si quiero usarla en un contexto de ingeniería, o si quiero interactuar con esta, o relacionarme de alguna manera, o qué puedo esperar. Todos estos términos son protocolos de ingeniería. Si me dices que algo tiene la capacidad de hacer un aprendizaje asociativo, lo que me estás diciendo es que, se puede hacer algo más con eso que con un reloj mecánico, ya que puede proporcionar cierto tipo de estímulo o experiencias, y se puede esperar que haga esto o aquello después. Si me dices que algo es un homeostato, eso significa que puedo contar con él para mantener alguna variable en un rango particular, sin tener que estar allí para controlarlo todo el tiempo, pues tiene cierta autonomía. Si me dices que algo es realmente inteligente y que puede hacer X, Y, Z, entonces, me estás diciendo que ese algo tiene un comportamiento aún más autónomo en ciertos contextos. Entonces, todos estos términos tienen una implicación importante. La implicación es que dependen del observador, que ha elegido algún tipo de espacio problemático, que ha elegido algún tipo de perspectiva, y que, desde ese espacio problemático y desde esa perspectiva, puede pensar en que hay ciertos estados objetivos, y que el sistema tiene una cierta competencia para alcanzar esos objetivos. Diferentes observadores pueden tener diferentes puntos de vista sobre esto para cualquier sistema dado. Por ejemplo, alguien podría mirar un cerebro, digamos un cerebro humano, y decir: bueno, estoy bastante seguro de que esto es un pisapapeles. Entonces, en realidad, es más o menos competente para descender por gradientes gravitacionales, ya que todo lo que puede hacer es sujetar papel. Alguien más lo mirará y dirá, te perdiste lo fundamental, esta cosa tiene competencias en el espacio conductual y en el espacio lingüístico. Todas estas son afirmaciones de ingeniería, comprobables empíricamente, sobre lo que se puede esperar que haga un sistema.
Entonces, cuando digo competencia, especifico un espacio, un espacio problemático, y en el momento en que hablo de espacio problemático, me refiero al morfoespacio anatómico. Si el espacio es de posibles configuraciones anatómicas, se puede navegar ese morfoespacio. Comienzas en el huevo o comienzas en una extremidad dañada, y navegas por ese morfoespacio hacia la estructura correcta. Tener competencia es ser capaz de implementar ciertos tipos de trucos para navegar ese morfoespacio, con cierto nivel de rendimiento con el que se puede contar. Entonces, la competencia puede ser muy baja o muy alta. He aquí ejemplos de competencias en la ciencia del comportamiento de la navegación: ¿Sabe de antemano hacia dónde se dirige? ¿Tiene un recuerdo de dónde ha estado? ¿Es un arco reflejo muy simple todo lo que tiene? Un ejemplo de una competencia genial que poseen muchos sistemas biológicos es el siguiente: si en un renacuajo tomamos algunas células que están en la cola, y modificamos sus canales iónicos, para que adquieran el objetivo convertirse en un ojo, en este morfoespacio, esas células se convertirán en un ojo, ya sea en la cola, en el intestino, o donde se quiera. Eso ya es genial, pero uno de los aspectos sorprendentes es que, si solo modificamos unas pocas células, insuficientes para hacer un ojo real, ellas tienen la competencia para reclutar células vecinas, que no fueron manipuladas, para lograr el objetivo. Las colonias de hormigas funcionan de manera parecida: hacen un reclutamiento de otras hormigas para lograr sus objetivos. Por tanto, podemos hablar de inteligencia colectiva flexible. Desde el punto de vista de la ingeniería es una competencia muy buena, porque significa que no se necesita empezar con exactamente la cantidad correcta de células, pues si uno se excede o si le faltan, todo estará bien. Siempre hay que especificar el objetivo hacia el que se expresan las competencias. Luego, se puede medir ¿qué tan competente fue para alcanzar ese objetivo? Una competencia tiene que ver con lo que un ingeniero puede esperar que haga un sistema, dado un espacio de problema particular y una meta particular que se está tratando de alcanzar.
Bach dice: la forma en que usas la palabra competencia podría definirse como la capacidad de un sistema de llegar a una meta. En los sistemas reales, es difícil de definir ¿Cuándo perseguimos una meta? A veces simplemente tenemos un poco de hambre, nos dirigimos hacia la cocina, porque esperamos que algo surja de manera oportunista, que se ocupe de esta vaga tendencia en nuestro comportamiento. También podríamos decir que tenemos el objetivo de encontrar comida, pero esa es una racionalización que quizás a veces esté estirando las cosas. Por eso, una mejor distinción para mí sería la de pensar en un simple controlador a un agente. La definición mínima de agente que encontré es la de un controlador para estados futuros.
El termostato no tiene un objetivo en sí mismo, solo tiene un valor objetivo y un sensor que indica su desviación del valor objetivo. Cuando se supera un cierto umbral, la calefacción se enciende. Si baja de cierto umbral, la calefacción se vuelve a apagar. Y esto es todo. Entonces, el termostato no es un agente, pues solo reacciona al marco actual; es sólo un sistema reactivo. Mientras que, un agente es proactivo, lo que significa que está tratando no solo de minimizar la desviación actual del valor objetivo, sino también la integral durante un período de tiempo, la desviación futura. Entonces, genera una expectativa sobre cómo una acción cambiará esta trayectoria del universo. Y sobre esa trayectoria, trata de calcular alguna medida de qué tan grande será la desviación del objetivo compuesto. Y así, como resultado, obtienes un universo ramificado. Y las ramas en este universo, algunas de estas ramas dependen de acciones que están disponibles para ti, y que se traducen en decisiones que puedes tomar, que te llevan a estados en el mundo, más o menos preferibles.
De repente, tienes un sistema con creencias, deseos e intenciones emergentes. Para que eso suceda, ——para pasar de un controlador a un agente, el agente es solo un controlador con un generador de punto de ajuste integrado y la capacidad de controlar estados futuros— se requiere que el agente pueda hacer modelos que sean contrafácticos. Debido a que el universo futuro no existe en este momento, necesitas crear un universo contrafáctico, el modelo futuro del universo futuro; tal vez, incluso, un modelo del universo pasado, que te permita razonar sobre posibles universos futuros, etc. Y para hacer estos modelos causales, contrafactuales del universo, necesitas tener una máquina de Turing. Sin una computadora, sin algo que sea una máquina de Turing, que te aísle de la estructura causal de tu sustrato, que te permita construir representaciones independientemente de lo que diga el universo ahora mismo a tu alrededor, no puedes hacerlo. Y el sistema más simple de la naturaleza que tiene integrada la máquina de Turing es la célula. Entonces, es muy difícil encontrar un sistema en la naturaleza que sea un agente, que no esté hecho de células. Como resultado, tal vez haya sistemas en la naturaleza que puedan calcular cosas y hacer modelos, pero no conozco ninguno. Entonces, el más simple que conozco, que puede hacer esto de manera confiable son las células o la disposición de las células. Pueden poseer agencia, lo cual es algo interesante que explica la coincidencia de que los seres vivos son agentes y viceversa: que los agentes que nosotros descubrimos son en su mayoría seres vivos. La capacidad de hacer modelos del futuro es el requisito previo para tener agencia y para hacer modelos arbitrarios, lo que significa tener estructuras que incorporen simulaciones causales de algún tipo, y eso requiere computación.
Levin dice: estoy de acuerdo con esa taxonomía de objetivos. Una cosa interesante sobre las metas, como lo dices, Bach, es que algunas son emergentes y otras no. Hay una versión en la planaria interesante. Si la cortas en pedazos, cada pedazo se regenera correctamente: cada pedazo tendrá más delante una cabeza y una cola. Nos preguntamos por qué. Una posibilidad es que este sea un proceso puramente emergente, y que el objetivo de reconstruir una cabeza sea algo emergente que surja como consecuencia de otras cosas. ¿O habrá una representación explícita real de lo que es una planaria correcta, que sirva como punto de ajuste codificado explícitamente para que lo sigan estas células? Debido a que es un colectivo celular, que se comunica eléctricamente, pensamos que tal vez lo que pasa es que hay almacenado un recuerdo de lo que… Como lo harías en un circuito neuronal, estás almacenando un recuerdo de lo que debería ser.
Creo que este es un tipo importante de objetivo en un sistema de búsqueda de objetivos. Es un objetivo que se puede reescribir sin cambiar el hardware. El sistema ahora perseguirá ese objetivo, en lugar de otras cosas. En un sistema puramente emergente, eso no funciona, ¿verdad? Si tienes un autómata celular o un fractal o algo que hace algún tipo de cosa compleja, si quieres cambiar lo que es esa cosa compleja, tienes que averiguar cuál es la regla local, y saber cómo cambiar las reglas locales. Eso es muy difícil en la mayoría de los casos. Lo que encontramos en la planaria es que podemos, literalmente, usando un troquel reportero de voltaje, mirar el gusano y ver el patrón, y notar que es un patrón distribuido, pero podemos ver el patrón que le dice a este animal cuántas cabezas que se supone que debe tener. Y lo que uno puede hacer es entrar y usar una breve manipulación, con drogas, transitoria, de los canales de iones. Y tenemos un modelo computacional que nos dice cuáles deberían ser esas drogas que brevemente cambian el estado eléctrico del circuito. Pero el circuito es asombroso. Una vez que haya cambiado su estado, se mantiene de forma predeterminada. En una planaria estándar, siempre dice que haya una cabeza, pero es como un flip-flop, en el sentido de que cuando lo cambias temporalmente, se mantiene, y puedes empujarlo a un estado que diga: queremos dos cabezas. Así que ahora sucede algo muy interesante. Una es que, si tomas esos gusanos y los cortas en pedazos, obtienes gusanos de dos cabezas, aunque la genética sea la misma, pero el circuito eléctrico ahora dice, haz dos cabezas, en lugar de una. Este es un objetivo explícito que se ha reescrito, porque al igual que con el termostato, hay una interfaz, que permite cambiar el estado del objetivo, y ni siquiera necesitas saber cómo funciona el resto del termostato, siempre y cuando sepas modificar esa interfaz. El sistema se encargará del resto.
La otra cosa interesante tiene que ver con lo que dijiste sobre los contrafactuales, ya que puedes cambiar ese patrón eléctrico en un gusano intacto, y cuidarte de no cortarlo durante mucho tiempo. Y si haces eso, cuando miras ese patrón es un patrón contrafactual, porque ese patrón de dos cabezas no es una lectura del estado actual. Ese dice que el animal tenga dos cabezas, pero el animal solo tiene una, es una planaria normal. Entonces, esa memoria de patrón no es una lectura de lo que el animal está haciendo en este momento, es una representación de lo que hará el animal en el futuro, si se lesiona. Y puede que nunca lo cortes, y si lo haces, las células consultan el patrón, y construyen una planaria de dos cabezas. Pero hasta entonces, es así de raro, de primitivo, es un sistema contrafáctico primitivo, porque el cuerpo de una planaria es capaz de almacenar al menos dos representaciones diferentes de lo que lo que debería ser una planaria correcta; probablemente muchas más, pero hasta ahora encontramos dos. Puede tener un recuerdo de una planaria de una cabeza o un recuerdo de una planaria de dos cabezas, y ambas pueden vivir exactamente en el mismo hardware, exactamente en el mismo cuerpo.
El otro tipo de cosa genial sobre esto, que aún no se ha publicado, es tratar con algunos de los mismos compuestos que se usan en neurociencia con humanos y en ratas, como bloqueadores de la memoria. Usamos cosas que bloquean el recuerdo o la consolidación de la memoria. Cuando lo hacemos, se logra que el animal olvide cuántas cabezas se supone que debe tener. Luego, básicamente, el animal se convierte en un círculo sin características, eso cuando se le borra completamente la memoria del patrón. Cuando usas exactamente las mismas técnicas que usarías en una rata o un humano, la planaria simplemente olvida qué y cómo debe ser, y simplemente, se convierten en un círculo. Creo que tienes razón respecto a la capacidad de almacenar estados contrafácticos, que no son ciertos ahora, pero que pueden representar aspectos del futuro. Creo que es una capacidad muy importante.
Dice el entrevistador ¿Cómo se relaciona esto con la inteligencia?
Bach dice: bueno, la inteligencia es la capacidad de hacer modelos. Y normalmente, modelos que están al servicio del agente controlador. Al menos así explicaría yo la inteligencia. Hay otras definiciones, pero esta es la más simple que he encontrado.
Bach y Levin han conversado con Lex Fridman en su canal de YouTube. Las conversaciones de ambos son realmente extraordinarias, por fuera de todo lo que uno puede oír en este momento, las recomiendo, se queda una con la boca abierta.