- La investigación combina computación cuántica, neuromórfica y biológica para diseñar “cerebros” de ordenador más eficientes y adaptativos.
- Proyectos como QMol, DishBrain y los organoides cerebrales exploran desde moléculas magnéticas hasta neuronas vivas para procesar información.
- Las nuevas sinapsis artificiales con grafeno y los modelos de neurociencia computacional buscan emular la plasticidad y eficiencia del cerebro humano.

La idea de crear el cerebro de los ordenadores ha pasado, en muy poco tiempo, de parecer pura ciencia ficción a convertirse en un objetivo real de laboratorios de todo el mundo. Desde chips inspirados en el córtex humano hasta placas llenas de neuronas vivas, la carrera por diseñar máquinas que aprendan, razonen y se adapten de forma parecida a nosotros está en pleno despegue.
En este panorama se cruzan varias líneas de investigación: computación cuántica, neuromórfica, biológica y teoría de la mente. Todas persiguen, con enfoques muy distintos, el mismo sueño: que los ordenadores del futuro tengan un “cerebro” propio, más rápido, eficiente y flexible que el de los sistemas actuales de silicio. Vamos a recorrer, con calma pero con detalle, qué se está haciendo realmente, qué es todavía un sueño lejano y hasta dónde podríamos llegar si estas tecnologías maduran.
El “cerebro” de los ordenadores cuánticos: moléculas y resonadores
En la Comunitat Valenciana se está desarrollando uno de los proyectos más ambiciosos en este terreno: QMol, una apuesta por crear procesadores cuánticos híbridos que funcionen como auténticos “cerebros” de los futuros ordenadores cuánticos. La Universitat de València (UV), junto con la Universitat Politècnica de València, la Universidad de Alicante y la Universidad CEU Cardenal Herrera, trabaja para situar la región como referencia en tecnologías cuánticas aplicadas a computación, telecomunicaciones, ciberseguridad y salud.
El corazón de QMol es el desarrollo de un procesador cuántico basado en moléculas magnéticas acopladas a resonadores superconductores. La idea es aprovechar propiedades cuánticas de ciertas moléculas, diseñadas casi “a la carta”, para que actúen como qubits, los bits cuánticos capaces de estar en varios estados a la vez y de procesar información de forma masivamente paralela.
En este enfoque, cada molécula se comporta como un qubit y, al agrupar muchas de ellas en arquitecturas bien controladas, se busca construir un sistema capaz de resolver problemas que ningún ordenador clásico podría abordar en tiempos razonables. Los resonadores superconductores actúan como canales de comunicación entre esos qubits, haciendo de “autopistas” por las que viajan fotones que median la interacción entre moléculas.
Sin embargo, el esquema tradicional —qubits magnéticos acoplados a fotones en resonadores superconductores— tiene una limitación clave: el acoplamiento entre el qubit y el fotón es muy débil. Eso dificulta enormemente leer y controlar moléculas individuales, y frena la escalabilidad hacia procesadores cuánticos más grandes y estables.
Para salvar este escollo, QMol ha planteado una alternativa ingeniosa: reemplazar los fotones por magnones. Los magnones son excitaciones colectivas de los espines en un material magnético, algo así como “ondas de magnetización”, que pueden transportar información de manera análoga a como los electrones la llevan en la electrónica tradicional. Al acoplar qubits magnéticos con magnones en lugar de fotones, se logra un acoplamiento mucho más fuerte y controlable.
Este nuevo concepto se articula en torno a los llamados resonadores magnónicos, estructuras capaces de generar y guiar magnones de forma eficiente. El uso de moléculas diseñadas específicamente para acoplarse tanto a fotones como a magnones abre un abanico enorme de posibilidades: procesadores cuánticos más estables, menos sensibles al ruido magnético y potencialmente más escalables que muchos diseños actuales.
Un ecosistema cuántico en la Comunitat Valenciana
QMol no es un proyecto aislado, sino una pieza de un programa mucho más amplio: el Plan Complementario de Comunicaciones Cuánticas, integrado en el Plan de Resiliencia de la Unión Europea. Este plan cuenta con un presupuesto total de 76 millones de euros y agrupa once grandes líneas de trabajo en España, coordinadas por distintas comunidades autónomas y el CSIC.
La Comunitat Valenciana participa en este plan desde 2022, junto a Castilla y León, Cataluña, País Vasco, Galicia y la Comunidad de Madrid. En su caso concreto, la financiación llega mayoritariamente del Ministerio de Ciencia, Innovación y Universidades, que aporta alrededor del 65 % de los fondos, mientras que el 35 % restante procede de la Conselleria de Educación, Cultura, Universidades y Empleo.
En este ecosistema colaboran químicos, físicos, expertos en ciencia de materiales y nanociencia de centros españoles y europeos, entre ellos el Instituto de Nanociencia y Materiales de Aragón, y proyectos de construcción de riñones sintéticos. Cada avance acerca un poco más la visión de ordenadores cuánticos funcionales, algo que hace no tanto se consideraba casi pura ciencia ficción.
La Universitat de València, con más de cinco siglos de historia, se ha consolidado como una institución de referencia en investigación y transferencia de conocimiento. Su participación en este tipo de proyectos refuerza el papel de la Comunitat Valenciana como polo de innovación tecnológica y científica, tanto a escala nacional como internacional, especialmente en el campo de las tecnologías cuánticas aplicadas a computación, comunicaciones y ciberseguridad.
Wetware y biocomputación: ordenadores hechos de neuronas vivas
Mientras la computación cuántica trata de exprimir las leyes de la física, otra línea va por un camino totalmente diferente: construir ordenadores a partir de células vivas. Aquí aparece un término llamativo: wetware (literalmente, “software húmedo”), que se emplea para describir sistemas computacionales basados en tejido biológico, especialmente neuronas.
En Suiza, el laboratorio FinalSpark trabaja con organoides cerebrales, pequeños grupos de neuronas cultivadas en el laboratorio a partir de células madre humanas; estos organoides plantean preguntas sobre la identidad neuronal y su estabilidad. Estas células madre se obtienen, por ejemplo, de células de piel reprogramadas que se compran a clínicas especializadas; los donantes son anónimos y se seleccionan siguiendo estándares de calidad muy estrictos, porque la estabilidad del sistema depende mucho de la calidad del material biológico.
El proceso consiste en cultivar las células madre para que formen pequeñas esferas blancas, del tamaño de un punto en una placa de laboratorio. Cada esfera es, en esencia, un minicerebro con neuronas y células de soporte, que comparte los componentes básicos del cerebro humano, aunque está a años luz de su complejidad. Tras varios meses de cultivo, estos organoides se conectan a matrices de microelectrodos capaces de estimularlos y leer su actividad eléctrica.
Una de las pruebas más sencillas que realizan es enviar señales mediante una tecla del ordenador: se pulsa una tecla, se genera un estímulo eléctrico en los electrodos y se observa si el organoide responde con un patrón de actividad. En pantalla, la respuesta parece un electroencefalograma en miniatura. A veces, tras varias pulsaciones, la actividad se detiene y, de repente, aparece un pico brusco de señales; los investigadores aún no comprenden bien qué significan estos patrones, lo que evidencia lo poco que sabemos de cómo estos tejidos procesan la información.
El objetivo a medio plazo es inducir aprendizaje en estas neuronas, de modo que puedan adaptarse a tareas concretas, como lo hace una red neuronal artificial, pero usando tejido vivo. La esperanza es que, si se consigue que estos sistemas aprendan de manera eficiente, puedan realizar tareas de inteligencia artificial consumiendo una fracción de la energía que requieren los chips de silicio actuales.
Mantener vivo un ordenador biológico: el gran obstáculo
La gran pregunta en biocomputación no es solo cómo hacer que esas neuronas procesen datos, sino cómo mantener vivas y estables las biocomputadoras durante tiempos largos. A diferencia de un ordenador convencional, que solo necesita corriente eléctrica, un tejido neural requiere nutrientes, oxígeno y la eliminación constante de desechos metabólicos.
Como recuerda Simon Schultz, experto en neurotecnología del Imperial College de Londres, los organoides cerebrales no tienen vasos sanguíneos. En el cerebro humano, una red intrincadísima de capilares y arterias se encarga de llevar oxígeno y nutrientes a cada neurona. Replicar esa arquitectura vascular en un tejido artificial es extremadamente difícil, y hoy por hoy es uno de los principales cuellos de botella para lograr biocomputadoras duraderas.
A pesar de eso, laboratorios como FinalSpark han logrado extender la vida útil de sus organoides hasta unos cuatro meses. Un avance notable si se tiene en cuenta que, en los inicios, sobrevivían mucho menos. Aun así, el final de estos minicerebros sigue planteando fenómenos curiosos: se han observado incrementos repentinos y muy intensos de actividad justo antes de que el organoide “muera”, un patrón que recuerda a los picos de actividad cerebral y cardiaca descritos en algunos pacientes en los instantes previos a la muerte.
Fred Jordan, cofundador de FinalSpark, reconoce que han llegado a registrar entre 1.000 y 2.000 muertes individuales de organoides en unos cinco años. Cada vez que uno falla, el experimento se detiene y hay que investigar qué ha salido mal. Para los investigadores, a pesar de la carga simbólica de trabajar con tejido neural, estos organoides se tratan como herramientas: “son solo ordenadores de otro sustrato”, como puntualiza Schultz.
En cualquier caso, el mantenimiento de estos sistemas exige una infraestructura compleja (incubadoras, medios de cultivo, control de temperatura y CO₂, etc.), de modo que todavía estamos muy lejos de tener “PCs vivos” en un escritorio doméstico. Por ahora, la biocomputación se desempeña como un campo experimental con aplicaciones potenciales en inteligencia artificial, neurociencia básica y testeo de fármacos.
DishBrain y otros proyectos: ordenadores con neuronas que juegan al Pong
Otro proyecto emblemático de esta línea es DishBrain, una colaboración entre investigadores de la Universidad Johns Hopkins y la empresa Cortical Labs, en Melbourne (Australia). Su objetivo es construir ordenadores formados por cientos de miles de neuronas vivas capaces de realizar tareas sencillas, como jugar al legendario videojuego Pong.
En una primera fase, el equipo ha trabajado con conjuntos de unas 50.000 neuronas, obtenidas tanto de células madre humanas como de células de cerebro de ratón embrionario. Estas neuronas se cultivan sobre matrices de microelectrodos que pueden estimularlas y registrar su actividad en tiempo real. El plan a futuro es llegar a 10 millones de neuronas, una cifra comparable a la del cerebro de una tortuga, muy lejos aún de los 80.000 millones de neuronas de un cerebro humano, pero suficiente para explorar tareas de IA relativamente complejas.
El experimento con Pong funciona de la siguiente forma: los electrodos situados a la izquierda o la derecha de la matriz indican a DishBrain en qué lado de la pantalla se encuentra la pelota, mientras que la distancia hasta la paleta se codifica en la frecuencia de las señales eléctricas. A través de la retroalimentación que reciben —éxito o fallo al devolver la pelota— las neuronas van ajustando su actividad, como si ellas mismas fueran la paleta del juego.
Este tipo de sistemas muestran algo fascinante: aprenden con pocas muestras y poca energía. Mientras que una red neuronal artificial puede necesitar decenas o cientos de miles de ejemplos para dominar un juego o reconocer un patrón, un conjunto de neuronas biológicas muestra una capacidad de adaptación mucho más rápida y eficiente desde el punto de vista energético.
En IA de silicio, entrenar modelos potentes implica procesar cantidades masivas de datos durante días o semanas en centros de datos con un consumo eléctrico enorme. Basta recordar el caso de la IA que ganó al campeón de Go, que se entrenó con más de 160.000 partidas, el equivalente a que una persona jugara durante cinco horas al día durante más de 175 años. El cerebro humano, en cambio, logra rendimientos comparables en muchas tareas con una cantidad ínfima de ejemplos y consumiendo apenas unos pocos vatios de potencia.
De ahí que la computación biológica vea en estos organoides y sistemas híbridos una oportunidad: máquinas que aprendan más rápido y consuman menos energía, ideales para ciertas aplicaciones de IA y para el estudio de enfermedades neurológicas. Además, estos minicerebros permiten modelar trastornos a partir de células de pacientes concretos (por ejemplo, derivadas de piel o sangre), observando cómo influyen en las neuronas factores genéticos, fármacos o toxinas.
Ingeniería neuromórfica: chips que se parecen al cerebro
Paralelamente a la biocomputación, existe otro gran frente: la ingeniería neuromórfica, una rama de la ingeniería informática que diseña hardware y software inspirados en la estructura del cerebro y del sistema nervioso. En lugar de cultivar neuronas vivas, aquí se trata de construir circuitos electrónicos que se comporten de forma parecida a redes neuronales biológicas.
El término “neuromórfico” viene del griego: “neuro” (nervio) y “morfé” (forma). Esta disciplina bebe de muchas áreas distintas —ingeniería informática, electrónica, física, biología, matemáticas— y busca emular elementos como neuronas, sinapsis y plasticidad sináptica en forma de dispositivos electrónicos. Los objetivos son dobles: entender mejor cómo funciona el cerebro y, de paso, crear ordenadores mucho más eficientes para tareas de IA.
Aunque parezca novedosa, la idea tiene raíces antiguas. Ya en 1948, Alan Turing, una de las figuras fundacionales de la informática, especulaba sobre máquinas que pudieran imitar la inteligencia humana en su obra “Intelligent Machinery”. Allí introduce conceptos clave —máquinas de Turing, redes neuronales primitivas— que han sido la base de buena parte de la IA moderna y de los intentos de replicar el cerebro de forma artificial.
No sería hasta 1981 cuando Carver Mead, profesor e ingeniero, acuñó formalmente el concepto de ingeniería neuromórfica. Mead diseñó dispositivos analógicos inspirados en el funcionamiento de la cóclea y la retina humanas, sentando las bases para implantes auditivos y visuales. Su libro “Analog VLSI and Neural Systems” describe cómo traducir la morfología y dinámica de neuronas y circuitos biológicos a sistemas electrónicos de gran escala.
Para Mead, la clave de la ingeniería neuromórfica es comprender cómo la forma y organización de las neuronas y sus conexiones influyen en la representación de la información, la resistencia a daños, la capacidad de aprendizaje y adaptación, e incluso la evolución de los sistemas. Durante años, el campo quedó relativamente en segundo plano, pero el boom reciente de la IA, el machine learning y las redes neuronales profundas lo ha devuelto al centro del escenario.
Grafeno y sinapsis artificiales: construir la conectividad del cerebro
Un reto crucial para que los ordenadores neuromórficos despeguen es encontrar materiales adecuados para crear sinapsis electrónicas que se comporten como las conexiones entre neuronas. No basta con simular neuronas de forma abstracta; hace falta un hardware físico capaz de modificar su conductancia (su “fuerza de conexión”) en función del uso, tal y como hace una sinapsis real cuando aprendemos.
El equipo de Jean Anne Incorvia, en la Universidad de Texas en Austin, ha desarrollado unos transistores sinápticos muy prometedores. Estos dispositivos, diminutos y flexibles, funcionan de manera parecida a las sinapsis: las “vías” de transmisión se refuerzan con el uso repetido, lo que sería el equivalente en electrónica a la memoria muscular de una red neuronal biológica.
La clave está en la combinación de grafeno y nafion. El grafeno es una lámina de carbono de un solo átomo de grosor con una estructura hexagonal, extremadamente conductora, resistente y ligera. El nafion, un polímero especial, aporta propiedades iónicas que permiten que el dispositivo responda a señales eléctricas de forma gradual, no simplemente encendido/apagado. Juntos, permiten comportamientos metaplásticos, es decir, cambios de plasticidad dependientes de la historia previa de estimulación.
Estos transistores sinápticos son, además, biocompatibles, lo que abre la puerta a dispositivos que podrían integrarse con tejido vivo, por ejemplo, en implantes médicos avanzados o interfaces cerebro-máquina menos invasivas. Muchos de los primeros materiales empleados en dispositivos neuromórficos resultaban tóxicos y no aptos para contacto directo con células, de modo que este avance supone un salto importante.
En términos computacionales, un sistema basado en estas sinapsis artificiales podría mejorar su eficiencia con el uso, optimizándose de forma similar a como un cerebro se especializa en tareas que practica a menudo. Este tipo de componentes se perfila como una pieza clave para fabricar chips neuromórficos que imiten de verdad la dinámica de las redes neuronales y que puedan, algún día, producirse a gran escala en fábricas.
¿Hasta qué punto se parecen un ordenador y un cerebro?
Para entender qué significa “crear el cerebro de los ordenadores”, conviene parar un momento y comparar similitudes y diferencias entre ambos sistemas. Tanto los ordenadores como los cerebros almacenan y procesan información, son capaces de hacer cálculos y de tomar decisiones basadas en datos. Sin embargo, el modo en que lo hacen es radicalmente distinto.
En un ordenador clásico, la información se manipula mediante circuitos de transistores que implementan puertas lógicas binarias (unos y ceros). En el cerebro, la información fluye a través de un inmenso entramado de unas 1011 neuronas y alrededor de 1015 sinapsis, tantas como estrellas en la Vía Láctea. Las señales no son solo eléctricas, sino también químicas, gracias a los neurotransmisores.
La velocidad y el consumo energético también se comportan de forma muy distinta. Una neurona transmite impulsos a una frecuencia del orden de kilohercios, mucho más lenta que los gigahercios de un procesador de silicio moderno. Sin embargo, el cerebro compensa esa lentitud con una paralelización masiva y una arquitectura extremadamente eficiente: con unos 50 vatios de potencia —menos que una bombilla de mesilla— realiza tareas que, para emularse en una supercomputadora, exigirían enormes cantidades de energía.
La capacidad de almacenamiento del cerebro, estimada a partir del conectoma (el mapa completo de conexiones), se sitúa en el rango de los petabytes, comparable a millones de discos de música en formato digital. Pero, a diferencia de un disco duro, el cerebro no es digital ni estático: es analógico, ruidoso y dinámico, y su fuerza precisamente reside en esa plasticidad.
Los ordenadores son impecables ejecutando algoritmos bien definidos, pasos lógicos y tareas repetitivas. El cerebro, en cambio, es imbatible en creatividad, flexibilidad cognitiva, manejo de emociones y aprendizaje con pocos ejemplos. Es ahí donde la ingeniería neuromórfica y la biocomputación intentan tomar prestadas las virtudes del cerebro para fortalecer el diseño de nuevas máquinas.
Simular y emular el cerebro: de Blue Brain al Human Brain Project
Una de las estrategias para avanzar en este terreno ha sido intentar simular partes del cerebro en supercomputadores. Proyectos como Blue Brain (iniciado por IBM y la Escuela Politécnica Federal de Lausana) o el Human Brain Project, impulsado por la Unión Europea, han dedicado años y recursos a construir modelos computacionales detallados de columnas corticales, regiones específicas y redes neuronales a gran escala.
Para simular un cerebro —aunque sea una fracción— se necesitan tres ingredientes: un mapa lo más completo posible del conectoma, modelos matemáticos de la dinámica de neuronas y sinapsis, y una capacidad de cálculo descomunal. La disciplina que se encarga de ello es la neurociencia computacional, que busca entender cómo emerge el comportamiento y la cognición a partir de la interacción de millones de neuronas.
La computación neuromórfica, por su parte, se diferencia en que pretende construir físicamente esas redes neuronales en hardware, en vez de simularlas por software en un superordenador convencional. El objetivo es obtener sistemas más eficientes energéticamente y con comportamiento más parecido al de un cerebro real, algo especialmente valioso para tareas de IA.
Aunque se han logrado avances significativos, expertos como Luis Pastor señalan que hoy en día no disponemos de ordenadores con capacidad de cálculo y almacenamiento suficientes para simular con detalle todo un cerebro humano. Además, el volumen de datos generado por una simulación así sería difícil de manejar e interpretar, tanto desde el punto de vista técnico como conceptual.
En cualquier caso, estos proyectos han generado herramientas, bases de datos y modelos que ya están ayudando a comprender enfermedades neurológicas, probar fármacos y mejorar algoritmos de IA. El cerebro sigue siendo el objeto más complejo que conocemos, y es posible que nunca lleguemos a entenderlo al 100 %, pero cada simulación parcial aporta piezas nuevas al puzle.
Wetware, plasticidad y el dilema de la conciencia
Para ir más allá del símil simple “mente = ordenador”, algunos filósofos y científicos han propuesto la Teoría Computacional de la Mente. Autores como Hilary Putnam o Jerry Fodor han defendido que la mente se apoya físicamente en el cerebro, pero que, funcionalmente, se parece a una máquina de procesamiento de símbolos que sigue reglas (algoritmos), como las máquinas de Turing de Alan Turing.
Fodor, por ejemplo, hablaba de una mente modular, con facultades relativamente independientes (lenguaje, música, matemáticas, etc.) que operan mediante algoritmos abstractos. Ahora bien, cuando intentamos trasladar esto a una computadora real, nos topamos con la enorme diferencia de escala y complejidad entre las redes sinápticas y los chips de silicio.
De ahí que surja el concepto de wetware, una especie de tercer término entre hardware y software que intenta capturar la naturaleza cambiante y plástica del cerebro. Las neuronas están conectadas en redes que se reorganizan constantemente según la experiencia, la lesión, el aprendizaje o el envejecimiento. Un ordenador clásico, por el contrario, tiene una arquitectura rígida que no se reconfigura de forma profunda por el mero uso.
Un aspecto fascinante es que el cerebro puede reorganizar funciones tras una lesión: cuando una zona se daña, otras regiones pueden asumir parcialmente sus tareas, algo que ninguna computadora de silicio realiza de manera comparable. Esa plasticidad y tolerancia al daño son características clave que los diseñadores de sistemas neuromórficos y biocomputacionales intentan reproducir.
En el fondo, todo esto nos conduce a preguntas filosóficas de calado: si llegásemos a simular un cerebro humano con suficiente detalle, o a construir su equivalente funcional con neuronas artificiales o biológicas en un ordenador, ¿aparecería una mente consciente? ¿Bastan las conexiones y la dinámica para que surja un “yo” con experiencias subjetivas? Hoy por hoy, la respuesta está completamente abierta y divide tanto a filósofos como a científicos.
Lo que sí sabemos es que un ordenador convencional es comprensible de principio a fin —lo diseñamos nosotros—, mientras que el cerebro sigue planteando enigmas a todos los niveles, desde la sinapsis individual hasta la experiencia consciente. Tal vez el mayor reto al crear el “cerebro” de los ordenadores no sea técnico, sino entender qué significa realmente pensar y ser consciente, más allá de procesar información de forma eficiente.
A día de hoy, la combinación de computación cuántica, neuromórfica y biológica dibuja un escenario en el que los ordenadores del futuro podrían aprender con muy pocos datos, consumir una energía ridícula y adaptarse casi como un organismo vivo, pero todavía estamos lejos de máquinas que sientan, sueñen o tengan una vida interior comparable a la humana; lo que se está construyendo, paso a paso, es una nueva generación de sistemas que toman al cerebro como modelo para expandir las capacidades de la tecnología, no para suplantar lo que nos hace humanos.
