La Nueva Física de la Inteligencia: Computación Termodinámica y el Fin del Paradigma Digital Determinista

El Horizonte de Sucesos Energético: La Crisis de la Computación Contemporánea

La Nueva Física de la Inteligencia: Computación Termodinámica y el Fin del Paradigma Digital Determinista
Susan Hill

La civilización tecnológica se encuentra ante una paradoja existencial. Mientras la demanda de inteligencia artificial (IA) crece exponencialmente, impulsada por la proliferación de Modelos de Lenguaje Grande (LLM) y sistemas generativos, la infraestructura física que sustenta estos avances se aproxima rápidamente a límites termodinámicos insuperables. La narrativa predominante de la Ley de Moore —la duplicación constante de transistores y eficiencia— ha comenzado a fracturarse, no por incapacidad de miniaturización, sino por las restricciones fundamentales de la disipación de calor y el consumo energético. En este contexto crítico emerge la computación termodinámica, un cambio de paradigma que promete no solo mitigar la crisis energética, sino redefinir la naturaleza misma del procesamiento de información.

La Tiranía del Vatio en la Era de la IA Generativa

La arquitectura de computación actual, basada en el modelo de von Neumann y la lógica booleana determinista, enfrenta lo que los expertos denominan el «Muro Energético». El entrenamiento y la inferencia de modelos de IA avanzados dependen casi exclusivamente de Unidades de Procesamiento Gráfico (GPUs), como la omnipresente NVIDIA H100. Una sola de estas unidades posee un consumo de diseño térmico (TDP) de 700 vatios, y cuando se agrupan en sistemas HGX H100, el consumo supera los 2.000 vatios por rack. Esta densidad de potencia convierte a los centros de datos modernos en hornos digitales que requieren infraestructuras de refrigeración masivas, consumiendo agua y electricidad a escalas industriales.

Los datos macroeconómicos corroboran la inminencia de esta crisis. Goldman Sachs proyecta que la demanda global de energía por parte de los centros de datos aumentará un 165% para finales de la década. Por su parte, la Agencia Internacional de la Energía (AIE) estima que el consumo eléctrico de los centros de datos podría duplicarse para 2026, alcanzando los 1.000 TWh, una cifra comparable al consumo total de electricidad de Japón. Este crecimiento no es lineal, sino que sigue la curva exponencial de la complejidad de los modelos de IA, creando una situación insostenible donde el 92% de los ejecutivos de centros de datos ya identifican las restricciones de la red eléctrica como el principal obstáculo para el escalado.

La Ineficiencia Intrínseca del Determinismo

El problema fundamental no reside únicamente en la cantidad de cómputo, sino en la calidad física del mismo. La computación digital contemporánea opera bajo un régimen de supresión de ruido. Para garantizar que un bit sea inequívocamente un 0 o un 1, los transistores deben operar a voltajes que superen con creces el «ruido térmico» natural de los electrones. Esta lucha constante contra la entropía —el esfuerzo por mantener un orden perfecto en un medio físico caótico— conlleva un costo energético exorbitante.

Cada operación lógica en un procesador digital implica cargar y descargar condensadores y mover electrones a través de resistencias, generando calor residual que no contribuye al cálculo, sino que representa energía desperdiciada en la «fricción» de imponer determinismo. Como señalan los investigadores, los sistemas convencionales «pagan energía» para suprimir la estocasticidad. Además, la separación física entre la memoria y la unidad de procesamiento (el cuello de botella de von Neumann) implica que una gran parte de la energía se gasta simplemente moviendo datos de un lugar a otro, no procesándolos.

La Alternativa Termodinámica

Frente a este escenario, la computación termodinámica propone una inversión radical de los principios operativos. En lugar de gastar energía para combatir el ruido térmico, esta disciplina busca aprovecharlo como recurso computacional. Se basa en la premisa de que la naturaleza calcula de manera eficiente mediante procesos de relajación hacia el equilibrio térmico. Al alinear la arquitectura computacional con la física subyacente de la información, es posible realizar tareas complejas —específicamente el muestreo probabilístico requerido por la IA generativa— con una eficiencia órdenes de magnitud superior a la de los transistores digitales.

Esta aproximación no es meramente teórica. Empresas como Extropic y Normal Computing han comenzado a fabricar hardware que materializa estos principios, prometiendo eficiencias hasta 10.000 veces superiores a las tecnologías actuales. Este informe analiza exhaustivamente el estado de esta tecnología, sus fundamentos físicos, los actores clave y las implicaciones geopolíticas y económicas de una transición hacia la computación basada en la física.

Fundamentos Físicos: Del Bit Determinista al P-Bit Estocástico

Para comprender la magnitud de la innovación que representa la computación termodinámica, es imperativo descender al nivel físico de la operación de los circuitos. La diferencia entre un chip convencional y una Unidad de Muestreo Termodinámico (TSU) no es de grado, sino de clase ontológica.

Termodinámica del No-Equilibrio y Computación

La teoría general que sustenta estos avances es la física estadística del no-equilibrio, a menudo denominada termodinámica estocástica. Este campo proporciona las herramientas para analizar sistemas que están lejos del equilibrio térmico, como los ordenadores. En la computación clásica, se sigue el principio de Landauer, que establece un límite inferior teórico para la energía necesaria para borrar un bit de información, disipando calor al entorno. Sin embargo, la computación termodinámica opera bajo dinámicas diferentes.

Los dispositivos termodinámicos están diseñados para evolucionar bajo dinámicas de Langevin (amortiguadas o subamortiguadas). Esto significa que el sistema físico «busca» naturalmente su estado de mínima energía. Si se codifica un problema matemático en el paisaje energético del dispositivo, el sistema resolverá el problema simplemente relajándose hacia su estado de equilibrio térmico. En este paradigma, el cálculo no es una serie de pasos lógicos forzados, sino un proceso físico natural, análogo a cómo una gota de agua encuentra el camino más rápido montaña abajo o cómo una proteína se pliega en su configuración óptima.

El Bit Probabilístico (p-bit)

La unidad fundamental de esta nueva arquitectura es el p-bit (bit probabilístico). A diferencia de un bit digital, que es estático hasta que se le ordena cambiar, un p-bit fluctúa continuamente entre 0 y 1 en escalas de tiempo de nanosegundos, impulsado por el ruido térmico ambiental. Sin embargo, esta fluctuación no es completamente aleatoria; puede ser sesgada mediante voltajes de control para que el p-bit pase, por ejemplo, el 80% del tiempo en estado 1 y el 20% en estado 0.

Este comportamiento imita las distribuciones de probabilidad. Al conectar múltiples p-bits entre sí, se crea un circuito que representa una distribución de probabilidad conjunta compleja. Cuando se «lee» el estado del circuito en un momento dado, se obtiene una muestra válida de esa distribución. Esto es crucial porque la IA generativa moderna trata fundamentalmente sobre probabilidades: predecir la siguiente palabra más probable o generar el píxel más probable en una imagen.

Muestreo Nativo vs. Simulación Digital

La ventaja de eficiencia de «10.000x» proclamada por Extropic surge de esta diferencia estructural. En una GPU digital (determinista), generar una muestra aleatoria de una distribución compleja requiere ejecutar algoritmos pseudoaleatorios (PRNG) que consumen miles de ciclos de reloj y millones de transiciones de transistores. La GPU debe simular el azar mediante aritmética determinista compleja.

En contraste, el chip termodinámico genera la muestra de forma nativa. No simula el ruido; el ruido es el motor del cálculo. La física hace el trabajo pesado de generar la aleatoriedad, eliminando la necesidad de complejas unidades aritméticas y lógicas (ALU) para esta tarea específica. Es, en esencia, computación analógica asistida por ruido, donde el medio físico realiza la operación matemática instantáneamente.

Característica OperativaComputación Digital (GPU/CPU)Computación Termodinámica (TSU)
Unidad BásicaTransistor CMOS (Switch Determinista)p-bit (Oscilador Estocástico)
Relación con el RuidoSupresión (Ruido = Error)Utilización (Ruido = Recurso/Combustible)
Mecanismo de CálculoAritmética Booleana SecuencialRelajación Física a Estado de Energía Mínima
Consumo EnergéticoAlto (Lucha contra la termodinámica)Mínimo (Fluye con la termodinámica)
Aplicación IdealCálculos precisos, lógica exactaInferencia probabilística, Optimización, IA Generativa

Extropic: Arquitectura y Estrategia de la Incertidumbre

Extropic, con sede en Estados Unidos, se ha posicionado como la punta de lanza comercial de esta tecnología. Fundada por Guillaume Verdon (ex físico de Google y conocido en la esfera digital como «Beff Jezos», líder del movimiento de aceleracionismo efectivo o e/acc) y Trevor McCourt, la empresa ha pasado de la teoría a la fabricación de silicio tangible.

El Chip X0: Validación del Silicio Probabilístico

El primer hito tangible de Extropic es el chip X0. Este dispositivo es un prototipo de prueba diseñado para validar que los circuitos probabilísticos pueden fabricarse utilizando procesos de semiconductores estándar y operar a temperatura ambiente. A diferencia de los ordenadores cuánticos que requieren temperaturas cercanas al cero absoluto, el X0 utiliza el calor ambiental como fuente de entropía.

El X0 alberga una familia de circuitos diseñados para generar muestras de distribuciones de probabilidad primitivas. Su función principal ha sido confirmar la precisión de los modelos de ruido de Extropic: demostrar que se puede diseñar un transistor para que sea «ruidoso» de una manera predecible y controlable. Este logro es significativo porque la industria de semiconductores ha pasado 60 años optimizando procesos para eliminar el ruido; reintroducirlo de manera controlada requiere un dominio profundo de la física de materiales.

Plataforma de Desarrollo XTR-0

Para permitir que los investigadores y desarrolladores interactúen con esta nueva física, Extropic ha lanzado la plataforma XTR-0. Este sistema no es un ordenador independiente, sino una arquitectura híbrida. Físicamente, consta de una placa base trapezoidal que aloja una CPU convencional y una FPGA, conectada a dos placas secundarias (daughterboards) que contienen los chips termodinámicos X0.

La función de la XTR-0 es servir de puente. La CPU gestiona el flujo de trabajo general y la lógica determinista, mientras que la FPGA actúa como traductor de alta velocidad, enviando instrucciones y parámetros a los chips X0 y recibiendo las muestras probabilísticas generadas. Esta arquitectura reconoce una realidad pragmática: los ordenadores termodinámicos no reemplazarán a los digitales para tareas como ejecutar un sistema operativo o procesar una hoja de cálculo. Su rol es el de aceleradores especializados, análogos a cómo las GPUs aceleran los gráficos, pero dedicados exclusivamente a la carga de trabajo probabilística de la IA.

El Chip Z1 y la Visión de Escala

El objetivo final de Extropic no es el X0, sino el futuro chip Z1. Se proyecta que este dispositivo albergará cientos de miles o millones de p-bits interconectados, permitiendo ejecutar modelos de IA generativa profundos completamente en el sustrato termodinámico. Las simulaciones realizadas por la empresa sugieren que este chip podría ejecutar tareas de generación de imágenes o texto consumiendo 10.000 veces menos energía que una GPU equivalente.

La arquitectura del Z1 se basa en una conectividad local masiva. A diferencia de las GPUs, donde los datos viajan largas distancias a través del chip (consumiendo energía), en el diseño de Extropic, la memoria y el cómputo están entrelazados. Los p-bits interactúan solo con sus vecinos inmediatos, creando una red de interacciones locales que, en conjunto, resuelven problemas globales. Esto elimina gran parte del costo energético del movimiento de datos.

Algoritmos Nativos: El Modelo Termodinámico de Eliminación de Ruido (DTM)

El hardware revolucionario requiere software revolucionario. Intentar ejecutar algoritmos de aprendizaje profundo estándar (basados en multiplicación de matrices determinista) en un chip termodinámico sería ineficiente. Por ello, Extropic ha desarrollado una nueva clase de algoritmos nativos.

Modelos Basados en Energía (EBMs)

La base teórica del software de Extropic son los Modelos Basados en Energía (Energy-Based Models o EBMs). En el aprendizaje automático, un EBM aprende a asociar una «energía» baja a los datos que parecen realistas (como una imagen de un gato) y una energía alta al ruido o datos incorrectos. Generar datos con un EBM implica encontrar configuraciones de baja energía.

Los EBMs han existido teóricamente durante décadas, pero cayeron en desuso frente a las redes neuronales profundas porque entrenarlos y usarlos en ordenadores digitales es extremadamente lento. Requieren un proceso llamado Muestreo de Gibbs, que es computacionalmente prohibitivo en una CPU o GPU. Sin embargo, el chip de Extropic realiza Muestreo de Gibbs de forma nativa y casi instantánea. Lo que es una debilidad para el silicio digital es la fortaleza fundamental del silicio termodinámico.

Denoising Thermodynamic Model (DTM)

El algoritmo insignia de Extropic es el Modelo Termodinámico de Eliminación de Ruido (DTM). Este modelo funciona de manera similar a los modelos de difusión modernos (como los que impulsan Midjourney o Stable Diffusion), que comienzan con ruido puro y lo refinan progresivamente hasta obtener una imagen clara.

Sin embargo, mientras que un modelo de difusión en una GPU debe calcular matemáticamente cómo eliminar el ruido paso a paso, el DTM utiliza la física del chip para realizar la transformación. El hardware termodinámico permite que el estado «ruidoso» evolucione físicamente hacia el estado «ordenado» (la imagen final) siguiendo las leyes de la termodinámica. Las simulaciones indican que este enfoque no solo es más rápido, sino que requiere órdenes de magnitud menos energía porque el proceso de «eliminación de ruido» es realizado por la tendencia natural del sistema al equilibrio, no por billones de multiplicaciones de punto flotante.

El Ecosistema Competitivo: Enfoques Divergentes en la Computación Física

Aunque Extropic ha capturado la atención mediática con sus afirmaciones audaces y su estética cyberpunk, no es el único actor en este espacio. La carrera por la computación termodinámica y probabilística incluye a otros competidores sofisticados como Normal Computing, cada uno con filosofías técnicas y de mercado distintas.

Normal Computing: La Fiabilidad a través de la Estocasticidad

Normal Computing, con sede en Nueva York y fundada por ex ingenieros de Google Brain y Alphabet X, aborda el problema desde un ángulo ligeramente diferente. Mientras que Extropic se centra en la velocidad y la eficiencia bruta para la generación (aceleracionismo), Normal pone un énfasis significativo en la fiabilidad, la seguridad y la cuantificación de la incertidumbre en sistemas críticos.

Su tecnología se basa en la Unidad de Procesamiento Estocástico (SPU). Al igual que Extropic, utilizan el ruido térmico, pero su marco matemático se centra en procesos estocásticos específicos como el proceso de Ornstein-Uhlenbeck (OU). El proceso OU es un proceso estocástico de reversión a la media, útil para modelar sistemas que fluctúan pero tienden a volver a un centro estable.

Normal Computing ha alcanzado hitos significativos, como el «tape-out» (finalización del diseño para fabricación) de su chip CN101. Este chip está diseñado para demostrar la viabilidad de la arquitectura termodinámica en silicio real. Su hoja de ruta incluye los futuros chips CN201 y CN301, destinados a escalar modelos de difusión de alta resolución y video para 2027-2028.

Diferencia Clave: Extropic parece optimizar para la máxima entropía y creatividad generativa a bajo costo energético (ideal para arte, texto, ideación). Normal Computing parece optimizar para la «IA explicable» y fiable, utilizando el hardware probabilístico para que la IA «sepa lo que no sabe» y gestione riesgos en aplicaciones empresariales o industriales.

Computación Neuromórfica vs. Termodinámica

Es crucial distinguir la computación termodinámica de la neuromórfica (representada por chips como TrueNorth de IBM o Loihi de Intel). La computación neuromórfica intenta imitar la arquitectura biológica del cerebro (neuronas, sinapsis, picos de voltaje) utilizando a menudo circuitos digitales o analógicos deterministas.

La computación termodinámica, por otro lado, imita la física del cerebro. El cerebro biológico opera en un entorno húmedo y ruidoso a 37°C, utilizando el ruido térmico para facilitar las reacciones químicas y la transmisión de señales. No lucha contra el ruido; lo usa. Extropic y Normal Computing argumentan que imitar la física (termodinámica) es un camino más directo a la eficiencia que imitar solo la estructura (neuromórfica).

Análisis Profundo de la Eficiencia: Deconstruyendo el «10.000x»

La afirmación de una mejora de eficiencia de 10.000 veces es extraordinaria y requiere un escrutinio técnico riguroso. ¿De dónde surge exactamente esta cifra y es realista en entornos de producción?

La Física del Ahorro

El ahorro energético proviene de tres fuentes principales:

  1. Eliminación del Movimiento de Datos: En una GPU, leer los pesos de un modelo de la memoria VRAM consume más energía que realizar el cálculo en sí. En el TSU de Extropic, los pesos del modelo están codificados físicamente en las conexiones entre p-bits. El cálculo ocurre donde están los datos.
  2. Cálculo Pasivo: En un circuito digital, el reloj fuerza transiciones de estado millones de veces por segundo, consumiendo energía activa en cada ciclo. En un circuito termodinámico, el sistema evoluciona pasivamente hacia la solución. La energía es suministrada en gran parte por el calor ambiental (ruido térmico), que es «gratis».
  3. Eficiencia de Muestreo: Como se discutió, generar una muestra estadística en digital requiere miles de operaciones. En termodinámica, es una operación única. Si una tarea requiere tomar millones de muestras (como en la generación de video), la ventaja se acumula linealmente hasta alcanzar órdenes de magnitud.

Comparativa de Consumo Real

Para poner esto en perspectiva, consideremos el entrenamiento y la inferencia de modelos tipo LLaMA. Meta entrenó LLaMA 3 utilizando 16.000 GPUs H100. Si asumimos un consumo promedio conservador, el costo energético es de cientos de gigavatios-hora. En la fase de inferencia (uso diario), si millones de usuarios consultan el modelo, el consumo acumulado supera al del entrenamiento.

Si un chip termodinámico puede realizar la misma inferencia consumiendo milivatios en lugar de cientos de vatios, la viabilidad económica de la IA cambia radicalmente. Permitiría ejecutar modelos de nivel GPT-4 en un smartphone sin agotar la batería en minutos, o desplegar sensores inteligentes en agricultura que funcionen durante años con una pequeña batería.

Limitaciones y Advertencias

Sin embargo, la cifra de 10.000x se deriva de simulaciones de benchmarks específicos optimizados para este hardware. En cargas de trabajo mixtas, donde se requiere lógica determinista, pre-procesamiento de datos y comunicación con la CPU, la eficiencia global del sistema (Ley de Amdahl) será menor. Además, la precisión analógica es inherentemente limitada. Para cálculos financieros que requieren 64 bits de precisión exacta, la computación termodinámica no es adecuada. Su nicho es la inferencia probabilística, no la contabilidad exacta.

Métrica de EficienciaGPU Digital (H100)TSU Termodinámico (Proyectado)Factor de Mejora Teórica
Operaciones por JulioLimitado por barrera de Landauer y arquitectura CMOSLimitado solo por ruido térmico de fondo~10^3 – 10^5
Latencia de MuestreoAlta (requiere iteraciones PRNG secuenciales)Muy Baja (física instantánea)~100x – 1000x
Complejidad de CircuitoAlta (millones de transistores para lógica de control)Baja (p-bits simples y acoplamientos)Alta densidad de área

Desafíos de Fabricación y Escalabilidad: El Valle de la Muerte del Hardware

La historia de la computación está llena de tecnologías prometedoras (memristores, computación óptica, espintrónica) que fallaron al intentar escalar. La computación termodinámica enfrenta barreras significativas para salir del laboratorio.

Variabilidad de Procesos y Calibración

El mayor desafío para Extropic y Normal Computing es la homogeneidad. En la fabricación de chips modernos (nodos de 5nm o 3nm), existen variaciones microscópicas entre transistores. En digital, esto se gestiona con márgenes de seguridad. En analógico/termodinámico, donde el «ruido» es la señal, una variación en el tamaño de un transistor cambia su perfil de probabilidad.

Si cada p-bit tiene un sesgo ligeramente diferente debido a defectos de fabricación, el chip no representará la distribución de probabilidad correcta. Calibrar millones de p-bits individuales para compensar estas variaciones podría requerir circuitos de control digital masivos, lo que comería parte del ahorro energético y de espacio. Extropic afirma haber resuelto esto con diseños de circuitos robustos, pero la prueba real vendrá con la producción en masa del chip Z1.

Integración en el Ecosistema de Software

El hardware es inútil sin un ecosistema. NVIDIA domina la IA no solo por sus chips, sino por CUDA, su capa de software. Para que los desarrolladores adopten TSUs, la complejidad física debe abstraerse. Extropic ha lanzado Thrml, una biblioteca de Python que permite a los desarrolladores definir modelos de energía y ejecutarlos en el backend (ya sea simulado en GPU o real en XTR-0). El éxito dependerá de qué tan transparente sea esta integración con PyTorch y TensorFlow. Si los ingenieros de ML tienen que aprender física estadística para programar el chip, la adopción será nula.

Competencia de la Ley de Moore

La tecnología digital no está estancada. NVIDIA, AMD e Intel continúan optimizando sus arquitecturas para IA (ej. precisión FP8, arquitecturas Blackwell). La computación termodinámica persigue un objetivo móvil. Para cuando el chip Z1 llegue al mercado comercial, las GPUs convencionales habrán mejorado su eficiencia. La ventaja de «10.000x» es un colchón grande, pero la ejecución debe ser rápida para no perder la ventana de oportunidad.

Implicaciones Geopolíticas y Económicas

La emergencia de esta tecnología tiene ramificaciones que van más allá de la sala de servidores, afectando la estrategia nacional y la economía global de la IA.

Soberanía de la IA y Descentralización

Actualmente, la IA avanzada es un oligopolio controlado por entidades capaces de financiar centros de datos de mil millones de dólares y acceder a suministros restringidos de GPUs. La computación termodinámica, al reducir drásticamente el costo energético y de hardware (utilizando procesos de fabricación de silicio más antiguos y baratos, ya que no requieren la última litografía de 3nm para funcionar), podría democratizar el acceso a la «superinteligencia».

Esto permitiría a naciones más pequeñas o empresas medianas operar sus propios modelos fundacionales sin depender de las nubes de hiperescaladores estadounidenses (Microsoft, Google, Amazon). Es un vector potencial para una mayor soberanía tecnológica.

Impacto en la Red Eléctrica y Sostenibilidad

La AIE y los gobiernos están alarmados por el consumo de los centros de datos. En lugares como Irlanda o el norte de Virginia, los centros de datos consumen porcentajes de dos dígitos de la red total. La computación termodinámica ofrece una «válvula de escape» para esta presión. Si la industria migra parte de sus cargas de inferencia a hardware termodinámico, se podría desacoplar el crecimiento de la IA del crecimiento de la huella de carbono, permitiendo cumplir objetivos climáticos sin frenar el progreso tecnológico.

La Filosofía del Aceleracionismo (e/acc)

No se puede ignorar el componente ideológico. Guillaume Verdon, CEO de Extropic, es una figura central del movimiento e/acc, que aboga por el progreso tecnológico irrestricto y rápido como imperativo moral y termodinámico del universo. Extropic no es solo una empresa; es la manifestación física de esta ideología. Buscan maximizar la producción de entropía e inteligencia del universo. Esto contrasta con las visiones de «Desaceleración» o «Seguridad de la IA» (Safetyism). El éxito de Extropic sería una victoria cultural y técnica para el bando aceleracionista en Silicon Valley.

El Amanecer de la Inteligencia Natural

La computación termodinámica representa el intento más serio hasta la fecha de cerrar la brecha entre la computación artificial y la natural. Durante setenta años, hemos construido ordenadores que funcionan como burocracias rígidas: siguiendo reglas exactas, archivando datos en lugares precisos y gastando inmensa energía para asegurar que nada se salga de la norma. Mientras tanto, el cerebro humano —y la naturaleza misma— ha operado como un artista de jazz: improvisando, utilizando el ruido y el caos como parte de la melodía, y logrando resultados brillantes con una eficiencia energética asombrosa.

Las tecnologías presentadas por Extropic y Normal Computing, a través de dispositivos como el X0 y el CN101, sugieren que estamos listos para adoptar este segundo enfoque. La promesa de una eficiencia energética de 10.000x no es solo una mejora incremental; es un cambio de fase que permitiría la ubicuidad de la inteligencia artificial.

Sin embargo, el camino está plagado de riesgos técnicos. La transición del determinismo digital al probabilismo termodinámico requerirá no solo nuevos chips, sino una reeducación completa de cómo pensamos sobre los algoritmos, la precisión y la naturaleza de la computación. Si Extropic logra escalar sus p-bits y Normal Computing logra certificar la seguridad de sus procesos estocásticos, es posible que en una década miremos a las GPUs actuales —esos hornos de silicio de 700 vatios— con la misma nostalgia y perplejidad con la que hoy miramos a las válvulas de vacío de la década de 1940. La era de luchar contra la termodinámica ha terminado; la era de computar con ella ha comenzado.

El Paisaje de la Computación Post-Digital

DimensiónEnfoque Digital ClásicoEnfoque Termodinámico (Extropic/Normal)
FilosofíaControl total, supresión de errores.Aceptación del caos, uso del ruido.
Límite FísicoDisipación de calor, Ley de Moore.Límites entrópicos fundamentales.
Modelo de IARedes Neuronales Profundas (DNN).Modelos Basados en Energía (EBM), Difusión.
HardwareGPUs, TPUs (Alta Potencia).TSUs, SPUs (Baja Potencia, Pasivos).
Visión de FuturoCentros de datos del tamaño de ciudades.Inteligencia ubicua, descentralizada y ambiental.
Comparte este artículo
No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *