La IA ya no es un debate tecnológico. Es una batalla por el poder.
En enero de 2026, un político de Nueva York perdió su escaño. No por un escándalo. No por una mala gestión. Lo perdió porque intentó aprobar una ley que ponía límites al desarrollo de la inteligencia artificial. La respuesta de la industria fue inmediata: campañas negativas millonarias, ataques personales, una operación diseñada para destruir su candidatura. Y para que cualquier otro político con ideas similares sacara sus propias conclusiones. Eso ocurrió. No en una distopía. En Nueva York, hace unos meses.
En enero de 2026, un político de Nueva York perdió su escaño. No por un escándalo. No por una mala gestión. Lo perdió porque intentó aprobar una ley que ponía límites al desarrollo de la inteligencia artificial. La respuesta de la industria fue inmediata: campañas negativas millonarias, ataques personales, una operación diseñada para destruir su candidatura. Y para que cualquier otro político con ideas similares sacara sus propias conclusiones. Eso ocurrió. No en una distopía. En Nueva York, hace unos meses.
Y sin embargo, aquí en Europa, el debate sobre inteligencia artificial sigue girando en torno a si las imágenes generadas deben llevar marca de agua, si los chatbots son creativos o no, si la ética del algoritmo cumple con los estándares del comité correspondiente. Hay dos conversaciones ocurriendo en paralelo. Una es ruidosa y llena de titulares. La otra es silenciosa, técnica, y es la que va a definir quién tiene el poder durante las próximas décadas. La mayoría de la gente —incluyendo la mayoría de los políticos europeos— está siguiendo la primera sin darse cuenta de que la segunda ya casi ha terminado.
El mercado laboral lleva tiempo enviando señales que nadie quiere leer en voz alta. El perfil "founder" en LinkedIn ha crecido un 69% en 2025. La edad media de los fundadores en las principales empresas de IA es de 29 años; en Y Combinator, 24. En 2023, el 38% de la fuerza laboral de EE.UU. trabajó como autónomo. El 45% de los jóvenes de la Generación Z tiene un trabajo paralelo al principal. Solo el 6% de esa misma generación aspira a llegar a senior leadership. El contrato social del empleo fijo como destino vital ya no describe la realidad de lo que ocurre, ni tampoco la de lo que la gente quiere.
Hay un dato que resume bien la escala del cambio: el PIB de EE.UU. creció un 2,7% en 2025, pero el empleo se mantuvo estancado. En 2004, Google necesitaba 2.500 empleados por cada 1.000 millones de facturación. Hoy Anthropic tiene 2.500 empleados y factura 14.000 millones. El crecimiento económico se está desacoplando de la creación de empleo de una forma que no tiene precedente en ninguna revolución industrial anterior. Y el propio CEO de Anthropic, Dario Amodei, advirtió en una entrevista con 60 Minutes que la IA podría eliminar el 50% de los puestos de oficina de nivel inicial en un plazo de uno a cinco años, y disparar el desempleo hasta el 10-20%.
El Banco Central Europeo publicó en 2025 el paper "Eurosclerosis at 40", del economista Benjamin Schoefer, que muestra con claridad que el PIB per cápita crece más en los países donde la gente cambia de trabajo con frecuencia. España está en el extremo equivocado de ese gráfico, no porque la gente no quiera cambiar, sino porque el sistema no lo facilita: el 67% de los trabajadores que no teletrabajan lo hacen porque su empresa directamente no lo permite.
Todo esto está pasando ahora. No es tendencia. Es presente. Y la pregunta que nadie en los parlamentos europeos parece estar haciéndose es quién está tomando decisiones políticas a la altura de este cambio.
Porque mientras el mercado se transforma, la industria tecnológica no está esperando a que los gobiernos decidan. Está diseñando activamente el entorno en el que van a operar. En Estados Unidos existe un Super PAC —Leading the Future, respaldado por OpenAI, Andreessen Horowitz, Palantir y otros actores del sector— que ha recaudado al menos 125 millones de dólares con un objetivo explícito: favorecer a candidatos alineados con una regulación favorable a la industria. No es lobbying tradicional. Es una maquinaria diseñada para premiar o castigar legisladores según su posición respecto a la IA. El caso de Alex Bores no fue una excepción; fue un mensaje.
Y luego está la dimensión legal. Según Wired, OpenAI ha respaldado legislación en Illinois para limitar la responsabilidad de las empresas de IA por los daños que causen sus modelos —incluso en escenarios de muerte masiva o desastres financieros—. No solo quieren influir en quién legisla. Quieren influir en qué se legisla y en qué términos. En quién puede ser demandado y por qué. La industria del tabaco pasó décadas financiando estudios alternativos para sembrar dudas sobre la evidencia científica. Las grandes petroleras aplicaron la misma estrategia con el cambio climático. El patrón —usar recursos financieros masivos para capturar el proceso regulatorio antes de que la sociedad tenga tiempo de deliberar— es el mismo. La diferencia es que ahora la tecnología que se intenta proteger de la regulación es también la tecnología con mayor capacidad para producir narrativas e imágenes en cantidad industrial.
Mientras en EE.UU. se libra esta batalla política abierta, Europa presenta una contradicción que nadie quiere nombrar. Regula con intensidad pero construye con timidez. Habla de autonomía estratégica mientras deja que la capa más crítica de la nueva economía —la computación— quede en manos de actores que no responden ante ningún parlamento europeo. Las grandes hiperescaladoras estadounidenses están construyendo infraestructuras masivas en suelo europeo: en Aragón, en Talavera de la Reina, donde Meta desarrolla uno de los mayores centros de datos del continente sobre unas 190 hectáreas, con cerca de 750 millones de inversión y apenas 250 empleos permanentes cuando esté operativo. Europa pone el suelo, la electricidad renovable y la flexibilidad normativa. Ellos ponen el capital y se quedan con la infraestructura, los datos, el software y el poder de decisión.
La narrativa institucional insiste en las cifras de inversión. Pero esa cifra mide lo que entra, no lo que se queda. Los centros de datos no son fábricas de conocimiento; son nodos de una red global cuyo cerebro está en otro sitio. Y hay costes que no salen en el comunicado de prensa: consumo energético masivo, presión sobre el agua, transformación del territorio, opacidad ambiental. Todo asumido localmente. Todo ausente del discurso oficial. Europa se está especializando en ser infraestructura, no industria. En alquilar su ventaja en vez de convertirla en capacidad propia. Eso no es estrategia. Es resignación con buena presentación. Y quien no controla la infraestructura crítica, ya sabemos cómo acaba.
La pregunta de fondo es más vieja que la tecnología. Aristóteles escribió que el hombre es por naturaleza un animal político: la especie que se organiza colectivamente para decidir cómo vivir juntos. Esa capacidad de deliberación es exactamente lo que está en juego. No la tecnología. La deliberación. Y como decía Keynes en otro momento de transición histórica, la dificultad no está en las ideas nuevas, sino en escapar de las viejas.
Hay una diferencia enorme entre no regular en exceso y no regular. Una empresa puede tener libertad para innovar y al mismo tiempo tener responsabilidad legal por los daños que cause. Eso no es burocracia. Es simplemente lo que llamamos Estado de derecho cuando funciona. La batalla por la IA es una batalla por el control del relato: por quién decide qué se regula, quién queda exento de responsabilidad, qué narrativas circulan y cuáles no. Esa batalla ya empezó. Y en ella, el silencio no es neutralidad. Es una posición.
El espejo alemán
El pasado 28 de abril, varios medios alemanes recibieron un documento antes de que ningún ministro se pusiera delante de un micrófono. Era el acuerdo entre la CDU de Friedrich Merz y el SPD. Lo que contenía no se resume bien en un titular: un paquete de austeridad sanitaria que ahorrará 19.300 millones de euros el próximo año y escalará hasta 38.300 millones en 2030, la supresión de la cobertura médica gratuita para cónyuges que no cotizan, copagos más altos, pensiones redefinidas por el propio Merz como "cobertura básica para la vejez" y la eliminación del subsidio de desempleo de larga duración antes de Navidad. Llamar a esto un ajuste menor es deshonesto. Es el mayor desmantelamiento del gasto social alemán desde las reformas Schröder del año 2000, y ocurre mientras el presupuesto militar de 2026 sube a 82.700 millones de euros —108.000 sumando los fondos especiales del Bundeswehr—, con un objetivo de 153.000 millones para 2029. El orden de prioridades no necesita más comentario.
El pasado 28 de abril, varios medios alemanes recibieron un documento antes de que ningún ministro se pusiera delante de un micrófono. Era el acuerdo entre la CDU de Friedrich Merz y el SPD. Lo que contenía no se resume bien en un titular: un paquete de austeridad sanitaria que ahorrará 19.300 millones de euros el próximo año y escalará hasta 38.300 millones en 2030, la supresión de la cobertura médica gratuita para cónyuges que no cotizan, copagos más altos, pensiones redefinidas por el propio Merz como "cobertura básica para la vejez" y la eliminación del subsidio de desempleo de larga duración antes de Navidad. Llamar a esto un ajuste menor es deshonesto. Es el mayor desmantelamiento del gasto social alemán desde las reformas Schröder del año 2000, y ocurre mientras el presupuesto militar de 2026 sube a 82.700 millones de euros —108.000 sumando los fondos especiales del Bundeswehr—, con un objetivo de 153.000 millones para 2029. El orden de prioridades no necesita más comentario.
Lo que sí necesita explicación es la injusticia específica de cómo se distribuye el golpe. Quien más lo nota no es quien menos ha pagado. Son las personas que han estado cotizando toda su vida laboral, mes a mes, sin saltarse ni uno, quienes descubren ahora que el contrato era menos sólido de lo que les dijeron. El sistema se construyó sobre una promesa implícita —paga y estarás cubierto— y esa promesa se reescribe unilateralmente, sin consulta con los que pusieron el dinero. Esto no es un efecto secundario del modelo. Es su defecto estructural de origen. Los sistemas de pensiones de reparto funcionan como una pirámide: los primeros en entrar cobran bien porque hay muchos que pagan detrás. Los últimos en entrar descubren que detrás de ellos hay cada vez menos gente. En Alemania, en 2025 nacieron 654.300 bebés, el número más bajo desde 1946. Ese mismo año murieron más de un millón de personas. La base de la pirámide se estrecha, y nadie que haya prestado atención puede decir que no lo veía venir.
El problema de fondo, sin embargo, no es solo demográfico. Es de productividad. Un Estado del bienestar generoso no es malo por definición; es caro por definición. Para financiarlo necesitas una economía que crezca, innove y genere los ingresos fiscales suficientes. Mientras China destinaba sus recursos a construir cadenas de suministro industriales y posiciones tecnológicas estratégicas —liderando hoy 57 de las 64 tecnologías críticas rastreadas por el Instituto Australiano de Política Estratégica, y registrando un récord de 521.000 millones de dólares en inversión en inteligencia artificial en 2024— Europa dedicó una parte significativa de su capital político y regulatorio a agendas de diversidad corporativa, lenguaje institucional inclusivo y la prohibición de motores de combustión para 2035 sin una alternativa industrial propia que la sustituyera. El resultado lo cuantifica McKinsey con precisión: las empresas europeas tienen apenas un 7% de exposición a los sectores tecnológicos de alto crecimiento que dominarán la economía de las próximas décadas. La ventaja acumulada por China en sectores estratégicos es ya, para muchos analistas, prácticamente irrecuperable en un horizonte de décadas. La industria alemana del automóvil —durante décadas el símbolo de la competitividad europea— destruyó aproximadamente 50.000 empleos en 2025, el doble que en 2024. Desde 2019, el sector ha perdido 111.000 puestos de trabajo. Cuando la competitividad se erosiona, caen los ingresos fiscales, y cuando caen los ingresos fiscales los estados tienen dos opciones: recortar compromisos o endeudarse. Europa ha elegido mayoritariamente la segunda durante demasiado tiempo, y la factura llega ahora.
Alemania actúa antes que el resto no por voluntad política sino por una restricción constitucional. El Schuldenbremse, inscrito en la Ley Fundamental desde 2009, prohíbe déficits estructurales superiores al 0,35% del PIB. España puede endeudarse más. Italia puede. Francia puede, aunque con crecientes dificultades. Alemania no puede, o no sin un coste constitucional enorme. Por eso recorta primero. El resto recortará después, cuando el mercado de deuda les quite las opciones que hoy tienen. Bélgica ya aprobó en julio de 2025 la eliminación del subsidio de desempleo indefinido —el famoso paro de por vida que en ese país podía durar décadas—. Francia prepara recortes de 44.000 millones de euros con congelación de prestaciones y miles de despidos en el sector público, ante los que los sindicatos han convocado huelga general. El patrón es el mismo en todas partes. Solo cambia el calendario.
En ese contexto conviene mirar con atención quién firma los recortes. Friedrich Merz, el canciller que recorta el sistema sanitario de quienes cotizaron toda su vida, fue presidente del consejo de supervisión de BlackRock Asset Management Deutschland AG entre 2016 y 2020. No era un empleado menor: su función principal era actuar como enlace político de alto nivel, utilizando su red para dar a BlackRock acceso a los responsables de toma de decisiones en Berlín y Bruselas. Bajo su supervisión, la firma se convirtió en accionista de importantes empresas alemanas. El economista Werner Rügemer documentó que Merz tenía la tarea de "promover la expansión de BlackRock en Alemania y en importantes empresas alemanas, también a través de contactos con el gobierno federal". El problema no es la persona. Es la estructura: un hombre que pasó cuatro años representando los intereses del mayor gestor de activos del mundo toma ahora decisiones sobre el gasto social de los trabajadores alemanes. Que sea él quien firme estos recortes tiene una ironía que resulta difícil de ignorar.
El coste electoral ya es visible. La AfD lidera las encuestas con el 27%, cinco puntos por delante de la CDU/CSU, que ha caído al 22%. El SPD no supera el 12%. El partido que más se beneficia de estos recortes es el que los llevaría mucho más lejos, en otra dirección y sobre otros destinatarios. Y los que los aplican, intentando evitar exactamente ese escenario, lo que consiguen por ahora es alimentarlo. El 69% de los alemanes dice temer la pobreza en la vejez. Ese dato no necesita interpretación.
El espejo no engaña. Lo que muestra es un sistema que prometió demasiado, que tardó demasiado en reconocerlo, y que cuando finalmente recorta, lo hace sobre las espaldas de los mismos que lo financiaron. La pregunta que cada persona puede hacerse, al margen de lo que decidan los gobiernos, es bastante concreta: en qué medida está construyendo algo que no dependa únicamente de lo que el Estado pueda o quiera darme. No como renuncia a lo colectivo, sino como lectura honesta de lo que ese colectivo puede garantizar de aquí a treinta años. La respuesta es personal. Pero formularla sin que nadie te diga que es de derechas o de izquierdas hacerlo es, quizás, lo mínimo que uno puede exigirse.
La tecnología que convierte el duelo en suscripción
En febrero de 2020, el documental surcoreano I Met You mostró a una madre reencontrándose con su hija fallecida mediante realidad virtual. La niña, Nayeon, murió en 2016 con solo siete años tras un cáncer hematológico. Tres años después, un equipo tardó ocho meses en reconstruir su voz, gestos y apariencia a partir de datos digitales. El resultado fue devastadoramente convincente… y conceptualmente inquietante.
En febrero de 2020, el documental surcoreano I Met You mostró a una madre reencontrándose con su hija fallecida mediante realidad virtual (MBC). La niña, Nayeon, murió en 2016 con solo siete años tras un cáncer hematológico. Tres años después, un equipo tardó ocho meses en reconstruir su voz, gestos y apariencia a partir de datos digitales. El resultado fue devastadoramente convincente… y conceptualmente inquietante.
No es la primera vez que la tecnología invade territorios que antes pertenecían a lo íntimo. La fotografía del siglo XIX ya fue acusada de “robar el alma”. El fonógrafo permitió escuchar a muertos por primera vez. Pero lo que estamos viendo ahora es distinto: no es reproducción, es simulación interactiva. Es un salto cualitativo.
Y como siempre, el discurso oficial llega envuelto en una narrativa terapéutica. Se habla de “cierre emocional”, de “procesamiento del duelo”, incluso de aplicaciones clínicas (Frontiers in Psychology). Todo muy razonable. Todo muy humano. Todo profundamente incompleto.
Porque aquí hay un detalle que se evita deliberadamente: esta tecnología no elimina el dolor, lo externaliza. Y lo externalizable se convierte en producto.
No es casualidad que ya existan startups que ofrecen “chatbots de fallecidos”, como el caso de Replika o proyectos experimentales basados en GPT que recrean personalidades a partir de datos históricos (MIT Technology Review). Tampoco es casual que empresas como Microsoft hayan patentado sistemas para crear “versiones conversacionales de personas fallecidas” (US Patent US20210073638A1).
Esto no es un accidente. Es un mercado naciente.
La llamada grief tech (tecnología del duelo) apunta a un modelo de negocio evidente: suscripciones emocionales. ¿Quieres hablar con tu padre muerto? ¿Celebrar otro cumpleaños con tu hija? ¿Repetir la despedida hasta que deje de doler? Paga.
Aquí es donde el liberalismo bien entendido no puede ser ingenuo. La innovación es positiva y necesaria porque amplía el rango de lo posible. Pero también amplía el rango de lo explotable. Y cuando el activo es el dolor humano, la tentación de monetizarlo es irresistible.
Históricamente, cada avance tecnológico ha generado nuevas dependencias. La televisión no solo informaba, moldeaba narrativas. Las redes sociales no solo conectaban, capturaban atención. Hoy, la inteligencia artificial no solo simula, sustituye.
Y ahí entra el verdadero riesgo: no el Estado, que siempre llega tarde, sino la convergencia entre datos personales, poder corporativo y vulnerabilidad emocional.
Para recrear a un fallecido necesitas algo más que fotos: necesitas patrones de comportamiento, voz, lenguaje, recuerdos digitalizados. Es decir, necesitas la materia prima más sensible que existe: la identidad.
¿Quién controla eso? ¿Quién lo protege? ¿Quién lo vende?
El Reglamento General de Protección de Datos europeo (GDPR) protege a los vivos, pero apenas contempla la “huella digital post-mortem”. Y ahí hay un vacío legal que las empresas ya están explorando.
El problema no es que podamos hacer esto. El problema es que queramos hacerlo sin preguntarnos por qué.
Porque el duelo cumple una función: nos obliga a aceptar la irreversibilidad. A asumir límites. A madurar. Externalizarlo mediante tecnología puede parecer liberador… pero también puede convertirse en una forma sofisticada de evasión.
Y una sociedad que no acepta la pérdida es una sociedad fácilmente manipulable.
La innovación seguirá avanzando. Es inevitable. Y en muchos aspectos, deseable. Pero si no defendemos la propiedad de nuestra identidad, incluso después de la muerte, acabaremos delegando lo único que no deberíamos delegar nunca: nuestra relación con la realidad.
Y cuando eso ocurra, no necesitaremos resucitar a los muertos.
Porque habremos empezado a dejar de estar realmente vivos.
Bibliografía y fuentes
MBC Documentary I Met You: https://www.imbc.com
MIT Technology Review – Chatbots of the dead: https://www.technologyreview.com/2023/01/12/1066544/chatbots-trained-on-dead-people/
Microsoft Patent (Conversational AI of deceased persons): https://patents.google.com/patent/US20210073638A1/en
Frontiers in Psychology (VR and grief processing): https://www.frontiersin.org/articles/10.3389/fpsyg.2021.620646/full
GDPR overview: https://gdpr.eu
BBC coverage of VR reunion: https://www.bbc.com/news/technology-51454533
The Guardian – Ethical concerns on digital resurrection: https://www.theguardian.com/technology/2020/feb/11/virtual-reality-dead-people-grief-tech
Cuando los imperios olvidan innovar: lecciones de Bizancio.
El Imperio bizantino duró 1.123 años. Lo repito porque la cifra merece ser digerida lentamente: más de un milenio de continuidad estatal, desde la fundación de Constantinopla en 330 hasta su caída en 1453. Ninguna estructura política occidental se le acerca.
El Imperio bizantino duró 1.123 años. Lo repito porque la cifra merece ser digerida lentamente: más de un milenio de continuidad estatal, desde la fundación de Constantinopla en 330 hasta su caída en 1453. Ninguna estructura política occidental se le acerca. Y sin embargo, cuando decimos «bizantino» queremos decir enrevesado, decadente, anquilosado. Edward Gibbon fijó ese prejuicio en el siglo XVIII y la historiografía popular nunca se recuperó. Lo cierto es que Bizancio no cayó por decadencia moral ni por exceso de lujo, sino por algo mucho más prosaico y mucho más relevante para nosotros: dejó de innovar en el momento exacto en que sus competidores empezaron a hacerlo. Y ese patrón —un imperio que confunde conservar con sobrevivir— se repite hoy con una precisión que debería inquietar a cualquier europeo con un mínimo de perspectiva histórica.
Bizancio fue durante siglos la civilización más avanzada tecnológicamente de Occidente. Inventó el fuego griego, el arma secreta que salvó Constantinopla de dos asedios árabes y mantuvo la supremacía naval del imperio durante generaciones. Desarrolló la arquitectura de pechinas que hizo posible la cúpula de Santa Sofía —una hazaña de ingeniería que no se superó en mil años—. Creó los molinos flotantes, las granadas incendiarias, el sistema de balizas que transmitía mensajes desde la frontera abasí hasta el palacio imperial en menos de una hora, y hasta el tenedor de mesa, que los venecianos consideraron una blasfemia contra los dedos que Dios les había dado. Nautilus documentó que Juan Filopón formuló la teoría del ímpetu —precursora del concepto de inercia— mil años antes que Galileo. Bizancio no era un museo: era un laboratorio.
¿Qué ocurrió entonces? Dos cosas fatales, y ambas tienen un espejo contemporáneo. Primero, la élite bizantina decidió que preservar era más rentable que crear. La ciencia se convirtió en filología: los eruditos copiaban manuscritos de Euclides y Ptolomeo con esmero exquisito, pero cada vez producían menos conocimiento original. Como documenta la Universidad de Estambul, mientras el mundo islámico y la Europa occidental avanzaban en astronomía y matemáticas, Bizancio permanecía anclado en los métodos ptolemaicos hasta su extinción. Segundo, el emperador Basilio II inauguró una política fiscal suicida: concedió exenciones tributarias a la nobleza terrateniente y permitió la concentración de tierras a costa de los pequeños campesinos, hipotecando el futuro para financiar el presente. Cuando Venecia y Génova exigieron concesiones comerciales a cambio de apoyo militar, Bizancio las otorgó, entregando su tejido productivo a potencias extranjeras. Los artesanos y comerciantes bizantinos fueron expulsados de su propio mercado. La moneda se degradó. Los impuestos dejaron de recaudarse. El ejército dejó de pagarse. El resto es 1453.
Ahora lean el diagnóstico que Mario Draghi presentó a la Comisión Europea en septiembre de 2024 y díganme si no sienten un escalofrío. Su informe sobre competitividad europea describe una Unión Europea atrapada en lo que economistas del Ifo Institute llaman la «trampa de la tecnología media»: fuerte en automoción y telecomunicaciones, pero rezagada en semiconductores, inteligencia artificial, robótica y computación cuántica. La inversión privada en I+D alcanza el 1,3 % del PIB, frente al 2,4 % de Estados Unidos y el 1,9 % de China, según el Foro Económico Mundial. Europa no tiene una sola empresa tecnológica valorada en más de un billón de dólares; Estados Unidos tiene siete. Un año después del informe Draghi, solo el 11 % de sus 383 recomendaciones se había implementado. Bizancio también tuvo sus informes brillantes. Los archivó en bibliotecas espléndidas mientras los otomanos fundían cañones.
La analogía no es decorativa: es estructural. Bruegel, el prestigioso think tank de política económica, documenta que la UE queda significativamente por detrás de EE. UU. y China en patentes de ruptura en IA, semiconductores y computación cuántica. China concentra más del 40 % de las innovaciones radicales en visión artificial para vigilancia y sistemas autónomos, y el 55 % en IA para drones. El Nobel de Economía Philippe Aghion advirtió sin rodeos: Europa lleva desde los años noventa confinada en la innovación incremental mientras sus rivales desarrollan tecnologías de ruptura. Y el propio Draghi, en la conferencia de seguimiento de septiembre de 2025, reconoció que cada desafío señalado en su informe se había agravado. El ITIF de Washington lo resume con una frase brutal: la letargia innovadora de Europa debería servir de lección sobre lo que no hay que hacer, incluso para un líder como EE. UU.
Desde una perspectiva liberal, el diagnóstico es cristalino. Europa ha construido un gigante regulador y un enano presupuestario —la frase es del propio Aghion—. Ha convertido el principio de precaución en un freno estructural a la innovación, ahuyentando capital de riesgo y talento hacia jurisdicciones menos asfixiantes. DeepMind, uno de los laboratorios de IA más importantes del mundo, nació en Londres; tuvo que ser comprado por Google porque los inversores europeos eran demasiado aversos al riesgo para financiarlo. Más del 80 % de la infraestructura digital europea es importada, y alrededor del 70 % de los modelos fundacionales de IA se desarrollan en EE. UU. Esto no es interdependencia: es dependencia estratégica, exactamente el tipo de vulnerabilidad que destruyó a Bizancio cuando delegó su comercio en Venecia y su defensa en mercenarios extranjeros.
La lección de Bizancio no es que los imperios caigan. Eso es trivial; todos caen. La lección es que caen cuando confunden la administración del legado con la creación de futuro. Cuando copiar manuscritos sustituye a escribir ciencia nueva. Cuando la regulación del riesgo reemplaza a la asunción del riesgo. Cuando la élite prefiere exenciones fiscales hoy a inversión productiva mañana. Europa posee universidades magníficas, investigadores brillantes y una tradición científica sin parangón. También la poseía Constantinopla. La diferencia entre un imperio que se transforma y uno que se fosiliza no está en los recursos ni en la inteligencia: está en la voluntad política de aceptar que conservar lo que tienes exige crear lo que aún no existe. Y esa voluntad, de momento, brilla por su ausencia en Bruselas con la misma elocuencia con que brilló por su ausencia en el Palacio de Blanquerna.
Los nuevos imperios: datos, energía y biotecnología
Los imperios clásicos se construían sobre territorio, ejércitos y rutas comerciales. Los del siglo XXI se construyen sobre tres recursos que la mayoría de la población ni siquiera percibe como tales: datos, energía computacional y código genético.
Los imperios clásicos se construían sobre territorio, ejércitos y rutas comerciales. Los del siglo XXI se construyen sobre tres recursos que la mayoría de la población ni siquiera percibe como tales: datos, energía computacional y código genético. No ondean banderas, no firman tratados y no necesitan colonias. Operan a través de patentes, centros de datos y licencias de propiedad intelectual. Y sin embargo, el grado de concentración de poder que acumulan no tiene precedente histórico desde las compañías de las Indias Orientales. Un estudio publicado en Policy and Society (Oxford) demuestra que la IA generativa ha acelerado la concentración de poder en manos de un puñado de corporaciones tecnológicas que controlan la infraestructura digital, los datos y los procesos políticos. No es una metáfora: es un análisis empírico de cómo Big Tech moldea la legislación que supuestamente debería regularla.
Primer pilar: los datos. Estados Unidos alberga casi 4.000 centros de datos operativos, más que cualquier otro país del mundo, según Visual Capitalist. El mercado global del big data alcanzará los 454.000 millones de dólares en 2025 y superará el billón en 2034. Pero la cifra relevante no es el tamaño del mercado, sino su geometría: las cinco principales empresas controlan aproximadamente el 35 % de los ingresos de software. Meta, Alphabet, Amazon, Apple y Microsoft no son empresas en el sentido clásico del término; son infraestructuras civilizatorias. Procesan el correo, almacenan las fotografías, median las transacciones, indexan el conocimiento y entrenan los modelos de IA que definirán la próxima década. Un paper del Journal of International Business Studies conceptualiza este fenómeno como un bucle de retroalimentación datos-IA que genera un poder sin precedentes para las multinacionales tecnológicas, un poder que ya desafía los marcos regulatorios de cualquier Estado.
Segundo pilar: la energía. Cada consulta a un modelo de lenguaje grande consume entre cinco y diez veces más electricidad que una búsqueda convencional. La Agencia Internacional de la Energía estima que la demanda eléctrica global de los centros de datos podría duplicarse entre 2022 y 2026, superando los 1.000 TWh, impulsada fundamentalmente por la IA. En Irlanda, los centros de datos ya consumen el 21 % de la electricidad nacional y podrían alcanzar el 32 % en 2026. En Virginia, el 26 %. En Dublín, el 79 %. Pew Research documenta que los centros de datos han encarecido la factura eléctrica de los hogares de Baltimore en 17 dólares mensuales, y un estudio de Carnegie Mellon proyecta subidas del 8 % en la tarifa media estadounidense para 2030, con picos superiores al 25 % en las zonas de mayor demanda. El operador de red PJM, que sirve a 65 millones de personas, prevé un déficit de seis gigavatios para 2027. La IA no solo consume datos: devora kilovatios. Y la factura la paga el ciudadano que jamás usó ChatGPT.
Tercer pilar: el código genético. La batalla por las patentes de CRISPR-Cas9 —la tecnología de edición genética más poderosa jamás creada— lleva trece años y aún no tiene resolución. En mayo de 2025, un tribunal de apelaciones estadounidense reabrrió la disputa sobre quién posee los derechos: si las Nobel Doudna y Charpentier (Universidad de California) o Feng Zhang (Broad Institute de MIT y Harvard). Lo que está en juego no es un crédito académico: es el control de una tecnología que ya se usa para tratar la anemia falciforme, que promete revolucionar la agricultura y que, como advierte Nature Biotechnology, plantea preguntas fundamentales sobre el acceso equitativo. Los desarrolladores de fármacos basados en CRISPR necesitan licencias de múltiples titulares —Broad, UC Berkeley, ToolGen— para operar sin riesgo legal. Un análisis de Taylor & Francis describe este ecosistema como una pirámide de extracción de rentas donde la investigación financiada con fondos públicos se convierte en activos financieros privados. Es el cercamiento de los bienes comunes genéticos, exactamente como el cercamiento de las tierras comunales en la Inglaterra del siglo XVIII.
Desde una perspectiva liberal, la concentración de estos tres recursos en pocas manos es tan peligrosa como la concentración de poder estatal que Hayek denunció en Camino de servidumbre. Un artículo publicado en PubMed Central lo formula con claridad: las grandes tecnológicas han construido imperios digitales relativamente independientes de la autoridad política, controlando datos y monopolizando tecnología. Cuando los fundadores de estas empresas se sientan en la primera fila de una inauguración presidencial —como documentó TechPolicy.Press en enero de 2025 con Zuckerberg, Bezos, Pichai y Musk—, la frontera entre poder corporativo y poder político se disuelve. No es capitalismo de libre mercado: es capitalismo de plataforma, donde el propietario de la infraestructura dicta las reglas del juego para todos los demás participantes.
La Compañía Británica de las Indias Orientales tenía ejército propio, acuñaba moneda, administraba justicia y gobernaba 200 millones de personas. Fue, durante dos siglos, más poderosa que la mayoría de los Estados soberanos de su época. Lo que la hacía invulnerable no era la fuerza bruta, sino el control simultáneo de tres activos estratégicos: rutas comerciales, materias primas y marcos legales a medida. Sustitúyanse rutas comerciales por infraestructura de datos, materias primas por energía y código genético, y marcos legales por patentes y lobbies regulatorios, y se tiene un retrato bastante preciso de la nueva realidad imperial. La diferencia —y esto es lo que debería quitarle el sueño a cualquier defensor de la libertad individual— es que la Compañía de las Indias Orientales era al menos visible. Los nuevos imperios operan dentro de tu teléfono, tu factura eléctrica y tu ADN. Y la mayoría de sus súbditos ni siquiera sabe que lo son.
La muerte del dinero tal como lo conocemos
El billete que lleva usted en el bolsillo —si es que aún lleva alguno— es un cadáver que no sabe que está muerto. Durante milenios, el dinero físico fue sinónimo de libertad: anónimo, fungible, imposible de rastrear. Un campesino del siglo XII podía guardar sus monedas bajo una piedra sin que ni el rey ni el recaudador supieran cuántas tenía. Esa era de soberanía individual sobre el patrimonio está terminando.
El billete que lleva usted en el bolsillo —si es que aún lleva alguno— es un cadáver que no sabe que está muerto. Durante milenios, el dinero físico fue sinónimo de libertad: anónimo, fungible, imposible de rastrear. Un campesino del siglo XII podía guardar sus monedas bajo una piedra sin que ni el rey ni el recaudador supieran cuántas tenía. Esa era de soberanía individual sobre el patrimonio está terminando. No la destruye una revolución ni una guerra, sino algo más insidioso: la convergencia entre la digitalización de los pagos, las monedas digitales de banco central y la ambición estatal de convertir cada transacción en un dato vigilable. Según el Atlantic Council, 137 países y uniones monetarias —que representan el 98 % del PIB mundial— están explorando monedas digitales de banco central (CBDC). Hay 49 proyectos piloto activos. No estamos ante una hipótesis académica: estamos ante una migración monetaria en curso.
El laboratorio más avanzado de esta transformación es Suecia. El Riksbank documenta que el efectivo en circulación equivale apenas al 1 % de su PIB, y solo uno de cada diez suecos pagó su última compra con billetes. Más del 80 % de la población usa Swish, una aplicación de pago instantáneo entre cuentas bancarias. Los investigadores de la Universidad de Lund han revelado el reverso brutal de esta eficiencia nórdica: las personas sin cuenta bancaria, los ancianos sin alfabetización digital y los sin techo no pueden pagar un billete de autobús ni comprar un regalo a sus nietos. Una mujer entrevistada describe cómo intentó pagar en efectivo en una tienda y fue rechazada frente a su nieta. El uso de efectivo se ha convertido en Suecia en un estigma social asociado a la marginalidad y la criminalidad. La utopía digital tiene, como toda utopía, sus expulsados.
Mientras Suecia corre hacia adelante, Estados Unidos ha frenado en seco. En enero de 2025, el presidente Trump firmó la orden ejecutiva «Strengthening American Leadership in Digital Financial Technology», que prohíbe a cualquier agencia federal crear, emitir o promover una CBDC, alegando riesgos para la estabilidad financiera, la privacidad individual y la soberanía nacional. En paralelo, promueve las stablecoins respaldadas por el dólar —es decir, monedas digitales emitidas por el sector privado, no por el Estado—. Es una posición coherente desde una óptica liberal: si el problema es la vigilancia estatal, la solución no pasa por darle al Estado una herramienta de vigilancia más poderosa que cualquier impuesto. Pero encierra una trampa: delegar la infraestructura monetaria digital al sector privado no elimina el riesgo de abuso; simplemente lo traslada de un monopolio público a un oligopolio corporativo. Pregúntele a los usuarios de Terra Luna, cuyo colapso en 2022 evaporó miles de millones en horas, qué se siente cuando tu dinero desaparece sin que ningún banco central responda.
China, por supuesto, ha elegido el camino opuesto. El yuan digital (e-CNY) está en fase piloto en ciudades principales, integrado en el proyecto mBridge del Banco de Pagos Internacionales, diseñado explícitamente como alternativa al sistema SWIFT y a la hegemonía del dólar. Senadores estadounidenses como Mike Lee han señalado que en ensayos tempranos del e-CNY, el gobierno canceló fondos de ciudadanos tras un período fijado, obligándoles a gastar sus ahorros según el calendario del Partido. Es dinero programable: el Estado puede decidir cuándo caduca, en qué se gasta y quién puede usarlo. Friedrich Hayek, que en 1976 propuso la desnacionalización del dinero, estaría horrorizado no porque el dinero se digitalice, sino porque la digitalización permite un grado de control sobre las decisiones individuales que ni el planificador soviético más ambicioso pudo soñar.
El Fondo Monetario Internacional advierte que, si están mal diseñadas, las CBDC generan riesgos concretos de privacidad: filtración de datos, abuso gubernamental de información transaccional, ciberataques y reidentificación de transacciones supuestamente anónimas mediante metadatos. Incluso la Unión Europea, que lidera la regulación tecnológica con su AI Act, avanza con el proyecto del euro digital sin haber resuelto la contradicción fundamental: ¿cómo se diseña una moneda que sea trazable para combatir el fraude y, simultáneamente, opaca para proteger la intimidad del ciudadano? La respuesta técnica —pruebas de conocimiento cero, criptografía homomórfica— existe en los laboratorios. La respuesta política, que exige limitar voluntariamente el poder del emisor, no existe en ningún parlamento del mundo.
La historia del dinero es la historia de la confianza. El sólido romano, el florín florentino, el dólar de Bretton Woods: todos funcionaron mientras la gente creyó en la promesa que representaban. Lo que viene no es la desaparición del dinero, sino su mutación en un instrumento de transparencia asimétrica: el ciudadano será completamente visible para el emisor, pero el emisor seguirá siendo opaco para el ciudadano. Eso no es dinero en ninguna acepción histórica del término. Es un permiso revocable para intercambiar valor. La verdad incómoda que nadie quiere pronunciar es esta: el efectivo era el último reducto de privacidad financiera que le quedaba al individuo frente al Estado y la corporación. Su extinción no es un avance técnico; es una capitulación civilizatoria disfrazada de comodidad.
El fin del individuo: identidades líquidas en la era digital
Hubo un tiempo en que la identidad era un dato, no un proyecto. Un campesino del siglo XIV era hijo de su padre, vecino de su aldea, feligrés de su parroquia y súbdito de su rey. No elegía ninguna de esas coordenadas; las heredaba, como se hereda el color de ojos. La modernidad prometió liberar al individuo de esas ataduras: naciste campesino, pero puedes morir burgués.
Hubo un tiempo en que la identidad era un dato, no un proyecto. Un campesino del siglo XIV era hijo de su padre, vecino de su aldea, feligrés de su parroquia y súbdito de su rey. No elegía ninguna de esas coordenadas; las heredaba, como se hereda el color de ojos. La modernidad prometió liberar al individuo de esas ataduras: naciste campesino, pero puedes morir burgués. La Ilustración, la Revolución Francesa y el liberalismo clásico construyeron un sujeto autónomo, racional, dueño de sí mismo. Ese sujeto —el individuo soberano que Locke, Mill y Tocqueville celebraron— está en proceso de extinción. No lo mata un tirano ni una ideología totalitaria. Lo disuelve algo mucho más sutil: la combinación de plataformas digitales que fragmentan la identidad, algoritmos que la predicen y una cultura del rendimiento que la convierte en mercancia.
Zygmunt Bauman acuñó el concepto de modernidad líquida para describir una sociedad donde las estructuras sólidas —empleo estable, comunidad, familia, roles predefinidos— se disuelven en flujos constantes de cambio. La identidad deja de ser un legado y se convierte en un proyecto inacabable, una construcción permanente sin planos definitivos. Pero Bauman escribió Modernidad líquida en el año 2000, antes de Facebook, antes del iPhone, antes de TikTok. Un artículo académico de 2025 publicado en la revista Genealogy demuestra que la inteligencia artificial generativa ha radicalizado la liquidez baumaniana hasta un extremo que el propio Bauman no anticipó: el yo digital ya no es siquiera una identidad fluida, sino un conjunto de fragmentos —fotografías, mensajes, interacciones— recombinados incesantemente por algoritmos, a menudo sin intervención ni control humano. La paradoja es brutal: nuestras identidades se performan como efímeras, pero son archivadas permanentemente por infraestructuras que jamás olvidan.
El filósofo Byung-Chul Han lleva la crítica un paso más allá. Donde Foucault describió la sociedad disciplinaria del siglo XIX —cuarteles, fábricas, hospitales, prisiones— y Deleuze diagnosticó la sociedad de control del siglo XX, Han identifica la sociedad del rendimiento del XXI: un orden donde el sujeto ya no es disciplinado desde fuera, sino que se autoexplota desde dentro. El panopticón digital, argumenta Han, es único porque funciona mediante la libertad: los ciudadanos participan voluntariamente en su propia vigilancia cada vez que publican un selfie, comparten su ubicación o abren una red social. La sociedad disciplinaria decía «no debes»; la sociedad del rendimiento dice «sí puedes». Y ese imperativo de positividad ilimitada —la exigencia de optimizarse, producir, brillar sin descanso— genera lo que Han llama burnout: el agotamiento como patología civilizatoria. La revista Pressenza lo sintetiza con precisión: la fatiga ya no proviene de factores externos, sino de la autoimposición.
Shoshana Zuboff completa el tríptico con una perspectiva económica que debería alarmar a cualquier liberal. En La era del capitalismo de la vigilancia, Zuboff describe un nuevo orden económico donde la experiencia humana se reclama como materia prima gratuita, se procesa mediante inteligencia artificial y se vende en lo que ella denomina mercados de futuros conductuales. No se trata de vender publicidad: se trata de predecir y modificar el comportamiento. Google, según Zuboff, fue el pionero, y Sheryl Sandberg exportó el modelo a Facebook. El ciclo es implacable: los usuarios generan datos, las empresas los extraen, los algoritmos los procesan y los modelos predictivos se venden a terceros. Zuboff estima que se fabrican seis millones de predicciones de comportamiento humano cada segundo, a partir de billones de puntos de datos ingeridos diariamente. No son datos que el usuario cedió voluntariamente: son inferencias computadas a partir del excedente conductual extraído de lo que el usuario cedió. La privacidad, concluye Zuboff, ya no puede concebirse como un fenómeno individual: es un problema colectivo que exige soluciones colectivas.
La convergencia de estos tres diagnósticos —Bauman, Han, Zuboff— produce una imagen del individuo contemporáneo que es la antítesis exacta del sujeto liberal clásico. Donde Locke postulaba un yo propietario de sí mismo, hoy tenemos un yo fragmentado en múltiples perfiles de plataforma, cada uno optimizado para un algoritmo distinto. Donde Mill defendía la libertad de pensamiento como condición de la autonomía, hoy la economía de la atención premia el contenido que provoca reacciones emocionales —ira, miedo, indignación— porque el engagement es el combustible del excedente conductual. Donde Tocqueville advertía contra la tiranía de la mayoría, hoy la tiranía no la ejerce ninguna mayoría visible, sino un sistema opaco de extracción y predicción que, como documenta un estudio empírico de 2025, opera mediante el ocultamiento activo de sus prácticas para mantener la asimetría informativa que lo sostiene.
El individuo no ha muerto por decreto. Se ha disuelto en un líquido tibío y confortable de notificaciones, likes y recomendaciones personalizadas. Nadie obliga a nadie a entregar su intimidad: lo hacemos con entusiasmo, porque la plataforma nos devuelve una versión mejorada de nosotros mismos —filtrada, curada, optimizada— que confundimos con libertad. Han tenía razón: el poder absoluto sería aquel que nunca se hiciera visible, que se fundiera completamente con lo que damos por sentado. Ese poder ya existe. Se llama feed. Y la verdad incómoda no es que alguien nos esté vigilando, sino que hemos internalizado la vigilancia hasta el punto de que nos resulta indistinguible del placer. Cuando la liberación y el agotamiento se vuelven indistinguibles, conviene preguntarse de qué exactamente hemos sido liberados.
El algoritmo como jefe supremo: cómo será trabajar dentro de 20 años
Hay una ironía deliciosa en el hecho de que la humanidad haya pasado siglos luchando contra reyes, tiranos y capataces para terminar sometiéndose voluntariamente a un jefe que ni siquiera respira. El algoritmo —esa secuencia opaca de instrucciones matemáticas— ya dirige, vigila, evalúa y despide trabajadores en sectores enteros de la economía global.
Hay una ironía deliciosa en el hecho de que la humanidad haya pasado siglos luchando contra reyes, tiranos y capataces para terminar sometiéndose voluntariamente a un jefe que ni siquiera respira. El algoritmo —esa secuencia opaca de instrucciones matemáticas— ya dirige, vigila, evalúa y despide trabajadores en sectores enteros de la economía global. Y lo hace sin remordimiento, sin sesgo emocional aparente, pero también sin piedad, sin contexto y sin la más mínima capacidad de distinguir entre una mañana mala y una incompetencia estructural. Según la encuesta de la OCDE publicada en 2025, el 79 % de las empresas europeas ya emplea al menos una herramienta algorítmica para instruir, monitorear o evaluar a sus empleados. En Estados Unidos el porcentaje es aún mayor. Estamos, pues, ante un hecho consumado que la mayoría prefiere ignorar.
El caso más brutal y mejor documentado es Amazon. MIT Technology Review reveló que el sistema de seguimiento de productividad de la compañía generaba automáticamente advertencias y despidos sin intervención de supervisores humanos. Cerca de 300 trabajadores fueron cesados en un solo centro logístico en apenas trece meses. El trabajador no discute con un gerente: discute con una función matemática que desconoce su nombre. Un estudio académico de Northwestern University demostró además que Amazon instrumentaliza sus herramientas de vigilancia algorítmica para disuadir la sindicalización, convirtiendo el panóptico digital en un arma antisocial. Bentham estaría orgulloso: diseñó la arquitectura de la vigilancia perfecta en el siglo XVIII; Silicon Valley la perfeccionó en el XXI.
¿Y dentro de veinte años? Proyectemos la curva. El Foro Económico Mundial estima que 92 millones de empleos serán desplazados antes de 2030, mientras surgirán 170 millones de puestos nuevos. La aritmética suena reconfortante hasta que se observa el detalle: los empleos que desaparecen y los que nacen no ocurren en los mismos lugares, ni exigen las mismas competencias, ni benefician a las mismas personas. McKinsey Global Institute calcula que hasta el 30 % de las horas laborales en EE. UU. podrían automatizarse para esa fecha. Extrapólese al horizonte 2045 y el panorama es nítido: el trabajo humano no desaparecerá, pero será administrado, evaluado y disciplinado casi íntegramente por inteligencias no humanas.
Desde una perspectiva liberal clásica, esto plantea una paradoja formidable. La tecnología algorítmica promete eficiencia, meritocracia objetiva y eliminación del favoritismo subjetivo —valores que cualquier defensor del libre mercado aplaudiría—. Pero cuando el mismo instrumento se convierte en aparato de vigilancia continua, cuando registra cada pulsación de teclado y cada pausa para ir al baño, deja de ser una herramienta de productividad y se transforma en un mecanismo de control que ni el más entusiasta planificador central habría imaginado. La Ley de Inteligencia Artificial de la UE ha prohibido desde febrero de 2025 los sistemas de reconocimiento emocional en el lugar de trabajo y clasifica como alto riesgo las herramientas de IA aplicadas a contratación, promoción y evaluación del rendimiento. Es un primer paso, aunque insuficiente: como advierte el Center for Democracy and Technology, la norma contiene lagunas significativas y los recursos de los trabajadores afectados siguen siendo limitados.
Un investigador del Scandinavian Journal of Work, Environment & Health documenta que los sistemas de gestión algorítmica se han expandido desde el trabajo de plataformas hacia sectores convencionales como la logística, el comercio minorista y la sanidad, generando riesgos psicosociales mensurables: sobrecarga laboral, impredecibilidad, ansiedad crónica ante métricas opacas. Los académicos lo llaman indefensión aprendida: cuando no sabes por qué te premian ni por qué te castigan, dejas de intentar comprender y simplemente obedeces. Es la antítesis exacta de la autonomía individual que Adam Smith celebraba como motor del progreso.
La innovación tecnológica es el mayor vector de prosperidad que ha conocido la especie humana. Defenderla no implica consentir que se use para construir una jaula invisible. Dentro de veinte años, el trabajo no lo definirá lo que sabes hacer, sino lo que un modelo estadístico decide que vales. La pregunta incómoda no es si el algoritmo será tu jefe —ya lo es—, sino quién vigila al vigilante. Y la respuesta, de momento, es nadie.
De la revolución industrial a la revolución digital: ¿realmente hemos aprendido algo?
En 1845, un joven de 24 años llamado Friedrich Engels publicó La situación de la clase obrera en Inglaterra, un texto que describió con precisión clínica lo que la revolución industrial estaba haciendo con los seres humanos que la hacían posible: jornadas de más de doce horas, niños de seis años operando maquinaria textil, familias hacinadas en sótanos sin ventilación y tasas de mortalidad por enfermedad cuatro veces superiores a las del campo circundante. Manchester, el epicentro de la industrialización, era un infierno funcional.
En 1845, un joven de 24 años llamado Friedrich Engels publicó La situación de la clase obrera en Inglaterra, un texto que describió con precisión clínica lo que la revolución industrial estaba haciendo con los seres humanos que la hacían posible: jornadas de más de doce horas, niños de seis años operando maquinaria textil, familias hacinadas en sótanos sin ventilación y tasas de mortalidad por enfermedad cuatro veces superiores a las del campo circundante. Manchester, el epicentro de la industrialización, era un infierno funcional. Los telares mecánicos producían tela más barata y más rápido que cualquier artesano, pero el coste humano de esa eficiencia se externalizaba con una brutalidad que hoy nos parece inconcebible. La pregunta incómoda es si realmente nos lo parece, o si simplemente hemos cambiado la fábrica por la plataforma y el vapor por el algoritmo.
Los luditas, esos artesanos que entre 1811 y 1816 destruyeron telares mecánicos en el norte de Inglaterra, han sido caricaturizados durante dos siglos como enemigos primitivos del progreso. TIME recoge la tesis del historiador Brian Merchant, quien demuestra que los luditas no eran antitecnológicos: muchos eran expertos en maquinaria y acogían las innovaciones que facilitaban su trabajo. Lo que rechazaban era una decisión política —presentada como inevitable— por la cual los propietarios de fábricas usaban las máquinas para destruir salarios y concentrar beneficios, en lugar de emplearlas para potenciar el trabajo cualificado. National Geographic añade un dato revelador: el gobierno británico desplegó más soldados contra los luditas que los que Wellington tenía en la península ibérica combatiendo a Napoleón. Destruir marcos de tejer se castigaba con la horca. El mensaje era claro: el progreso tecnológico es innegociable; las condiciones bajo las cuales se implementa, también.
Ahora saltemos 210 años. La CNN documenta el surgimiento de un neoludismo real, impulsado por la Generación Z, que no rechaza la tecnología como concepto sino su despliegue como herramienta de explotación. Los guionistas de Hollywood hicieron huelga 148 días no por salarios, sino por el derecho a no ser reemplazados por modelos generativos. Ilustradores ven cómo la IA deprime sus tarifas. Conductores de Uber descubren que la independencia del freelance es una ficción gestionada por un algoritmo que fija precios, asigna trayectos y desactiva cuentas sin explicación humana. Como observa VoxDev, las trilladoras mecánicas del siglo XIX eliminaron al menos un tercio de los empleos agrícolas en el campo inglés; la inteligencia artificial amenaza con hacer lo mismo a las profesiones de cuello blanco, pero a una velocidad incomparablemente mayor.
El paralelismo más perturbador no está en el desplazamiento laboral —que al menos es visible—, sino en la disociación entre productividad y salario, que es invisible y devastadora. El Economic Policy Institute ha documentado que entre 1948 y finales de los años setenta, la productividad y la remuneración del trabajador medio estadounidense crecieron al mismo ritmo. Desde 1979, la productividad ha aumentado un 80,9 %, pero la compensación horaria solo un 29,4 %: el crecimiento productivo ha sido 2,7 veces superior al de los salarios. Esa brecha —la Gran Disociación— no es un fenómeno natural: es el resultado de decisiones políticas concretas. Desregulación, erosión del salario mínimo, hostilidad corporativa hacia los sindicatos, recortes fiscales a las rentas altas. La tecnología no causó la desigualdad; la desigualdad instrumentalizó la tecnología.
Desde una óptica liberal clásica, esto debería ser un escándalo intelectual. El libre mercado presupone competencia, movilidad y retribución proporcional a la contribución. Cuando siete empresas estadounidenses acumulan más de un billón de dólares de capitalización cada una y controlan los modelos fundacionales de IA, los datos y la capacidad de cómputo, eso no es libre mercado: es oligopolio tecnológico. Cuando Columbia Business School investiga si la IA es comparable a la revolución industrial, concluye que su impacto es de magnitud semejante, pero con una diferencia crucial: donde la línea de producción creó empleos de ensamblaje, la IA los elimina. La revolución industrial amplificó el músculo humano; la revolución digital amplifica —y frecuentemente sustituye— el pensamiento humano. La primera desplazó campesinos a fábricas; la segunda desplaza oficinistas a la irrelevancia, porque no hay una tercera ubicación obvia hacia la que migrar.
E.P. Thompson escribió en La formación de la clase obrera en Inglaterra que el movimiento ludita no fue una protesta anárquica contra la maquinaria, sino una lucha feroz contra el capitalismo industrial sin restricciones. La traducción contemporánea es precisa: los nuevos luditas no destruyen servidores; hacen huelga, litigan, legislan y, sobre todo, cuestionan la narrativa de que la automatización masiva es un destino inevitable y no una elección política de quienes la controlan. Adam Smith defendía la división del trabajo, no la eliminación del trabajador. Schumpeter celebraba la destrucción creativa, no la destrucción a secas. Hayek advertía contra la concentración de poder, viniera del Estado o de corporaciones privadas. La tradición liberal que estos pensadores representan exige que la innovación genere prosperidad difusa, no captura oligopólica.
La respuesta honesta a la pregunta del título es: no. No hemos aprendido casi nada. La revolución industrial tardó sesenta años en producir leyes de trabajo infantil, noventa en consolidar derechos sindicales y más de un siglo en generar el Estado del bienestar que distribuyó sus beneficios. La revolución digital lleva apenas tres décadas y ya reproduce el mismo patrón: ganancias de productividad astronoómicas capturadas por una fracción ínfima de la población, mientras se externaliza el coste humano hacia trabajadores convertidos en variables de una ecuación de optimización. La diferencia, y esto es lo verdaderamente inquietante, es la velocidad. Los tejedores de Nottingham tuvieron generaciones para adaptarse. Los trabajadores de hoy tienen años, quizá meses. Y la mayoría ni siquiera sabe que el telar que los va a desplazar ya está encendido.
La paradoja de la productividad: por qué más tecnología no siempre significa más riqueza
En 1987, el economista Robert Solow escribió una frase que se convertiría en uno de los enigmas más citados de la economía moderna: "Puedes ver la era del ordenador en todas partes excepto en las estadísticas de productividad." Lo llamaron la paradoja de Solow. Tres décadas y media después, con inteligencia artificial, automatización y cloud computing en cada empresa del planeta, la paradoja no solo no ha desaparecido. En muchos sentidos, se ha profundizado.
En 1987, el economista Robert Solow escribió una frase que se convertiría en uno de los enigmas más citados de la economía moderna: "Puedes ver la era del ordenador en todas partes excepto en las estadísticas de productividad." Lo llamaron la paradoja de Solow. Tres décadas y media después, con inteligencia artificial, automatización y cloud computing en cada empresa del planeta, la paradoja no solo no ha desaparecido. En muchos sentidos, se ha profundizado.
La pregunta que nadie termina de responder satisfactoriamente es esta: si la tecnología hace que las empresas sean más eficientes, ¿por qué el crecimiento de la productividad en las economías avanzadas lleva años siendo mediocre?
Qué mide realmente la productividad y por qué importa tanto
Antes de buscar la respuesta, conviene precisar el problema. La productividad no es una abstracción académica. Es la métrica que determina, más que ninguna otra, el nivel de vida de un país a largo plazo.
En su forma más básica, la productividad total de los factores mide cuánto produce una economía con los recursos que tiene: trabajo, capital y tecnología. Cuando esa cifra aumenta, es posible pagar salarios más altos sin destruir empleo, financiar servicios públicos sin subir impuestos y sostener el crecimiento sin acumular deuda. Cuando se estanca, todo lo demás se vuelve un juego de suma cero: lo que gana un sector lo pierde otro.
Las economías de Europa occidental llevan desde la crisis financiera de 2008 con un crecimiento de productividad estructuralmente por debajo del registrado en las décadas anteriores. Y esto ha ocurrido en paralelo a la mayor expansión tecnológica de la historia. Algo no cuadra.
La trampa de la eficiencia sin crecimiento
El primer mecanismo que explica la paradoja es el más contraintuitivo: la tecnología puede aumentar la eficiencia de una empresa sin aumentar el producto total de la economía.
Imaginemos una empresa de logística que implementa un sistema de optimización de rutas basado en inteligencia artificial. El resultado es inmediato y medible: los mismos camiones hacen los mismos repartos con menos kilómetros, menos combustible y menos tiempo. La empresa reduce costes. Sus márgenes mejoran. Su productividad interna sube.
Pero ahora imaginemos que esa mejora de eficiencia se traduce en un recorte de plantilla. Los trabajadores despedidos encuentran empleos de menor cualificación y peor remuneración, o directamente no encuentran empleo. Su consumo cae. La demanda que llega a otras empresas de la economía se contrae ligeramente. El ahorro en combustible sale del país si la refinería es extranjera. Y la empresa, más eficiente pero en un mercado saturado, no expande su actividad sino que simplemente mantiene su cuota.
En este escenario, la tecnología ha redistribuido valor sin crearlo. Ha trasladado costes, no ha generado riqueza nueva. Este es el mecanismo que algunos economistas denominan la segunda economía: un sistema automatizado que optimiza en segundo plano sin que ese proceso se traduzca en más bienestar agregado.
Adoptar tecnología no es lo mismo que crearla: la diferencia que nadie menciona
Hay un segundo factor que el debate público sobre productividad suele ignorar casi por completo, y es quizás el más relevante desde una perspectiva de política económica.
Existe una diferencia fundamental entre adoptar tecnología y desarrollarla.
Un país que implanta software extranjero, utiliza plataformas digitales desarrolladas fuera de sus fronteras y externaliza su infraestructura tecnológica puede volverse más eficiente operativamente. Sus empresas trabajan mejor. Pero el valor económico de fondo, los beneficios, la propiedad intelectual, las patentes y el empleo cualificado asociado a esa tecnología, permanece en el país que la creó.
Es la diferencia entre alquilar maquinaria e industrializarse. El que alquila mejora su proceso productivo. El que fabrica la maquinaria construye una industria, genera empleo de alto valor, desarrolla capacidades exportadoras y captura rentas durante décadas.
Alemania entendió esto con la industria manufacturera en el siglo XX. Silicon Valley lo entendió con el software en el siglo XXI. Países que se limitaron a importar ambas cosas mejoraron su nivel de vida, pero nunca alcanzaron la frontera tecnológica. Y quien no está en la frontera, depende de quien sí lo está.
El problema de escala y la trampa de los sectores de bajo valor añadido
Existe un tercer elemento que completa el cuadro. La productividad media de una economía no es solo el resultado de lo que hacen sus mejores empresas. Es el promedio ponderado de todo su tejido productivo.
Si una economía concentra una parte significativa de su empleo en sectores de bajo margen, baja especialización y escasa intensidad tecnológica, la media nacional se arrastra hacia abajo aunque existan bolsas de excelencia. El turismo de bajo coste, la agricultura extensiva, el comercio minorista fragmentado o la construcción intensiva en mano de obra poco cualificada no son sectores malos en sí mismos. Son sectores que, sin transformación y sin integración en cadenas de mayor valor añadido, limitan estructuralmente el crecimiento de la productividad.
A esto se añade el problema del tamaño empresarial. La inversión en innovación real requiere escala. Una empresa con diez empleados no puede mantener un departamento de I+D, atraer talento especializado ni asumir el riesgo de desarrollar tecnología propia. Cuando el tejido empresarial de un país está dominado por pequeñas empresas sin capacidad de crecimiento, la innovación queda confinada a un número reducido de actores que no pueden elevar solos el promedio nacional.
La pregunta correcta sobre el futuro económico
El problema de productividad no se resuelve digitalizando lo que ya existe. Digitalizar un proceso ineficiente produce un proceso ineficiente más rápido.
La transformación real requiere algo más difícil: rediseñar modelos de negocio, no solo instalar herramientas; invertir en crear tecnología, no solo en comprarla; y apostar deliberadamente por sectores que generen más valor por empleado, lo que implica decisiones de política industrial que ningún algoritmo puede sustituir.
La tecnología es condición necesaria para el crecimiento de la productividad en el siglo XXI. Pero no es condición suficiente.
Sin productividad no hay salarios reales más altos. Sin salarios más altos no hay consumo sostenido. Sin consumo e inversión no hay crecimiento sólido. Y sin crecimiento sólido, el estado del bienestar, ese conjunto de servicios que una sociedad se da a sí misma, empieza a ser financieramente insostenible.
Solow escribió su paradoja en 1987. Todavía no la hemos resuelto. Y mientras sigamos confundiendo eficiencia con riqueza, y adopción tecnológica con desarrollo económico, probablemente no lo hagamos.
La IA y la burbuja puntocom: por qué el paralelismo más popular puede estar equivocado
Corría el año 1999. Un inversor en Nueva York compraba acciones de Pets.com, una empresa que vendía comida para perros por internet. La lógica era impecable: internet lo iba a cambiar todo, Pets.com usaba internet, luego Pets.com valía una fortuna. Diecisiete meses después de su salida a bolsa, la empresa cerraba. El dominio se vendió por 82.500 dólares. Las acciones, a cero.
Corría el año 1999. Un inversor en Nueva York compraba acciones de Pets.com, una empresa que vendía comida para perros por internet. La lógica era impecable: internet lo iba a cambiar todo, Pets.com usaba internet, luego Pets.com valía una fortuna. Diecisiete meses después de su salida a bolsa, la empresa cerraba. El dominio se vendió por 82.500 dólares. Las acciones, a cero.
Hoy, muchos analistas miran al sector de la inteligencia artificial y ven el mismo patrón. Titulares como "esto es el año 2000 otra vez" o "la burbuja de la IA va a estallar" llenan portadas y newsletters. El paralelismo parece tan evidente que casi nadie lo cuestiona. Pero los paralelismos fáciles suelen ser trampas intelectuales. Y este, en particular, merece un examen más cuidadoso.
Qué fue realmente la burbuja puntocom: una lección de precios, no de tecnología
Para entender si estamos ante una repetición de la historia, primero hay que entender bien qué ocurrió entre 1995 y 2000. El error habitual es pensar que la burbuja se produjo porque internet era una farsa. No lo era. Internet estaba transformando la economía mundial en tiempo real y seguiría haciéndolo durante las décadas siguientes.
El problema no fue la tecnología. El problema fue el precio.
Existe un concepto en finanzas llamado ratio precio-beneficio, que mide cuánto pagas hoy por cada euro de beneficio que genera una empresa. En condiciones normales, ese ratio ronda entre 15 y 25 veces. Durante la burbuja puntocom, muchas empresas tecnológicas cotizaban a 200, 300 o incluso 500 veces sus beneficios. Algunas directamente no tenían beneficios, ni ingresos, ni modelo de negocio claro. Solo tenían una web y un nombre con ".com" al final.
Cuando los inversores comenzaron a exigir resultados reales, el mercado hizo lo que siempre hace: ajustar. El Nasdaq cayó un 78% entre marzo de 2000 y octubre de 2002. Pero aquí está el dato que pocas veces se menciona: Amazon, que sobrevivió al crash, tardó 15 años en recuperar su máximo de 1999. Y aun así, Amazon existía. Tenía clientes reales. Vendía libros de verdad.
La burbuja no mató a internet. Mató a las empresas que no tenían nada que vender excepto expectativas.
La situación actual: ingresos reales, expectativas grandes
Cuando se compara ese escenario con el de la IA hoy, aparece una diferencia estructural que los titulares alarmistas tienden a ignorar.
Las grandes empresas del sector tecnológico que lideran la apuesta por la inteligencia artificial, Microsoft, Alphabet, Meta, Amazon o Nvidia, no son compañías sin modelo de negocio. Son algunas de las empresas más rentables de la historia del capitalismo. Tienen ingresos medibles en cientos de miles de millones de dólares. Generan beneficios reales. Y están invirtiendo cantidades ingentes en infraestructura de IA porque ya están viendo retornos sobre esa inversión en forma de nuevos productos y servicios que los usuarios pagan.
Esto no existía en el año 2000. Pets.com no tenía ingresos. Webvan no tenía ingresos. La mayoría de las puntocom no tenían ingresos.
Dicho esto, la ausencia de una burbuja idéntica a la del año 2000 no equivale a la ausencia de riesgo. Y aquí es donde el análisis debe afinarse.
El verdadero riesgo: no la falsedad, sino la exageración
La historia de los mercados financieros enseña algo contraintuitivo: las burbujas más peligrosas no nacen de mentiras. Nacen de verdades exageradas.
El ferrocarril transformó la economía del siglo XIX. Hubo burbuja ferroviaria. La electricidad cambió el mundo a principios del siglo XX. Hubo burbuja eléctrica. Internet revolucionó la comunicación global. Hubo burbuja puntocom. En todos los casos, la tecnología cumplió su promesa a largo plazo. El mercado simplemente adelantó ese futuro a un precio imposible de sostener en el corto plazo.
La inteligencia artificial está, con alta probabilidad, transformando la economía de forma estructural. La pregunta relevante no es si la tecnología es real. Es si los precios actuales descuentan correctamente el ritmo al que llegará ese impacto.
Las valoraciones actuales del sector se sostienen sobre tres pilares. Primero, que la IA aumentará la productividad de forma masiva y medible. Segundo, que las empresas podrán capturar ese aumento en forma de mayores márgenes, lo que no es automático en mercados competitivos. Tercero, que la demanda de infraestructura, chips, centros de datos y capacidad de computación seguirá creciendo durante años sin saturación.
Si los tres pilares se sostienen, los precios actuales pueden estar justificados y estaremos ante un ciclo estructural comparable al del cloud computing en la década de 2010. Si los pilares se sostienen solo parcialmente, las correcciones pueden ser severas, aunque la tecnología siga avanzando.
Dónde buscar el exceso si existe
Hay un principio en epidemiología financiera que conviene recordar: las burbujas suelen empezar en la periferia, no en el núcleo.
En el año 2000, Amazon y Google sobrevivieron. Pets.com y Webvan no. La diferencia no estaba en si usaban internet, sino en si tenían algo real que ofrecer.
Si existe un exceso en el sector de la IA hoy, lo más probable es que no esté en Microsoft o Nvidia. Estará en la larga cola de startups que han añadido la palabra "inteligencia artificial" a su presentación para inversores sin haber demostrado aún que sus modelos de negocio funcionan. Estará en rondas de financiación valoradas a múltiplos que asumen un crecimiento perfecto durante una década. Estará en inversores que compran sin analizar qué están comprando exactamente.
El ecosistema periférico de la IA tiene muchos de los síntomas clásicos de un exceso financiero. El núcleo, por ahora, tiene argumentos sólidos para defender sus valoraciones.
La pregunta correcta para un inversor riguroso
Reducir este debate a un sí o un no es un error intelectual. La realidad es más granular.
No estamos ante una repetición exacta del año 2000. Los fundamentos son distintos, los ingresos son reales y los modelos de negocio existen. Pero sí estamos en una fase de entusiasmo tecnológico en la que el mercado tiende históricamente a sobreestimar la velocidad del impacto económico y a subestimar los obstáculos intermedios.
La pregunta que debería hacerse cualquier analista riguroso no es si la IA es una burbuja. Es cuánto del precio actual refleja crecimiento real ya demostrado y cuánto refleja expectativas futuras adelantadas a hoy.
Esa distinción es la diferencia entre Amazon en 1999 y Pets.com en 1999. Ambas subieron en el mismo mercado. Solo una existía de verdad.
Las grandes revoluciones tecnológicas siempre llegaron. Siempre cambiaron el mundo. Y casi siempre vinieron acompañadas de excesos financieros que corrigieron antes de que la promesa se cumpliera del todo.
La inteligencia artificial probablemente no sea la excepción. La cuestión es saber en qué parte del ciclo estamos y, sobre todo, qué estamos comprando exactamente cuando compramos IA.
Verificar la edad en redes sin perder el anonimato: el debate mal planteado
Cada vez que se propone obligar a verificar la edad para acceder a redes sociales, reaparece el mismo argumento: “es imposible proteger a los menores sin identificar a todos”. Pero esa afirmación es falsa. No solo es posible verificar la edad sin eliminar el anonimato, sino que las soluciones técnicas existen desde hace años. El verdadero debate no es técnico, sino político.
Cada vez que se propone obligar a verificar la edad para acceder a redes sociales, reaparece el mismo argumento: “es imposible proteger a los menores sin identificar a todos”. Pero esa afirmación es falsa. No solo es posible verificar la edad sin eliminar el anonimato, sino que las soluciones técnicas existen desde hace años. El verdadero debate no es técnico, sino político.
El error de base está en confundir identidad con atributos. Para saber si una persona puede entrar en una red social, no es necesario conocer su nombre, su DNI o su fecha exacta de nacimiento. Solo hace falta una cosa: saber si cumple una condición mínima, por ejemplo, tener más de 16 años. Todo lo demás es información sobrante.
En el mundo digital moderno existen mecanismos diseñados precisamente para esto. El más sólido son las pruebas de conocimiento cero (Zero-Knowledge Proofs). Estas técnicas criptográficas permiten demostrar que una afirmación es verdadera sin revelar el dato que la sustenta. Aplicado al caso: un usuario puede demostrar que es mayor de edad sin decir quién es, cuándo nació ni mostrar ningún documento identificativo.
El funcionamiento es sencillo a nivel conceptual. Una entidad de confianza —que puede ser pública o privada— verifica una vez la edad del usuario y emite una credencial criptográfica. A partir de ahí, cada vez que el usuario accede a una plataforma, solo presenta una prueba matemática de que cumple el requisito de edad. La plataforma recibe un “sí” verificable, pero ningún dato personal.
Existen también credenciales digitales con divulgación selectiva, basadas en sistemas como Idemix o U-Prove. En lugar de un “login con identidad”, permiten un “login con propiedades”. El usuario decide qué atributo revela y cuál no. La red social no sabe quién es la persona, solo que cumple las condiciones de acceso.
Otra opción son los tokens anónimos de edad, comparables al dinero en efectivo o a un billete de transporte. Tras una verificación inicial, el usuario recibe tokens no rastreables que puede usar para demostrar su mayoría de edad sin dejar huella persistente. Incluso es posible realizar la verificación localmente en el dispositivo, de modo que ningún dato personal salga del móvil: el sistema operativo valida la edad y el servidor solo recibe una respuesta binaria.
Entonces, si todo esto es viable, ¿por qué no se adopta? Porque estas soluciones tienen una característica incómoda: no permiten identificación posterior, ni trazabilidad, ni perfiles permanentes. No facilitan la vigilancia, ni el cruce de datos, ni la imposición de controles generalizados. Desde el punto de vista del poder regulador y de los modelos publicitarios, eso es una desventaja.
Aquí aparece el falso dilema que se repite en el discurso público: o protegemos a los menores, o protegemos el anonimato. En realidad, la disyuntiva es otra: protección de menores frente a capacidad de control masivo. Si el objetivo fuera únicamente impedir el acceso de menores, bastaría con pruebas de atributo anónimas. Si el objetivo es saber quién hay detrás de cada cuenta, entonces la verificación de edad se convierte en una excusa.
La conclusión es clara: romper el anonimato no es una necesidad técnica, es una elección política. Y conviene llamarla por su nombre antes de que se normalice como algo inevitable.
Por qué importar trabajo barato es la peor estrategia posible.
Creemos que cuanto más población activa incorporamos, más segura es la economía. Es una intuición profundamente arraigada, casi instintiva: más gente trabajando significa más producción, más consumo, más crecimiento. Durante décadas, esta lógica funcionó de forma imperfecta pero suficiente. El problema es que seguimos aplicándola cuando las condiciones materiales que la hacían viable han desaparecido.
Creemos que cuanto más población activa incorporamos, más segura es la economía. Es una intuición profundamente arraigada, casi instintiva: más gente trabajando significa más producción, más consumo, más crecimiento. Durante décadas, esta lógica funcionó de forma imperfecta pero suficiente. El problema es que seguimos aplicándola cuando las condiciones materiales que la hacían viable han desaparecido. Estamos atrapados en una paradoja peligrosa. Mientras el sistema productivo avanza hacia una eficiencia que reduce radicalmente la necesidad de trabajo humano básico, las políticas públicas siguen actuando como si ese trabajo fuera escaso. Importamos personas para empleos que el propio sistema está diseñando para eliminar. Lo que llamamos “integración laboral”, “crecimiento inclusivo” o “solidaridad económica” no es una ley económica, sino un parche político: una solución provisional aplicada a un problema estructural mal diagnosticado. El resultado es un desajuste histórico. Nunca fue tan fácil producir valor con tan poca intervención humana directa, y nunca fue tan irresponsable seguir ampliando una base laboral condenada a la obsolescencia. El sistema nunca fue tan eficiente, pero esa eficiencia ya no se traduce en absorción social. Mañana puedes ser integrado… en una economía que ya no tiene ningún uso estructural para ti.
I. La invención del empleo absorbente y la ficción de la integración permanente
Durante la mayor parte de la historia humana, las sociedades no se organizaron alrededor de la absorción ilimitada de mano de obra. La vida giraba en torno a la tierra, el clan, la familia extensa o el oficio transmitido. El trabajo no era un mercado, era una función social. La modernidad industrial rompió ese equilibrio e introdujo una idea radical: toda persona podía —y debía— ser integrada productivamente en un sistema económico expansivo.
Karl Polanyi advirtió ya en 1944 que este giro era artificial. En La gran transformación explicó que el trabajo es una “mercancía ficticia”: no se produce para ser vendida, no puede separarse de la vida humana. Tratarlo como un input más del mercado genera tensiones que solo pueden contenerse mediante intervención política: sindicatos, legislación laboral, protección social.
Durante el siglo XX, ese modelo funcionó porque había algo clave: una economía intensiva en trabajo humano. El pacto era simple y comprensible: si produces, perteneces; si trabajas, tienes derechos. Pero ese pacto asumía una realidad material que ya no existe.
El error contemporáneo es actuar como si ese contrato siguiera vigente. Seguimos aceptando inmigración masiva orientada, en su mayoría, a empleos de bajo valor añadido, como si el sistema tuviera un apetito infinito por ese tipo de trabajo. No lo tiene. Y, peor aún, está invirtiendo cantidades colosales precisamente en eliminarlo.
Aquí aparece el primer cortocircuito grave: importar población para ocupar nichos laborales que la propia estructura tecnológica está diseñada para automatizar. No mañana. Ahora. El nombre clave que debemos retener es Kiwibot. Volveremos a él, porque resume de forma casi obscena esta contradicción.
Mientras tanto, la automatización impulsada por la IA ya no se limita a fábricas o cadenas de montaje. Está avanzando sobre logística, reparto, atención al cliente, hostelería y servicios básicos: exactamente los sectores donde se concentra la inmigración económica reciente. Y todo esto ocurre mientras el Norte Global envejece aceleradamente: Europa perderá 49 millones de trabajadores y China 195 millones antes de 2050.
Pero ese vacío no se está cubriendo con capital humano avanzado. Se está llenando con volumen humano destinado a una productividad decreciente.
II. El vendaval de la destrucción y el autoengaño del reemplazo humano
Joseph Schumpeter no dejó lugar a dudas en 1942:
“El vendaval de la destrucción creativa es el hecho esencial del capitalismo”.
Innovar implica destruir lo anterior. No es un fallo del sistema, es su motor. Y aquí está el error estratégico central: creer que podemos amortiguar ese vendaval importando trabajo barato. No podemos. La tecnología no compite con el investigador puntero o el ingeniero especializado. Compite con el trabajo simple, repetitivo y estandarizable. Es decir, con el grueso de los empleos que hoy absorbe la inmigración de baja cualificación.
El debate sobre cuántos empleos desaparecerán es un falso debate. Frey y Osborne hablaban de un 47% en riesgo; la OCDE lo reducía al 9%. La diferencia es metodológica, no sustantiva. Ambos coinciden en algo crucial: el trabajo no desaparece de golpe, se vacía por dentro. Se fragmenta en tareas, se precariza, se devalúa y finalmente se vuelve prescindible.
Este proceso da lugar a la conocida economía de barra de pesas: una minoría de empleos de altísima cualificación y remuneración en un extremo, y una masa creciente de empleos de servicios mal pagados en el otro. Las políticas migratorias actuales están alimentando deliberadamente ese extremo inferior, como si fuera una base estable sobre la que construir cohesión social. No lo es.
Ya en 2007 se documentaba que la agricultura californiana prefería invertir en robots con sensores ópticos antes que negociar con trabajadores inmigrantes considerados “inestables”. Para 2030, se estima que 20 millones de empleos manufactureros habrán sido sustituidos por robots. Pensar que los servicios básicos quedarán al margen de esta lógica no es optimismo: es negación.
III. La pregunta mal planteada: no es inmigración o robots, es productividad o colapso
El debate público está viciado desde el inicio. No se trata de si la inmigración es buena o mala en abstracto. Se trata de qué tipo de inmigración es compatible con una economía que reduce drásticamente la necesidad de trabajo humano básico.
Importar mano de obra para tareas que el sistema está activamente automatizando no es solidaridad. Es generar una bolsa estructural de población sobrante. Cuando esa población no encuentra integración productiva real, el conflicto no es una posibilidad: es una certeza.
Aquí aparece el fenómeno de la “culpa misatribuida”. Para un trabajador desplazado es más fácil señalar al inmigrante visible que al algoritmo invisible. Los líderes populistas explotan esta dinámica porque los robots no votan y el capital tecnológico es políticamente intocable. Pero el problema de fondo no es cultural, es aritmético: el pastel productivo ya no crece al ritmo de la población dependiente de él.
Los datos electorales de 2016 son reveladores: Donald Trump concentró su campaña en zonas con alta exposición a robots industriales. No porque odiaran la globalización en abstracto, sino porque intuían correctamente que el trabajo no iba a volver.
Japón y Suiza tomaron otra decisión: hiper-automatización y control demográfico estricto. El sur de Europa hizo lo contrario: inmigración intensiva sin salto tecnológico equivalente. El resultado es una combinación tóxica de paro estructural, baja productividad y resentimiento político.
IV. La trampa demográfica y el intervencionismo que lo empeora todo
Aquí es donde entra la capa que muchos prefieren ignorar: el intervencionismo estatal. Murray Rothbard lo explicó con brutal claridad: cuando el Estado intenta planificar mercados complejos —y el mercado laboral es uno de los más complejos que existen— no corrige fallos, los amplifica.
Las políticas migratorias actuales no responden a señales de mercado libres, sino a decisiones administrativas: cupos, regularizaciones, subsidios, incentivos fiscales y redes de asistencia que distorsionan completamente el cálculo económico. El resultado no es eficiencia, es mala asignación masiva de recursos humanos.
Desde una perspectiva libertaria, el problema no es la movilidad humana en sí, sino su gestión política. El Estado importa trabajo barato para sostener sectores improductivos, socializa los costes vía gasto público y privatiza los beneficios en forma de salarios deprimidos y precios artificialmente bajos.
Rothbard advertía que toda intervención genera efectos secundarios que luego se usan para justificar más intervención. Aquí el ciclo es perfecto: inmigración de baja productividad → presión sobre salarios y servicios públicos → conflicto social → más regulación → menos inversión productiva.
El Estado actúa como un planificador demográfico incompetente, acumulando población dependiente en un sistema fiscal basado en un trabajo que está desapareciendo.
V. El hombre oculto dentro de la máquina
Volvamos a Kiwibot. Robots de reparto “autónomos” circulando por las calles de California. La promesa del futuro. La realidad: eran operados remotamente por trabajadores en Colombia cobrando 2 dólares la hora. No era automatización. Era externalización extrema del trabajo degradado.
Ekbia y Nardi llaman a esto heteromatización: sistemas que parecen automáticos pero dependen de trabajo humano invisible, mal pagado y deslocalizado. La inmigración masiva hacia empleos básicos cumple una función similar dentro de las fronteras: abaratar costes mientras se retrasa la inversión real en productividad.
Pero este modelo tiene fecha de caducidad. Cuando la tecnología finalmente sustituye esos empleos, no queda movilidad social. Queda una población redundante. No explotada: innecesaria.
VI. La factura fiscal y el fin de la pertenencia productiva
Aquí llega el colapso silencioso. Los estados modernos se financian gravando el trabajo humano. Pero ¿qué ocurre cuando incorporas población cuyo empleo es precario, intermitente o directamente automatizable? El sistema fiscal se debilita, el gasto social se dispara y la legitimidad política se erosiona.
Corea del Sur intentó gravar robots y perdió más ingresos de los que ganó. No porque la idea fuera malintencionada, sino porque el problema no está en la tecnología, sino en el modelo previo. Apostar por volumen humano en lugar de productividad tecnológica fue el error original.
El trabajo ha dejado de ser el mecanismo central de pertenencia. Insistir en traer personas para trabajos que van a desaparecer no es progreso. Es negar la realidad material.
Conclusiones:
El debate sobre la inmigración suele plantearse en términos morales, como si la única alternativa fuera elegir entre compasión o rechazo. Ese enfoque es profundamente engañoso. El problema no es la inmigración en sí, sino el tipo de inmigración que se promueve en un contexto económico que ha cambiado de forma radical. Estamos incorporando población hacia empleos de bajo valor añadido justo cuando la tecnología está eliminando de manera acelerada ese tipo de trabajo.
Presentar esta estrategia como inclusión social es un error. Integrar personas en sectores condenados a la automatización no genera estabilidad ni movilidad, sino una acumulación progresiva de frustración, precariedad y dependencia. No se trata de una cuestión ética, sino de diseño económico: se está importando pasado productivo en un sistema que avanza hacia estructuras intensivas en capital, tecnología y cualificación.
El resultado es un conflicto diferido. A corto plazo se abaratan costes y se sostiene artificialmente el empleo, pero a medio plazo aumentan la presión fiscal, el gasto social y la competencia por recursos escasos. El Estado se ve obligado a ampliar su función asistencial mientras su base recaudatoria se debilita.
Sabéis que soy un apasionado de la historia, y en la historia económica se puede identificar que los errores de cálculo no se corrigen con discursos bienintencionados. Se pagan. Y cuanto más se pospone su reconocimiento, mayor es el coste social y político de afrontarlos.
No se trata de estar a favor o en contra de regularizar a miles de personas que llevan tiempo viviendo en un país. Ni siquiera de si eso es algo humano o político. No se trata de escuchar a los que dicen que las puertas deben abrirse de par en par, ni a los que hablan de expulsar a millones de personas. Ese es un debate que pronto dejará de tener interés. Lo que viene, es mucho más complejo e, incluso, más urgente que saber si alguien que lleva 5 años entre nosotros trabajando, perdido en un laberinto legal, puede o no legalizar su situación. Más complejo que las decenas de miles de expulsar a las decenas de miles de delincuentes que se cuelan aprovechando los grupos de bienintencionados que llegan continuamente a Europa. Es mucho peor. Se trata de resolver la gran cuestión de nuestro futuro inmediato, como sociedad: ¿qué vamos a hacer cuando las máquinas lo hagan todo?
Vivo en un país que ahora crece más que los países del norte. Crece por su modelo productivo basado en lo expansivo en lo laboral pero muy poco eficiente en lo salarial. Crece más que aquellos que mantienen un modelo industrial y que ahora no pueden ejercer todo su potencial. Pero eso cambiará. Y cambiará por los ciclos económicos y lo hará en base a la automatización. Cuando mucho de lo que aquí se hace sea sustituido por la tecnología, como ya está sucediendo en una escala muy pequeña ¿qué haremos con todo un cuerpo laboral incapaz de ser absorbido en ningún lugar?
De eso no nos hablan… ¿verdad?
La Gran Renuncia Silenciosa: De Propietarios al Alquiler Perpetuo
En las últimas décadas, algo profundo ha cambiado en la estructura misma de nuestras sociedades occidentales sin que apenas nadie haya lanzado una alarma pública. No ha habido revolución, ni decreto, ni gran debate parlamentario. Simplemente, poco a poco, la posibilidad de poseer una vivienda, esa pieza central del sueño moderno de autonomía y estabilidad, se ha desvanecido para amplias capas de la población. Lo que antes era un horizonte alcanzable para la mayoría trabajadora se ha convertido en un privilegio reservado a unos pocos. Y con esa desaparición no solo se ha erosionado un bien material, sino toda una forma de entender la libertad individual y la posición social.
En las últimas décadas, algo profundo ha cambiado en la estructura misma de nuestras sociedades occidentales sin que apenas nadie haya lanzado una alarma pública. No ha habido revolución, ni decreto, ni gran debate parlamentario. Simplemente, poco a poco, la posibilidad de poseer una vivienda, esa pieza central del sueño moderno de autonomía y estabilidad, se ha desvanecido para amplias capas de la población. Lo que antes era un horizonte alcanzable para la mayoría trabajadora se ha convertido en un privilegio reservado a unos pocos. Y con esa desaparición no solo se ha erosionado un bien material, sino toda una forma de entender la libertad individual y la posición social.
Este ensayo explora cómo una sociedad de propietarios se está transformando, casi imperceptiblemente, en una sociedad de dependientes. No es una conspiración orquestada desde despachos ocultos, sino el resultado acumulativo de decisiones económicas, políticas y culturales que, tomadas por separado, parecen razonables o inevitables, pero que en conjunto producen un cambio estructural de enorme calado. El resultado es un nuevo tipo de subordinación: no la del siervo medieval atado a la gleba por la fuerza, sino la del inquilino contemporáneo atado al alquiler por la mera ausencia de alternativas reales.
El precio de la previsibilidad
Todo sistema de poder necesita que sus miembros sean, hasta cierto punto, predecibles. Quien permanece demasiado tiempo en la misma situación, el mismo empleo precario, el mismo contrato de alquiler renovable, la misma rutina de pago mensual, se vuelve calculable. Sus ingresos, sus gastos, sus movimientos: todo entra en los algoritmos de bancos, fondos de inversión y plataformas digitales. Lo predecible es fácil de organizar, de financiar, de sostener dentro del sistema. Y la previsibilidad, como todo, tiene un precio: la renuncia progresiva a la autonomía.
En el pasado reciente, la propiedad inmobiliaria funcionaba como un rompeolas contra esa previsibilidad absoluta. Tener una hipoteca, sí, implicaba deuda, pero también un horizonte de liberación: al cabo de treinta años, la casa era tuya. Ese plazo, aunque largo, era finito. Permitía imaginar un futuro en el que el esfuerzo laboral dejaba raíces, en el que el trabajo se traducía directamente en algo propio. Hoy ese horizonte se ha difuminado. El alquiler no es ya una fase transitoria hacia la propiedad, sino un estado permanente para millones de personas. Y la permanencia prolongada sin acumulación genera un tipo particular de quietud: la persona se queda quieta no por elección, sino porque cualquier movimiento arriesga lo poco que tiene.
La divergencia que se volvió estructural
El mecanismo principal de este cambio es económico y aparentemente simple: los precios de la vivienda suben año tras año mientras los salarios apenas se mueven. Esa diferencia, que en un primer momento parece coyuntural, se acumula con el tiempo hasta convertirse en estructural. Cuando dos ritmos vitales, el del coste de la vida y el del ingreso laboral, se separan de forma sostenida, nace un problema que ya no se corrige con crecimiento económico puntual o con subidas salariales aisladas.
En España, por ejemplo, entre 2000 y 2023 los precios de la vivienda se multiplicaron por más de dos en muchas ciudades, mientras los salarios medios apenas crecieron un 30 % en términos reales. El resultado es que lo que antes requería quince o veinte años de ahorro moderado ahora exige cuarenta o cincuenta, una cifra que supera la vida laboral útil de muchas personas. Y cuando la brecha se vuelve tan grande, deja de ser un problema individual de disciplina o suerte para convertirse en una característica del sistema.
El cierre silencioso del acceso
Lo más notable de este proceso es que no ha requerido prohibiciones explícitas. Nadie ha declarado ilegal comprar una casa para la mayoría. Simplemente, se han ido acumulando barreras que hacen el acceso cada vez más difícil: menos construcción de vivienda pública, requisitos hipotecarios más estrictos, entrada de grandes fondos inmobiliarios que compran en bloque, aumento de la intermediación (agencias, plataformas, fondos buitre), subida de impuestos asociados a la compra, y una oferta que no crece al ritmo de la demanda.
Cada paso añade distancia entre la persona y la vivienda. Se construye menos porque la tierra es cara y los márgenes son mayores en vivienda de lujo. Se exigen más garantías porque los bancos han aprendido de crisis pasadas. Aparecen más intermediarios porque la digitalización permite extraer rentas en cada transacción. El resultado es que el acceso se cierra sin necesidad de prohibir nada: basta con hacerlo inviable en la práctica.
Y cuando comprar deja de ser posible, alquilar deja de ser una opción y se convierte en una obligación. Lo obligatorio, por definición, se cuestiona poco. Pagas la renta porque no hay alternativa real, y esa falta de alternativa naturaliza la dependencia.
El alquiler como nueva forma de vasallaje
Históricamente, la propiedad de la tierra ha sido el gran definidor de posición social. En la Europa feudal, quien no poseía tierras dependía del señor. No hacían falta cadenas físicas: la mera necesidad de techo y sustento organizaba el trabajo y la obediencia. La dependencia era estructural, no personal. Algo parecido ocurre hoy con el alquiler perpetuo.
El inquilino actual no está atado a un señor feudal concreto, sino a un mercado impersonal formado por fondos de inversión, socimis y grandes propietarios institucionales. Pero el efecto es similar: una parte significativa del ingreso mensual se desvía hacia la renta sin generar patrimonio propio. El alquiler rara vez construye futuro. No deja huella en forma de equity, no permite transmitir riqueza generacional, mantiene a la persona en una posición constante, sin acumulación ni avance real. Permanecer se convierte en sinónimo de no avanzar.
Y lo más inquietante es que este nuevo vasallaje se presenta como libertad. “Alquila y vive sin ataduras”, dicen los anuncios. “No te preocupes por mantenimiento, impuestos o reformas”. El mensaje implícito es que la propiedad es una carga del pasado, mientras que el alquiler es la opción moderna, flexible, adecuada a una vida nómada y cambiante. Pero esa flexibilidad tiene un precio: la renuncia a construir algo propio y la aceptación de una dependencia permanente.
El contraste generacional
Para quienes crecieron en los años setenta, ochenta o incluso noventa, tener una casa no era un objetivo lejano ni un privilegio reservado. Era el punto de partida natural de la vida adulta. Trabajabas, ahorrabas poco a poco, y con el tiempo construías algo propio. El esfuerzo tenía una traducción directa: raíces, estabilidad, posibilidad de transmitir algo a tus hijos.
Hoy la ecuación se ha invertido. Trabajas más horas, durante más años, con más presión, para acceder a menos espacio y menos seguridad. El progreso, que durante décadas se sintió como tal, más salario real, más acceso a bienes duraderos, más movilidad social ascendente, ha dejado de sentirse como progreso para amplios sectores. En su lugar, aparece una sensación de estancamiento o incluso retroceso disfrazado de normalidad.
El proceso lento que no hace ruido
Lo más peligroso de este cambio es su gradualidad. No ocurrió de golpe. No fue una decisión repentina ni una crisis puntual. Fue un proceso lento, casi invisible mientras sucedía. Se construyó menos vivienda pública desde los años ochenta. Se liberalizó el suelo poco a poco. Se permitió la entrada masiva de capital extranjero en el mercado inmobiliario. Se endurecieron las condiciones hipotecarias tras 2008. Cada medida, tomada aislada, tenía su justificación técnica o económica.
Las transformaciones profundas no hacen ruido. Así, poco a poco, una sociedad de propietarios se transforma en una sociedad dependiente sin que nadie anuncie el cambio. Las grandes transiciones empiezan en lo cotidiano: en la renovación anual del contrato de alquiler, en la carta del banco denegando la hipoteca, en la noticia de que un fondo ha comprado el bloque entero.
Y cuando el acceso desaparece, la dependencia ocupa su lugar. Así funcionan los sistemas duraderos: no necesitan prohibir nada ni decirte qué hacer. Solo necesitan que no exista una alternativa real fuera de ellos. La falta de opciones también condiciona.
Hacia una nueva configuración del poder
En otras épocas, cuando amplias capas de la población perdían el acceso a la tierra, no era accidental. Era el inicio de una reconfiguración del poder. La propiedad siempre ha definido la posición de las personas en la jerarquía social. Quien posee, decide. Quien no posee, depende.
Hoy asistimos a algo similar, pero en versión posmoderna. Los nuevos señores no llevan armadura ni residen en castillos, sino que son fondos de inversión con sede en paraísos fiscales y algoritmos que calculan rentabilidades. El vasallaje no se sella con juramento feudal, sino con contrato de arrendamiento renovable. Pero la lógica es la misma: una parte creciente de la población trabaja para pagar el acceso a algo que nunca será suyo.
Y lo más paradójico es que este proceso se presenta como inevitable, como consecuencia natural de la globalización, la demografía o la tecnología. Pero no lo es. Es el resultado de opciones políticas acumuladas: priorizar la rentabilidad financiera sobre la función social de la vivienda, tratar el suelo como mero activo especulativo, permitir la concentración de la propiedad en pocas manos institucionales.
Epílogo: la necesidad de cuestionar lo obligatorio
No es que no puedas comprar una casa. Es que el sistema ya no está estructurado para que la tengas, al menos no en las condiciones que tuvieron tus padres o abuelos. Y cuando algo deja de ser posible para la mayoría, deja de ser una cuestión individual para convertirse en una cuestión política de primer orden.
La gran renuncia silenciosa no es la de los trabajadores que abandonan empleos tóxicos, sino la de toda una generación que, sin apenas darse cuenta, ha renunciado a la expectativa de propiedad como base de su libertad adulta. Recuperar esa expectativa requerirá cuestionar lo que hoy parece obligatorio: que el alquiler sea la norma, que la vivienda sea principalmente un activo financiero, que la dependencia sea el precio inevitable de la modernidad.
Porque cuando la dependencia se naturaliza, el sistema se perpetúa. Y cuando el sistema se perpetúa, la libertad se reduce. La pregunta ya no es si podemos permitirnos una casa, sino si podemos permitirnos una sociedad en la que la mayoría no pueda permitírsela.
La nueva guerra fría: Estados Unidos y China en 2045
La Guerra Fría del siglo XX tenía ideologías: capitalismo versus comunismo. La del 2045 tiene algoritmos. Ya no se trata de quién produce más acero o bombas nucleares, sino de quién controla el flujo de la información y la arquitectura del pensamiento. Estados Unidos y China no compiten por territorios, sino por las neuronas conectadas a sus redes. Y el campo de batalla —silencioso, omnipresente— es la mente digital del ciudadano global.
La Guerra Fría del siglo XX tenía ideologías: capitalismo versus comunismo. La del 2045 tiene algoritmos. Ya no se trata de quién produce más acero o bombas nucleares, sino de quién controla el flujo de la información y la arquitectura del pensamiento. Estados Unidos y China no compiten por territorios, sino por las neuronas conectadas a sus redes. Y el campo de batalla —silencioso, omnipresente— es la mente digital del ciudadano global.
En el siglo pasado, el miedo era la bomba atómica; hoy es la pérdida de autonomía. Cada vez que alguien entrega sus datos biométricos a una aplicación o consume noticias moduladas por una IA, escoge bando sin saberlo. Estados Unidos, con su industria tecnológica privada, aspira a moldear el mundo a través del deseo; China, con su aparato estatal, lo controla mediante la obediencia. Uno seduce, el otro disciplina. Dos formas opuestas de lo mismo: ingeniería del comportamiento masivo.
La ironía es que ambos bandos se presentan como defensores de la libertad. Washington predica la libre competencia mientras sus empresas forman oligopolios digitales más poderosos que muchos Estados. Pekín, por su parte, proclama la armonía colectiva mientras sofoca cualquier brote de originalidad individual. Es el duelo entre el dios del mercado y el Leviatán burocrático; y ni uno ni otro representa una auténtica emancipación humana.
Históricamente, las grandes potencias colapsan no cuando pierden frente a sus enemigos, sino cuando se devoran a sí mismas. Roma sucumbió a su propia administración. La Unión Soviética, a su propia mentira. Estados Unidos podría seguir ese camino si su innovación se subordina a la corrección política y a la censura de lo “seguro”. China, por su parte, podría estancarse en la trampa de su propio éxito: una sociedad demasiado controlada para innovar realmente. El exceso de orden mata la creatividad; el exceso de complacencia, la prosperidad.
En 2045, el conflicto ya no se librará con ejércitos, sino con sistemas de inteligencia artificial capaces de anticipar comportamientos colectivos. Las guerras del futuro serán simulaciones preventivas. No habrá invasiones, solo predicciones. El enemigo real será el ciudadano que se atreva a pensar al margen del algoritmo. Y ahí radica la verdadera amenaza: que la humanidad acepte la servidumbre voluntaria a cambio de comodidad digital.
Los defensores del intervencionismo siguen creyendo que la seguridad nacional justifica el espionaje masivo. Los progresistas digitales, que la censura es “moderación” y la vigilancia “protección”. Pero la historia siempre cobra intereses cuando se negocia con la libertad. El liberalismo clásico, tan ridiculizado hoy, quizá era más profético que anacrónico: sin propiedad sobre uno mismo y sin control sobre la información que uno genera, la libertad no existe; solo queda la ilusión de autonomía gestionada por terceros.
En definitiva, la nueva Guerra Fría no se decidirá por quién domina los satélites, sino por quién logra que el individuo deje de preocuparse por su propia mente. Cuando eso ocurra, no hará falta una invasión. Bastará con una actualización del sistema operativo.
2045: ¿habrá empleo o solo ocupaciones digitales subvencionadas?
En 2045, quizás el empleo no exista. No porque las máquinas nos hayan sustituido, sino porque habremos renunciado a competir con ellas. Será la era dorada del “trabajo simbólico”: millones de ciudadanos entretenidos en actividades digitales de utilidad dudosa pero altamente subvencionadas. “Creadores de comunidad”, moderadores éticos, consejeros de empatía virtual. Una burocracia emocional diseñada para mantenernos ocupados sin producir nada esencial. La paradoja es que la automatización, que prometía liberarnos del trabajo forzoso, podría convertirnos en súbditos de un sistema asistencial disfrazado de progreso.
En 2045, quizás el empleo no exista. No porque las máquinas nos hayan sustituido, sino porque habremos renunciado a competir con ellas. Será la era dorada del “trabajo simbólico”: millones de ciudadanos entretenidos en actividades digitales de utilidad dudosa pero altamente subvencionadas. “Creadores de comunidad”, moderadores éticos, consejeros de empatía virtual. Una burocracia emocional diseñada para mantenernos ocupados sin producir nada esencial. La paradoja es que la automatización, que prometía liberarnos del trabajo forzoso, podría convertirnos en súbditos de un sistema asistencial disfrazado de progreso.
La política, siempre más lenta que la innovación, reaccionará con su reflejo favorito: intervenir. Impuestos a los robots, rentas básicas universales, cuotas de algoritmos “inclusivos”. Se celebrará como justicia social lo que en realidad será una forma sofisticada de control. En lugar de garantizar libertad y oportunidades, muchos gobiernos preferirán financiar la dependencia permanente. La historia ya ofrece precedentes: el Estado del bienestar europeo surgió tras la Segunda Guerra Mundial como salvavidas; hoy funciona como un ancla. Lo que empezó como red de seguridad terminó siendo una jaula de confort colectivo.
Los defensores del asistencialismo argumentarán que “nadie debe quedarse atrás”. Pero esa frase encierra una trampa moral: si nadie se queda atrás, tampoco nadie avanza. La igualdad absoluta destruye el incentivo de la innovación, la curiosidad y el mérito. La verdadera dignidad no proviene del subsidio, sino de la capacidad de crear. Silicon Valley, Israel o Corea del Sur comprendieron esto hace décadas: la riqueza surge de la experimentación libre, no del paternalismo estatal. Sin embargo, muchos países siguen creyendo que redistribuir pobreza es más justo que permitir que alguien se enriquezca.
Lo más inquietante no será la falta de empleo, sino la pérdida del individuo. Las tecnologías de vigilancia, combinadas con la inteligencia artificial, ofrecen a los Estados y corporaciones un poder sin precedentes sobre la información personal. Cada interacción digital alimenta un panóptico invisible donde la privacidad se percibe como sospechosa. Si el siglo XX fue el de la propaganda, el XXI será el de la persuasión invisible: algoritmos que modelan nuestras opiniones antes de que siquiera las tengamos. La distopía orwelliana no llegará con botas militares, sino con interfaces amigables y programas de bienestar.
La única resistencia posible será recuperar el control sobre la información propia, defender la autonomía digital como un derecho natural, no como una concesión. En 2045, la línea de batalla no estará entre humanos y máquinas, sino entre individuos libres y sistemas que los tratan como datos procesables. El futuro del trabajo, al final, dependerá de una pregunta moral: ¿queremos ser creadores o administrados?
Quizás la predicción más honesta sea la más incómoda: habrá tanto empleo como dignidad estemos dispuestos a conservar. Y si la buscamos en el subsidio o en el algoritmo benevolente, no será el trabajo lo que desaparezca, sino el individuo mismo.
¿Rothbard tenía razón? ¿el Estado es enemigo del mercado?
Murray Rothbard, el enfant terrible del pensamiento libertario, sostenía que el Estado no es árbitro ni garante, sino depredador: un monopolio de la violencia que vive de lo que expropia. Su visión, radical incluso para los liberales clásicos, pinta al Estado como enemigo natural del mercado, una forma sofisticada de parasitismo institucional. Suena extremo, pero ¿y si tuviera parte de razón?
Murray Rothbard, el enfant terrible del pensamiento libertario, sostenía que el Estado no es árbitro ni garante, sino depredador: un monopolio de la violencia que vive de lo que expropia. Su visión, radical incluso para los liberales clásicos, pinta al Estado como enemigo natural del mercado, una forma sofisticada de parasitismo institucional. Suena extremo, pero ¿y si tuviera parte de razón?
La historia económica ofrece abundantes episodios donde el poder político ha distorsionado el libre intercambio en nombre de causas nobles. Desde los monopolios reales británicos hasta los rescates bancarios de 2008, el patrón se repite: el Estado protege a ciertos actores, manipula los incentivos y luego predica moralidad económica. Rothbard veía en ello la prueba de que el Estado no corrige los fallos del mercado, sino que los produce selectivamente para justificarse. Una crítica incómoda… y no del todo infundada.
Sin embargo, la tesis rothbardiana tiene su propio talón de Aquiles: presupone que un mercado puro podría autorregularse en armonía perpetua si se le dejara en paz. Esa fe casi teológica en el orden espontáneo ignora la naturaleza humana, que no solo busca beneficio, sino también poder. Allí donde hay concentración económica, surgen conductas cartelarias, captura regulatoria y una tendencia inevitable a confundirse con el Estado mismo. Paradójicamente, el capitalismo sin contrapesos tiende a generar sus propios Leviatanes privados.
El dilema no es nuevo. Adam Smith ya advirtió que los empresarios, si pudieran, conspirarían contra el público; Marx, que la burguesía usaría el Estado como su aparato político. Rothbard, en su rechazo absoluto al poder central, elimina al árbitro, pero olvida que los jugadores también hacen trampas. El resultado de su utopía posible sería una sociedad donde las leyes del mercado sustituyen al derecho, y la justicia se mide en capacidad de pago.
Aun así, conviene no desechar la advertencia rothbardiana. En plena era digital, el Estado y el mercado se confunden con inquietante facilidad. Los gobiernos compran datos a las plataformas; las plataformas redactan las leyes que deberían vigilarlas. El viejo antagonismo entre público y privado se disuelve en un tecno-feudalismo donde poder político y poder económico ya no se enfrentan: se asocian. En ese contexto, el instinto de Rothbard se vuelve profético. No porque el Estado sea intrínsecamente maligno, sino porque la alianza entre Estado y corporación anula tanto la libertad económica como la política.
Tal vez el verdadero enemigo no sea el Estado en sentido estricto, sino la comodidad con la que aceptamos su expansión cada vez que promete resolver nuestras inseguridades. El mercado sin moral produce desigualdad; el Estado sin límites, servidumbre. Entre ambos extremos se mueve nuestra frágil civilización, oscilando entre la codicia y la obediencia. Rothbard tenía razón en su desconfianza, pero se equivocó en su absolutismo: el enemigo no está fuera, está dentro —en nuestra propensión a delegar poder a cambio de tranquilidad.
De trabajadores a mantenidos: el salario universal en perspectiva
La idea del salario universal suena, para muchos, como la culminación de la justicia social: un ingreso garantizado, sin condiciones, para liberar al ser humano de la precariedad laboral. Sin embargo, tras el barniz utópico se esconde un proyecto de domesticación política. Transformar ciudadanos productivos en clientes del Estado no emancipa a nadie; los convierte en dependientes agradecidos. En otras palabras: menos trabajadores, más mantenidos.
La idea del salario universal suena, para muchos, como la culminación de la justicia social: un ingreso garantizado, sin condiciones, para liberar al ser humano de la precariedad laboral. Sin embargo, tras el barniz utópico se esconde un proyecto de domesticación política. Transformar ciudadanos productivos en clientes del Estado no emancipa a nadie; los convierte en dependientes agradecidos. En otras palabras: menos trabajadores, más mantenidos.
El salario universal parte de una premisa moralmente seductora pero intelectualmente perezosa: que el trabajo es una condena, y que liberarnos de él mediante una renta fija nos acercaría a la felicidad. Pero el trabajo —en su sentido más amplio— no es solo una fuente de ingresos; es el ejercicio de la competencia, la creatividad y la dignidad. Pretender sustituirlo por un depósito mensual del Estado equivale a vaciar de contenido la libertad misma. Lo que se promete como emancipación acaba siendo una suave servidumbre con rostro digital.
Sus defensores suelen invocar la automatización como justificación: las máquinas harán nuestro trabajo, dicen, y será necesario compensar a los excluidos del sistema. Pero esta visión olvida que la tecnología no destruye empleos; los transforma. Cuando el telar mecánico reemplazó al tejedor, nació la industria textil moderna. Cuando Internet desplazó tareas rutinarias, creó mercados enteros basados en conocimiento y servicios. El problema no es la máquina, sino la mentalidad del hombre que teme competir con ella.
Detrás del salario universal late una lógica política más profunda: el control social disfrazado de compasión. Un ciudadano que depende del Estado para comer no puede enfrentarse al Estado sin riesgo. Si las democracias contemporáneas se han degradado hacia una especie de paternalismo digital, el salario universal sería su versión definitiva: una sociedad donde el poder ya no se impone a través de la represión, sino del “cuidado”. Panem et circenses, pero con transferencia bancaria.
Los experimentos actuales en países nórdicos o en pequeñas regiones tecnocráticas ofrecen una pista: cuando la renta básica se prolonga, la productividad cae y la iniciativa empresarial se diluye. No porque las personas sean perezosas por naturaleza, sino porque la previsibilidad mata el incentivo. El ser humano crece en la incertidumbre, no en la comodidad garantizada. Lo que mantiene viva una civilización no es el derecho a recibir, sino la posibilidad de crear.
En última instancia, el salario universal no es una política económica, sino un proyecto antropológico: redefine quién debe sostener a quién. Creemos estar diseñando un sistema compasivo, pero en realidad estamos trazando la frontera final de la libertad. Una sociedad que paga a sus ciudadanos por no participar en ella deja de ser una comunidad de individuos libres y se convierte en una guardería financiada por deuda pública.
Europa, obsesionada con proteger al ciudadano del esfuerzo, podría acabar descubriendo lo que Roma aprendió tarde: cuando el trabajo deja de tener valor, la decadencia no tarda en llegar. El salario universal no promete futuro; promete anestesia.
Europa 2045: ¿un museo del mundo o un actor relevante?
Excelente planteamiento: un ensayo provocador con una mirada crítica sobre el futuro europeo, la tecnología y la libertad individual. A continuación, presento un artículo de unas 500 palabras que cumple tu solicitudEuropa envejece con la solemnidad de un continente que confunde la nostalgia con la identidad. En 2045, podría ser —si nada cambia— el parque temático de su propio pasado: un museo costoso donde turistas asiáticos y nómadas digitales americanos contemplen las ruinas del Estado del bienestar y los vestigios de una civilización que alguna vez creyó en la razón. Europa, la cuna de las luces, parece haber cambiado la Ilustración por el reglamento.
Excelente planteamiento: un ensayo provocador con una mirada crítica sobre el futuro europeo, la tecnología y la libertad individual. A continuación, presento un artículo de unas 500 palabras que cumple tu solicitudEuropa envejece con la solemnidad de un continente que confunde la nostalgia con la identidad. En 2045, podría ser —si nada cambia— el parque temático de su propio pasado: un museo costoso donde turistas asiáticos y nómadas digitales americanos contemplen las ruinas del Estado del bienestar y los vestigios de una civilización que alguna vez creyó en la razón. Europa, la cuna de las luces, parece haber cambiado la Ilustración por el reglamento.
El viejo continente sufre una adicción crónica a la regulación y a la seguridad ideológica. Mientras Silicon Valley y Shenzhen compiten por construir el futuro, Bruselas discute cuántos decibelios puede emitir una tostadora. Este impulso por controlar cada variable del progreso, en nombre del “bien común”, refleja una patología cultural: el miedo a la responsabilidad individual. El discurso oficial promete protegernos de todo —del mercado, de la competencia, incluso de nuestras propias decisiones—, pero esa sobreprotección no es benevolencia, es infantilización.
El problema es que el intervencionismo europeo se disfraza de moral superior. Regular más equivale, supuestamente, a ser más ético. Pero la historia ofrece otro relato. Ningún renacimiento surgió de un burócrata. Los inventores de la revolución industrial eran empresarios sin permiso; los pioneros de Internet trabajaban en garajes, no en comités. Cuanta más libertad se concede a la innovación, más prosperidad se genera. Cuando se la sofoca con impuestos, permisos y “agendas sostenibles” que sirven más para tranquilizar conciencias que para resolver problemas, lo único sostenible es el estancamiento.
Paradójicamente, el mismo continente que teme a la libertad tecnológica deposita su confianza plena en el poder del Estado. Se exige vigilancia digital para evitar la “desinformación”, aunque eso implique sacrificar la esfera privada; se aplauden sanciones a las empresas “demasiado grandes”, aunque sin ellas no haya inversión; se moraliza contra el capitalismo, pero se exige un subsidio cada vez que la realidad contradice la utopía. El ciudadano europeo medio vive atrapado entre la comodidad de la dependencia y la incomodidad de la libertad: prefiere que el Estado le quite peso, aunque le robe voz.
La tecnología es el espejo de esa contradicción. Sus posibilidades son emancipadoras —automatización, inteligencia artificial, energía limpia, biotecnología—, pero su mal uso es totalitario. Si Europa quiere tener un papel en 2045, no basta con regular los algoritmos; debe recuperar la raíz filosófica de la libertad. Innovar sin libertad es ingeniería estatal. Invertir en inteligencia artificial mientras se limita la expresión “por seguridad” es tan absurdo como construir un cohete al futuro con la brújula apuntando al pasado.
La clave no está en competir con China o Estados Unidos en gasto público o moralidad institucional, sino en revisar nuestras premisas: ¿preferimos ser un laboratorio de progreso o un mausoleo de buenas intenciones? Europa será relevante solo si vuelve a confiar en el individuo, no en sus guardianes. De lo contrario, en 2045 nuestro mayor logro será haber conservado impecables nuestras ruinas.
Conspiraciones oficiales: cuando la verdad parece sospechosa
Pocas ironías son tan deliciosas como esta: vivimos en una era en la que todo el mundo teme caer en “teorías de la conspiración”, pero casi nadie se da cuenta de que las conspiraciones más influyentes no son las clandestinas, sino las oficiales. Las que no se susurran en sótanos, sino que se anuncian en ruedas de prensa. Las que no fabrican foros oscuros, sino instituciones respetables. Esas son las verdaderamente peligrosas, porque operan bajo el prestigio de la legitimidad.
Pocas ironías son tan deliciosas como esta: vivimos en una era en la que todo el mundo teme caer en “teorías de la conspiración”, pero casi nadie se da cuenta de que las conspiraciones más influyentes no son las clandestinas, sino las oficiales. Las que no se susurran en sótanos, sino que se anuncian en ruedas de prensa. Las que no fabrican foros oscuros, sino instituciones respetables. Esas son las verdaderamente peligrosas, porque operan bajo el prestigio de la legitimidad.
La historia está repleta de ejemplos, pero la memoria colectiva es selectiva. El Proyecto MK-Ultra, por ejemplo, fue considerado durante décadas un delirio paranoico… hasta que se desclasificaron los documentos que demostraban que la CIA había experimentado con drogas y manipulación mental en ciudadanos sin su consentimiento. Pero incluso después de eso, seguimos creyendo que los gobiernos solo conspiran cuando “pierden el rumbo”, nunca como práctica estructural.
El lenguaje ayuda mucho a esta autoengaño. Cuando un ciudadano miente, es “desinformación”; cuando un Estado lo hace, es “estrategia comunicativa”. Cuando un individuo manipula, es “engaño”; cuando lo hace una institución, es “gestión de narrativas”. El doble rasero es tan descarado que uno casi admira el talento semántico detrás del maquillaje. Las conspiraciones oficiales son exitosas precisamente porque no parecen conspiraciones: parecen políticas públicas.
El mecanismo es siempre el mismo: primero se ridiculiza cualquier hipótesis que incomode al poder; luego se patologiza; finalmente, si resulta ser cierta, se normaliza con la frialdad de quien dice “bueno, son cosas que pasan”. Y el público, agotado, prefiere mirar hacia otro lado antes que admitir que la línea entre transparencia y teatro es más delgada de lo que quisieran reconocer.
La innovación tecnológica ha amplificado este fenómeno. Por un lado, permite descubrir mentiras oficiales más rápido; por otro, ofrece nuevas herramientas para instalarlas con mayor eficacia. Los gobiernos y corporaciones han entendido que controlar la realidad factual es inútil: lo verdaderamente rentable es controlar la percepción. No importa qué ocurre, importa qué parece que ocurre. Y en esa guerra semiótica, los algoritmos son aliados formidables: distribuyen versiones “oficiales”, silencian anomalías, priorizan mensajes “fiables”. Todo con la asepsia de un proceso técnico, como si la máquina fuera neutral y no estuviera programada por alguien con intereses muy concretos.
La sospecha, en este contexto, se vuelve una forma de autodefensa cognitiva. Pero aquí llega la paradoja: cuanto más mintieron las élites en el pasado, más sospechoso parece cualquier intento actual de decir la verdad. Es la consecuencia lógica de décadas de manipulación: una población que ya no distingue entre evidencia incómoda y fábula conspirativa. Un paisaje donde lo cierto huele a trampa, y lo falso huele a consigna.
Y quizá ese sea el mensaje más incómodo: no es que vivamos rodeados de conspiraciones, es que vivimos rodeados de conspiraciones certificadas, cuidadosamente redactadas y distribuidas mediante canales oficiales. La próxima vez que un gobierno o corporación afirme algo con excesiva vehemencia, recuerda: las verdades que requieren tanto maquillaje suelen ser las menos fiables. Si te incomoda pensarlo, es buena señal. Significa que la verdad aún no te ha domesticado.