La narrativa de 2024 era clara: el open source estaba ganando.

Llama 3 de Meta demostró que un modelo de clase mundial podía ser público. Mistral era competitivo con modelos de OpenAI a fracción del costo. DeepSeek R1 llegó desde China y sacudió al mercado con capacidades que rivalizaban con GPT-4 — publicando los pesos abiertos. El consenso de la industria: los modelos base se van a commoditizar, el closed source pierde su moat, el dinero está en la aplicación, no en el modelo.

Entonces GPT-4.5, GPT-5, Claude Opus 4. Y el ciclo volvió a abrirse.

Esta es la paradoja que nadie está formulando con precisión: el open source avanza más rápido que nunca en la historia de la IA — y sigue estando 6 a 12 meses detrás en las capacidades que más importan. Ambas cosas son ciertas al mismo tiempo. Y la tensión entre ellas define quién controla la infraestructura del siguiente ciclo.


La brecha que no se cierra

Para entender la paradoja hay que entender qué tipo de brecha estamos midiendo.

En benchmarks de propósito general — MMLU, HumanEval, tareas de razonamiento estándar — los modelos open source como Llama 4 Scout o Mistral Large se acercan notablemente a GPT-4 Turbo. La brecha en esas métricas se cerró en menos de doce meses desde el lanzamiento del modelo cerrado de referencia. Eso es velocidad de convergencia impresionante.

Pero hay tres áreas donde la brecha no se cierra al mismo ritmo:

Razonamiento complejo de múltiples pasos. Las tareas que requieren mantener coherencia a través de decenas de inferencias encadenadas — los problemas que GPT-5 y Claude Opus 4 manejan con una precisión que desaparece en los modelos abiertos actuales. No es una diferencia marginal. Es la diferencia entre un sistema que puede hacer trabajo de conocimiento real y uno que produce respuestas plausibles.

Contexto largo con precisión. Los modelos cerrados líderes manejan ventanas de contexto de 200K tokens con retrieval preciso a lo largo de todo el documento. Los modelos open source de tamaño comparable degradan su precisión drásticamente en la mitad del contexto. Para aplicaciones enterprise — análisis de contratos, revisión de código en bases grandes, trabajo con documentación extensa — esta diferencia es determinante.

Seguimiento de instrucciones en tareas complejas. La capacidad de mantener restricciones y objetivos simultáneos a lo largo de una tarea extensa. Los modelos cerrados frontrunners tienen años de RLHF especializado, datos de preferencias humanas en escala, y loops de refinamiento que los modelos open source no pueden replicar sin el mismo volumen de datos propietarios.

La brecha no es en qué puede hacer el modelo. Es en cuándo puede hacerlo de forma confiable.


Por qué Meta libera los pesos

Para leer la dinámica correctamente hay que entender por qué el actor más poderoso del open source — Meta — elige liberar modelos que le costaron cientos de millones de dólares entrenar.

La respuesta naive es altruismo tecnológico. La respuesta correcta es estrategia competitiva.

Meta no monetiza directamente por vender modelos de IA. Meta monetiza por distribución, datos de usuario, y publicidad. Liberar Llama le cuesta en compute lo que le ahorra en competencia: si el modelo base es un commons que cualquiera puede usar, Meta elimina el diferencial de OpenAI y Google como proveedores de infraestructura. Los desarrolladores que construyen sobre Llama no le están pagando a OpenAI ni a Google. Están usando un modelo que Meta financió — lo que convierte a Meta en infraestructura de facto sin los costos de ser proveedor de infraestructura.

Y hay un segundo nivel que es más interesante: cada aplicación construida sobre Llama que llega a usuarios reales genera datos de uso. Meta no tiene acceso a esos datos directamente, pero sí tiene el modelo que todos usan, lo que le da visibilidad sobre qué tipos de prompts, tareas, y casos de uso están siendo relevantes — información que alimenta la siguiente iteración del modelo.

El open source de Meta no democratiza el poder. Construye palanca sobre un commons que Meta controla por ser quien lo financia y decide qué versiones liberar y cuándo.


El problema de China

Hay una variable que el discurso del open source en Silicon Valley generalmente evita: quién más se beneficia cuando los pesos se liberan.

DeepSeek fue el recordatorio más claro. Un laboratorio chino con recursos limitados en chips de alta gama — debido a restricciones de exportación de semiconductores — construyó un modelo que compite con GPT-4 usando técnicas de eficiencia publicadas en literatura académica y arquitecturas inspiradas en modelos americanos abiertos. Luego liberó los pesos.

El resultado: un modelo competitivo disponible globalmente, construido sobre una cadena de conocimiento que empieza en investigación americana abierta, refinado con técnicas chinas de eficiencia, sin las restricciones de uso que imponen los proveedores americanos.

Las restricciones de exportación de chips existen para limitar la capacidad de cómputo de adversarios potenciales. El open source de modelos invierte parcialmente esa lógica: el conocimiento fluye libremente aunque el hardware no. Si los modelos abiertos siguen acercándose a la frontera, las restricciones de chips se vuelven menos determinantes para quién puede operar en el nivel superior de capacidades.

No estoy argumentando que el open source sea un error. Estoy señalando que “el open source democratiza la IA” es una descripción incompleta de lo que realmente sucede cuando los pesos se liberan.


La paradoja: open source ganando concentra el poder

Aquí está la parte que requiere pensar despacio.

Supongamos que la tesis de commoditización es correcta: en 18 a 24 meses, un modelo open source alcanza paridad práctica con los modelos cerrados líderes en la mayoría de tareas enterprise. Los benchmarks convergen. El costo de inferencia se colapsa. Cualquier empresa puede correr un modelo de frontera en sus propios servidores.

¿Quién gana en ese escenario?

La respuesta intuitiva: todos ganan, el poder se distribuye, la IA se democratiza.

La respuesta estructural: el poder se desplaza hacia arriba en el stack, a capas donde la ventaja competitiva no depende del modelo sino de lo que el modelo tiene acceso a ver y hacer.

Distribución. Si el modelo base es un commodity, ganar exige llegar primero al usuario. Google tiene Search. Apple tiene iOS. Meta tiene WhatsApp y Facebook. Microsoft tiene Office. Amazon tiene AWS y Alexa. Estos son los canales donde la mayor parte de la humanidad interactúa con tecnología. Si el modelo que corre dentro de esos canales es Llama o cualquier modelo abierto, las empresas que controlan los canales no pierden nada — al contrario, se ahorran el costo de desarrollar el modelo y mantienen el activo que importa: la relación con el usuario.

Datos. Un modelo abierto entrenado en datos públicos tiene las mismas capacidades base para todos. Pero un modelo fine-tuneado con datos propietarios — el historial de transacciones de un banco, el registro clínico de un sistema de salud, el comportamiento de compra de una plataforma de e-commerce — produce capacidades que ningún competidor puede replicar sin esos datos. La commoditización del modelo base amplifica el valor de los datos propietarios. El moat no desaparece — se mueve.

Ecosistemas. Los desarrolladores que construyen sobre un modelo abierto necesitan infraestructura de deployment, herramientas de observabilidad, integraciones con servicios existentes. AWS, Azure, y Google Cloud ya ofrecen Llama y Mistral como servicios administrados — lo que significa que el open source se convierte en un producto que las nubes venden. El desarrollador usa un modelo “libre” a través de infraestructura que no es libre. El valor capturado migra del modelo al cloud.

La paradoja completa: si el open source gana la guerra de los modelos base, el poder no se democratiza. Se concentra en los actores que controlan distribución, datos exclusivos, y infraestructura de deployment — que son, prácticamente sin excepción, los mismos gigantes que el open source pretendía desafiar.


Lo que esto significa para la tesis del ciclo

Volviendo al ciclo mapeado en el primer ensayo de esta serie: si los modelos base se commoditizan, la tesis de Perplexity como OS se fortalece.

Perplexity no apuesta a que su modelo sea el mejor — apuesta a que el valor está en la capa de integración, memoria, y acción sobre los mejores modelos disponibles. Si esos modelos se vuelven intercambiables, la ventaja de Perplexity — ser model-agnostic por diseño — se convierte en una posición estructural, no accidental. Puede rotar entre modelos según precio, capacidad, o disponibilidad sin que el usuario lo note.

El escenario que amenaza esa tesis no es que los modelos cerrados mantengan su ventaja indefinidamente. Es que Apple, Google, o Microsoft integren profundamente un modelo — abierto o cerrado, no importa — a nivel de sistema operativo, haciendo que la capa de integración de Perplexity sea redundante para la mayoría de los usuarios. Si Gemini corre dentro de iOS con contexto total de tus datos, ¿por qué necesitas un agregador externo?

La commoditización de modelos no resuelve ese problema. Lo agudiza.


El punto de inflexión que nadie puede fechar

La pregunta práctica que queda sin respuesta definitiva: ¿hay un punto donde el open source cierra la brecha de forma permanente, o los modelos cerrados siempre encuentran la siguiente frontera?

Los datos históricos sugieren asimetría persistente. GPT-4 fue lanzado en marzo de 2023. Los modelos open source alcanzaron paridad en benchmarks de propósito general en aproximadamente 14 meses. Pero para entonces, GPT-4.5 y GPT-5 habían movido la frontera. La velocidad de convergencia open source es alta — pero la velocidad de innovación closed source es igualmente alta, financiada con capital que ningún proyecto open source puede igualar.

OpenAI recibió $40 mil millones en su última ronda. Anthropic tiene compromisos de inversión que superan $10 mil millones. Google tiene el balance de Alphabet. Estos no son números que el ecosistema open source puede replicar con voluntad y compute distribuido.

La brecha de 6 a 12 meses no es un accidente temporal. Es el resultado de una diferencia estructural en el capital disponible para investigación en la frontera.

Lo que puede cambiar esa ecuación no es más open source. Es un breakthrough en eficiencia de entrenamiento que reduzca dramáticamente el costo de llegar a la frontera — algo que DeepSeek insinúó pero no resolvió completamente. O es una regulación que fuerce la apertura de modelos, cambiando los incentivos por mandato en lugar de por mercado.

Ninguno de esos escenarios es inminente.


La conclusión incómoda

El open source no es la historia de la democratización de la IA. Es la historia de cómo el conocimiento base se vuelve un commons mientras el poder se reconcentra en las capas que el commons no puede resolver: distribución, datos, y ecosistemas.

Eso no hace al open source malo o irrelevante. Los modelos abiertos son genuinamente útiles: permiten a pequeños equipos construir productos que antes requerían infraestructura de big tech. Permiten investigación académica que de otra forma no existiría. Crean competencia que presiona los precios de los modelos cerrados hacia abajo. Esos son beneficios reales.

Pero la narrativa de que el open source nivela el campo de juego entre una startup y Google es incorrecta. El campo se nivela en el nivel del modelo base. Se mantiene inclinado — y quizás más que antes — en el nivel donde ocurre la competencia real: quién tiene la distribución para que el modelo llegue a los usuarios, quién tiene los datos para hacer que el modelo sea relevante para un contexto específico, y quién construye el ecosistema donde los desarrolladores siguen construyendo.

La paradoja del modelo abierto es que su victoria no cambia fundamentalmente la estructura del poder. La desplaza a donde los gigantes ya están.

Y la pregunta que eso abre — si los modelos son un commons pero los canales no lo son — es la pregunta de la que nadie quiere hablar.

Mérida, Yucatán. Abril 2026.