El precio que pagas por la IA no es real y por qué eso importa para tu negocio
Por qué la pregunta correcta no es cuánta IA meter, sino cuánta puedes quitar.
Hay una conversación que falta en casi todos los foros donde se habla de IA aplicada a empresa. Se habla de capacidades, de modelos, de prompts, de agentes, de productividad. Pero rara vez se habla del fundamento económico que sostiene todo esto. Y ese fundamento, ahora mismo, no se sostiene.
El precio que paga cualquier empresa por procesar tokens en OpenAI, Anthropic o Google no es el precio de mercado. Es un precio subvencionado. Lo está pagando otra persona. Y esa otra persona tiene un horizonte temporal limitado para seguir haciéndolo.
Este post intenta poner cifras concretas a esa afirmación, explicar de dónde viene esa subvención, qué pasa cuando termina, y por qué cualquier negocio que esté construyendo producto sobre un único proveedor de IA está acumulando un riesgo que muy pocos directivos han entendido todavía.
Los números no dan
Empecemos por lo que sabemos de las cuentas reales, no por las narrativas de inversor.
Microsoft tiene un 27% de OpenAI y, por ese motivo, está obligada a reportar el impacto de la participación en sus resultados trimestrales. En el cierre fiscal Q1 26 (julio a septiembre de 2025), Microsoft declaró un descenso de 3.100 millones de dólares en su net income atribuible a la participación en OpenAI. Esa cifra, dividida por su porcentaje, implica pérdidas de aproximadamente 11.500 millones de dólares en un solo trimestre. Anualizado, son 46.000 millones de dólares de pérdidas contra unos ingresos en run-rate de 20.000 millones.
Dicho de otra formam OpenAI gasta aproximadamente 3,30 dólares por cada dólar que ingresa.
Y las proyeccciones Documentos internos de la propia OpenAI compartidos con inversores durante 2025 prevén:
Pérdidas operativas de aproximadamente 74.000 millones de dólares en 2028.
Cash burn acumulado de unos 115.000 millones a través de 2029.
Burn rate del 57% sobre ingresos en 2026 y 2027.
Una primera previsión de cash flow positivo no antes de 2029 o 2030.
HSBC fue más allá en su análisis, estima un déficit de financiación de 207.000 millones de dólares adicionales que OpenAI tendrá que captar para cumplir su plan, además de todo lo ya comprometido. Los 1,4 billones de dólares en compromisos de compute con cloud providers y fabricantes de chips que OpenAI ha firmado para los próximos ocho años son la dimensión real del problema.
Anthropic está mejor posicionada, con una previsión de break-even hacia 2028 y un descenso de cash burn al 9% de ingresos para 2027, pero el patrón es el mismo: el negocio pierde dinero por cada query que sirve, y la profitability depende de que el crecimiento de ingresos supere durante años el crecimiento de costes.
El detalle más preocupante para cualquiera que construya producto sobre estas APIs es lo que ha pasado con los costes de inferencia. Según reporting de The Information y Wall Street Journal sobre las cuentas de OpenAI, los costes de inferencia (los costes de servir una respuesta cuando un usuario consulta el modelo) se cuadruplicaron en 2025. El margen bruto ajustado de OpenAI cayó del 40% en 2024 al 33% en 2025.
Esto significa una cosa muy concreta, el coste de servir una query no se reduce con la escala, e incrementa el problema económico del proveedor en lugar de aliviarlo.
Ese cálculo no significa literalmente que “cada query pierde dinero” en términos de units economisc, sino que, a escala corporativa total, los costes agregados (compute, training, capex, stock compensation e infraestructura) exceden ampliamente los ingresos actuales.
Y por eso dicen que sus modelos son tan potentes que no los quieren liberar….
Tres bolsillos pagan la fiesta
Si los proveedores pierden dinero, ¿quién aporta la diferencia?
Hay tres fuentes principales, y conocerlas ayuda a entender cuándo y cómo se va a romper el equilibrio.
Capital riesgo y fondos soberanos. OpenAI cerró en abril de 2026 una ronda de 122.000 millones de dólares a una valoración de 852.000 millones, liderada por SoftBank junto a Andreessen Horowitz, D.E. Shaw Ventures, MPX y TPG. Antes de esa ronda, en marzo de 2025, había levantado 40.000 millones a una valoración de 300.000 millones post-money. Anthropic ha seguido un patrón parecido. Como en todas las startups, estas rondas no se justifican por los flujos de caja actuales. Se justifican por la apuesta de que dentro de cinco o siete años el ganador del mercado tendrá una posición de monopolio comparable a la que Google tuvo en búsqueda durante dos décadas.
Hyperscalers. Microsoft, Amazon y Google subvencionan los costes de computo de los laboratorios mediante créditos cloud y contratos preferentes. Microsoft ha financiado 11.600 millones de los 13.000 millones comprometidos a OpenAI hasta septiembre de 2025. OpenAI tiene comprometidos 250.000 millones de dólares con Azure durante seis años (2025-2030). Esto explica por qué hyperscalers son a la vez accionistas y proveedores de infraestructura: la subvención que aplican en compute se recupera, en parte, vía equity. Pero la mecánica funciona solo mientras el coste del compute sea sostenible para el hyperscaler.
La Bolsa. Una parte significativa del valor del Nasdaq de los últimos dos años está pegada a la narrativa de la IA. NVIDIA, Microsoft, Google, Amazon, Meta. La capitalización agregada de los siete grandes tecnológicos depende de que la inversión en infraestructura de IA produzca retornos. Las empresas se compran entre sí, y eso hincha ambas valoraciones.
Se rompe la paradojica del SaaS
Si un producto SaaS que integra IA se viraliza y multiplica por diez su volumen de queries, el coste para OpenAI o Anthropic se multiplica linealmente. El precio que cobran no cubre el coste marginal. Cuanto más volumen aporte el cliente, más profundo es el agujero unitario que abre.
Esto rompe la lógica habitual del SaaS. En un SaaS tradicional, el coste marginal de servir a un cliente adicional es cercano a cero. Cada nuevo cliente aporta margen bruto cercano al 80% o 90%. La economía es una de las razones por las que el sector tuvo múltiplos tan altos durante años.
Ahora lo están intentando solucionar con los límites cada vez más cercanos y los accesos a ciertos servicios que solo funcionan por API con un coste adicional a la subscripción.
El playbook de subvencionar ya se ha visto antes
Cualquiera que haya seguido la evolución del SaaS en la última década reconoce el patrón. AWS lo inauguró en 2006 con su modelo de pay-as-you-go: precios bajos, sin compromiso, escalado en función de uso. Twilio lo replicó en comunicaciones, creciendo de 15 millones de ARR a más de mil millones con consumption pricing. En cuanto al mercado B2C Lo hemos visto con Netflix, Spotify, Dazn…
Son estrategias que se utilizan para penetrar en mercados o consolidarse en ellos, pero una vez consolidada la posición, compañías han pasado por sucesivas rondas de optimización de pricing.
Una vez la dependencia técnica está establecida, el coste de cambiar de proveedor es lo suficientemente alto como para que el proveedor pueda subir precios un 8% o un 12% al año sin perder clientes. El cliente paga, se queja pero se queda.
Aplicar este patrón a IA da un escenario predecible. Los precios actuales de OpenAI o Anthropic no van a bajar al ritmo que los costes lo permitan. Van a moverse en función de la posición competitiva que cada laboratorio considere defendible. Cuando OpenAI saque a bolsa su entidad for-profit (la salida está prevista para 2027 según reporting interno), tendrá que enseñar números. Esos números, en el escenario actual, no enseñan otra cosa que pérdidas. Lo más probable es una combinación de subida de precios y endurecimiento de rate limits.
El Vendor lock-in, la dependencia de un solo proveedor
Aunque los precios no se movieran, hay un segundo problema que la mayoría de equipos técnicos ha subestimado, el lock-in que se está construyendo silenciosamente.
Las fuentes técnicas del lock-in son varias y se van acumulando capa a capa:
APIs propietarias. Cada proveedor expone sus modelos a través de una interfaz diseñada para sus particularidades.
Prompts ajustados a un modelo concreto. Los prompts que un equipo afina durante meses no se transfieren limpiamente entre proveedores, incluso entre modelos. Lo que funciona en GPT-5 produce salidas distintas en Claude o Gemini.
Fine-tuning y modelos personalizados. Cualquier inversión en adaptar un modelo a un dominio específico se queda con el proveedor.
Funcionalidades avanzadas (Assistants, Projects, Caching). Las features que aceleran desarrollo son las que más atan. Cada proveedor ofrece su propia abstracción y cada abstracción crea dependencia.
Observabilidad, evaluaciones y guardrails. El stack alrededor de un modelo (logs, evals, controles de seguridad, monitoring de costes) suele estar pegado al proveedor.
Cada decisión técnica tomada hoy ata un poco más mañana. No con cadenas. Con costes de migración que se acumulan en silencio.
Cuando los tres riesgos se observan juntos, el cuadro queda claro. La dependencia de un proveedor de IA no es un único problema, son tres que se refuerzan entre sí.
El primero es de coste: el precio actual está subvencionado y la corrección, cuando llegue, se aplicará primero a los clientes con más volumen y menos capacidad de migración, exactamente los que más dependen del servicio.
El segundo es de continuidad operativa: si el proveedor cambia un modelo, deprecia una API, modifica los términos del servicio o sufre una caída prolongada, el producto construido encima queda paralizado en cuestión de minutos, sin alternativa inmediata más allá de esperar.
El tercero es de transición: cuando llega el momento de cambiar de proveedor, el coste real de migración (técnico, comercial y de reevaluación) se sitúa con frecuencia en órdenes de magnitud superiores a lo que las estimaciones internas habían contemplado, como muestran los datos del 57% de directivos que gastaron más de un millón de dólares en migrar plataformas durante 2025.
He trabajado un proyecto con el dueño de un ecommerce especializado, y está desplegando IA agéntica con Claude para toda su operativa: almacén, comprás, conciliación bancaria… y durante las conversaciones que hemos tenido, lo primero que le he dicho son los peligros de basar sus procesos en la dependencia de un solo modelo o proveedor de IA.
Con esto le hemos dado una vuelta al enfoque. La pregunta no es “cómo metemos más IA en este flujo”. La pregunta es “cómo metemos la mínima IA posible para que el sistema sea fiable, predecible y barato de operar”. Cada vez que una parte del flujo puede resolverse con software determinístico (desarrollos, endpoints, lógica de negocio explícita, búsquedas estructuradas), se resuelve con software determinístico. El LLM se reserva para los puntos concretos donde su capacidad de interpretar lenguaje natural, ambigüedad o contexto añade valor que ningún sistema de reglas puede igualar.
La consecuencia práctica es que la IA pasa de ser el motor en tiempo de ejecución a ser el copiloto del equipo de ingeniería. Y La IA por supuesto, ayuda a construir este software..
Es un caso, en el que se estan desplegando “42 agentes”, que ya contaré con más detalle.
La pregunta que toca hacerse
Cualquier negocio que esté integrando IA en producto o procesos haría bien en responder, internamente, las siguientes preguntas:
Si el coste por prompt del proveedor principal se multiplica por tres en los próximos 24 meses, ¿el modelo de negocio sigue funcionando?
Si el proveedor principal cambia los términos del servicio, deprecia el modelo que se está usando, o sufre una caída prolongada, ¿cuántos días de trabajo cuesta migrar?
¿Qué porcentaje del stack actual depende de funcionalidades específicas de un solo proveedor que no se transfieren a alternativas?
¿Qué tareas dentro del producto podrían resolverse hoy con un modelo open o un tier inferior, sin pérdida apreciable de calidad para el cliente final?
¿Existe una capa de abstracción que permitiera cambiar de proveedor mediante configuración, o cada cambio implica reescribir código?
Existen alternativas, como desarrollar tecnología multi modelo o los modelos on premise y eso entraré en detalle en otros post.
¿Cómo lo ves tu y como lo estás afrontando?
Anaya ya me ha comentado que hemos conseguido más de 1000 ventas en poco más de 10 meses, cosa que esta genial para un libro de nicho como este.
Te recuerdo que puedes comprar el libro en Fnac, El Corte Inglés, La Casa del Libro y en este enlace Amazon:
Curso métricas y modelos Saas
Lanzamos la tercera edición sobre el Curso SaaS sobre métricas y modelos financieros. En la siguiente edición tendrás como regalo el libro. Si ya lo has comprado y estas interesado en el curso, escríbeme y te hago el descuento por el importe,
Info sobre el curso SaaS:
Si necesitas ayuda en tu negocio o en tu estrategia de datos e IA, escríbeme y cerramos una reunión.

