La IA está entrando en una nueva fase: su era 2.0. La IA 1.0 se basaba en datos no estructurados que aplicaban aprendizaje automático general a problemas empresariales amplios. Marcó la transición de una IA experimental a sistemas operativos y agentes tempranos, fundamentados en la creencia de que modelos más grandes naturalmente producirían los resultados más poderosos. Este concepto se reforzó con las hyperscalers compitiendo por construir modelos frontera cada vez más grandes, creando una carrera armamentística que impulsó avances pero también demandas de computación insostenibles y costos crecientes de infraestructura.
Video recomendado
La IA 2.0 es diferente y desafía esa creencia, ya que los modelos más grandes demuestran ser mucho menos valiosos en la práctica. En lugar de modelar el lenguaje o probabilidades estadísticas, la IA 2.0 se centra en modelar las dinámicas del mundo real. Se apoya en el aprendizaje automático informado por la física – modelos rigurosos, impulsados por simulaciones, basados en ecuaciones diferenciales pero acelerados por IA. Estos modelos no hallucinan; calculan y predicen dentro de las limitaciones de las operaciones del mundo real, lo que los hace mucho más adecuados para entornos de producción. Este cambio también refuerza que las empresas ya no pueden depender únicamente de la economía de hyperscalers. Entrenar modelos a escala frontera requiere huellas de computación que solo unos pocos proveedores pueden soportar, lo que impulsa a las organizaciones a replantearse si “más grande” es siquiera accesible, y mucho menos óptimo, para sus casos de uso.
En última instancia, la característica definitoria de la IA 2.0 no es la escala, sino la moderación. Nos estamos moviendo hacia sistemas de IA que saben cuándo dejar de pensar. Estos son modelos diseñados para la precisión, la eficiencia en costos y el razonamiento sólido en lugar de una computación interminable.
La transición de IA 1.0 a IA 2.0
La IA 1.0 se construyó en gran medida sobre inferencias, dominada por experimentación y pruebas de concepto, donde las organizaciones optimizaban para demostraciones y puntos de referencia en lugar de resultados operativos. La pregunta principal no era si la IA podía escalar de manera económica o confiable; simplemente si podía funcionar en absoluto.
Dentro de esta fase, muchos líderes cayeron en lo que se conoció como la “trampa de la precisión”, donde optimizaban solo por exactitud, en lugar de por computación o conciencia contextual. Los modelos que parecían fuertes en entornos controlados finalmente fallaban en despliegues reales porque eran demasiado lentos para las demandas del mundo real o demasiado costosos para escalar con una economía de unidades saludable. La tendencia era comenzar con el modelo más grande posible, asumiendo que la adaptación naturalmente mejoraría el rendimiento.
La IA 2.0 replantea este pensamiento. Los líderes ahora son responsables del ROI medible, no de las demostraciones o puntuaciones en puntos de referencia. En 2.0, debemos dejar de entrenar modelos para que sepan todo y, en cambio, entrenar modelos de IA para simular lo que realmente importa. Es un paradigma más especializado, donde el objetivo es aprender y perfeccionar una o varias capacidades en lugar de buscar la generalización por sí misma.
En la IA 2.0, cada industria — desde la salud hasta la manufactura y los servicios financieros — tendrá la capacidad de construir modelos más pequeños y específicos de dominio que simulen sus físicas, restricciones y entornos únicos. Es análogo a pasar de la fabricación masiva de automóviles a ensamblajes personalizados: las personas podrán “construir sus propios autos” porque la producción ya no estará dictada únicamente por economías de escala. En salud, por ejemplo, modelos más pequeños informados por física pueden simular la progresión de enfermedades o respuestas a tratamientos sin depender de sistemas generalizados vastos. Esto elimina riesgos de alucinaciones y aumenta la fiabilidad en flujos de trabajo críticos para la seguridad.
Además, la dinámica de los hyperscalers también está cambiando aquí. En lugar de ejecutar todo a través de modelos centralizados masivos, las empresas están distribuyendo la inteligencia combinando modelos fundamentales con modelos de lenguaje pequeños, reduciendo la dependencia de hyperscalers y optimizando el rendimiento para entornos específicos y locales.
El cambio no es solo técnico, sino también económico y operativo.
La clave del éxito: saber cuándo “dejar de pensar”
En entornos empresariales, “pensar” tiene un costo real. Más parámetros rara vez se traducen en mejores resultados para la mayoría de las cargas de trabajo. Para muchas aplicaciones, modelos de clase GPT-5 son excesivos, costosos y lentos, lo que lleva a despliegues detenidos y casos de uso limitados.
La base de la IA 2.0 es la inteligencia consciente de restricciones. Los modelos del mundo permiten que los sistemas construyan una representación específica de la tarea de la realidad, permitiendo razonar sobre lo que importa en lugar de recomputar la comprensión desde cero en cada paso. Una discusión similar surgió en Davos este año cuando el pionero de la IA Yann LeCun afirmó que “nunca alcanzaremos la inteligencia a nivel humano entrenando LLMs o solo con texto. Necesitamos el mundo real.” Su postura es que generar código es una cosa, pero alcanzar la complejidad cognitiva de, por ejemplo, autos autónomos de nivel cinco, está muy por encima de lo que los modelos grandes actuales pueden hacer.
Todo esto lleva a que los modelos de clase GPT-5 no se entrenen en escenarios del mundo real. Mientras que modelos más pequeños, especializados y afinados de manera eficiente pueden lograr una precisión suficiente más rápido, ofrecer una latencia mucho menor, funcionar a una fracción del costo y escalar de manera predecible con la demanda del mundo real. En la práctica, la IA no debe pensar sin fin y ciertamente no puede operar bajo un enfoque de “un modelo para gobernarlos a todos”. Debe operar dentro de un espacio de decisión definido. El patrón emergente incluye arquitecturas que dirigen tareas al modelo más simple y efectivo, solo escalan cuando es necesario y equilibran continuamente precisión, velocidad y costo.
En otras palabras, el tamaño del modelo es la métrica más peligrosa en el tablero de control. Es un vestigio de la era 1.0 que confunde capacidad con capacidad real. Lo que realmente importa es el costo por problema resuelto: qué tan eficientemente un sistema puede entregar un resultado preciso y confiable dentro de las limitaciones de las operaciones reales.
Las empresas no ganarán ejecutando los modelos más grandes; ganarán ejecutando los más económicos que resuelvan problemas a escala.
La arbitraje de talento en la IA 2.0
El talento es otra variable crítica de la IA 2.0 que cambiará drásticamente la dinámica de la industria, ya que el éxito requiere una fuerza laboral capaz de construir modelos para aplicaciones altamente variables. Hoy en día, solo un pequeño porcentaje del talento global puede desarrollar modelos fundamentales, y la mayoría de ese talento está concentrado en unos pocos centros tecnológicos mundiales.
Actualmente, los investigadores son las estrellas y se les compensa en consecuencia porque están en alta demanda. Pero la transición a la IA 2.0 exige pasar de magos a mecánicos: profesionales que puedan ajustar, mantener y optimizar modelos para resolver problemas específicos del mundo real. Esta transición de talento será una de las mayores oportunidades de arbitraje en esta próxima fase de la IA. Si la IA debe ser verdaderamente democratizada, las empresas necesitan talento en todas partes que entienda la física de los sectores — ya sea en medicina, manufactura, logística, etc. — y pueda traducir esa experiencia en sistemas de IA especializados y utilizables.
¿Cómo impacta esto en las hojas de ruta de IA para 2026? Significa que debemos trabajar de manera más inteligente, no más dura. Los presupuestos y estrategias deben cambiar hacia la eficiencia, pero también hacia la usabilidad, favoreciendo modelos más pequeños, optimizados, arquitecturas híbridas y multi-modelo, y sistemas diseñados para la durabilidad a escala. Los métricas de éxito evolucionarán del tamaño del modelo al costo por resultado, tiempo de decisión y impacto tangible en el mundo real.
La IA 2.0 no se trata de abandonar los modelos grandes. Se trata de usarlos de manera deliberada y económica. Las organizaciones que adopten estas prácticas avanzarán más rápido, gastarán menos y lograrán más que aquellas que todavía persiguen la escala a toda costa.
Las opiniones expresadas en los artículos de Fortune.com son únicamente las de sus autores y no reflejan necesariamente las opiniones y creencias de Fortune.
Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo Fortune del 19 al 20 de mayo de 2026 en Atlanta. La próxima era de innovación laboral ya está aquí, y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Soy el director de estrategia de Cloudera y aquí está la razón por la cual tu presupuesto de $1 mil millones para IA acaba de quedar obsoleto
La IA está entrando en una nueva fase: su era 2.0. La IA 1.0 se basaba en datos no estructurados que aplicaban aprendizaje automático general a problemas empresariales amplios. Marcó la transición de una IA experimental a sistemas operativos y agentes tempranos, fundamentados en la creencia de que modelos más grandes naturalmente producirían los resultados más poderosos. Este concepto se reforzó con las hyperscalers compitiendo por construir modelos frontera cada vez más grandes, creando una carrera armamentística que impulsó avances pero también demandas de computación insostenibles y costos crecientes de infraestructura.
Video recomendado
La IA 2.0 es diferente y desafía esa creencia, ya que los modelos más grandes demuestran ser mucho menos valiosos en la práctica. En lugar de modelar el lenguaje o probabilidades estadísticas, la IA 2.0 se centra en modelar las dinámicas del mundo real. Se apoya en el aprendizaje automático informado por la física – modelos rigurosos, impulsados por simulaciones, basados en ecuaciones diferenciales pero acelerados por IA. Estos modelos no hallucinan; calculan y predicen dentro de las limitaciones de las operaciones del mundo real, lo que los hace mucho más adecuados para entornos de producción. Este cambio también refuerza que las empresas ya no pueden depender únicamente de la economía de hyperscalers. Entrenar modelos a escala frontera requiere huellas de computación que solo unos pocos proveedores pueden soportar, lo que impulsa a las organizaciones a replantearse si “más grande” es siquiera accesible, y mucho menos óptimo, para sus casos de uso.
En última instancia, la característica definitoria de la IA 2.0 no es la escala, sino la moderación. Nos estamos moviendo hacia sistemas de IA que saben cuándo dejar de pensar. Estos son modelos diseñados para la precisión, la eficiencia en costos y el razonamiento sólido en lugar de una computación interminable.
La transición de IA 1.0 a IA 2.0
La IA 1.0 se construyó en gran medida sobre inferencias, dominada por experimentación y pruebas de concepto, donde las organizaciones optimizaban para demostraciones y puntos de referencia en lugar de resultados operativos. La pregunta principal no era si la IA podía escalar de manera económica o confiable; simplemente si podía funcionar en absoluto.
Dentro de esta fase, muchos líderes cayeron en lo que se conoció como la “trampa de la precisión”, donde optimizaban solo por exactitud, en lugar de por computación o conciencia contextual. Los modelos que parecían fuertes en entornos controlados finalmente fallaban en despliegues reales porque eran demasiado lentos para las demandas del mundo real o demasiado costosos para escalar con una economía de unidades saludable. La tendencia era comenzar con el modelo más grande posible, asumiendo que la adaptación naturalmente mejoraría el rendimiento.
La IA 2.0 replantea este pensamiento. Los líderes ahora son responsables del ROI medible, no de las demostraciones o puntuaciones en puntos de referencia. En 2.0, debemos dejar de entrenar modelos para que sepan todo y, en cambio, entrenar modelos de IA para simular lo que realmente importa. Es un paradigma más especializado, donde el objetivo es aprender y perfeccionar una o varias capacidades en lugar de buscar la generalización por sí misma.
En la IA 2.0, cada industria — desde la salud hasta la manufactura y los servicios financieros — tendrá la capacidad de construir modelos más pequeños y específicos de dominio que simulen sus físicas, restricciones y entornos únicos. Es análogo a pasar de la fabricación masiva de automóviles a ensamblajes personalizados: las personas podrán “construir sus propios autos” porque la producción ya no estará dictada únicamente por economías de escala. En salud, por ejemplo, modelos más pequeños informados por física pueden simular la progresión de enfermedades o respuestas a tratamientos sin depender de sistemas generalizados vastos. Esto elimina riesgos de alucinaciones y aumenta la fiabilidad en flujos de trabajo críticos para la seguridad.
Además, la dinámica de los hyperscalers también está cambiando aquí. En lugar de ejecutar todo a través de modelos centralizados masivos, las empresas están distribuyendo la inteligencia combinando modelos fundamentales con modelos de lenguaje pequeños, reduciendo la dependencia de hyperscalers y optimizando el rendimiento para entornos específicos y locales.
El cambio no es solo técnico, sino también económico y operativo.
La clave del éxito: saber cuándo “dejar de pensar”
En entornos empresariales, “pensar” tiene un costo real. Más parámetros rara vez se traducen en mejores resultados para la mayoría de las cargas de trabajo. Para muchas aplicaciones, modelos de clase GPT-5 son excesivos, costosos y lentos, lo que lleva a despliegues detenidos y casos de uso limitados.
La base de la IA 2.0 es la inteligencia consciente de restricciones. Los modelos del mundo permiten que los sistemas construyan una representación específica de la tarea de la realidad, permitiendo razonar sobre lo que importa en lugar de recomputar la comprensión desde cero en cada paso. Una discusión similar surgió en Davos este año cuando el pionero de la IA Yann LeCun afirmó que “nunca alcanzaremos la inteligencia a nivel humano entrenando LLMs o solo con texto. Necesitamos el mundo real.” Su postura es que generar código es una cosa, pero alcanzar la complejidad cognitiva de, por ejemplo, autos autónomos de nivel cinco, está muy por encima de lo que los modelos grandes actuales pueden hacer.
Todo esto lleva a que los modelos de clase GPT-5 no se entrenen en escenarios del mundo real. Mientras que modelos más pequeños, especializados y afinados de manera eficiente pueden lograr una precisión suficiente más rápido, ofrecer una latencia mucho menor, funcionar a una fracción del costo y escalar de manera predecible con la demanda del mundo real. En la práctica, la IA no debe pensar sin fin y ciertamente no puede operar bajo un enfoque de “un modelo para gobernarlos a todos”. Debe operar dentro de un espacio de decisión definido. El patrón emergente incluye arquitecturas que dirigen tareas al modelo más simple y efectivo, solo escalan cuando es necesario y equilibran continuamente precisión, velocidad y costo.
En otras palabras, el tamaño del modelo es la métrica más peligrosa en el tablero de control. Es un vestigio de la era 1.0 que confunde capacidad con capacidad real. Lo que realmente importa es el costo por problema resuelto: qué tan eficientemente un sistema puede entregar un resultado preciso y confiable dentro de las limitaciones de las operaciones reales.
Las empresas no ganarán ejecutando los modelos más grandes; ganarán ejecutando los más económicos que resuelvan problemas a escala.
La arbitraje de talento en la IA 2.0
El talento es otra variable crítica de la IA 2.0 que cambiará drásticamente la dinámica de la industria, ya que el éxito requiere una fuerza laboral capaz de construir modelos para aplicaciones altamente variables. Hoy en día, solo un pequeño porcentaje del talento global puede desarrollar modelos fundamentales, y la mayoría de ese talento está concentrado en unos pocos centros tecnológicos mundiales.
Actualmente, los investigadores son las estrellas y se les compensa en consecuencia porque están en alta demanda. Pero la transición a la IA 2.0 exige pasar de magos a mecánicos: profesionales que puedan ajustar, mantener y optimizar modelos para resolver problemas específicos del mundo real. Esta transición de talento será una de las mayores oportunidades de arbitraje en esta próxima fase de la IA. Si la IA debe ser verdaderamente democratizada, las empresas necesitan talento en todas partes que entienda la física de los sectores — ya sea en medicina, manufactura, logística, etc. — y pueda traducir esa experiencia en sistemas de IA especializados y utilizables.
¿Cómo impacta esto en las hojas de ruta de IA para 2026? Significa que debemos trabajar de manera más inteligente, no más dura. Los presupuestos y estrategias deben cambiar hacia la eficiencia, pero también hacia la usabilidad, favoreciendo modelos más pequeños, optimizados, arquitecturas híbridas y multi-modelo, y sistemas diseñados para la durabilidad a escala. Los métricas de éxito evolucionarán del tamaño del modelo al costo por resultado, tiempo de decisión y impacto tangible en el mundo real.
La IA 2.0 no se trata de abandonar los modelos grandes. Se trata de usarlos de manera deliberada y económica. Las organizaciones que adopten estas prácticas avanzarán más rápido, gastarán menos y lograrán más que aquellas que todavía persiguen la escala a toda costa.
Las opiniones expresadas en los artículos de Fortune.com son únicamente las de sus autores y no reflejan necesariamente las opiniones y creencias de Fortune.
Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo Fortune del 19 al 20 de mayo de 2026 en Atlanta. La próxima era de innovación laboral ya está aquí, y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.