A IA está a entrar numa nova fase: a sua era 2.0. A IA 1.0 foi construída com base em dados não estruturados que aplicavam aprendizagem automática geral a problemas empresariais amplos. Marcou a transição da IA experimental para sistemas operacionais e agentes iniciais, enraizados na crença de que modelos maiores naturalmente produziriam os resultados mais poderosos. Este conceito foi reforçado pelos hyperscalers, que competiam para construir modelos de fronteira cada vez maiores, criando uma corrida armamentista que impulsionou avanços, mas também exigências de computação insustentáveis e custos crescentes de infraestrutura.
Vídeo Recomendado
A IA 2.0 é diferente e desafia essa crença, pois modelos maiores têm mostrado ser muito menos valiosos na prática. Em vez de modelar linguagem ou probabilidades estatísticas, a IA 2.0 foca na modelação de dinâmicas do mundo real. Apoia-se em aprendizagem automática informada pela física – modelos rigorosos, baseados em simulações, fundamentados em equações diferenciais, mas acelerados por IA. Estes modelos não hallucinam; eles calculam e prevêem dentro das limitações das operações do mundo real, tornando-os muito mais adequados para ambientes de produção. Esta mudança também reforça que as empresas já não podem confiar apenas na economia dos hyperscalers. Treinar modelos de escala de fronteira requer recursos computacionais que apenas alguns fornecedores podem suportar, levando as organizações a repensar se “maior” é sequer acessível, quanto mais ótimo, para os seus casos de uso.
Em última análise, a característica definidora da IA 2.0 não é a escala, mas a moderação. Estamos a avançar para sistemas de IA que sabem quando parar de pensar. Estes são modelos projetados para precisão, eficiência de custos e raciocínio sólido, em vez de cálculo infinito.
A Transição de IA 1.0 para IA 2.0
A IA 1.0 foi amplamente construída com base em inferência, dominada por experimentação e provas de conceito, onde as organizações otimizavam para demonstrações e benchmarks, em vez de resultados operacionais. A questão principal não era se a IA podia escalar de forma económica ou fiável; era simplesmente se podia funcionar de todo.
Nesta fase, muitos líderes caíram naquilo que ficou conhecido como a “armadilha da precisão”, onde otimizavam apenas para precisão, em vez de para computação ou consciência contextual. Modelos que pareciam fortes em ambientes controlados acabaram por falhar na implementação real, porque eram demasiado lentos para as exigências do mundo real ou demasiado caros para escalar com uma economia de unidades saudável. O instinto era começar com o maior modelo possível, assumindo que a adaptação naturalmente melhoraria o desempenho.
A IA 2.0 reformula este pensamento. Os líderes agora são responsáveis por um ROI mensurável, não por demonstrações ou pontuações de benchmarks. Na 2.0, precisamos de parar de treinar modelos para saber tudo e, em vez disso, treinar modelos de IA para simular o que realmente importa. É um paradigma mais especializado, onde o objetivo é aprender e aperfeiçoar uma ou várias capacidades, em vez de perseguir a generalização pelo próprio valor.
Na IA 2.0, cada setor – desde a saúde até à manufatura e serviços financeiros – terá a capacidade de construir modelos menores, específicos de domínio, que simulem as suas físicas, restrições e ambientes únicos. É análogo a passar da produção automóvel em massa para a montagem personalizada: as pessoas poderão “construir os seus próprios carros” porque a produção já não será ditada apenas por economias de escala. Na saúde, por exemplo, modelos menores informados pela física podem simular a progressão de doenças ou respostas a tratamentos sem depender de sistemas generalizados vastos. Isto elimina riscos de alucinação e aumenta a fiabilidade em fluxos de trabalho críticos de segurança.
Além disso, a dinâmica dos hyperscalers também está a mudar aqui. Em vez de executar tudo através de modelos centralizados massivos, as empresas estão a distribuir a inteligência, combinando modelos fundamentais com pequenos modelos de linguagem, reduzindo a dependência de hyperscalers e otimizando o desempenho para ambientes específicos e locais.
A mudança não é apenas técnica, é também económica e operacional.
A Chave para o Sucesso: Saber Quando “Parar de Pensar”
Nos ambientes empresariais, “pensar” tem um custo real. Mais parâmetros raramente se traduzem em melhores resultados para a maioria das cargas de trabalho. Para muitas aplicações, modelos do tipo GPT-5 são excessivamente potentes, caros e lentos, levando a implementações paradas e casos de uso limitados.
A base da IA 2.0 é a inteligência consciente de restrições. Modelos do mundo permitem que os sistemas construam uma representação específica de uma tarefa da realidade, permitindo que os sistemas raciocinem sobre o que realmente importa, em vez de recalcular a compreensão do zero a cada passo. Uma discussão semelhante surgiu este ano em Davos, quando o pioneiro da IA Yann LeCun afirmou que “nunca atingiremos a inteligência ao nível humano treinando LLMs ou treinando apenas com texto. Precisamos do mundo real.” A sua posição é que gerar código é uma coisa, mas alcançar a complexidade cognitiva de, por exemplo, carros autónomos de nível cinco, está muito além do que os grandes modelos atuais podem fazer.
Tudo isto leva a que modelos do tipo GPT-5 não sejam treinados com cenários do mundo real. Enquanto modelos menores, especializados e ajustados de forma eficiente podem alcançar precisão suficiente mais rapidamente, oferecer latência drasticamente menor, operar a uma fração do custo e escalar de forma previsível com a procura do mundo real. Na prática, a IA não deve pensar infinitamente e, certamente, não pode operar sob uma arquitetura de “um modelo para governar todos”. Deve operar dentro de um espaço de decisão definido. O padrão emergente inclui arquiteturas que encaminham tarefas para o modelo mais simples e eficaz, escalando apenas quando necessário, e equilibrando continuamente precisão, velocidade e custo.
Em outras palavras, o tamanho do modelo é a métrica mais perigosa no painel de controlo. É um resquício da era 1.0 que confunde capacidade com potencial. O que realmente importa é o custo por problema resolvido: quão eficientemente um sistema consegue entregar um resultado preciso e fiável dentro das limitações das operações reais.
As empresas não vencerão ao executar os maiores modelos; vencerão ao executar os mais económicos que resolvem problemas em escala.
A Arbitragem de Talento na IA 2.0
O talento é outra variável crítica da IA 2.0 que vai alterar drasticamente a dinâmica da indústria de IA, pois o sucesso exige uma força de trabalho capaz de construir modelos para aplicações altamente variáveis. Hoje, apenas uma pequena percentagem do talento global consegue desenvolver modelos fundamentais, e a maior parte desse talento está concentrada em alguns centros tecnológicos globais.
Neste momento, os investigadores são as estrelas e são compensados de acordo, porque estão em alta demanda. Mas a transição para a IA 2.0 exige uma mudança de magos para mecânicos: profissionais que possam ajustar, manter e otimizar modelos para resolver problemas específicos do mundo real. Esta transição de talento será uma das maiores oportunidades de arbitragem nesta próxima fase da IA. Se a IA deve ser verdadeiramente democratizada, as empresas precisam de talento em todo o lado, que compreenda a física dos setores – seja na medicina, manufatura, logística, etc. – e que possa traduzir essa expertise em sistemas de IA especializados e utilizáveis.
Como é que isto impacta os roteiros de IA para 2026? Significa que precisamos de trabalhar de forma mais inteligente, não mais difícil. Os orçamentos e estratégias devem mudar para a eficiência, mas também para a usabilidade, favorecendo modelos menores, otimizados, arquiteturas híbridas e multi-modelo, e sistemas projetados para durabilidade em escala. As métricas de sucesso evoluirão do tamanho do modelo para o custo por resultado, tempo de decisão e impacto tangível no mundo real.
A IA 2.0 não se trata de abandonar modelos grandes. Trata-se de usá-los de forma deliberada e económica. As organizações que adotarem estas práticas avançarão mais rápido, gastarão menos e alcançarão mais do que aquelas que ainda perseguem a escala bruta.
As opiniões expressas nos artigos de opinião da Fortune.com são exclusivamente dos seus autores e não refletem necessariamente as opiniões e crenças da Fortune.
Junte-se a nós na Fortune Workplace Innovation Summit de 19 a 20 de maio de 2026, em Atlanta. A próxima era da inovação no local de trabalho já chegou — e o antigo manual está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Sou o diretor de estratégia da Cloudera e aqui está o motivo pelo qual o seu orçamento de $1 bilhões para IA ficou obsoleto
A IA está a entrar numa nova fase: a sua era 2.0. A IA 1.0 foi construída com base em dados não estruturados que aplicavam aprendizagem automática geral a problemas empresariais amplos. Marcou a transição da IA experimental para sistemas operacionais e agentes iniciais, enraizados na crença de que modelos maiores naturalmente produziriam os resultados mais poderosos. Este conceito foi reforçado pelos hyperscalers, que competiam para construir modelos de fronteira cada vez maiores, criando uma corrida armamentista que impulsionou avanços, mas também exigências de computação insustentáveis e custos crescentes de infraestrutura.
Vídeo Recomendado
A IA 2.0 é diferente e desafia essa crença, pois modelos maiores têm mostrado ser muito menos valiosos na prática. Em vez de modelar linguagem ou probabilidades estatísticas, a IA 2.0 foca na modelação de dinâmicas do mundo real. Apoia-se em aprendizagem automática informada pela física – modelos rigorosos, baseados em simulações, fundamentados em equações diferenciais, mas acelerados por IA. Estes modelos não hallucinam; eles calculam e prevêem dentro das limitações das operações do mundo real, tornando-os muito mais adequados para ambientes de produção. Esta mudança também reforça que as empresas já não podem confiar apenas na economia dos hyperscalers. Treinar modelos de escala de fronteira requer recursos computacionais que apenas alguns fornecedores podem suportar, levando as organizações a repensar se “maior” é sequer acessível, quanto mais ótimo, para os seus casos de uso.
Em última análise, a característica definidora da IA 2.0 não é a escala, mas a moderação. Estamos a avançar para sistemas de IA que sabem quando parar de pensar. Estes são modelos projetados para precisão, eficiência de custos e raciocínio sólido, em vez de cálculo infinito.
A Transição de IA 1.0 para IA 2.0
A IA 1.0 foi amplamente construída com base em inferência, dominada por experimentação e provas de conceito, onde as organizações otimizavam para demonstrações e benchmarks, em vez de resultados operacionais. A questão principal não era se a IA podia escalar de forma económica ou fiável; era simplesmente se podia funcionar de todo.
Nesta fase, muitos líderes caíram naquilo que ficou conhecido como a “armadilha da precisão”, onde otimizavam apenas para precisão, em vez de para computação ou consciência contextual. Modelos que pareciam fortes em ambientes controlados acabaram por falhar na implementação real, porque eram demasiado lentos para as exigências do mundo real ou demasiado caros para escalar com uma economia de unidades saudável. O instinto era começar com o maior modelo possível, assumindo que a adaptação naturalmente melhoraria o desempenho.
A IA 2.0 reformula este pensamento. Os líderes agora são responsáveis por um ROI mensurável, não por demonstrações ou pontuações de benchmarks. Na 2.0, precisamos de parar de treinar modelos para saber tudo e, em vez disso, treinar modelos de IA para simular o que realmente importa. É um paradigma mais especializado, onde o objetivo é aprender e aperfeiçoar uma ou várias capacidades, em vez de perseguir a generalização pelo próprio valor.
Na IA 2.0, cada setor – desde a saúde até à manufatura e serviços financeiros – terá a capacidade de construir modelos menores, específicos de domínio, que simulem as suas físicas, restrições e ambientes únicos. É análogo a passar da produção automóvel em massa para a montagem personalizada: as pessoas poderão “construir os seus próprios carros” porque a produção já não será ditada apenas por economias de escala. Na saúde, por exemplo, modelos menores informados pela física podem simular a progressão de doenças ou respostas a tratamentos sem depender de sistemas generalizados vastos. Isto elimina riscos de alucinação e aumenta a fiabilidade em fluxos de trabalho críticos de segurança.
Além disso, a dinâmica dos hyperscalers também está a mudar aqui. Em vez de executar tudo através de modelos centralizados massivos, as empresas estão a distribuir a inteligência, combinando modelos fundamentais com pequenos modelos de linguagem, reduzindo a dependência de hyperscalers e otimizando o desempenho para ambientes específicos e locais.
A mudança não é apenas técnica, é também económica e operacional.
A Chave para o Sucesso: Saber Quando “Parar de Pensar”
Nos ambientes empresariais, “pensar” tem um custo real. Mais parâmetros raramente se traduzem em melhores resultados para a maioria das cargas de trabalho. Para muitas aplicações, modelos do tipo GPT-5 são excessivamente potentes, caros e lentos, levando a implementações paradas e casos de uso limitados.
A base da IA 2.0 é a inteligência consciente de restrições. Modelos do mundo permitem que os sistemas construam uma representação específica de uma tarefa da realidade, permitindo que os sistemas raciocinem sobre o que realmente importa, em vez de recalcular a compreensão do zero a cada passo. Uma discussão semelhante surgiu este ano em Davos, quando o pioneiro da IA Yann LeCun afirmou que “nunca atingiremos a inteligência ao nível humano treinando LLMs ou treinando apenas com texto. Precisamos do mundo real.” A sua posição é que gerar código é uma coisa, mas alcançar a complexidade cognitiva de, por exemplo, carros autónomos de nível cinco, está muito além do que os grandes modelos atuais podem fazer.
Tudo isto leva a que modelos do tipo GPT-5 não sejam treinados com cenários do mundo real. Enquanto modelos menores, especializados e ajustados de forma eficiente podem alcançar precisão suficiente mais rapidamente, oferecer latência drasticamente menor, operar a uma fração do custo e escalar de forma previsível com a procura do mundo real. Na prática, a IA não deve pensar infinitamente e, certamente, não pode operar sob uma arquitetura de “um modelo para governar todos”. Deve operar dentro de um espaço de decisão definido. O padrão emergente inclui arquiteturas que encaminham tarefas para o modelo mais simples e eficaz, escalando apenas quando necessário, e equilibrando continuamente precisão, velocidade e custo.
Em outras palavras, o tamanho do modelo é a métrica mais perigosa no painel de controlo. É um resquício da era 1.0 que confunde capacidade com potencial. O que realmente importa é o custo por problema resolvido: quão eficientemente um sistema consegue entregar um resultado preciso e fiável dentro das limitações das operações reais.
As empresas não vencerão ao executar os maiores modelos; vencerão ao executar os mais económicos que resolvem problemas em escala.
A Arbitragem de Talento na IA 2.0
O talento é outra variável crítica da IA 2.0 que vai alterar drasticamente a dinâmica da indústria de IA, pois o sucesso exige uma força de trabalho capaz de construir modelos para aplicações altamente variáveis. Hoje, apenas uma pequena percentagem do talento global consegue desenvolver modelos fundamentais, e a maior parte desse talento está concentrada em alguns centros tecnológicos globais.
Neste momento, os investigadores são as estrelas e são compensados de acordo, porque estão em alta demanda. Mas a transição para a IA 2.0 exige uma mudança de magos para mecânicos: profissionais que possam ajustar, manter e otimizar modelos para resolver problemas específicos do mundo real. Esta transição de talento será uma das maiores oportunidades de arbitragem nesta próxima fase da IA. Se a IA deve ser verdadeiramente democratizada, as empresas precisam de talento em todo o lado, que compreenda a física dos setores – seja na medicina, manufatura, logística, etc. – e que possa traduzir essa expertise em sistemas de IA especializados e utilizáveis.
Como é que isto impacta os roteiros de IA para 2026? Significa que precisamos de trabalhar de forma mais inteligente, não mais difícil. Os orçamentos e estratégias devem mudar para a eficiência, mas também para a usabilidade, favorecendo modelos menores, otimizados, arquiteturas híbridas e multi-modelo, e sistemas projetados para durabilidade em escala. As métricas de sucesso evoluirão do tamanho do modelo para o custo por resultado, tempo de decisão e impacto tangível no mundo real.
A IA 2.0 não se trata de abandonar modelos grandes. Trata-se de usá-los de forma deliberada e económica. As organizações que adotarem estas práticas avançarão mais rápido, gastarão menos e alcançarão mais do que aquelas que ainda perseguem a escala bruta.
As opiniões expressas nos artigos de opinião da Fortune.com são exclusivamente dos seus autores e não refletem necessariamente as opiniões e crenças da Fortune.
Junte-se a nós na Fortune Workplace Innovation Summit de 19 a 20 de maio de 2026, em Atlanta. A próxima era da inovação no local de trabalho já chegou — e o antigo manual está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.