
*Por William Colen, diretor de Inteligência Artificial da Blip
Meu filho nasceu no final de 2022, exatamente na época em que o ChatGPT se popularizou. Desde então, costumo brincar que estou acompanhando dois aprendizados em paralelo: o de uma criança e o de uma inteligência artificial. São duas naturezas distintas: uma natural, outra sintética. E apesar de não saber falar centenas de idiomas como uma IA, ainda acho que meu filho ganha.
Essa comparação doméstica me fez pensar bastante ao longo de 2025, uma temporada em que o mundo intensificou sua relação com a inteligência artificial. As expectativas são altíssimas, mas muitos projetos fracassaram. Para ser mais exato, 95% das iniciativas não trouxeram ganhos para as organizações, conforme destacou o relatório “The GenAI Divide: State of AI in Business 2025”, publicado pelo MIT Nanda, em julho deste ano.
Mas, assim como meu filho, que tropeçou muitas vezes antes de aprender a andar, acredito que a IA está ganhando maturidade. E, ao pensar em 2026, não vejo um novo hype, mas sim novos aprendizados e muita prática.
Do aprendizado à realidade
Trabalho com IA desde 2004 e aprendi, desde cedo, que lidar com sistemas não determinísticos exige um processo cíclico: desenvolver, avaliar e ajustar. Durante muito tempo, esse era um aprendizado restrito a poucos laboratórios e empresas especializadas. Hoje, porém, o mundo inteiro está vivendo essa experiência ao mesmo tempo.
O que aconteceu em 2025, foi que muitos tentaram usar IA sem saber direito como ela funciona, esperando que ao escrever um prompt resolveria qualquer problema. Para consumidores finais, isso até pode bastar, mas para as organizações, a inteligência artificial não é feitiçaria que se ativa com o estalar dos dedos. Ela precisa de um desenvolvimento baseado em ciclos, com feedbacks, iterações e muita, muita paciência.
Longe de ser pessimista, vejo um caminho promissor para 2026. No ano que vem, veremos menos ingenuidade e mais método. Quem sobreviveu à primeira onda de tentativas frustradas e insistiu no aprendizado poderá começar a colher resultados reais, indo além da mera curiosidade.
Estamos não só descobrindo como crescer, mas também como corrigir os problemas da IA. Até pouco tempo, o desenvolvimento dela era matemático: bastava colocar mais dados e treinar as máquinas, gastando uma quantidade absurda de recursos, para que os sistemas computacionais se tornassem mais potentes.
Agora, a conversa mudou: em todo o planeta, há pesquisadores estudando os problemas fundamentais das LLMs, especialmente as alucinações. É algo que faz parte do processo: desenvolvidas para tentar acertar sempre, as IAs preferem chutar do que dizer que não sabem – uma vez que a probabilidade de erro é maior ao dizer “não sei”, como explica a OpenAI.
Mais do que apenas aumentar a quantidade de dados disponíveis para treinar os modelos, buscando reduzir a ignorância dos LLMs, empresas e especialistas estão buscando novos caminhos. Google e Anthropic, por exemplo, começaram a desenvolver caminhos para reduzir a quantidade de erros, seja apostando na otimização de “pequenos problemas”, seja desenvolvendo a capacidade de introspecção dos sistemas. É algo ainda inicial, mas, pela primeira vez, vejo um horizonte em que a IA erra menos – e entende melhor o que está fazendo.
A virada dos agentes inteligentes
Outro tema que deve dominar a pauta em 2026 são os agentes de IA. Não que eles não tenham sido presentes neste ano. A novidade é que, no ano que vem, veremos esse conceito funcionando de verdade. Em 2025, muitas empresas criaram fluxos de automação com agentes. Ainda havia muito erro, muita instabilidade, porque cada ação tinha uma chance considerável de falhar.
Agora, porém, os modelos de linguagem estão sendo treinados para operar com agentes. Há pouco tempo, um estudo de Stanford mostrou que revisar o raciocínio e os prompts de um agente pode ser mais eficaz do que retreinar o modelo inteiro. É um avanço que abre espaço para algo que, até pouco tempo atrás, parecia ficção científica: sistemas com aprendizado nativo efetivo, capazes de melhorar com base no próprio histórico de decisões.
O impacto será enorme. Significa que a inteligência artificial vai deixar de ser uma ferramenta de produtividade para se tornar uma plataforma de aprendizado organizacional para qualquer área – do marketing ao atendimento.
A inteligência que vem do humano
Como em todo artigo sobre previsões para a inteligência artificial, é difícil não discutir a “superinteligência” – isto é, o paradigma que prevê que um dia as máquinas serão capazes de pensar sozinhas.
Sinceramente? Acredito que é preciso debater exatamente o que esse termo significa. De maneira ampla, ainda estamos longe da inteligência geral, porque há lacunas enormes na forma como os LLMs aprendem. Eles são capazes de reconhecer padrões extremamente complexos, mas não de abstrair informações como o aprendizado humano. Para a inteligência artificial, um raciocínio é um jogo de repetição e não de sinapse. O que não quer dizer que ela não tenha seu valor: um sistema capaz de traduzir centenas de idiomas ou gerar avanços na busca da cura do câncer é, de fato, superinteligente. Só não é universal. Algo muito bem pontuado nesse artigo.
O que falta às máquinas é justamente o que sobra no meu filho: a capacidade de aprender com poucos exemplos, fazendo ligações aparentemente improváveis sobre coisas diferentes. Infelizmente, a neurologia ainda não aprendeu qual é o mecanismo fundamental que permite esse tipo de evolução. Enquanto isso, o que podemos fazer é seguir o caminho inverso: usar a tecnologia para ampliar o potencial humano. Muito antes da superinteligência, em 2026 teremos uma era de superprodutividade.
Quanto ao meu filho, é difícil fazer previsões. Não quero criar pressão nele. Talvez, no final de 2026, ele ainda não seja capaz de ler. Mas, a cada dia que passa, suas histórias vão ficar mais divertidas, consistentes e criativas. Elas também vão me fazer sorrir cada vez mais – de um jeito que IA nenhuma será capaz de fazer.