
A guerra dos browsers voltou ao noticiário em 2025 com o lançamento do Comet, da Perplexity e do Atlas, da OpenAI. Como chamariz para atrair usuários, os navegadores trouxeram como diferencial a integração com as ferramentas de IA generativa das duas companhias. Enquanto o mundo ainda tenta entender para que esses programas realmente funcionam, uma análise divulgada pela OpenAI coloca ainda mais um elemento de dúvida na mistura.
Nesta segunda-feira (22), a companhia admitiu em um post em seu blog oficial que navegadores com IA podem estar vulneráveis a ataques de injeção de prompts (prompt injection, no termo em inglês). E não só momentaneamente por um bug. Mas para sempre, pela forma como a IA generativa funciona.
Para entender melhor, os ataques de injeção de prompt estão entre as principais ameaças de segurança para IAs generativas (LLMs) e acontecem quando instruções maliciosas são incorporadas ao contexto de entrada — como textos, documentos ou páginas web — explorando a propensão do modelo a interpretar e executar comandos contextuais, mesmo quando entram em conflito com suas diretrizes originais.
Na prática, isso pode levar o sistema a alterar seu comportamento, ignorar regras de segurança ou executar ações não previstas pelo usuário, como vazar dados confidenciais, por exemplo.
Diante da natureza desses ataques, a OpenAI reconheceu publicamente que não existe uma solução definitiva para o problema. Em seu pronunciamento, a empresa afirmou que “a injeção imediata de vulnerabilidades, assim como golpes e engenharia social na web, provavelmente nunca será totalmente ‘resolvida’. Mas estamos otimistas de que um ciclo de resposta rápida, proativo e altamente responsivo possa continuar reduzindo significativamente o risco no mundo real ao longo do tempo”.
A empresa também mencionou que modo agente no ChatGPT Atlas (um recurso que permite à IA agir de forma autônoma, interpretando conteúdos externos e executando tarefas em nome do usuário, como navegar por sites, ler e-mails e acionar ações) é poderoso, mas “também amplia a superfície de vulnerabilidade a ameaças de segurança”.
Como resposta, a empresa afirma estar apostando em um modelo de defesa contínua, baseado em testes de intrusão mais eficazes e implementação de medidas de mitigação em camadas. “Também compartilharemos o que pudermos com a comunidade em geral”, disse a OpenAI.