
Os agentes autônomos, a chamada próxima onda da IA generativa, não impressionam a CEO da Signal, Meredith Whittaker. Na verdade, para a executiva, eles representam um grande perigo para a segurança e privacidade dos usuários.
Enquanto empresas como Oracle, Salesforce e outras grandes do mercado estão vendendo os benefícios do uso de agentes que são capazes de não apenas processar dados a partir de simples comandos, mas o de executar cadeias de tarefas, Meredith aproveitou o palco do South By Southwest para expor suas preocupações com toda essa “praticidade”
“Há um problema sério de privacidade e segurança que assombra esse hype dos agentes de IA. Estamos dando controle demais para estes sistemas, e eles precisarão de acesso a mais dados”, explica a CEO do app de mensagens. “A vantagem parece ótima, de um sistema que pode buscar o melhor preço de um ingresso de show, fazer a compra, colocar na sua agenda e enviar uma mensagem para seus amigos. Você pode colocar o seu cérebro em um pote e não fazer nada”, brincou.
Entretanto, segundo explica Meredith, para fazer tudo isso, um agente precisa ter acesso a contas de email, número de cartão de crédito, calendário e agenda de contatos, e assumir o comando disso de forma autônoma. “E tudo isso, para funcionar, precisa ser feito de forma aberto. Não tem como fazer isso com criptografia, nem dentro de um dispositivo. Isso teria que ser processado na nuvem”. Isso , disparou a CEO.
Para Meredith, esse é apenas o capítulo mais recente de como a adoção da inteligência artificial pode trazer riscos à privacidade dos usuários. “A história da IA generativa é baseada no modelo de vigilância dos dados usado pelas big techs. Há um problema real sobre o uso da IA e suas premissas de segurança e privacidade, tudo isso em nome de um bot mágico que vai se responsabilizar pelas suas tarefas do dia a dia”, disse Meredith, antes de uma salva de aplausos em um Ballroom D lotado.
Hora de repensar a IA
Durante o seu keynote no SXSW, Meredith reforçou seu posicionamento contra o atual modelo das empresas de IA. Segundo ela, ele é totalmente baseado em princípios que vão contra a privacidade dos dados de seus usuários.
“É um modelo que vive da coleta massiva de dados. Quanto mais, melhor. E isso está concentrado nas mãos de poucas companhias. Há um problema de vigilância e poder concentrado no coração do atual paradigma de ‘maior e melhor’ da IA, e eu não acho isso nada bom. Temos que repensar a IA”, afirmou a CEO.
Por falar em grandes companhias, a executiva chegou a dar sua opinião sobre a OpenAI, e sobre como ela está mudando de uma organização sem fins lucrativos para uma operação 100% comecial. Segundo Meredith, a OpenAI “se perdeu” em sua missão, não compreendendo as políticas de poder no mercado no qual opera.
“A OpenAI teve que escolher entre pagar o preço de mercado pelo poder computacional que necessita ou ser sugada para a órbita de um dos hiperescaladores”, disse Meredith, fazendo referência à aproximação que a empresa de Sam Altman fez com a Microsoft, sua principal patrocinadora. “Temos a Mistral na França, outra IA de código aberto a fazer coisas muito, muito legais em IA. Mas o seu caminho para o mercado ainda é através dos hypserscalers, porque é aí que está a concentração de poder, é aí que estão os recursos”.
Ainda no tema das big techs, Meredith foi perguntada sobre a possibilidade de sua empresa ser adquirida por “algum tech bro com US$ 500 bilhões na conta” (você deve imaginar quem), Meredith foi categórica. “O Signal não está à venda”, disparou, explicando que sua empresa sobrevive à base de doadores identificados com a missão do app de mensagens, que é a de proteger os dados acima de qualquer coisa.
Segundo a CEO, atualmente a plataforma, que possui cerca de 40 milhões de usuários, tem um custo anual de US$ 50 milhões para ser mantido, um valor baixo em comparação com outras plataformas. Segundo ela, é assim que a companhia sobrevive para seguir em sua missão de proteger os dados dos clientes.
E não, Meredith não tem nenhum plano de colocar IA no Signal, diferente do que a Meta fez ao incluir IA no WhatsApp. Segundo a CEO, o app só implementará funcionalidades que os usuários realmente queiram e que sirvam às suas necessidades, e não irão recolher dados nem sujeitar os dados dos utilizadores ao treino de modelos de IA.
“A única forma para proteger os dados é não os coletando”, disparou.
A cobertura do SXSW 2025, diretamente de Austin, é um oferecimento da Nomad.