Em meio aos avanços nas regulamentações sobre o uso de inteligência artificial ao redor do mundo, o cuidado com segurança tem colocado um freio no lançamento de produtos que fazem uso da tecnologia. Nesta quinta-feira (13), a Microsoft anunciou que vai adiar o lançamento do Recall, um recurso para o Windows 11 que utiliza inteligência artificial, após preocupações com possíveis riscos à privacidade do usuário.
O Recall usa o Windows Copilot Runtime para ajudar o usuário a encontrar tudo o que foi visualizado em seu computador. Para isso, ele rastreia desde navegação na web até conversas por voz, criando um histórico armazenado no computador que o usuário pode pesquisar quando quiser lembrar de algo que fez, mesmo meses depois.
Em comunicado publicado no blog da empresa, a Microsoft anunciou que o lançamento do Recall para PCs Copilot+, previsto para o dia 18 de junho, foi cancelado, e que a ferramenta será disponibilizada neste primeiro momento apenas para um grupo menor, do Programa Windows Insider (WIP). Os PCs Copilot+ são uma categoria de computadores com recursos de inteligência artificial (IA) que foram lançados em maio pela empresa.
“Após receber feedback sobre o Recall de nossa comunidade Windows Insider, como normalmente fazemos, planejamos disponibilizar o Recall (pré-visualização) para todos os PCs Copilot+ em breve. Estamos ajustando o modelo de lançamento do Recall para aproveitar a experiência da comunidade Windows Insider e garantir que a experiência atenda aos nossos altos padrões de qualidade e segurança. Esta decisão está enraizada em nosso compromisso de fornecer uma experiência confiável, segura e robusta para todos os clientes e de buscar feedback adicional antes de disponibilizar o recurso para todos os usuários de PC Copilot+”, informa a companhia.
A Reuters destacou que preocupações com privacidade foram levantadas logo após o anúncio do Recall, com usuários das redes sociais expressando receios de que isso pudesse permitir espionagem. Elon Musk, por sua vez, chamou o recurso de “um episódio de Black Mirror”, fazendo comparações com a série da Netflix que explora os efeitos prejudiciais da tecnologia.
A Microsoft está investindo pesado na inteligência artificial. No entanto, tem um histórico de problemas relacionados à privacidade dos usuários. No ano passado, um funcionário da companhia deixou vazar 38 terabytes de dados sensíveis na GitHub, plataforma de hospedagem de código-fonte adquirida pela Microsoft em 2018. Entre as informações estavam senhas de clientes, mensagens internas do Teams e dados confidenciais de empresas, por exemplo.
Os dados são parte fundamental para o funcionamento da inteligência artificial, já que alimentam e treinam essas tecnologias para oferecerem respostas adequadas aos usuários. No entanto, a forma de utilização desses dados pelas companhias, além dos riscos de vazamentos acidentais, têm sido alvo de discussão.
A União Europeia aprovou em maio deste ano uma legislação para regulamentar o uso de IA na região que cria categorias de risco para a aplicação da tecnologia e busca garantir que os sistemas de IA sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Além disso, estabelece que esses sistemas devem ser supervisionados por pessoas.
No Brasil, tramita no Senado um projeto de lei que cria uma regulamentação nos mesmos moldes para a inteligência artificial, que deve ser votado no próximo dia 18 de junho.