*De Santa Clara, Califórnia
Parar as pesquisas sobre inteligência artificial como pedem nomes como Elon Musk e Yuval Harari, não é o melhor caminho para avançar o desenvolvimento dessas tecnologias e reduzir potenciais efeitos negativos para a sociedade. “Acelerar a pesquisa e a segurança é uma melhor forma de fazer isso”, disse Peter Norvig, pesquisador do Google e da universidade de Stanford durante painel na Brazil at Silicon Valley (BSV).
Peter dividiu o palco com Alexandr Wang, CEO e fundador da Scale AI, unicórnio que opera como uma plataforma de dados para treinamento de modelos de inteligência artificial. O fundador, que disse concordar com a ideia de que não dá para parar o desenvolvimento, dividiu a preocupação em duas: a proteção dos consumidores e da privacidade, levando em consideração o impacto negativo que a explosão das redes sociais teve na sociedade; e o risco geopolítico.
“Há uma grande questão sobre o quanto a China está desenvolvendo, ou quanto a Rússia está desenvolvendo. E está muito claro que a tecnologia de inteligência artificial pode ser usada para moldar a geopolítica e que será uma das tecnologias que vai influenciar as relações diplomáticas nos próximos 10 anos”, disse. Para ele, por isso mesmo é preciso que os EUA continuem a desenvolver a tecnologia.
Alexandr destacou ainda um outro risco que tem se tentado combater: o desenvolvimento de uma inteligência de propósito geral, ou AGI, na sigla em inglês, que seria capaz de aprender e executar qualquer tarefa, e, eventualmente, subjugar a humanidade. Este, no entanto, ele disse acreditar que está bem longe de existir. “Normalmente eu coloco esse como um risco distante. Temos riscos muito mais importantes com os quais temos que lidar no curto prazo”, completou.
Para Alexndr, é possível adotar um ritmo mais lento de liberação da inteligência artificial para o público em geral, mas é preciso manter o ritmo de desenvolvimento por conta de seus casos de uso em termos de desenvolvimento econômico e também no uso militar.
De acordo com Peter, já há um bom trabalho sendo feito em termos de dar mais segurança no uso de modelos de inteligência artificial. “Falei com uns amigos na Microsoft e em outros lugares que estão desenvolvendo esses modelos e eles me disseram que essa é uma das questões mais importantes. Então eu acredito que já estamos caminhando nesse sentido”, disse. De acordo com ele, alguns organismos internacionais como IEEE já desenvolveram códigos de conduta, mas é preciso aprimorar e dar mais clareza sobre o que é permitido ou não fazer.
Alexandr citou como exemplo da falta de regulação e regras claras o caso de empresas do mercado de cripto, como a FTX, que acabaram se envolvendo em escândalos e fraudes. “Eu conclamo as pessoas e gasto bastante tempo pessoal falando disso. Como você chega a linhas básicas de regulação que previnam e existência de pessoas mal-intencionadas?”, completou.