A recente mudança de posicionamento da OpenAI sobre a regulação da inteligência artificial, um reflexo especialmente em resposta à nova lei SB 1047 em votação na Califórnia, fez dois ex-pesquisadores da companhia voltar a criticar a organização.
Segundo reportou o site norte-americano Politico, Daniel Kokotajlo e William Saunders divulgaram uma carta aberta com ressalvas ao recente posicionamento do CEO Sam Altman. “Sam Altman, nosso antigo chefe, repetidamente pediu por regulamentação de IA. Agora, quando a regulamentação real está na mesa, ele se opõe a ela”, declararam, em comunicado.
A carta é uma resposta ao comunicado divulgado pela OpenAI no começo da semana, em que o CSO da companhia, Jason Kwon, afirmou que seria um atraso para o estado. “O SB 1047 ameaçaria esse crescimento (da IA), desaceleraria o ritmo da inovação e levaria os engenheiros e empreendedores de classe mundial da Califórnia a deixar o estado em busca de maiores oportunidades em outro lugar”, disse o CSO.
De acordo com os dois ex-funcionários, a decisão da OpenAI em fazer lobby contra a SB 1047 os deixou “desapontados, porém não surpresos”. “Nós deixamos a OpenAI porque perdemos a confiança de que ela desenvolveria seus sistemas de IA de forma segura, honesta e responsável”, afirmaram.
Daniel e William já tinham ganhado destaque em junho, quando abriram o jogo para o New York Times, entrando em detalhes sobre o quanto a OpenAI tinha desviado de seu foco inicial sem fins lucrativos, e estava abandonando alguns preceitos éticos de sua missão inicial, a fim de se alinhar com os interesses dos investidores que injetaram dezenas de bilhões na companhia nos últimos anos.
““A OpenAI está realmente animada com a construção da AGI e eles estão correndo imprudentemente para ser os primeiros lá”, disse Daniel, ex-pesquisador da divisão de governança da OpenAI, ao jornal norte-americano, em junho.
Voltando à carta aberta publicada esta semana, eles destacaram as diferenças em posicionamento entre a OpenAI e a Anthropic. Segundo eles, enquanto a OpenAI se posicionou frontalmente contra a lei, a Anthropic pediu alterações no projeto, mas sem negar a importância da regulação.
“A Anthropic expressou preocupações específicas, pediu mudanças e depois concluiu que o projeto de lei provavelmente era benéfico na rede e que ‘apresenta um ônus de conformidade viável’. A OpenAI em vez disso, escolheu espalhar o medo e oferecer desculpas”, afirmaram no comunicado.
Os dois acrescentam que, “Com regulamentação apropriada, esperamos que a OpenAI ainda possa cumprir sua declaração de missão de construir AGI com segurança.”