Não precisamos criar uma inteligência artificial geral

Correr para criar a inteligência artificial geral antes de definir como controlá-la é uma má ideia, alerta Max Tegmark, professor do MIT

Max Tegmark, professor do MIT e presidente do Future of Life Institute (à esq.); Thomas Wolf, cofundador e líder científico da Hugging Face (ao centro); e Nicholas Thompson, CEO da The Atlantic
Max Tegmark, professor do MIT e presidente do Future of Life Institute (à esq.); Thomas Wolf, cofundador e líder científico da Hugging Face (ao centro); e Nicholas Thompson, CEO da The Atlantic | Foto: Divulgação

O desenvolvimento de uma inteligência artificial geral, capaz de desempenhar todas as tarefas de um ser humano, parece uma consequência natural da evolução do campo da inteligência artificial. Alguns falam que isso vai acontecer já no ano que vem. Outros até o final da década. Enquanto tem gente que acha que isso ainda vai demorar para acontecer.

Mas será que o nascimento da AGI é um passo realmente natural e necessário no desenvolvimento da tecnologia? Talvez não. “Somos nós que estamos construindo o futuro. Então porque temos que construir um futuro em que competimos com as máquinas?”, questionou Max Tegmark, professor do MIT e presidente e cofundador do Future of Life Institute, durante a abertura do Web Summit em Lisboa.

Para ele, seguir nesse caminho é escolher o trajeto errado, que pode levar a um cenário apocalíptico para a humanidade. O grande risco para o professor é que a tecnologia seja criada antes da definição de parâmetros de segurança para seu uso, o que pode acarretar na perda de controle sobre ela. “Correr nessa direção antes de definir como controlá-la é uma ideia muito, muito ruim. Incrivelmente estúpida”, afirmou.

Max argumentou que é necessário existir regras de segurança assim como já existem na indústria farmacêutica ou na aviação. “Foi por isso que nos sentimos tão seguros de viajar pra cá”, completou.

A proposta de impor limitações à IA são comummente combatidas com o argumento de que isso pode limitar e desacelerar a inovação. Max avaliou, no entanto, que, uma vez que as regras estiverem em prática, empresas e empreendedores vão trabalhar para atuar dentro delas. “Se uma empresa não puder convencer os especialistas de que conseguirá ter controle sobre a AGI, então volte quando puder”, cravou.      

Ao invés de perseguir a inteligência artificial geral, que pode ter efeitos catastróficos, a avaliação é que é preciso focar na IA como ferramenta, ou sistemas poderosos mas controlados desenhados para resolver problemas específicos como curar o câncer ou lidar com as mudanças climáticas. “Não precisamos de AGI para ter essas aplicações”, reforçou Max.

O professor também destacou que os líderes políticos precisam parar a “guerra geopolítica” para criação da AGI, já que essa não é uma “corrida de armas”, mas uma “corrida suicida” que ninguém vence. Ele disse acredita que é preciso ter cooperação internacional para que a IA seja uma ferramenta para o desenvolvimento humano, e não uma ameaça. “Vamos nos afastar da briga geopolítica sobre quem faz xixi mais longe, que ninguém vence, e vamos construir um belo futuro juntos”, disse Max, destacando que seguir essa rota pode sim levar à concretização das promessas mais positivas e utópicas sobre o uso da tecnologia.