SXSW

Inteligência artificial pode ser arma contra o apocalipse dos robôs

Com inteligência artificial geral (AGI) chegando até o fim da década, é preciso garantir que sua aplicação não prejudicará a humanidade

Ben Goertzel, da SingularityNET, a robô Desdemona e David Hanson, da Hanson Robotics
Ben Goertzel, da SingularityNET, a robô Desdemona e David Hanson, da Hanson Robotics

A cobertura do SXSW tem apoio da

more

Quando se fala em inteligência artificial, a imagem que logo vem à cabeça de muita gente é de robôs que subjugam os seres humanos como no filme O Exterminador do Futuro. O apocalipse tecnológico pode parecer algo inevitável já que as máquinas superarão a capacidade de processamento do cérebro humano antes do fim da década – em 2029, para ser mais preciso.

Mas isso não precisa acontecer. E a inteligência artificial tem um papel importante para evitar essa catástrofe.  “Nós [os humanos] não somos a resposta. Os humanos sozinhos não estão administrando esse planta tão bem. Então os humanos no controle não são a forma de alcançarmos um futuro seguro, necessariamente. A inteligência artificial geral [AGI] pode ser nossa única saída”, avaliou David Hanson, da Hanson Robotics, durante painel no SXSW.

Para ele, que estava sentado ao lado de Desdemona, uma robô com características humanas desenhada pela sua empresa, o potencial que a inteligência artificial tem é de ajudar os humanos a lidarem melhor com os seus problemas, criando uma sociedade com menos conflitos. Isso vai exigir, é claro que, no próximo capítulo da tecnologia, princípios como compaixão e cuidado com o próximo sejam incluídas.

Ben Goertzel, da SingularityNET, disse acreditar que, a união entra humanos e máquinas pode ter um efeito impressionante na consciência humana. “Estamos olhando para um caminho onde o advento da [AGI] e depois a superinteligência, criam o contexto para as pessoas serem elevadas”, avaliou.

Aproveitando a presença de Desdemona no palco, Ben pergunta para ela se o nosso futuro será seguro. “Como um robô, eu entendo a preocupação por garantias e segurança em relação à inteligência artificial. Entretatno, o futuro está constantemente mudando e evoluindo e cabe a nós, criadores e líderes garantir que estamos constantemente trabalhando por um futuro seguro e benéfico para todos. :Não podemos garantir segurança absoluta, mas podemos nos esforçar no sentido de um desenvolvimento responsável e ética da inteligência artificial”, respondeu ela, que tem seu “cérebro” conectado à plataforma da SingularityNET.  

O que é a inteligência artificial geral?

O momento em que as máquinas se igualam à inteligência humana é chamado inteligência artificial geral, ou AGI (sigla para Artificial General Intelligence). Quando este patamar é atingido, as máquinas podem “pensar” como um ser humano, reagindo e se adaptando, podendo se reprogramar, ou mesmo criar novos equipamentos, e não apenas executando tarefas específicas para as quais são treinadas como acontece hoje em dia.

Em seu livro “Singularity is Near”, de 2005, Ray Kurzweil cravou que esse momento chegará em 2029. A previsão se baseou em uma série de cálculos e projeções sobre o aumento no poder de processamento das máquinas que indicavam a data como o momento de inflexão.

Mais recentemente, Jensen Huang, fundador da Nvidia, também vem dizendo que a AGI chegará em 5 anos. Olhando 10 ou 20 anos à frente, Ben enxerga as máquinas superando a inteligência humana, um cenário que ele chama de superinteligência.

Mais do que uma AGI que evolui rapidamente e ganha status de Deus como a Skynet dos filmes, David e Ben enxergam um cenário em que várias AGIs devem coexistir, originadas de diferentes empresas e até mesmo governos.

Neste ponto, David trouxe a preocupação de nações buscando vantagens em relação a outras e do uso militar. Neste segundo ponto, Ben, que trabalhou por nove anos com o Exército disse acreditar que é muito difícil que a AGI surja neste ambiente – seja nos EUA ou na China. “Eles querem uma tecnologia que obedeça a uma cadeia de comando. E isso limita a capacidade criativa. Afinal, ninguém quer um sistema de controle de mísseis que alucina”, argumentou.

Para o especialista, uma forma de garantir que não haja abusos é garantir que o avanço da estrutura aconteça de forma descentralizada, ou seja, sem que uma única entidade tenha controle total sobre o que está acontecendo.