Collision

Encanador é o emprego do futuro, diz padrinho da IA

Para Geoffrey Hinton, empregos que sobreviverão à IA são os altamente adaptáveis, ou que necessitam de destreza física

Geoffrey Hinton
Geoffrey Hinton. Crédito: Collision

*Leandro Souza viajou a Toronto a convite do Collision

Um dos mais antigos e renomados pesquisadores na área de inteligência artificial, Geoffrey Hinton lotou a arena do palco principal do Collision no fim da tarde de quarta (28), em uma de suas primeiras falas em público desde a sua saída do Google.

Um símbolo local da pesquisa em tecnologia, já que fez boa parte de sua carreira na Universidade de Toronto, Hinton trouxe um desconcertante ponto de vista contrário à animação sobre IA que tem imperado na conferência, inclusive dando dicas sobre as carreiras que os jovens devem buscar no futuro, se não quiserem ser substituídos por IA.

“Encanadores”, disparou de forma direta o pesquisador, arrancando risos nervosos da plateia. “Os empregos que vão sobreviver à IA no futuro são aqueles que são altamente adaptáveis, ou que necessitam de alguma destreza física para serem realizados, e encanadores têm um trabalho assim”, explicou um dos “padrinhos da IA”, como muitos preferem o chamar.

Hinton deixou o Google em maio deste ano, temeroso sobre os caminhos que o desenvolvimento de inteligência artificial estava tomando. “Cheguei à conclusão que a inteligência que estamos criando é muito diferente da que temos”, disse o pesquisador na época.

Segundo o especialista, a “revoluçao” dos modelos de linguagem trazida por plataformas como o ChatGPT abrirá a porta para mais inovações, como modelos multimodais de análise e geração de conteúdos ou dados. “É impressionante o que podemos fazer com linguagem somente, mas podemos aprender muito mais com outras modalidades. Crianças pequenas, por exemplo, não aprendem somente com linguagem”, pontua Hinton.

Ele também expressou seu receio de uma enxurrada de informações geradas por IA se tornando a base com a qual sistemas de IA futuros farão as suas análises, sem distinguir informações geradas e comprovadas por humanos das tratadas por sistemas autônomos. Segundo ele, uma solução seria a de marcar conteúdos gerados por inteligência artificial da mesma forma que bancos marcam suas notas de dinheiro.

Dominação das máquinas?

A sua visão também apontou uma possibilidade de futuro estilo Skynet (para quem não sabe, o sistema do filme Exterminador do Futuro), que a IA pode ser tornar mais inteligente que o humano e tomar o controle de suas operações. “Elas (as máquinas) ainda não não nos igualaram (em raciocínio), mas estão chegando perto”, afirmou.

A ducha de água-fria sobre o “oba oba” inicial da IA chegou a mobilizar experts do mercado, incluindo engenheiros da Amazon, Google, Meta e Microsoft, assim como o guru e co-fundador da Apple, Steve Wozniak, a promover uma pausa de seis meses nos treinamentos de sistemas de IA avançada.

Para Hinton, o medo é real e para ilustrá-lo contou sobre um problema de raciocínio que ele lançou para o ChatGPT 4. No quebra-cabeça foi dito que os cômodos de uma casa são azuis, amarelos ou brancos, mas que a tinta amarela desbota para o branco em um ano. O modelo de IA foi questionado: se alguém deseja que todos os quartos sejam brancos em dois anos, o que deve fazer? A IA disse para pintar os quartos azuis de branco porque o azul não vai desbotar para o branco, disse Hinton: “Ele sabia o que eu deveria fazer e sabia por quê.”

“Acho importante que as pessoas entendam que isso não é ficção científica, não é apenas propaganda de medo”, insistiu. “É um risco real sobre o qual devemos pensar e precisamos descobrir com antecedência como lidar com isso. No momento, existem 99 pessoas muito inteligentes tentando melhorar a IA e uma pessoa muito inteligente tentando descobrir como impedir que ela assuma o controle e talvez você queira ser mais equilibrado”, disse.

Perguntado se o uso indevido da inteligência artificial pode ser controlado com a criação de IAs “do bem”, assim como outros também “padrinhos” da inteligência artificial como A.M Turing têm declarado, Hinton foi reticente. “Não estou totalmente convencido que a IA boa pode impedir a IA mal intencionada”, afirmou.