O homem frequentemente apontado como o padrinho da IA ​​deixou o Google citando preocupações com a enxurrada de desinformação, a possibilidade de a IA virar o mercado de trabalho e o “risco existencial” representado pela criação de uma verdadeira inteligência digital.

Geoffrey Hinton, que com dois de seus alunos da Universidade de Toronto construiu uma rede neural em 2012, deixou o Google esta semana, conforme relatado pela primeira vez pelo New York Times.

+ Samsung proíbe uso do ChatGPT em sua divisão de eletrodomésticos e celulares

Hinton, 75, disse que desistiu para falar livremente sobre os perigos da IA ​​e lamenta em parte sua contribuição para o campo. Ele foi contratado pelo Google há uma década para ajudar a desenvolver a tecnologia de IA da empresa, e a abordagem pioneira abriu caminho para os sistemas atuais, como o ChatGPT.

Ele disse ao New York Times que até o ano passado acreditava que o Google era um “administrador adequado” da tecnologia, mas isso mudou quando a Microsoft começou a incorporar um chatbot em seu mecanismo de busca Bing, e a empresa começou a se preocupar com o risco para seus negócio de busca.

Alguns dos perigos dos chatbots de IA eram “bastante assustadores”, disse ele à BBC, alertando que eles poderiam se tornar mais inteligentes que os humanos e poderiam ser explorados por “maus atores”. “Ele é capaz de produzir muitos textos automaticamente para que você possa obter muitos spambots muito eficazes. Isso permitirá que líderes autoritários manipulem seus eleitorados, coisas assim.”

Mas, acrescentou, também estava preocupado com o “risco existencial do que acontece quando essas coisas ficam mais inteligentes do que nós.

“Cheguei à conclusão de que o tipo de inteligência que estamos desenvolvendo é muito diferente da inteligência que temos”, disse ele. “Portanto, é como se você tivesse 10.000 pessoas e sempre que uma pessoa aprendesse algo, todos automaticamente soubessem. E é assim que esses chatbots podem saber muito mais do que qualquer pessoa.”

Ele não está sozinho nos escalões superiores da pesquisa de IA ao temer que a tecnologia possa causar sérios danos à humanidade. No mês passado, Elon Musk disse que se desentendeu com o cofundador do Google, Larry Page, porque Page “não estava levando a segurança da IA ​​suficientemente a sério”. Musk disse à Fox News que Page queria “superinteligência digital, basicamente um deus digital, se você quiser, o mais rápido possível”.

Valérie Pisano, diretora-executiva do Mila – Instituto de Inteligência Artificial de Quebec – disse que a abordagem descuidada da segurança em sistemas de IA não seria tolerada em nenhum outro campo. “A tecnologia é lançada e, à medida que o sistema interage com a humanidade, seus desenvolvedores esperam para ver o que acontece e fazem ajustes com base nisso. Nós nunca aceitaríamos, como um coletivo, esse tipo de mentalidade em qualquer outro campo industrial. Há algo sobre tecnologia e mídia social em que pensamos: ‘Sim, claro, descobriremos mais tarde’”, disse ela.

A preocupação de Hinton no curto prazo é algo que já se tornou realidade – as pessoas não conseguirão mais discernir o que é verdade com fotos, vídeos e textos gerados por IA inundando a internet.

As recentes atualizações para geradores de imagens, como o Midjourney, significam que as pessoas agora podem produzir imagens fotorrealistas – uma dessas imagens do Papa Francisco em um puffer da Balenciaga se tornou viral em março.

Hinton também estava preocupado com o fato de que a IA acabará substituindo empregos como assistentes pessoais e outros “trabalhos pesados” e potencialmente mais no futuro.