Geoffrey Hinton, que foi chamado de “Padrinho da Inteligência Artificial‘, confirmou nesta segunda-feira (1º) que deixou seu cargo no Google na semana passada para falar sobre os “perigos” da tecnologia que ajudou a desenvolver.
O trabalho pioneiro de Hinton em redes neurais moldou os sistemas de inteligência artificial que alimentam muitos produtos atuais. Ele trabalhou meio período no Google por uma década nos esforços de desenvolvimento de IA da big tech, mas desde então passou a se preocupar com a tecnologia e o papel que representa em seu avanço.
“Eu me consolo com a desculpa normal: se eu não tivesse feito isso, outra pessoa teria feito”, disse Hinton ao jornal norte-americano “New York Times”, que foi o primeiro a relatar sua decisão.
Em publicação nas redes sociais, Hinton disse que deixou o Google para poder falar livremente sobre os riscos da IA, e não pelo desejo de criticar a empresa especificamente.
“Saí para poder falar sobre os perigos da IA sem considerar como isso afeta o Google”, explicou Hinton em sua conta no Twitter. “O Google agiu com muita responsabilidade”, continuou.
Jeff Dean, cientista-chefe do Google, disse que Hinton “fez avanços fundamentais em IA” e expressou gratidão pela “década de contribuições de Hinton no Google”
“Continuamos comprometidos com uma abordagem responsável da IA”, declarou Dean em um comunicado fornecido à CNN. “Estamos continuamente aprendendo a entender os riscos emergentes enquanto também inovamos com ousadia.”
A decisão de Hinton de se afastar da empresa e falar sobre a tecnologia ocorre quando um número crescente de legisladores, grupos de defesa e especialistas em tecnologia levantam alarmes sobre o potencial de uma nova safra de chatbots com inteligência artificial para espalhar desinformação e acabar com postos de empregos.
A onda de atenção em torno do ChatGPT no final do ano passado ajudou a renovar uma corrida entre as empresas de tecnologia para desenvolver e implantar ferramentas de IA semelhantes em seus produtos.
OpenAI, Microsoft e Google estão na vanguarda dessa tendência, mas IBM, Amazon, Baidu e Tencent estão trabalhando em tecnologias semelhantes.
Em março, algumas figuras proeminentes da tecnologia assinaram uma carta pedindo que os laboratórios de inteligência artificial interrompessem o treinamento dos sistemas de IA mais poderosos por pelo menos seis meses, citando “riscos profundos para a sociedade e a humanidade”.
A carta, publicada pelo “Future of Life Institute” (Instituto do Futuro da Vida, em tradução literal), uma organização sem fins lucrativos apoiada por Elon Musk, veio apenas duas semanas depois que a OpenAI anunciou o GPT-4, uma versão ainda mais poderosa da tecnologia que alimenta o ChatGPT. Nos primeiros testes e em uma demonstração da empresa, o GPT-4 foi usado para redigir ações judiciais, passar em exames padronizados e construir um site funcional a partir de um esboço feito à mão.
Na entrevista ao NY Times, Hinton ecoou as preocupações sobre o potencial da IA para eliminar empregos e criar um mundo onde muitos “não serão mais capazes de saber o que é verdade”. Ele também apontou para o impressionante ritmo de avanço, muito além do que ele e outros haviam previsto.
“A ideia de que essas coisas poderiam realmente ficar mais inteligentes do que as pessoas – algumas pessoas acreditaram nisso”, expôs Hinton. “Mas a maioria das pessoas achou que estava errado. E eu pensei que estava longe, achando que era de 30 a 50 anos ou até mais longe. Obviamente, não penso mais nisso.”
Mesmo antes de deixar o Google, Hinton havia falado publicamente sobre o potencial da IA tanto para o mal quanto para o bem.
“Acredito que o rápido progresso da IA transformará a sociedade de maneiras que não entendemos totalmente e nem todos os efeitos serão bons”, citou Hinton em um discurso de formatura em 2021 no Instituto Indiano de Tecnologia em Mumbai.
Ele observou como a IA aumentará a assistência médica e, ao mesmo tempo, criará oportunidades para armas autônomas letais. “Acho essa perspectiva muito mais imediata e muito mais aterrorizante do que a perspectiva de robôs assumirem o controle, o que acho que está muito distante”.
Hinton não é o primeiro funcionário do Google a levantar uma bandeira vermelha na IA. Em julho, a empresa demitiu um engenheiro que alegou que um sistema de IA não lançado havia se tornado autoconsciente, dizendo que ele violou as políticas de emprego e segurança de dados. Muitos na comunidade de IAM rejeitaram fortemente a afirmação do engenheiro.