Quando o momento caótico da OpenAI — uma empresa de tecnologia relativamente pequena, mas que ganhou notoriedade gigantesca após lançar o ChatGPT — parecia encerrado, outro estranho detalhe surgiu. Um documento enviado por pesquisadores ao conselho da empresa, um dia antes da demissão de Sam Altman, afirmou que uma descoberta no campo da inteligência artificial (IA) poderia pôr em risco o futuro da humanidade.
Mas o que poderia ser tão revolucionário e assustador a ponto de ligar o alerta de cientistas acostumados com tecnologia avançada?
• Clique aqui e receba as notícias do R7 no seu WhatsApp
• Compartilhe esta notícia pelo WhatsApp
• Compartilhe esta notícia pelo Telegram
• Assine a newsletter R7 em Ponto
Segundo a Reuters, que divulgou a informação citando duas fontes da empresa, trata-se de um projeto secreto chamado Q* (pronuncia-se Q-Star), que experimentou um avanço descrito na carta enviada ao conselho da OpenAI, que demitiu o executivo-chefe Sam Altman um dia depois, no dia 17.
As fontes da agência especulam que a descoberta tem a ver com a resolução de problemas matemáticos do mesmo nível “de alunos de ensino fundamental”. O avanço deixou pesquisadores otimistas, mesmo que o modelo de inteligência artificial geral (AGI) tenha exigido “vastos recursos de computação” para conseguir o feito.
Por que isso é importante?
Uma simples calculadora de bolso resolveu equações matemáticas gigantes, então qual a importância de uma inteligência artificial fazer isso?
A resposta está em como ela conseguiu fazer isso. Uma calculadora é programada estritamente para chegar a resultados matemáticos únicos. Códigos binários garantem que, mesmo que bilhões de pessoas façam o mesmo cálculo, jamais vejam resultados diferentes.
Mas uma AGI trabalha de forma diferente: os modelos de inteligência artificial coletam quantidades massivas de dados e chegam a resultados baseados em padrões que conseguem identificar.
Resumindo bem grosseiramente, essa é a mesma forma como neurônios trabalham. Após serem programadas, as redes neurais não seguem uma programação exata: cada consulta pode apresentar resultados diferentes, baseados em padrões únicos.
É por isso que as AGI são praticamente imprestáveis para transmitir informações, uma vez que foram feitas para manter uma conversa de forma contínua e consistente de acordo com nossos padrões. A veracidade das informações não é a prioridade.
Conseguir chegar a resultados matemáticos baseado nesse modelo probabilístico seria um grande passo para as IA, avaliam os principais cientistas da área.
Risco comercial
Assim como humanos possuem regras sociais, IAs precisam de modelos e freios, para evitar distorções. Responder com conteúdo de ódio é apenas uma das preocupações — pesquisadores traçam cenários mais assustadores, como uma IA que decide que programadores e a humanidade em geral são uma ameaça.
Alguns dos membros do conselho da OpenAI, especialmente o pesquisador-chefe Ilya Sutskever — que, especula-se, esteve por trás da decisão drástica de demitir Sam Altman — entenderam que a ideia de a empresa crescer e se tornar lucrativa rapidamente pode trazer sérias consequências.
Os primeiros dias do ChatGPT refletiram isso: respostas erradas, conteúdo de ódio e até a possibilidade de “quebrar” completamente o sistema.
Em casos recentes, estudantes de colégios do Rio de Janeiro e Minas Gerais usaram aplicativos dotados de IA para criar “nudes” realistas de colegas de classe. Em outros países, criminosos usam programas parecidos para aplicar golpes.
O maior desafio da empresa para o futuro é desenvolver um modelo de IA que seja funcional, mas não ajude ninguém a cometer tais crimes.
Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais