No caso das IAs, ainda existe outro desafio: entender com quais dados os modelos foram treinados.
É um momento crítico para garantir que a IA não seja treinada com os dados que serão usados para avaliá-la. Em projetos menores e controlados, dividimos o conjunto de dados em dois: o de treinamento, com 80% dos dados; e o de teste, com os 20% restantes. Desta forma, podemos garantir que o modelo está sendo avaliado com dados e situações inéditas.
Só que no caso dos grandes modelos de linguagem, como o ChatGPT, a coisa muda um pouco. A quantidade de dados de treinamento é tão absurda que fica difícil garantir que os modelos não tenham sido treinados com testes que, posteriormente, serão usados na fase de avaliação. Isso pode acontecer por descuido ou, na pior dos casos, de maneira proposital para inflar o resultado dos testes. O problema é que não temos como saber exatamente o que acontece porque os modelos fechados não divulgam quais bases de dados foram usadas no aprendizado.
Quando viralizou um corte do youtuber Felipe Castanhari dizendo, em entrevista no podcast PodPah, que o ChatGPT tinha um QI maior do que o do Einstein, eu gravei um vídeo dizendo que isso não era algo tão importante assim, porque, entre outras coisas, não temos como garantir que o modelo nunca tenha sido treinado com os dados do próprio teste. No caso, seria como aplicar uma prova para quem sabe o gabarito.
Na luta pela conquista do cinturão do domínio do mercado de IA, cada modelo quer ser o mais forte e poderoso neste novo ringue tecnológico. Só devemos estar atentos aos esteroides da Inteligência Artificial, que, neste contexto, é o risco de injetar dados de avaliação durante a fase de treinamento. Podemos estar sendo iludidos por algoritmos que se mostram fortões, mas não passam de modelos fake natty.
*Professor na PUC-SP e Pesquisador no NIC.br. Doutor em Tecnologias da Inteligência e Design Digital pela PUC-SP, com PhD fellowship pela Université Paris I – Sorbonne. MBA em Economia Internacional pela USP e Especialista em Neurociência. Foi pesquisador visitante no laboratório de Ciência Cognitiva da Queen Mary University of London. Tem pesquisas em tecnologia, IA e ciência cognitiva.