Os modelos de IA da OpenAI estão enfrentando um grande desafio: as alucinações. Essas respostas inventadas ocorrem quando os modelos não têm certeza sobre o que estão dizendo. Recentemente, testes internos mostraram que os novos modelos, como o o3 e o o4-mini, estão alucinado mais do que seus antecessores, o que levanta questões sobre a evolução da tecnologia.
O que são alucinações em IA?
As alucinações em IA referem-se a um fenômeno onde modelos de inteligência artificial geram respostas que não são baseadas em dados reais ou informações precisas. Isso acontece quando a IA tenta preencher lacunas de conhecimento, resultando em respostas inventadas ou incorretas.
Um dos maiores desafios enfrentados pelos modelos de IA atuais é a tendência de criar essas respostas fictícias quando não têm certeza sobre um assunto. Por exemplo, em testes internos realizados pela Open AI, foi observado que os modelos de raciocínio o3 e o4-mini produzem mais alucinações do que seus antecessores, como o o1 e o o3-mini.
Em um dos testes, o modelo o3 apresentou alucinações em 33% das respostas, enquanto o o1 teve 16% e o o3-mini apenas 14,8%. Isso levanta questões sobre a eficácia e a confiabilidade desses novos modelos de IA.
Atualmente, a Open AI ainda não tem uma explicação clara para esse aumento nas alucinações, mas os desenvolvedores estão investigando o problema, na esperança de que a situação melhore com o tempo.
Fonte: Computer World