O ChatGPT às vezes inventa respostas? A própria OpenAi explica o porquê, mas pode decepcionar.

A inteligência artificial pode não ser tão infalível quanto gostaríamos. Pesquisas da própria OpenAI afirmam que, apesar da constante evolução de modelos de linguagem como o GPT-5 , o ChatGPT frequentemente fornece informações falsas, que eles descrevem como "afirmações plausíveis, mas falsas". Segundo os pesquisadores, esse problema nunca poderá ser completamente eliminado porque os modelos de linguagem aprendem a prever a próxima palavra, mas são incapazes de distinguir entre verdadeiro e falso.
Outro estudo da NewsGuard , no entanto, afirma que a taxa de informações falsas disseminadas pelos chatbots mais populares aumentou de 18% para 35% em um ano.
Leia também: ChatGpt, veja por que a inatividade da IA é mais perigosa. Uma indisponibilidade de conta pode impactar seus negócios.Essa "aproximação" da inteligência artificial é especialmente evidente quando se trata de fatos estabelecidos ou arbitrários, como a data de nascimento de uma pessoa não famosa. Nesses casos, a IA fornece respostas incorretas, mas aparentemente convincentes.
Leia também: ChatGpt fora do ar, não é um caso isolado: quatro falhas em poucos meses. Veja o que aconteceu.O principal problema para a OpenAI , no entanto, continua sendo os incentivos falhos nos sistemas de avaliação. Os pesquisadores dão o exemplo de um teste de múltipla escolha em que vale a pena chutar. Deixar uma resposta em branco rende um zero, enquanto chutar tem o potencial de render um ponto. O sistema recompensa apenas a porcentagem de respostas corretas da IA, e assim o modelo aprende que vale a pena dar uma resposta de qualquer maneira, mesmo correndo o risco de errar.
A proposta é, portanto, introduzir um sistema de classificação que penaliza erros de confiança e dá notas baixas a respostas incertas e "não sei".
CLIQUE AQUI PARA MAIS NOTÍCIAS SOBRE O MUNDO DA TECNOLOGIA E ALTA TECNOLOGIAAffari Italiani