Inteligência Artificial · Internet

O que significa “alucinações” nos modelos de Inteligência Artificial?

2 Comentários

A Inteligência Artificial (IA) é a tecnologia do momento, mas a verdade é que ainda estamos numa fase muito inicial do seu potencial. É verdade que esta tecnologia “nasceu” há muitos anos, mas só com o ChatGPT é que a IA ganhou interesse por parte de comunidade. Mas sabia que os modelos de IA podem “sofrer” alucinações?


No contexto da Inteligência Artificial (IA), especialmente em Chatbots como o ChatGPT, que são alimentados por LLMs LLM (Large Language Model), o termo “alucinação” é usado quando o modelo gera informações incorretas, inventadas ou enganosas, mas que parecem plausíveis.

Exemplos de alucinações em Inteligência Artificial

  • Inventar factos: o modelo pode afirmar que uma pessoa escreveu um livro que nunca escreveu.
  • Criar referências falsas: citar artigos académicos ou livros que não existem.
  • Errar cálculos ou datas históricas: apresentar dados factualmente errados, mas com confiança.
  • Assumir relações inexistentes: dizer que duas empresas estão relacionadas quando não estão.
  • Sugerir coisas que não existem – ver aqui

A pergunta que se coloca é o porquê de existirem alucinações.  Tal pode acontecer por limitações do modelo, ou seja, o modelo foi treinado com grandes volumes de texto e tenta prever a próxima palavra com base em padrões, não em factos confirmados. Também a falta de verificação de factos pode trazer “alucinações” às respostas. A ambiguidade ou falta de contexto também pode ser um problema, por exemplo, quando a pergunta é ambígua ou muito aberta, o modelo pode “preencher lacunas” com suposições erradas.

Leia também…

Afinal o que é a inteligência artificial e como funciona?

Autor: Pedro Pinto
Partilhar:
Também pode gostar

Comentários

2

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

  1. Avatar de Pedro António
    Pedro António

    Irra! Tinham logo de assumir os mesmos defeitos que os humanos!

  2. Avatar de Pedro
    Pedro

    Como evitar alucinações na inteligência artificial?