Apesar da evolução rápida, a IA generativa continua a ser propensa a alucinações. Aconselhar as pessoas a colocar cola na pizza e a comer pedras é uma coisa, mas o ChatGPT falsamente dizer a um homem que ele passou 21 anos na prisão por matar os seus dois filhos é muito mais sério.
O cidadão norueguês Arve Hjalmar Holmen contactou a Autoridade Norueguesa de Protecção de Dados depois de decidir ver o que o ChatGPT sabia sobre ele. O chatbot respondeu da sua maneira habitual, afirmando, falsamente, que Holmen tinha assassinado dois dos seus filhos e tentado matar o seu terceiro filho. Acrescentou ainda que ele foi condenado a 21 anos de prisão por estes crimes falsos.
Embora a história fosse inteiramente fabricada, havia elementos da vida de Holmen em que o ChatGPT acertou, incluindo o número e género dos seus filhos, as suas idades aproximadas e o nome da sua cidade natal, tornando as falsas alegações sobre assassinato ainda mais sinistras. No entanto, Holmen diz que nunca foi acusado nem condenado por qualquer crime.
Holmen contactou o grupo de protecção de direitos de privacidade Noyb sobre a alucinação. Este realizou pesquisas para garantir que o ChatGPT não estava a confundi-lo com outra pessoa, possivelmente alguém com um nome semelhante. O grupo também verificou arquivos de jornais, mas não havia nada óbvio que sugerisse por que o chatbot estava a inventar esta história macabra.
Entretanto, o LLM do ChatGPT foi actualizado, pelo que já não repete a história quando questionado sobre Holmen. Mas o Noyb, que já se tinha desentendido com a OpenAI no passado por o ChatGPT fornecer informações falsas sobre pessoas, ainda apresentou uma queixa à Autoridade Norueguesa de Protecção de Dados, Datatilsynet.
De acordo com a queixa, a OpenAI violou as regras do RGPD que obrigam a que as empresas que processam dados pessoais devam garantir que estes são precisos. Se estes detalhes não forem precisos, devem ser corrigidos ou eliminados. No entanto, o Noyb argumenta que, como o ChatGPT alimenta o sistema com os dados inseridos pelos utilizadores para o treinar, não há forma de ter a certeza de que os dados incorrectos foram completamente removidos do conjunto de dados do LLM.
O Noyb também alega que o ChatGPT não cumpre o Artigo 15.º do RGPD, o que significa que não há garantia de que se possa recuperar ou ver cada pedaço de dados sobre um determinado indivíduo presente num conjunto de dados usado para treinar o modelo.
O Noyb está a pedir ao Datatilsynet que ordene à OpenAI que elimine os dados difamatórios sobre Holmen e que ajuste o seu modelo para eliminar resultados imprecisos sobre indivíduos, o que não seria uma tarefa simples.
Neste momento, o método que a OpenAI usa para se proteger nestas situações limita-se a mostrar um pequeno aviso no final da página do ChatGPT que afirma: ” O ChatGPT pode cometer erros. Considere verificar informações importantes”.