A OpenAI tem uma marca d’água preparada para texto gerado com o ChatGPT, mas não a quer usar

Para já, a OpenAI diz que esta é apenas um «método que continua a considerar à medida que investiga alternativas», pelo que não há qualquer decisão sobre a sua aplicação oficial

Por: Ricardo Durand
Tempo de leitura: 3 min
©Siva Photography

Está pronta há um ano e preparada para ser implementada em todos os textos gerados pelo ChatGPT, mas a OpenAI não a quer usar. Por quê? Porque, assim, iria denunciar quem usasse textos criados por esta inteligência artificial e, assim, prejudicar a própria estratégia da empresa.

Apesar de parecer a coisa mais responsável a fazer (para que haja mais transparência sobre conteúdos gerados por IA), a OpenAI acha que, ao colocar uma marca d’água nos textos, iria «desmotivar» os utilizadores de usarem o ChatGPT. Isto seria feito sob a forma de uma sequência de frases e palavras que se sucedem umas às outras, com o objectivo de criar um padrão facilmente identificável.

O problema é que, se a OpenAI fizesse isto, os textos podiam ser muito mais facilmente detectáveis como “produtos” de uma IA e não criados de raiz por uma pessoa: «Oferecer qualquer forma de detectar material escrito por IA é uma vantagem potencial para os professores que tentam dissuadir os alunos de entregar trabalhos criados desta forma», lembra o The Wall Street Journal.

Mas a OpenAI tem mais uma preocupação: «Outro risco importante que estamos a ponderar é o facto de a marca d’água de texto ter o potencial de afectar, de forma desproporcional, algumas pessoas. Por exemplo, poderia estigmatizar a utilização da IA como uma ferramenta de escrita útil para não-nativos de inglês».

A empresa diz ainda que o facto de implementar uma marca d’água em textos não significa que este seja um método à “prova de bala”: «É pouco robusto contra adulterações globalizadas, como a utilização de sistemas de tradução, a reformulação com outro modelo generativo».

Aliás, há várias ferramentas disponíveis que reescrevem textos e que já são usadas para enganar métodos de detecção de conteúdos gerados por IA: um dos mais conhecidos é o Quillbot. A alternativa são os sites que humanizam textos gerados por IA que, no fundo, têm o mesmo conceito.

Para já, a OpenAI diz que esta é apenas um «método que continua a considerar à medida que investiga alternativas», pelo que não há qualquer decisão sobre a sua aplicação oficial, num futuro próximo.

Exit mobile version