Um dos princípios básicos da inteligência artificial generativa é a aprendizagem profunda, baseada em algoritmos que permitem a uma máquina conhecer um determinado conceito, através da análise de milhares de modelos que o definem. Este processo de análise repetitiva cria padrões e referências que possibilitam a um sistema de IA gerar novos conteúdos.
Para alimentar esses algoritmos de aprendizagem profunda é necessário ter uma base de dados substancial sobre um determinado conceito para que este possa ser “percebido” pelo sistema de inteligência artificial. Nos primórdios, as IA eram “alimentadas” com bases de dados privadas muito bem definidas com relações e meta dados criados com a cordoaria directa de humanos. Mas, devido à grande quantidade de amostras necessárias para os modelos de IA actuais, rapidamente houve uma necessidade de evolução para sistemas de criação de bases de dados recolhidas directamente da Internet, através da colecta artificial e geração de padrões de aprendizagem totalmente automatizados.
Foi, efetivamente, esta “libertação” de sistemas totalmente autónomos de aprendizagem na Internet que permitiu o actual boom da IA generativa. Mas é, também, esta liberdade dada às máquinas de aprenderem com tudo o que está on-line que entra em conflito directo com os direitos dos autores que criaram e disponibilizaram os conteúdos. Mesmo optando por não permitir o uso para fins de aprendizagem de IA, não existe uma forma de os autores ou, até mesmo, em alguns casos, os criadores da IA, verificarem que tal não acontece.
Para combater esta assimetria de poder, um grupo de investigadores da Universidade de Chicago desenvolveu a Nightshade, uma ferramenta de edição de imagens. Apesar de, praticamente, não introduzir qualquer alteração às mesmas, do ponto de vista do olho humano, quando analisadas por um modelo de IA, tornam-se completamente diferentes do seu conteúdo original. Um modelo de IA que “absorva” um número significativo destes conteúdos, alterados na sua aprendizagem, rapidamente será “envenenado” para criar interpretações e associações erradas que, muitas vezes, interpretamos como alucinações.
E, apesar de o Nightshade não ser a única ferramenta gratuita de envenenamento de AI disponível, destaca-se pelo seu posicionamento mais agressivo: a intenção directa de danificar os modelos de aprendizagem, pelo interesse que despertou nos autores – nas primeiras cinco horas após o lançamento houve 250 mil downloads. Isto representa mais um marco, naquela que se antevê que seja uma competição intrépida pela atenção das audiências entre os tradicionais criadores de conteúdos humanos e as inteligências artificiais generativas.