O ChatGPT da OpenAI é um dos temas mais quentes da actualidade dos aficcionados da tecnologia. A sua incrível capacidade de mímica da escrita humana tem deixado muita gente boquiaberta. Mas não deixa de ser exactamente isso: uma máquina a emular a conversação humana, com base numa gigantesca base de dados. Essa emulação, pela sua natureza, pode também ser entendida como a linguagem de programação de mais alto nível que conhecemos actualmente. A comprovar isso, já vários utilizadores do ChatGPT conseguiram criar programas e aplicações simplesmente a conversar, em língua natural, com este motor de inteligência artificial.
Este, que é um potencial passo de gigante relativamente à interacção homem-máquina, está também a por em causa as actuais aplicações de assistentes digitais das grandes tecnológicas, expondo a sua clara limitação na interacção e encadeamento de ideias em linguagem natural, quando comparadas com o ChatGPT. A Google já reagiu com o anúncio apressado do seu “novo” assistente conversacional, o Bard, depois de mais de dois anos em silencio após o anúncio original do LaMDA em 2021, uma solução de IA conversacional que, na demonstração feita na altura, em muito se assemelhava, em termos de resultados, ao que vemos agora na solução da Open Ai. Do lado da Microsoft, a reacção foi ainda mais surpreendente, com o anúncio da integração directa da tecnologia do ChatGPT nos seus produtos Bing e Edge.
O timing não poderia ser melhor para o surgimento daquilo que um dos meus autores favoritos, William Gibson, há muito tempo tinha antevisto nas suas obras literárias: um tipo singular de hacker que combina técnicas de engenharia social, não para convencer pessoas a entregar informação confidencial (como acontece tradicionalmente), mas, sim, para passar a fazer isso directamente com máquinas que correm software de IA e são persuadidas por uma “conversa” a entregar informação definida como privada pelas suas directivas de programação.
Os primeiros relatos disso aconteceram já com a referida integração do ChatGPT no Bing que, mesmo nos primeiros testes públicos, foi “persuadida”, com apenas pedidos conversacionais, a ignorar as suas regras de programação. Um estudante de Stanford conseguiu, assim, descobrir coisas como o nome de código da versão da IA e, mais preocupante, saber de algumas das restrições impostas pelos seus implementadores em termos de conteúdos considerados anti-éticos. O sucedido leva-nos a acreditar que, seguramente, será também possível inferir a funcionalidade básica desta IA e que a próxima, e mais poderosa, bot net do mundo pode estar à distância de uma “conversa de engate” digital.