Era uma questão de tempo até que a mais recente “estrela” da inteligência artificial começasse a ser usada para fins mais obscuros – a Check Point diz que o ChatGPT (uma ferramenta de AI que gera texto a pedido de um utilizador e que consegue manter uma conversa minimamente natural) começou a “trabalhar” para hackers.
Segundo a empresa de segurança, estão a ser criados «infostealers, ferramentas de encriptação e malware», entre outros “projectos” maliciosos, para «facilitar» actividades ilegais dos cibercriminosos. Em concreto, uma investigação da Check Point concluiu a existência de três casos, em concreto.
O primeiro foi a criação de um infostealer (roubo de informação), detectada num «fórum popular, dedicado ao hacking». Numa discussão com o nome ‘ChatGPT – Benefits of Malware’, a empresa percebeu que o o autor estaria a «experimentar recriar estirpes e técnicas» deste género.
Segundo a Check Point, esta facilidade com que se pode recorrer a esta ferramenta de AI para gerar texto, faz com que «hackers mais experientes e com mais conhecimento possam escalarem os seus ataques» e que os «menos experientes» usem o Chat GPT para «melhorarem os seus ataques».
Depois, foi detectada a intenção de conceber «ferramentas de encriptação multi-camada». Aqui, a descoberta foi mais precisa: um hacker conhecido por USDoD confirmou ter usado a ajuda da OpenAI (a “dona” do ChatGPT), para criar código malicioso.
Apesar de a Check Point assumir que a escrita de código com recurso a IA pode ter um fim benigno, lembra que basta alterar partes do mesmo para que seja transformado numa ferramenta de «ransomware».
Finalmente, foi detectado o caso de um hacker que demonstrou como criar um «marketplace na dark Web, para vendas ilegais», como por exemplo de «contas, cartões de crédito roubados, malware ou até mesmo drogas».
De acordo com Sergey Shykevich, threat intelligence group manager da Check Point, apesar de as ferramentas descobertas pela empresa serem «muito básicas», o responsável considera ser uma «questão de tempo até que hackers mais experientes melhorem as formas como usam as ferramentas de inteligência artificial».