Nos três meses que passaram desde a primeira crónica desta série, o contexto da IA evoluiu tanto, que as questões que tinha para esta última edição já não se aplicam. Mas surgiram tantas novas para fazer.
Na parte 3 desta série, queria abordar as questões filosóficas, éticas e sociais da inteligência artificial na produção de conteúdos. Não há espaço. Por isso, pedi ajuda ao Bing em esteróides IA (sim, esse!), que me indicou algumas: a privacidade dos dados e a transparência dos algoritmos que geram os conteúdos a responsabilidade jurídica pelos danos causados pelos conteúdos gerados pela AI; a inclusão e a diversidade dos grupos sociais representados nos conteúdos gerados pela AI; a autonomia e a moralidade das máquinas que possuem AI e podem produzir conteúdos. Nada mau, mas é só a superfície de um mar de dúvidas muito profundo.
Scott Aaronson diz que o ChatGPT não é uma arma nuclear. Para ele, é tão perigoso como uma torradeira e os maiores riscos que traz são aldrabar nos exames (que já passa com distinção). Optimista.
Ou, como outros sugerem, irá criar uma geração generativa que não cria nada por si mesma, apenas usa um sistema educado para criar algo à sua medida. Libertador, mas solipsista.
Segundo um artigo no The Conversation, a IA traz o colapso do processo criativo: passar directamente da ideia para o produto final é o fim da Arte que é, também, processo e técnica. Mas, na realidade, é a prova de que o que muitos fazem não é Arte, mas conteúdo.
E qual é o mal? Nenhum. Há gente a escrever histórias e a fazer BD para os seus filhos, a enviar poemas de amor para os seus parceiros, com a ajuda da IA. A IA é uma ferramenta excepcional para criar conteúdos mais depressa, que serão melhores ou piores de acordo com quem a usar. Como agora com as ferramentas que há. E, muita gente, como disse antes, não irá notar a diferença.
Tudo mudou de repente e não podemos voltar atrás.