Refiro-me, neste título, ao nome da nave espacial de Star Trek, com o capitão James T. Kirk ao comando, podendo este, em 2024, ser interpretado por Sam Altman, Satya Nadella ou Sundar Pichai. Já a Enterprise é, obviamente, representada pela IA. A minha maior dúvida na atribuição das personagens é quem estará a receber a ordem de Mr. Sulu: «Take us to warp speed». É que é a essa velocidade em que nos encontramos. Só no último mês tivemo, da OpenAI, novidades no ChatGPT que tornam o modelo IA da empresa multimodal (texto, voz, imagem, vídeo) em tempo real, com memória e a capacidade inferida de perceção de sentimentos humanos pela voz ou imagem do sujeito. Ou, comparado, como tem sido feito transversalmente, ao modelo de IA protagonizado pela voz de Scarlett Johansson no filme ‘Her’ e às potenciais relações sentimentais que podem ser criadas com estas “figuras” artificiais. Voltarei a este tema numa coluna futura, uma vez que é assunto que tem “pano para mangas”.
No entanto, poucas horas depois do anúncio da OpenAI, pudemos conhecer, no Google I/O, as novidades dos projectos das diversas empresas da Alphabet. Particularmente interessante nesta área, tivemos um da Deepmind (Project Astra) onde foram demonstrados exemplos dos futuros assistentes de IA que, apoiados pelo também multimodal sistema Gemini, podem interagir, descrever e raciocinar com o ambiente à sua volta, em tempo real. Foram estes os termos mencionados pela Google, que usou, numa demonstração, um smartphone Pixel e um protótipo de óculos para interagir como o ambiente circundante. Reconhecimento de objectos (o que fazem e para que servem), elucidar que funções executa determinado código num monitor ou geolocalizar-se, espreitando pela janela o local onde se encontra, são algumas das possibilidades.
Experimente fazer uma pesquisa na loja de aplicações do ChatGPT e vai perceber o alcance de tudo o que, em pouco mais de ano e meio, as empresas com acesso a este modelo conseguiram criar, verticalizar e incrementar em warp speed. Temos um conjunto de ferramentas que podemos usar para facilitar e exponenciar a produtividade no nosso dia-a-dia e nas tarefas que desempenhamos no âmbito do nosso trabalho.
Para dar alguma substância ao nome desta coluna, deixem que termine deixando-vos um exemplo de como Mr. Sulu pode ser bem conduzido. Em 2023, a NOS utilizou um modelo de análise de som para perceber o entusiasmo do público no NOS Alive – chamou-lhe ‘Entusiasmómetro’. Agora, transpôs a tecnologia para que apicultores possam avaliar a saúde da sua colmeia, com a app AI-Belha, num smartphone. Também aqui, fazendo uso de modelos de IA, será possível distinguir os sons da abelha rainha, detectar a sua presença e outros padrões sonoros que possam indicar sinais negativos da saúde da colmeia, tudo através do ruído emitido pela colmeia. NOS, e que tal colocar esta tecnologia na box de TV lá de casa?