No evento DevDay da OpenAI, que se realizou ontem em São Francisco, o CEO da empresa, Sam Altman, anunciou uma grande actualização do modelo de linguagem GPT-4 que recebeu o nome de GPT-4 Turbo. Esta nova versão tem mais capacidade de processamento de texto que o anterior GPT-4 e tem conhecimento do que ocorreu no mundo até Abril de 2023. Altman também anunciou novas API para o DALL-E 3, GPT-4 Vision e funcionalidades de texto para fala. Por fim, também anunciou uma ‘Assistants API’ que tem o objectivo de facilitar a criação de aplicações de inteligência artificial.
Durante o evento, o CEO da OpenAI forneceu alguns detalhes acerca da forma como a plataforma da empresa está a ser usada actualmente em todo o mundo: mais de 2 milhões de programadores e empresas estão a desenvolver aplicações usando as API da OpenAI, mais de 92% das empresas que fazem parte do ranking Fortune 500 estão a criar aplicações com base na plataforma da empresa e que o ChatGPT tem mais de 100 milhões de utilizadores activos todas as semanas.
Actualizações ao GPT-4
Durante a apresentação, Altman anunciou modelos de linguagem ou ‘GTPs’ personalizados pelos utilizadores e partilháveis que podem desempenhar papéis específicos. Estes assistentes com IA personalizados serão depois vendidos numa loja que se chamará ‘GPT Store’ com um modelo de negócio semelhante ao usado nas lojas de aplicações para dispositivos móveis que já existem. Por exemplo, podem ser criados assistentes para ajudar a escrever, ajudar a cozinhar ou ajudar com problemas de matemática.
Os Large Language Models ou LLM, como o GPT-4, usam uma “janela de contexto” que define a quantidade de texto que conseguem processar de uma só vez. O comprimento do conteúdo desta janela pode ser medido em ‘tokens’, que são compostos por pedaços de palavras. De acordo com a OpenAI, um token corresponde aproximadamente a quatro caracteres de texto em Inglês, ou cerca de três quartos de uma palavra. Isto quer dizer que o GPT-4 Turbo consegue usar 96000 palavras de cada vez, o que é uma quantidade maior de texto que o presente em muitos livros. O aumento do contexto para 128 K também quer dizer que é possível manter conversas mais longas sem que o assistente perca o fio à meada a meio. O GPT-4 tem uma janela de contexto com 8000 tokens e 32K através da API para algumas aplicações.
Até agora, o GPT-4 só incorporava conhecimento dos acontecimentos mundiais até Setembro de 2021. O GPT-4 Turbo já consegue identificar acontecimentos até Abril de 2023, tornando-o o modelo mais actual da OpenAI.
No que respeita aos custos, a execução do GPT-4 Turbo através da API custa menos um terço que a do GPT-4 nos tokens de input (0,01 dólares por cada 1000 tokens) e metade para os tokens de output (0,3 dólares por cada 1000 tokens). A OpenAI também baixou os preços de utilização da API do GPT-3.5 Turbo. A empresa também anunciou que duplicou os limites de tokens por minuto para todos os utilizadores pagantes do GPT-4.
Novas API com mais funcionalidades
As API, ou Application Programming Interfaces, são formas para vários programas diferentes comunicarem entre si. Permitem, por exemplo, aos programadores integrarem os modelos da OpenAI nas suas aplicações. A partir de agora, já é possível aceder às API para o GPT-4 Turbo com capacidade de análise de imagens para depois usar esse conteúdo nas conversas com os utilizadores, à API do DALL-E 3, que permite a geração de imagens através de prompts e ao modelo de texto para fala da OpenAI.
Também foi apresentada a ‘Assistants API’ que serve para ajudar os programadores a construírem novas experiências de utilização dentro das suas aplicações.
Por fim, a OpenAI também apresentou o ‘Copyright Shield’ que é o compromisso da empresa em proteger a própria empresa e os seus clientes de problemas legais com direitos de autos pela utilização das ferramentas de geração de texto e de imagem. Este “escudo” não se aplica aos utilizadores das versões gratuitas e da versão Plus.