Os gigantes tecnológicos dos EUA acreditavam que a sua liderança no campo da Inteligência Artificial era inabalável, pelo menos a curto prazo. Hoje, estão a reavaliar essa suposição, o que pode levar a uma grande reviravolta neste ecossistema. A startup chinesa DeepSeek explodiu em popularidade com um modelo que custou quase nada para construir e que até pode superar alguns dos modelos mais avançados das empresas americanas.
A DeepSeek apareceu recentemente no radar das grandes empresas de tecnologia, quando a sua aplicação para iPhone subiu rapidamente para o topo das mais descarregadas da App Store. A aplicação e o site associado permitem o acesso ao mais recente DeepThink R1 da empresa, um modelo de raciocínio semelhante ao GPT-4 da OpenAI ou ao Gemini Flash Thinking do Google. Também oferece um modelo generativo mais tradicional chamado DeepSeek V3, mas foi o poder do R1 que o levou a destronar o ChatGPT na App Store.
Aparentemente, os modelos de IA da DeepSeek cumprem ou excedem os padrões dos modelos de código aberto mais capazes, como o Meta Llama. Até conseguem competir com os maiores modelos de código proprietário fechado, como o GPT-4 da OpenAI. Ao mesmo tempo, a DeepSeek está a trabalhar sem os benefícios do hardware mais recente e mais rápido.
Nos últimos anos, os EUA têm restringido a exportação para a China dos modelos de aceleradores de IA mais poderosos e também de equipamentos de fabrico de chips. Através da imposição de restrições de exportação, o governo americano esperava atrasar os esforços da China para usar a tecnologia de IA em aplicações militares. A Nvidia cumpriu as restrições, com a criação de versões menos poderosas das suas placas para aplicações de IA, como a H800 e, posteriormente, a H20. Esses aceleradores menos poderosos tinham o objectivo de o desenvolvimento de tecnologias de IA na China sob controlo, mas parece que essa estratégia não está a ser bem-sucedida.
De acordo com o site Axios, a DeepSeek conseguiu criar o R1 usando placas Nvidia H800 por apenas 6 milhões de dólares. A OpenAI, Google e o resto das grandes empresas de tecnologia estão a gastar centenas de milhões de dólares em cada novo modelo. Esses modelos aumentam de trimestre para trimestre, adicionando milhares de milhões de parâmetros, mas talvez essa não seja a única maneira de fazer avançar a IA generativa.
A notícia do sucesso repentino da DeepSeek causou ondas em Silicon Valley. A Nvidia, que viu a sua avaliação disparar nos últimos anos, está no meio de uma queda no valor das acções. Desde sexta-feira, o preço das acções da empresa caiu cerca de 20%, eliminando mais de 500 mil milhões de dólares em valor.
De acordo com várias notícias, embora a DeepSeek ainda esteja a usar hardware da Nvidia, o uso de aceleradores mais lentos específicos para a China sugere que as empresas podem não precisar de gastar muito nos novos componentes Blackwell da empresa. Espera-se que cada chip Blackwell custe mais de 70.000 dólares. É incerto como as empresas de IA dos EUA irão reagir, mas vão ter de fazer algo.
O que torna o DeepSeek-R1 especial em comparação com os modelos de IA concorrentes?
Como pode ter adivinhado, o R1 oferece capacidades semelhantes com o OpenAI GPT-4 em matemática, codificação e raciocínio. De acordo com um artigo publicado pela empresa de IA na semana passada, as capacidades de raciocínio surpreendentes do modelo são baseadas numa técnica apelidada ‘aprendizagem por reforço puro’. O gestor sénior de pesquisa da NVIDIA, Jim Fan, afirma que a técnica é semelhante à abordagem do Google DeepMind com o AlphaZero, que demonstrou a sua competência numa vasta gama de jogos, incluindo Go e xadrez “sem imitar primeiro os movimentos dos grandes mestres humanos”.
O que exactamente o R1 faz? A DeepSeek diz que atinge “desempenho comparável ao OpenAI GPT-4 em tarefas de matemática, geração de código e de raciocínio”.
Curiosamente, o R1 obteve uma pontuação de 79,8% no benchmark de matemática AIME 2024, superando o modelo de raciocínio GPT-4 da OpenAI. Demonstrou ainda nível especialista em testes de codificação com uma classificação Elo de 2.029 no Codeforces e superou 96,3% dos concorrentes humanos.
A aprendizagem por reforço promove comportamentos de raciocínio poderosos e interessantes, permitindo que o modelo desenvolva capacidades avançadas como autoverificação e reflexão sem treino ou programação prévios.