A empresa chinesa de IA DeepSeek surgiu como uma potencial desafiadora às empresas americanas de IA, demonstrando modelos inovadores que afirmam oferecer desempenho comparável às principais ofertas por uma fração do custo. O aplicativo móvel da empresa, lançado no início de janeiro, liderou recentemente as paradas da App Store em mercados importantes, incluindo EUA, Reino Unido e China, mas ainda enfrenta dúvidas sobre a veracidade de suas alegações.
Fundada em 2023 por Liang Wenfeng, ex-chefe do fundo hedge quantitativo High-Flyer, os modelos da DeepSeek são de código aberto e incorporam um recurso de raciocínio que articula seu processo de pensamento antes de fornecer respostas.
As reações de Wall Street têm sido mistas. Enquanto a corretora Jefferies alerta que a abordagem eficiente da DeepSeek “fura parte da euforia com gastos de capital” após os compromissos recentes da Meta e Microsoft — cada um ultrapassando US$ 60 bilhões este ano — o Citi questiona se tais resultados foram realmente alcançados sem o uso de GPUs avançadas.
O Goldman Sachs vê implicações mais amplas, sugerindo que o desenvolvimento pode remodelar a competição entre gigantes tecnológicos estabelecidos e startups, reduzindo barreiras à entrada.
Veja como os analistas de Wall Street estão reagindo à DeepSeek, em suas próprias palavras (ênfase nossa):
Jefferies
“As implicações da DeepSeek no uso de energia para treinamento de IA furam parte da euforia com gastos de capital que seguiu grandes compromissos feitos por Stargate e Meta na semana passada. Com a DeepSeek entregando desempenho comparável ao GPT-4o por uma fração da potência computacional, há implicações negativas potenciais para os construtores, pois a pressão sobre os players de IA para justificar planos de gastos de capital crescentes pode, em última análise, levar a uma trajetória mais baixa para a receita e crescimento de lucros de data centers.
Se modelos menores podem funcionar bem, isso pode ser potencialmente positivo para smartphones. Somos pessimistas em relação a IA para smartphones, pois ela não ganhou tração com os consumidores. Mais atualizações de hardware (pacote avançado + DRAM rápida) são necessárias para rodar modelos maiores no telefone, o que aumentará os custos. O modelo da Apple, na verdade, é baseado em MoE, mas 3 bilhões de parâmetros de dados ainda são muito pequenos para tornar os serviços úteis aos consumidores. Assim, o sucesso da DeepSeek oferece alguma esperança, mas não há impacto no cenário de curto prazo para smartphones de IA.
A China é o único mercado que busca eficiência em LLM devido à limitação de chips. Trump/Musk provavelmente reconhecem que o risco de mais restrições força a China a inovar mais rápido. Portanto, achamos provável que Trump relaxe a política de difusão de IA.”
Citi
“Embora a conquista da DeepSeek possa ser revolucionária, questionamos a noção de que seus feitos foram realizados sem o uso de GPUs avançadas para ajustá-los e/ou construir os LLMs subjacentes que o modelo final utiliza por meio da técnica de destilação. Embora o domínio das empresas americanas nos modelos de IA mais avançados possa ser potencialmente desafiado, estimamos que, em um ambiente inevitavelmente mais restritivo, o acesso dos EUA a chips mais avançados é uma vantagem. Assim, não esperamos que as principais empresas de IA se afastem de GPUs mais avançadas, que oferecem $/TFLOPs mais atraentes em escala. Vemos os recentes anúncios de gastos em IA, como o Stargate, como um aceno à necessidade de chips avançados.”
Bernstein
“Resumindo, acreditamos que: 1) a DeepSeek NÃO ‘construiu a OpenAI por US$ 5M’; 2) os modelos parecem fantásticos, mas não achamos que sejam milagres; e 3) o pânico gerado no Twitter neste fim de semana parece exagerado.
Nossa reação inicial não inclui pânico (longe disso). Se reconhecermos que a DeepSeek pode ter reduzido os custos para alcançar um desempenho equivalente em, digamos, 10x, também observamos que as trajetórias atuais de custo dos modelos estão aumentando em cerca de 10x por ano, de qualquer maneira (as infames ‘leis de escala…’), o que não pode continuar para sempre. Nesse contexto, PRECISAMOS de inovações como esta (MoE, destilação, precisão mista, etc.) para que a IA continue progredindo. E para aqueles que buscam adoção de IA, como analistas de semicondutores, acreditamos firmemente no paradoxo de Jevons (ou seja, ganhos de eficiência geram um aumento líquido na demanda) e acreditamos que qualquer nova capacidade computacional desbloqueada é muito mais provável de ser absorvida devido ao aumento no uso e na demanda, em vez de impactar a perspectiva de gastos no longo prazo neste ponto, já que não acreditamos que as necessidades computacionais estejam perto de atingir seu limite na IA. Também parece exagerado pensar que as inovações implantadas pela DeepSeek são completamente desconhecidas pelos numerosos pesquisadores de IA de ponta nos outros grandes laboratórios de IA do mundo (francamente, não sabemos o que os grandes laboratórios fechados têm usado para desenvolver e implantar seus próprios modelos, mas simplesmente não podemos acreditar que eles não consideraram ou até usaram estratégias semelhantes).”
O paradoxo de Jevons ataca novamente! À medida que a IA se torna mais eficiente e acessível, veremos seu uso disparar, transformando-a em uma commodity da qual simplesmente não conseguimos nos cansar. https://t.co/omEcOPhdIz — Satya Nadella (@satyanadella) January 27, 2025
Morgan Stanley
Ainda não confirmamos a veracidade desses relatos, mas, se forem precisos, e modelos avançados de LLM realmente puderem ser desenvolvidos por uma fração do investimento anterior, poderíamos ver a IA generativa eventualmente rodar em computadores cada vez menores (reduzindo-se de supercomputadores para workstations, computadores de escritório e, finalmente, computadores pessoais). A indústria de SPE (semicondutores e equipamentos especializados) poderia se beneficiar do aumento correspondente na demanda por produtos relacionados (chips e SPE) à medida que a demanda por IA generativa se espalha.
Goldman Sachs
Com os últimos desenvolvimentos, também vemos:
- uma possível competição entre gigantes da internet, ricos em capital, e startups, dado o menor custo de entrada, especialmente com novos modelos desenvolvidos por uma fração do custo dos existentes;
- uma transição do treinamento para mais inferência, com maior ênfase no pós-treinamento (incluindo capacidades de raciocínio e reforço), que exige significativamente menos recursos computacionais em comparação com o pré-treinamento; e
- potencial para uma maior expansão global de empresas chinesas, considerando seu desempenho e competitividade de custo/preço.
Continuamos esperando que a corrida por aplicações de IA e agentes de IA continue na China, especialmente entre aplicações voltadas ao consumidor (To-C), onde empresas chinesas têm sido pioneiras em aplicativos móveis na era da internet, como a criação do superapp Weixin (WeChat) pela Tencent. Entre as aplicações To-C, a ByteDance liderou lançando 32 aplicativos de IA no ano passado. Dentre eles, Doubao foi o chatbot de IA mais popular até agora na China, com o maior número de usuários ativos mensais (~70 milhões), recentemente atualizado para o modelo Doubao 1.5 Pro. Acreditamos que fluxos de receita incremental (assinaturas, publicidade) e um caminho sustentável para monetização e economia unitária positiva serão fatores-chave.
Na camada de infraestrutura, o foco dos investidores tem sido em saber se haverá uma discrepância de curto prazo entre as expectativas do mercado em relação a gastos de capital em IA (capex) e a demanda por computação, caso ocorram melhorias significativas na eficiência de custo/modelo. Para players chineses de nuvem/data center, continuamos acreditando que o foco em 2025 será a disponibilidade de chips e a capacidade dos provedores de serviços de nuvem (CSPs) de melhorar a contribuição de receita proveniente do crescimento da nuvem impulsionada por IA. Além disso, além da infraestrutura/aluguel de GPUs, como cargas de trabalho de IA e serviços relacionados podem contribuir para o crescimento e as margens no futuro. Permanecemos positivos em relação ao crescimento de longo prazo da demanda computacional em IA, pois uma maior redução nos custos de computação/treinamento/inferência pode impulsionar uma adoção mais ampla de IA. Veja também o Tema #5 do nosso relatório de temas principais para nossos cenários base/pessimistas para estimativas de capex do BBAT, dependendo da disponibilidade de chips, onde esperamos que o crescimento agregado de capex do BBAT continue em 2025 em nosso caso base (estimativa Goldman Sachs: +38% ano a ano), embora em um ritmo ligeiramente mais moderado em comparação com 2024 (+61% ano a ano), impulsionado por investimentos contínuos em infraestrutura de IA.
J.P. Morgan
Acima de tudo, muito tem sido dito sobre os artigos de pesquisa da DeepSeek e a eficiência de seus modelos. Não está claro até que ponto a DeepSeek está aproveitando as cerca de 50 mil GPUs Hopper da High-Flyer (similar em tamanho ao cluster no qual se acredita que o GPT-5 da OpenAI está sendo treinado), mas é provável que eles estejam reduzindo dramaticamente os custos (os custos de inferência de seu modelo V2, por exemplo, supostamente são 1/7 dos do GPT-4 Turbo). Sua afirmação subversiva (embora não nova) — que começou a impactar as empresas de IA dos EUA esta semana — é que “mais investimentos não equivalem a mais inovação”. Liang afirmou: “No momento, não vejo novas abordagens, mas as grandes empresas não têm uma vantagem clara. Grandes empresas têm clientes existentes, mas seus negócios de fluxo de caixa também são um fardo, e isso as torna vulneráveis a disrupções a qualquer momento.” E, ao ser perguntado sobre o fato de o GPT-5 ainda não ter sido lançado, Liang declarou: “A OpenAI não é um deus, eles não estarão necessariamente sempre na vanguarda.”
UBS
Ao longo de 2024, o primeiro ano em que vimos uma carga massiva de trabalho de treinamento de IA na China, mais de 80-90% da demanda por IDC (infraestrutura de data centers) foi impulsionada por treinamento de IA e concentrada em 1-2 grandes clientes hiperescala, o que se traduziu em demanda de IDC em áreas relativamente remotas (visto que o treinamento de IA, que consome muita energia, é sensível ao custo de energia em vez de à latência do usuário).
Se os custos de treinamento e inferência de IA forem significativamente reduzidos, esperamos que mais usuários finais aproveitem a IA para melhorar seus negócios ou desenvolver novos casos de uso, especialmente clientes do varejo. Essa demanda por IDC significa mais foco na localização (uma vez que a latência do usuário é mais importante do que o custo de energia) e, assim, maior poder de precificação para os operadores de IDC que possuem recursos abundantes em cidades de nível 1 e satélites. Enquanto isso, um portfólio de clientes mais diversificado também implicaria maior poder de precificação.
Vamos atualizar a história à medida que mais analistas reagirem.
Fonte: TechCrunch
Traduzido via ChatGPT

