O modelo de IA "perigoso demais para publicar" foi hackeado no dia do anúncio
Hackers invadiram o Claude Mythos via Discord. Mais: Apple CEO, Google Cloud Next, Stanford AI Index e mais.
Bom dia, pessoal!
Que semana. A Apple revelou seu próximo CEO, o Google anunciou sua agenda agêntica para empresas, e um dos modelos de IA mais restritos do mundo foi acessado por um grupo externo no mesmo dia em que sua existência foi confirmada. O Stanford AI Index chegou com dados que mostram a velocidade em que tudo está mudando.
IA Stack desta semana:
🔷 Apple tem novo CEO: John Ternus assume em setembro
🔷 Google Cloud Next 2026: a era das empresas agênticas
🔷 OpenAI lança o GPT-5.5 com foco em programação agêntica
🔷 SpaceX pode comprar o Cursor por US$ 60 bilhões
🔷 Stanford AI Index 2026: China a 2,7% dos EUA em modelos de IA
🔷 Hackers acessaram o Claude Mythos no dia do anúncio
🔷 DeepSeek V4 chega como o modelo open-source mais capaz do mundo
🔷 Chatbots de IA erram em conselhos médicos metade das vezes
Tempo de leitura: 5 minutos
Apple tem novo CEO: John Ternus assume em setembro
Tim Cook será Executive Chairman a partir de setembro, após 15 anos como CEO. John Ternus, engenheiro de 51 anos com 25 anos de empresa, assume o cargo máximo. Johny Srouji vira Chief Hardware Officer.
O principal desafio de Ternus: destravar a estratégia de IA da Apple, que perdeu terreno para concorrentes, e gerenciar a relação com o governo Trump.
Google Cloud Next 2026: a era das empresas agênticas
O Google Cloud Next 2026 apresentou a Gemini Enterprise Agent Platform, TPUs de 8ª geração com 80% melhor performance por dólar e agentes de segurança que reduzem triagem de incidentes de 30 minutos para 60 segundos. Cases brasileiros no palco: Casas Bahia, CERC e Jusbrasil.
Sundar Pichai revelou que 75% do código novo no Google já é gerado por IA. Há um ano era 50%. Migrações que levavam meses agora levam dias com agentes.
OpenAI lança o GPT-5.5 com foco em programação agêntica
A OpenAI lançou o GPT-5.5, dois meses após o GPT-5.4, com foco em coding agêntico. O modelo alcança 82,7% no Terminal-Bench 2.0, superando o Claude Mythos Preview, e opera softwares de forma autônoma em fluxos de múltiplas etapas.
API a US$ 5 por milhão de tokens, o dobro dos modelos anteriores. Disponível no ChatGPT Plus e integrado ao Codex.
SpaceX pode comprar o Cursor por US$ 60 bilhões
A SpaceX tem opção de adquirir a Cursor, startup de coding por IA, por US$ 60 bilhões, ou pagar US$ 10 bilhões pela parceria via infraestrutura Colossus.
Em 16 meses, a Cursor foi de US$ 2,5 bi para US$ 29 bi. A aquisição dobraria esse valor, num dos maiores deals de ferramentas para desenvolvedores.
Stanford AI Index 2026: China a 2,7% dos EUA em modelos de IA
O Stanford AI Index 2026 revelou que a diferença de performance entre modelos americanos e chineses caiu para 2,7%. Em um ano, a taxa de sucesso em tarefas reais saltou de 20% para 77,3%. Investimentos globais: US$ 581,7 bi em 2025, alta de 130%.
No lado negativo: transparência dos modelos caiu de 58 para 40 pontos e 20% dos devs júnior perderam emprego.
Hackers acessaram o Claude Mythos no dia do anúncio
No dia em que a Anthropic confirmou o Claude Mythos, um grupo no Discord adivinhou o endereço do modelo e entrou via chaves de pentester de um vendor terceirizado. O Mythos detecta vulnerabilidades zero-day de forma autônoma.
O acesso era restrito a 40 empresas via Project Glasswing. A Anthropic diz que não houve impacto nos sistemas internos e está investigando.
DeepSeek V4 chega como o modelo open-source mais capaz do mundo
A DeepSeek lançou o V4, que lidera o ranking de modelos de pesos abertos e roda em chips Huawei, contornando as restrições de exportação americanas.
O lançamento reacende a mesma questão de 2025: a China avança em IA mesmo sem os chips mais avançados. O V4 é mais uma evidência de que sim.
Chatbots de IA erram em conselhos médicos metade das vezes
Pesquisadores do Reino Unido, EUA e Canadá testaram Gemini, DeepSeek, Meta AI, ChatGPT e Grok com perguntas de saúde. Metade das respostas foi problemática; em perguntas sobre câncer, 25% foram potencialmente prejudiciais.
O estudo (BMJ Open) conclui: o problema não é errar, é errar com confiança. Os chatbots apresentam desinformação com o mesmo tom de certeza que informação verificada.
Obrigado pela leitura, até a próxima. 👋


