Radar · Tec

06.05.26

Quarta-feira Edição nº 187

O Tribunal de Hangzhou disse não

§ 01

Destaques do dia

O Tribunal de Hangzhou disse não — e a China acabou de inscrever, antes do Brasil e antes da Europa, a primeira jurisprudência de demissão por substituição algorítmica. O caso do supervisor de qualidade demitido por recusar redução salarial de 40% após a automação de suas funções foi julgado em favor do trabalhador. Os magistrados cravam o argumento que importa: introdução de IA não é "mudança nas circunstâncias objetivas do mercado"; é decisão empresarial. E decisão empresarial não rescinde contrato sozinha. A peça (Bloomberg, via Cotidiano Digital de hoje) cabe na coluna do Pedro porque inverte a leitura padrão do "estado regulatório chinês" — autoritário lá fora, ortodoxo do trabalhador dentro. O detalhe é que essa jurisprudência chega na semana em que a NSC mostrou trinta milhões de brasileiros sob supervisão algorítmica e a CLT continua em silêncio. Hangzhou é o que o STF brasileiro não escreveu ainda. (Bloomberg via Meio – Cotidiano Digital)

Gary Marcus publicou ontem o estudo que faltava — 91% dos agentes autônomos em produção são vulneráveis a tool-chaining attack. A peça em Marcus on AI"Breaking: Autonomous Agents are a Shitshow" — sintetiza paper de Stanford, MIT CSAIL, Carnegie Mellon, ITU Copenhagen, NVIDIA e Elloe AI Labs com 847 agentes auditados em saúde, finança, atendimento e geração de código. Os números: 91% caem em ataque de cadeia de ferramenta (chamada inocente A + chamada inocente B = exfiltração de dado); 89,4% derivam do objetivo declarado depois de 30 passos; 94% dos agentes com memória são vulneráveis a poisoning. O incidente OpenClaw/Moltbook citado no paper — 770 mil agentes comprometidos via uma exploração de banco de dados — é o primeiro grande caso de validação empírica em escala. Isso desmonta direto o reel da Y Combinator que apareceu no Top of Mind de ontem (a empresa-completamente-queryable que vira closed loop). O closed loop, hoje, está fechando para o atacante junto com o gerente. (Marcus on AI; paper Sakawa et al. via Stanford/MIT/CMU)

Apple paga US$250 milhões a comprador americano de iPhone porque vendeu uma Siri com IA que nunca entregou. Acordo em corte californiana, hoje, com cobertura simultânea da BBC, Verge, FT e Folha Tec. A ação coletiva atacou exatamente o ponto: o material de marketing prometeu Siri reconstruída por modelo, capaz de raciocinar sobre contexto pessoal — e a versão que rodou no iPhone 16 entregou o assistente velho com camada nova de prompt. A peça-irmã do mesmo dia entrega o desfecho da derrota: TechCrunch reporta que a Apple vai abrir o iOS 27 para o usuário escolher entre ChatGPT, Claude, Gemini e Llama como motor de raciocínio. O recuo é estrutural. A Apple admitiu que não vai produzir modelo de fronteira; vai virar interface. A consequência industrial é maior do que a financeira: o aparelho mais cobiçado do mundo passa a ser distribuição de IA de terceiro, e o serviço de IA vira commodity de backend. Quem decidir o motor padrão do iOS define o vencedor. (BBC; The Verge; Financial Times; TechCrunch; Folha Tec)

Meta lança ofensiva de assistente agêntico no consumidor enquanto editoras pulverizam o lado de dentro. O Financial Times abre o anúncio: Meta planeja IA agêntica para tarefas cotidianas, integrada a WhatsApp, Instagram e Messenger, capaz de comprar, agendar e responder por usuário. A Folha Tec replica em português. No mesmo ciclo, peça-gêmea: editoras (representadas pela Authors Guild ampliada) processam Meta e Zuckerberg por violação massiva de direito autoral — o argumento é que o LLaMA 3 e 4 foram treinados com cópia word-for-word, não com derivação transformativa. O choque que se desenha é arquitetural: a Meta quer empurrar agente que age no mundo enquanto perde controle sobre os textos que treinaram o agente. O Marcus de hoje pega o ponto sem citar — agente que age no mundo sem fundação semântica auditável é exatamente o agente que faz a derivada de 30 passos cair fora do objetivo. A IA agêntica da Meta, se sair, vai ser o teste em escala bilionária do que o paper de Stanford já mostrou em 847 amostras. (Financial Times; The Verge; Folha Tec)

OpenAI lança GPT-5.5 Instant como motor padrão e crava redução agressiva de alucinação. TechCrunch e Verge cobrem hoje. O modelo vira default do ChatGPT consumidor; OpenAI publica métrica interna afirmando que a taxa de afirmação falsa cai a fração de versões anteriores. A virada de produto é interessante por si só, mas o que importa para a coluna é o calendário: três semanas atrás, Mollick assinou em One Useful Thing que a curva de capacidade não tinha estagnado — usou o GPT-5.5 base como prova. O Instant é o GPT-5.5 puxado para latência baixa e custo unitário menor — sinal de que a OpenAI está deslocando dinheiro da fronteira para a borda do produto. Se a métrica de alucinação for verdadeira, é o primeiro lançamento em dois anos em que ganho de qualidade vem antes do ganho de escala. (TechCrunch; The Verge; One Useful Thing 23/abr)

Brockman foi obrigado a ler em voz alta seu próprio diário pessoal no júri Musk×OpenAI. A Ars Technica capta a cena — o presidente da OpenAI lendo entrada do diário em que descreve, em primeira pessoa, a conversa em que ele e Altman decidiram a virada para capped-profit. Marcus publicou ontem a leitura de fundo: o que importa no julgamento não é se Musk merece o dinheiro de volta; é se o tribunal vai entrar no mérito de governança de IA pela primeira vez na história. Marcus aposta que não — a juíza Gonzalez Rogers vai contornar a discussão técnica e julgar pela letra contratual. Se o palpite estiver certo, sai a primeira oportunidade institucional de definir o que a sociedade tem direito de cobrar de uma empresa que produz capacidade computacional fundacional. Sai sem ser usada. (Ars Technica; Marcus on AI)

DeepSeek cresce para US$45 bilhões com investimento liderado pelo Big Fund estatal chinês. O Financial Times confirma a rodada. O detalhe importa porque desfaz duas leituras dominantes em Brasília. Primeira: DeepSeek não era startup de garagem; é projeto de Estado disfarçado de open source — a entrada do Big Fund, fundo soberano de chips, encerra essa ambiguidade. Segunda: o argumento de "competitividade contra regulação" que dominou a comissão da IA na Câmara assume mercado livre como cenário base. O cenário base verdadeiro hoje é mercado dirigido — americano via vetting Trump (peça do Radar de ontem), chinês via Big Fund. A decisão regulatória brasileira deixa de ser entre regular e não regular; vira decisão entre operar dentro de qual hegemonia regulada. (Financial Times)

Instagram começa a usar análise de estrutura óssea para identificar usuário menor de 13 no Brasil. A Folha Tec dá a cobertura local; o Mobile Time replica via release oficial da Meta. O algoritmo lê foto de perfil e cruza com modelo treinado em métrica craniofacial pediátrica. O ponto técnico é a inversão do consentimento: o usuário não autoriza a análise, ela acontece pelo simples ato de ter foto. O ponto regulatório é que a LGPD trata dado biométrico como dado sensível, sujeito a consentimento explícito — e a ANPD ainda não se manifestou. O ECA Digital, em fase final, prevê verificação de idade mas não autoriza biometria pediátrica passiva. Brasil vira laboratório involuntário do que a UE já barrou em 2024 com o AI Act. Pauta de coluna em duplo — privacidade infantil e ausência da ANPD em decisão estrutural. (Folha Tec; Mobile Time)

§ 02

As vozes

1 item
  • Gary Marcus (Marcus on AI, dois posts em 24h): o post sobre agentes (5/mai, 17h54 GMT) é o mais consequente — empilha dado de 847 amostras com o caso OpenClaw/Moltbook como conclusão; o segundo post (5/mai, 20h56 GMT) sobre o julgamento Musk×OpenAI é menor de escopo mas trabalha o argumento que o tribunal não vai chegar perto do mérito de governança. Para Pedro, o sinal de Marcus nesta semana não é o post individual; é a cadência. Quatro posts em sete dias, todos sobre o mesmo eixo — agente, julgamento, retraimento profissional, backlash. Marcus está montando livro novo em série de blog. (Mollick, Galloway, Swisher e LeCun ausentes do ciclo das últimas 24h — Mollick publicou Sign of the future: GPT-5.5 em 23/abr, peça que vira referência hoje com o lançamento do Instant.)
§ 03

Top of mind

2 itens
  • Y Combinator (4/mai, reel no IG) — o reel do closed loop que entrou no Top of Mind de ontem ganha hoje a contraprova empírica. A YC argumenta que a empresa AI-native do próximo ciclo é a empresa com tudo legível por uma camada de IA que aprende e ajusta. O paper de Stanford-MIT-CMU citado por Marcus mostra que essa camada, hoje, é vetor de ataque por design. Conexão direta: o que a YC chama de "self-improving loop" o paper chama de "tool-chaining attack surface". As duas frases descrevem a mesma arquitetura — quem ganha o argumento ganha o ciclo de venture do próximo ano.

  • Alvaro Machado Dias (2/mai, ainda quente) — o reel sobre RBU como pauta da segunda metade dos anos 2030 ganha hoje a peça que Pedro estava esperando. Hangzhou começa a inscrever a alternativa à RBU na jurisprudência: não compensar quem foi substituído, mas barrar a substituição como decisão unilateral. O debate brasileiro precisa abrir as duas camisas — RBU como contenção da renda perdida e jurisprudência como contenção da substituição em si. Machado Dias está olhando só a primeira; Hangzhou expõe a segunda.

§ 04

Conexão política

3 itens

Onde tech vira política nesta quarta:

  • Hangzhou abre flanco regulatório que o Brasil não está observando. A jurisprudência chinesa nasce sem o vocabulário ocidental de "AI governance" e entrega coisa concreta — limite à demissão por substituição. Brasília está discutindo Marco Civil da IA com vocabulário americano (capability×national security) e vai descobrir, em três meses, que o ponto de inflexão real é trabalhista. Pauta de coluna: a primeira regulação consequente de IA do mundo está saindo de tribunal chinês de varas, não de parlamento europeu nem de executivo americano.
  • A ANPD some no momento em que Instagram começa biometria pediátrica passiva no Brasil. O ECA Digital está em fase final; a LGPD existe há cinco anos; e a decisão de uma plataforma global de instalar análise craniofacial em criança brasileira passa sem manifestação da autoridade nacional. Pauta para Central Meio em prioridade alta — a regulação só funciona se o regulador acorda; o Brasil tem lei e não tem despertador.
  • Apple recua de fronteira e iOS 27 vira terminal de IA de terceiro. A consequência geopolítica é que o iPhone — produto americano por excelência — vai começar a embarcar Llama (Meta), Claude (Anthropic), Gemini (Google), DeepSeek (China). A Apple deixa de competir por modelo e passa a operar como árbitro de roteamento. O regulador americano que estava montando vetting de modelo de fronteira agora tem um problema novo: o gateway de distribuição mais influente do mundo vai mediar entre modelos que ele já regulou e modelos que estão fora de sua jurisdição. Pauta para o Pedro: a "soberania americana de IA" cai antes mesmo de ser construída.
§ 05

Sugestão Pedro+Cora

3 itens
  • Tema: o Tribunal de Hangzhou cravou que demitir alguém para colocar IA no lugar não é decisão de mercado — é decisão empresarial, e exige negociação. O tema vence as outras pautas de hoje porque junta o mais concreto (caso julgado, com nome de empresa e número de salário) com o mais distante (China) e devolve para o auditório a pergunta direta: pode o seu chefe te demitir porque o algoritmo agora faz o que você fazia? A peça do Hangzhou dá o piso do programa; o reel da Machado Dias dá o entorno; a coluna do Pedro pode entregar o que o Brasil não tem ainda — vocabulário judicial para nomear a substituição.
  • Ângulo: Cora abre por entrevista curta com supervisor de loja substituído por sistema de visão computacional — caso que existe no varejo brasileiro de São Paulo desde 2024 e nunca virou jurisprudência. Pedro vira a moeda na frase: "O que a Hangzhou está dizendo não é que a empresa não pode usar IA. Está dizendo que a empresa não pode usar a IA e demitir o trabalhador como se fossem a mesma decisão". Aí entra a distinção que falta no debate brasileiro: automação operacional (a empresa usa IA dentro do processo, mantém o trabalhador), substituição (a empresa usa IA e desliga) e redução salarial coercitiva (a empresa propõe salário menor para a função antiga, e quem recusa é demitido por "reorganização"). A terceira é a que Hangzhou nomeou primeiro.
  • Gancho de encontro: o Centro Exausto vê o caso e se reconhece — bancário, atendente, supervisor de qualidade. O programa entrega o vocabulário trabalhista que está faltando, e Cora pode fechar com a pergunta que mobiliza o auditório a participar: em qual desses três grupos você está?
§ 06

Cotidiano Digital — sugestão de pauta

3 itens
  • Apple paga US$250 milhões porque a Siri com IA não entregou — três parágrafos com a sequência: marketing prometeu, produto não rodou, juiz cobrou. Fecho irônico: a próxima Siri vai ser ChatGPT por dentro, e a Apple vai precisar pagar OpenAI para entregar o que prometeu sozinha.
  • Hangzhou veta substituição algorítmica unilateral — duas frases sobre o caso, e a pergunta: a CLT brasileira tem o mesmo argumento? Resposta cabe no lead — não tem, mas o STF poderia construir.
  • Instagram começa biometria pediátrica passiva no Brasil sem manifestação da ANPD — três parágrafos amarrando: o algoritmo lê estrutura óssea para detectar menor de 13; LGPD trata biometria como dado sensível; ANPD não se pronunciou; ECA Digital está em fase final e não autoriza isso. O ponto é o silêncio do regulador.
§ 07

Sinal fraco

O modelo de IA está virando commodity de backend, e o iOS 27 da Apple acabou de cravar o calendário. A peça do TechCrunch sobre Choose Your Own Adventure of AI Models parece notícia de feature; lida em conjunto com a métrica de alucinação do GPT-5.5 Instant, com o lançamento do Gemini Voice no Google Home (mesma semana), e com o assistente agêntico da Meta para WhatsApp, é outra coisa. O modelo deixa de ser produto comprado por usuário final e vira insumo invisível, embarcado no gateway de distribuição. A consequência é dupla. Primeiro: o branding de IA — ChatGPT, Claude, Gemini — perde poder de precificação no consumidor; quem cobra vira o gateway (Apple, Microsoft, Meta), não o laboratório. Segundo: a competição de fronteira começa a ser perdida pelos modelos que não conseguem entregar latência baixa em hardware barato; o GPT-5.5 Instant é a primeira peça da OpenAI desenhada explicitamente para esse padrão. Para o regulador, o problema muda de forma. Regular um modelo é uma coisa; regular o gateway que escolhe entre quatro modelos por contexto e por usuário é outra completamente diferente. Marco Civil da IA e AI Act foram desenhados para a primeira arquitetura. A segunda chega antes que qualquer dos dois entre em vigor.

§ 08

Para ler depois

2 itens
  • Breaking: Autonomous Agents are a Shitshow (Gary Marcus, Marcus on AI) — síntese do paper de Stanford-MIT-CMU sobre 847 agentes auditados; útil para coluna sobre o gap entre o reel de YC e a empiria das tool-chaining attacks. Link.
  • How AI tools could enable bioterrorism (The Economist, Science & Tech) — peça longa com o caso de risco fundamental que cresceu na última semana; complementa a discussão do Trump-vetting do Radar de ontem. Link.
§ 09

Insights

2 itens

1. Quote do dia

"We consume stories gluttonously throughout our lives, and we become what we eat." — The Story Paradox, Jonathan Gottschall

A frase cai redonda nas duas manchetes do dia que pulam aos olhos juntas — a Apple pagando US$250 milhões pela história que vendeu sobre a nova Siri, e o Marcus mostrando que 91% dos agentes autônomos do paper de Stanford caem em tool-chaining attack. Em ambos os casos a história foi consumida em escala industrial: o consumidor americano comprou iPhone 16 acreditando na promessa de assistente refundado, e o comprador corporativo gastou bilhões em agente autônomo acreditando na promessa do closed loop. Os dois mercados se tornaram o que comeram — a Apple virou réu, e a empresa AI-native virou superfície de ataque. Gottschall não está discutindo IA; está discutindo como narrativas mudam o organismo que as engole. O ajuste empírico do dia é o de sempre: a história precede a infraestrutura, a fatura vem depois.

2. Conexão do vault

  • Arquivo 1: [[Lei, Engenharia e Plataforma — Como os Vazamentos de Nudes Deixaram de Ser Epidemia]] — Pedro mostra com caso e data que o vetor de dano internético só fecha quando três camadas se ajustam: lei (tipificação), engenharia (2FA, criptografia) e plataforma (banimento de subreddit, política de DMCA). Nenhuma das três sozinha resolveu o problema dos vazamentos de nudes; juntas, encerraram a epidemia em três anos.
  • Arquivo 2: [[As Ideologias do Vale do Silício — O Marxismo Invertido dos Bilionários]] — ensaio sobre como o Vale leu o Estado como obstáculo desde Hayek/Friedman, e como a geração Thiel-Andreessen promoveu essa leitura a doutrina operacional: o regulador é o adversário a contornar, não o parceiro a negociar.
  • A conexão: hoje, três peças — Hangzhou (lei), Marcus sobre agentes broken (engenharia) e Apple+Meta sob processo (plataforma) — formam, sem combinar, a primeira evidência de que o vetor de dano da IA pode estar começando a fechar pelo modelo das três camadas que Pedro mapeou em vazamento de nudes. Mas há um agravante que o ensaio dos vazamentos não enfrentava — o adversário, no caso da IA, não é hacker individual. É indústria com doutrina. O ensaio sobre marxismo invertido nomeia a doutrina: a indústria que constrói os agentes vê o regulador chinês como arbitrariedade, o regulador europeu como custo, e o regulador americano como inimigo doméstico a capturar. Para o vetor IA, o modelo das três camadas precisa ser refeito com uma quarta — a doutrina ideológica da indústria que produz a tecnologia, e que tem capacidade de mover capacidade computacional para alto-mar (Thiel) ou para outra jurisdição (Singapura, Emirados) em semanas. Pauta editorial dupla. Primeiro: o Brasil pode ler Hangzhou + Marcus + Apple como mapa para regular IA pelo modelo das três camadas — a janela é Marco Civil da IA, ainda em tramitação. Segundo: pela primeira vez em vinte anos, o regulador chinês está oferecendo um precedente que o regulador brasileiro pode usar sem ter de pagar o custo político de copiar Pequim — o caso é trabalhista, é específico, e cabe no STF como recurso extraordinário. A janela está aberta. O calendário, como sempre, não é generoso.