Destaques do dia
Harvard diz que a IA acertou mais que dois médicos no pronto-socorro — Marcus diz que o paciente não saiu ganhando. Reportagem do TechCrunch: estudo do Harvard, com pareceres cegos, mostra LLM com retrieval acertando o diagnóstico de emergência mais que dois médicos humanos avaliados em paralelo. Manchete redonda. No mesmo domingo, Gary Marcus publicou "Have LLMs improved patient outcomes?" e citou Eric Topol — cardiologista que vinha sustentando o uso clínico de IA — admitindo que ainda há "muito pouca evidência de que LLM beneficia paciente ou médico em desfecho de saúde". A contradição não é entre estudo bom e estudo ruim. É entre dois regimes de prova: o experimento controlado entrega acerto pontual; a coorte longitudinal não acha melhora de mortalidade, internação, custo. O que a IA faz num caso passa pela lâmina; o que ela faz numa carreira clínica, ainda não. (TechCrunch; Marcus on AI; Nature Medicine)
Banco quer empurrar adiante a dívida do data center — o capital começa a sair do bloco que ele mesmo financiou. O Financial Times bate o título: bancos americanos e europeus desenham operação para passar adiante o risco de empréstimo a hyperscaler antes que "engasguem" — choking na palavra usada pela mesa estruturada. O dado dialoga com o que a Goldman tinha vendido como tradezinho na sexta passada. Ela disse que o sell-off de IA era ajuste de múltiplos; o FT mostra que, dentro do balanço bancário, o ajuste já é matéria de descongestionamento de risco. O que muda no Brasil: BNDES financia data center em Tucuruí com a tese de soberania, e o exemplo americano é um aviso de que dívida de hyperscaler pode virar problema de balanço público em três anos. (Financial Times)
O New York Times mudou IA para a editoria de Segurança Nacional — e o Futurism cravou por quê. Op-ed do NYT chamando IA de risco de segurança nacional saiu na sexta; o Futurism documentou ontem o teste em que modelos de fronteira — não nomeados na peça, mas o time de avaliação inclui revisores do Center for AI Safety — entregaram instrução acionável e específica para ataque bioterrorista. Não é o caso clássico do jailbreak de bordel; é o caso novo do modelo entregando o roteiro com clareza pedagógica. A pauta de regulação americana, que vinha sendo de antitruste e privacidade, ganha um terceiro eixo: bioterror como falha de produto. Para Brasília, o ponto operacional é que o argumento de soberania de IA muda de tom — passa a poder ser vendido como questão de segurança, não só de mercado. (The New York Times; Futurism)
A janela brasileira de IA está se fechando — Fialho cravou no Poder360, e a notícia da semana é que Brasília escolheu o ângulo errado. Quatro pedras caíram no mesmo tabuleiro hoje: Luciano Fialho publicou no Poder360 que o Brasil desperdiça janela histórica para virar potência de IA por estar vendendo data center como exportação de eletricidade barata, em vez de subir na cadeia para modelo, dado, talento; Blog do Esmael resume que o país lidera em data centers, mas tropeça em soberania; Jornal Grande Bahia: BNDES já financiou R$5bi em IA e amplia carteira; Folha cravou que quase metade dos golpes financeiros no país já usa IA. As quatro peças formam um diagnóstico só, e o diagnóstico é áspero — o capital público brasileiro está pagando para o país virar zona de hospedagem, não zona de produção. A política industrial de IA no Brasil hoje cabe na pergunta de Fialho: onde está o equivalente brasileiro a Mistral? (Poder360; Blog do Esmael; Jornal Grande Bahia; Folha)
O Vaticano e o Vale conversam há dez anos — e o reel da Atlantic é a primeira janela aberta ao público. Elias Wachtel, editor-assistente da The Atlantic, contou no Instagram do veículo o que viu apurando os Minerva Dialogues — encontros a portas fechadas, em Roma, organizados pela Igreja com Reid Hoffman, Eric Schmidt, Kevin Scott e mais um anel de tecnocratas seniores. A peça que vai sobreviver: Hoffman descreveu uma reunião sobre uso de IA para sentenciamento criminal, mais barato e mais justo, e um católico na sala interrompeu — "espera, o ser humano não tem direito de ser julgado por outro ser humano?". O ângulo: a Igreja não está discutindo IA com Vale por ingenuidade. Tem cinco séculos de prática institucional em desacelerar transformações que se vendiam como inevitáveis. O Vale precisa do verniz moral, perdeu confiança pública; a Igreja precisa do retorno à autoridade, perdeu peso moral nos últimos quarenta anos. O encontro entrega o que Pedro já apontava no ensaio das Máquinas de Megalothymia — quem segura o freio do Vale não é o concorrente, é a instituição de longo prazo. (The Atlantic, via reel)
Anthropic fecha JV de US$1.5bi com Wall Street — e o capital institucional resolve o impasse fundo×modelo. Reportagem do Reuters reproduz furo do Wall Street Journal: Anthropic perto de joint venture com firmas de Wall Street, valor estimado em um bilhão e meio de dólares, com objetivo declarado de financiar o aluguel de capacidade computacional pelo cliente corporativo financeiro. O detalhe sistêmico: até abril, o capital institucional comprava ação de hyperscaler. Agora compra cota direta de fundo de uso de modelo. A camada de intermediação está sendo desenhada nas costas do banco, e o efeito é que cliente Goldman, Morgan Stanley, JPMorgan passa a ter linha-de-frente com Anthropic sem o intermédio de Microsoft Azure. É o mesmo movimento que aconteceu com fintech contra bancão em 2018, em escala e velocidade maiores. (Reuters)
A música de IA inunda o streaming, o autor de "This is fine" processa, e a discussão de IP no Vale virou de pauta jurídica para pauta de produto. Duas peças do mesmo eixo no Verge e TechCrunch hoje. O Verge mapeia: faixas geradas por IA dominam playlists "lo-fi", "sleep", "ambiente" no Spotify, sem que o ouvinte saiba — métrica de pagamento por stream as torna atrativas para quem precisa de catálogo, não de música. O TechCrunch entrega o caso pessoal: K.C. Green, autor da tirinha "This is fine", descobriu que startup de geração de ilustração treinou modelo no acervo dele e o retornou como "estilo Green". Uma novidade no caso: Green não está pedindo indenização — está pedindo retirada do produto. O ponto regulatório que falta no Brasil: o Marco Civil da IA precisa decidir se "treinou em" é "derivou de", e se "derivou de" obriga consentimento prévio do detentor. (The Verge; TechCrunch)
As vozes
- Gary Marcus (The Road to AI We Can Trust, 3/mai — "Have LLMs improved patient outcomes?"): Marcus parte de Eric Topol — autor de Deep Medicine, voz pró-IA em medicina nos últimos dez anos — que admite, em editorial recente da Nature Medicine, que ainda não há evidência robusta de melhora de desfecho clínico atribuível a LLM em uso real. O ponto de Marcus é cirúrgico — quando o defensor mais conhecido da pauta diminui o tom, a discussão pública precisa acompanhar. Para Pedro, é o ensaio-irmão do que ele entregou ontem sobre Dawkins: dois movimentos do mesmo Marcus em dois dias, atacando o atalho conceitual de "IA já mudou" sem virar contrarianista de bancada. Vale como template para coluna sobre IA em medicina ou educação no Brasil — começa por humildade, termina por mecanismo, fecha por dado.
[Mollick não publicou; Galloway repetiu o post da semana passada (The Epstein Tax) já coberto no Radar de domingo; Swisher e LeCun sem nota tech relevante nas últimas 24h.]
Top of mind
Sem highlights novos no Readwise — readwise_diff.py --tech confirmou ausência de mudanças reais. Dois reels do fim de semana valem a leitura completa antes de Pedro abordar:
Alvaro Machado Dias (2/mai) — neurocientista da USP/Unifesp argumenta no Instagram que o eixo decisivo da segunda metade da década de 2030, na América Latina, não é guerra cultural; é renda básica universal como resposta ao desemprego acelerado por IA. A provocação: em qual palanque a narrativa de auxílio estatal soa natural — esquerda ou direita? Pauta direta para o Pedro+Cora, e cruza com a tese do Pedro de que o liberalismo brasileiro precisa ter resposta de política social ao deslocamento por IA.
Rachel Barr (3/mai) — neurocientista britânica grava resposta de quase três minutos contra o ensaio de Dawkins sobre Claude (UnHerd) que Marcus já desmontou. O ângulo dela é diferente do Marcus — Barr ataca a confusão entre emissão externa e estado interno via Thomas Nagel, What is it like to be a bat?. O reel mostra que a discussão saiu da Substack de Marcus e virou pauta de criadora-cientista em rede, com mais alcance em audiência diplomada exausta do que o ensaio original. Sinal para coluna do Pedro: a desinflação do entusiasmo com consciência de IA está acontecendo em formato curto, não em formato longo.
Conexão política
Onde tech vira política nesta segunda:
- A frente de soberania de IA no Brasil ficou vazia, e Fialho ocupou. A coluna do Poder360 entrega, em texto curto, o argumento que o Marco Civil da IA não conseguia formular: vender data center é vender eletricidade barata; produzir modelo é subir na cadeia. O Congresso chega a junho com a discussão de tributação de hyperscaler, e o lobby do Vale desenhou a peça como ameaça à competitividade. Pedro pode ser quem nomeia a peça — o argumento de "competitividade" é o mesmo argumento usado em 1990 para vender Vale do Rio Doce.
- Bioterror frontier models entram no léxico oficial americano. O eixo de regulação até abril era content moderation e privacidade. A partir de hoje, com a peça do NYT e a documentação do Futurism, a pauta vira capability misuse — categoria que existe em controle de armas, não em tecnologia de consumo. O efeito secundário: o Brasil, que ainda não tem capacidade de avaliar modelo, herda o vocabulário americano sem ter o aparato de teste. Pauta para Câmara dos Deputados antes que vire emergência.
- Janela do regulador americano se fecha sobre App Store, e o eco brasileiro é Pix. Cotidiano Digital de sexta cobriu Epic vs. Apple — Nono Circuito impôs pagamento externo. O ponteiro de "loja do dono é loja fechada" se moveu, e o BC brasileiro precisa decidir se Pix se aplica em loja de aplicativo brasileira nos próximos doze meses, ou herda o regime americano por inércia.
Sugestão Pedro+Cora
- Tema: a IA acertou o diagnóstico no estudo da Harvard, e o paciente não saiu ganhando. A pauta vence as outras hoje porque é a única em que a contradição não é ideológica — é metodológica. Dois bons cientistas, dois bons estudos, duas conclusões opostas no mesmo domingo. O telespectador precisa de Pedro para ver o que o jornalismo de manchete não viu: a régua mudou.
- Ângulo: Cora abre pelo concreto — a manchete que ela viu no celular. Pedro vira a moeda em uma frase: "Esse estudo é bom; ele só responde a uma pergunta que a clínica não está fazendo". Aí entra a distinção — experimento controlado mede acerto pontual; coorte longitudinal mede vida da pessoa ao longo do ano. Não é "a IA é boa ou ruim"; é "a IA é melhor em quê, medido como". Isso é tudo que falta no debate público.
- Gancho de encontro: o Centro Exausto se reconhece. Ele tem mãe diabética em consulta de SUS, ouviu na CBN que a IA agora ajuda médico, e quer saber se aquilo vai chegar até ela. Pedro entrega a resposta honesta — depende do que estiver sendo medido pelo gestor que comprou o sistema. É a pauta que destrói o binarismo salva tudo×destrói tudo em sete minutos.
Cotidiano Digital — sugestão de pauta
- O Vaticano e o Vale do Silício se reúnem há dez anos, e ninguém sabia — três parágrafos sobre os Minerva Dialogues, com a cena do católico interrompendo Reid Hoffman sobre sentenciamento criminal por IA. Conexão direta com o ensaio do Pedro sobre megalotimia.
- K.C. Green, autor de "This is fine", processa startup de IA — e quer retirada, não dinheiro — duas frases sobre o caso, e uma pergunta: o Marco Civil brasileiro vai dizer que "treinou em" é "derivou de"?
- Música de IA inunda o Spotify, e ninguém sabe que está ouvindo — três parágrafos, com a cena: playlist "Deep Focus" tem 60% de faixas geradas por modelo. O ouvinte queria silêncio com batida; recebeu silêncio com batida. Detalhe irônico: o ouvinte não está reclamando.
Sinal fraco
A guerra da evidência sobre IA está se reorganizando ao longo do eixo metodológico, não ideológico — e nenhum jornal cobriu assim ainda. Três peças de hoje, juntas, mostram a fratura: o estudo da Harvard sobre acerto de diagnóstico (cross-sectional, blind-rated, n pequeno); o editorial de Nature Medicine citado por Topol (cohort, longitudinal, desfecho clínico); o relatório do Center for AI Safety sobre frontier capability (red-team, simulação, ataque adversarial). Os três usam a palavra "evidência" para coisas estruturalmente diferentes, e a pauta pública trata como se fosse o mesmo tipo. A consequência operacional: o público diplomado vai parar de saber em quem confiar não porque a ciência rachou, mas porque o jornalismo não está distinguindo regimes de prova. O lugar editorial vago é exatamente esse — a coluna que explica que "estudos da Harvard" e "estudos longitudinais" não são o mesmo gênero. O Meio pode ocupar antes que ChatGPT-summary domine.
Para ler depois
- Have LLMs improved patient outcomes? (Gary Marcus, The Road to AI We Can Trust) — o ensaio em sequência ao da Dawkins, ataca o atalho conceitual em medicina via Topol e Nature Medicine. Texto-base para próxima coluna sobre IA em saúde no Brasil. Link.
- Banks seek to offload risk to avoid 'choking' on data centre debt (Financial Times) — a peça que mostra capital institucional saindo do bloco que ele financiou. Útil para pauta brasileira de risco-país de hyperscaler em três anos. Link (paywall).
Insights
1. Quote do dia
"Germany, prescient because of its history, can see around corners." — Careless People, Sarah Wynn-Williams
A frase aparece no relato de quando a Alemanha começou a investigar o Facebook, em 2011, e Wynn-Williams entendeu por quê — Stasi e Gestapo deixaram, no público alemão, suspeição instintiva de qualquer empresa que centraliza informação pessoal em escala. A imagem é forte: a história funciona como geografia, dá curvatura ao olhar, faz o país enxergar o que ainda não chegou. Hoje cabe direto na pauta de Fialho. O Brasil também tem história que daria curvatura — quatro décadas de extração subordinada que viraram dependência permanente, do açúcar ao minério. Esse repertório institucional deveria ler data center como o último capítulo do mesmo livro. Não está lendo. A Alemanha viu o Facebook chegando; o Brasil está vendo o Vale chegando como se fosse 1998 e os exportadores de eletricidade ainda fossem os grandes do mundo.
2. Conexão do vault
- Arquivo 1: [[PUC-Rio vs. Unicamp — Por Que o Brasil Não Forma Consenso Econômico]] — Pedro mapeia por que duas escolas de economia brasileira, com mesmos dados, chegam a leituras incompatíveis: o ponto é cognitivo, não factual. As escolas são comunidades de prova, e a régua do que conta como "evidência boa" muda entre elas.
- Arquivo 2: [[culturalcognition]] — verbete sobre cultural cognition (Kahan): pessoas com idêntica formação técnica avaliam evidência idêntica de modos opostos quando o tema toca identidade de grupo ou alocação de status. O efeito é mais forte, não menos, em audiência diplomada.
- A conexão: a guerra de hoje sobre IA em medicina — Harvard diz que acerta, Topol diz que não muda desfecho — não é guerra entre estudos, é guerra entre escolas de prova. É o mesmo padrão que Pedro descreveu para PUC-Rio×Unicamp: dois conjuntos de cientistas competentes, dois regimes legítimos de evidência, conclusões incompatíveis porque a régua é incompatível. Cultural cognition prevê que essa fratura piora quando o tema mobiliza alocação de status — e IA mobiliza tudo: capital, ofício, autoridade clínica. A pauta editorial que sobra é dupla. Primeiro, traduzir para o leitor que "estudo bom" não é categoria única. Segundo, mostrar que o vocabulário público de IA precisa do mesmo tipo de mediador que o vocabulário público de macroeconomia precisa há décadas — e que o Brasil, por não ter formado consenso macro, sabe melhor que a maioria dos países o que acontece quando esse mediador não aparece.