Carregando...

Contemporâneo · Editoria, jornalismo, IA aplicada
“Inteligência artificial não substitui jornalismo. Liberta jornalismo do que não é jornalismo.”
Bacharel em Direito (UnB), Master Coach IBC, certificações IBM Prompt Engineering e IA USP
Washington tentou estrangular a China no chip. Pequim respondeu com arquitetura: MoE, quantização, engenharia de memória e treino mais frugal. O duelo real saiu do release e entrou no custo por token.
Harness é o sistema ao redor da IA: objetivo, memória, ferramentas, limites, testes e rastro. Este manual mostra como montar agentes confiáveis sem burocracia.
Quando uma regra é específica demais para confiar num prompt genérico, a saída pode ser treinar um modelo pequeno só para aquela função. O ganho não é charme técnico; é consistência, custo menor e resposta mais rápida.
Publicações recentes ligadas a universidades e pesquisadores chineses mostram uma virada prática: gêmeos digitais, agentes com LLMs, world models e dados sintéticos estão deixando de ser demonstração para virar método de pesquisa.
O país tem plano de R$ 23 bilhões, talentos dispersos e bons laboratórios. Mas não tem a pilha industrial necessária para treinar modelos frontier. O caminho realista passa por infraestrutura de inferência, fine-tuning em português e execução pública sem fetiche regulatório.
A ideia de Software 2.0 continua sendo uma das melhores lentes para entender a IA atual: parte do programa deixou de ser escrita linha por linha e passou a ser treinada em dados, métricas e avaliação contínua.
Park et al. (Stanford) publicam validação metodológica de entrevistas com generative agents; Tsinghua escala simulação urbana para 10.240 NPCs simultâneos; Brasil ausente.
Uma das abordagens menos convencionais para o problema da memória persistente em inteligência artificial chega ao ponto de rodar um ciclo noturno inspirado no sono humano. O desenho não substitui os sistemas já consolidados no mercado. Acrescenta uma linha de pesquisa distinta, que merece ser descrita em detalhe.
Stanford reporta viés demográfico em agentes GPT-4o. China simula 10 milhões de NPCs urbanos. Brasil segue ausente das simulações em larga escala.
DeepSeek-V3 atinge 90.2% no MMLU com 671B parâmetros MoE, custando US$ 5.6 milhões em treinamento — 1/40 do GPT-4. Arquitetura chinesa prova que embargo de chips força eficiência radical.
Passei os últimos anos ensinando IA a gestores. Advogados, diretores, donos de negócio. E toda vez a pessoa paralisava como se fosse disciplina de outro planeta. Não é. O corpo ao redor da IA — memória, procedimento, protocolo, sandbox, auditoria — é o que gestão clássica sempre chamou por outros nomes: processo, política, SOP, alçada, governança. Quem já sabe operar sabe construir agente. Quem está construindo agente está aprendendo gestão sem perceber.
Em 1907, um baiano de 58 anos entrou numa sala em Haia com 44 países dentro, abriu a boca em francês impecável e saiu dali com um apelido que nenhum brasileiro depois dele voltou a merecer. O resto é o tamanho da queda.
Em 22 de fevereiro de 1942, o escritor mais lido da Europa escolheu morrer numa casa pequena em Petrópolis. Antes disso, escreveu sobre o Brasil aquilo que o Brasil hoje teria coragem de dizer sobre si mesmo.
Em 1862, uma missão do xogunato Tokugawa atravessou a França para adiar a abertura dos portos do Japão. Imagine que o destino daquela negociação coubesse numa única estocada.
Em 7 e 9 de março, Andrej Karpathy publicou no X o resultado de um experimento desconcertante: deixou um agente de IA iterando sobre o código de treinamento do seu nanochat por dois dias. O agente encontrou 20 mudanças que melhoraram a perda de validação no modelo pequeno — e todas elas se mantiveram quando aplicadas a um modelo maior. Tradução didática do que isto significa para quem programa em 2026.
Em entrevista ao podcast de Dwarkesh Patel, Andrej Karpathy cunhou um contraponto que circulou no campo nas últimas semanas: o problema com a expressão 'ano do agente' não é o sentido, é a velocidade. Faltam, segundo ele, multimodalidade plena, uso de computador, aprendizado contínuo e memória — e isso leva uma década, não um trimestre. Tradução para o leitor brasileiro de uma das frases mais citadas do campo em 2026.
Em fevereiro de 2025, Karpathy popularizou o termo 'vibe coding' — programar largando o controle, abraçando a exponencial e esquecendo que o código existe. Em 2026, ele declarou o termo ultrapassado. O nome novo que defende é 'agentic engineering': não é programar 99% das vezes, é orquestrar agentes com supervisão, arte e expertise. Tradução do que mudou na cabeça dele — e do que isso significa para o programador brasileiro.
Em abril, Andrej Karpathy publicou um tweet que ficou viral entre desenvolvedores: 'Estou interessado em como será a era do software altamente sob medida.' Pouco depois, propôs uma ideia simples mas estranha — em vez de compartilhar código, compartilhe um arquivo de ideia. O agente de cada usuário cuida do resto. Tradução para o que isto significa para programadores, designers e até gestores brasileiros.
Andrej Karpathy publicou em fevereiro um tweet que circulou rapidamente entre desenvolvedores: 'Nunca me senti tão atrasado como programador. A profissão está sendo dramaticamente refatorada.' Em outro post, contou que passou de 80% manual / 20% agentes em novembro para 80% agente / 20% edição em poucos meses. Tradução para o programador brasileiro do que isso significa na prática.
Em entrevistas e tweets recentes, Andrej Karpathy repete uma metáfora que vale a pena tomar a sério. Diz que reinforcement learning, a família de técnicas que treina os agentes mais avançados de hoje, é como sugar a supervisão por um canudo. A trajetória inteira recebe um sinal final magro, único bit de recompensa, e esse sinal é propagado de volta a todos os passos. Funciona. Mas é, na palavra dele, ineficiente. Tradução do que essa frase significa para quem trabalha com IA agora.
A mostra 'Máquinas que Sonham' reúne 120 obras de 34 artistas que usam inteligência artificial como ferramenta criativa. A curadoria separa arte de commodity — e o público está respondendo com filas de 3 horas.
As tarifas recíprocas de Trump atingem soja, carne e suco de laranja — os três maiores produtos de exportação brasileiros. O impacto chega ao supermercado de Brasília.
O clube candango investiu R$180 mil em sistema de análise de desempenho com IA e já colhe resultados: 67% de aproveitamento na Série C e a melhor defesa da competição. O futebol do DF tenta se reinventar pela tecnologia.
Atendimento, secretariado, tradução, redação básica e contabilidade perderam 340 mil postos desde o ChatGPT. O DF, com 38% dos empregos em alta exposição, é o mais vulnerável.
Simulações do Ministério da Fazenda confirmam que o IBS e a CBS elevarão a carga sobre serviços essenciais — educação, saúde e transporte — antes que a prometida simplificação gere ganhos reais.
O Ministério da Saúde previa vacinar 20 milhões de pessoas até março de 2026, mas apenas 2,4 milhões completaram o esquema. A logística falhou onde a ciência funcionou.
Com a taxa básica em 14,25% ao ano e inflação de 5,4%, o juro real brasileiro supera 8% — atrás apenas da Rússia. O fluxo de capital estrangeiro na B3 caiu 34% no primeiro trimestre.
A diferença média entre alunos de escolas públicas e privadas no Distrito Federal atingiu 147 pontos no ENEM 2025, a maior disparidade da região Centro-Oeste. O DF gasta mais por aluno que qualquer estado, mas os resultados não acompanham.
O bioma mais ameaçado do Brasil registrou 34% mais focos de incêndio que no mesmo período de o ano passado. O DF e o Entorno concentram 8% dos focos, mas a fiscalização ambiental opera com metade do efetivo necessário.
A nova rodada de tarifas americanas atinge diretamente as exportações brasileiras de aço e alumínio. O governo Lula negocia isenções, mas o histórico sugere que o Brasil perderá market share para o México.
Os números da Secretaria de Segurança Pública mostram um DF mais seguro contra crimes violentos letais, mas o comércio das cidades-satélites vive uma epidemia de assaltos que a estatística oficial esconde.
Levantamento do IPEA mostra que a automação por IA generativa destruiu mais postos do que criou no Brasil, mas os novos empregos pagam em média 40% mais. O saldo líquido esconde uma revolução silenciosa no mercado de trabalho.
O DF bateu recorde de vendas no primeiro trimestre. Mas quem compra no Noroeste a R$ 1,2 milhão e quem financia pelo MCMV em Samambaia vivem em planetas diferentes.
Onze mandatos, prestígio histórico e o maior lobby diplomático da década. Mas a equidistância de Lula em Gaza e na Ucrânia divide os 129 votos de que o Brasil precisa.
Brasília abriga todos os órgãos que deveriam liderar a revolução da IA no Brasil. O Centro Nacional prometido para o ano passado não tem nem cronograma. O TCU já está auditando.
TCU, CGU e GDF já usam IA estrangeira para decisões públicas. O Brasil não tem chip próprio, data center soberano nem modelo nacional em produção. Quem governa a IA que governa o país?
A poucos quilômetros dos ministérios, uma startup do Capital Digital prevê enchentes com IA e sensores. O CEMADEN cobre só 957 dos 5.500 municípios. A burocracia impede a adoção.
Brasília concentra todos os órgãos que decidem o futuro da IA no Brasil. O PL 2338 criou categorias de risco, exigiu auditorias e dividiu o mercado entre quem aplaude e quem teme a burocracia.
O Brasil agora tem a ANIA — mais uma autarquia num país com 186 órgãos. EUA e China competem sem regulador dedicado. O marco protege o cidadão ou protege a burocracia?
A Maritaca AI lançou o Sabiá-3 com 94% da performance do GPT-4o em português. API compatível com OpenAI, preço por token menor. O Brasil finalmente produz IA, não só consome.
O Banco Central liberou o Drex para pessoa física com limite de R$ 5 mil. Seis bancos operam. O Pix não morre — ganha um irmão programável.
Modelo chinês de 671B parâmetros alcança 90.2% no MATH-500 contra 88.7% do GPT-4o, custando US$ 0,14 por milhão de tokens. Treinamento custou US$ 5,6 milhões.
Laboratório chinês treinou MoE de 685B parâmetros por US$ 5,6 milhões usando H800 sob embargo. MATH benchmark: 90.2% vs 76.6% do GPT-4o. Código e pesos vazaram antes do release oficial.
Alibaba Cloud solta modelo de código aberto que bate GPT-4o em benchmarks de programação e mira contratos corporativos da Microsoft na China e Ásia
Modelo chinês de 671B parâmetros alcança 90.2% no MATH-500 usando MoE agressivo e chips Huawei Ascend, custando US$ 5.5 milhões contra US$ 100+ milhões estimados do GPT-4.
DeepSeek libera V3 com 685B parâmetros totais, 37B ativos, treinado em H800 sob embargo. OpenAI antecipa o3-mini para desenvolvedores. A corrida MoE esquenta.
Modelo chinês de 671B parâmetros alcança 90.2% no MATH-500 e custa US$ 5.5M treinar — enquanto GPT-4 custou ~US$ 100M. Arquitetura MoE multi-head latent attention contorna embargo de chips.
Leak de benchmark interno da DeepSeek mostra V3 superando Claude 3.7 Opus em 12.3 pontos no MATH-500. Anthropic chama de 'cherry-picking'; código do teste está no GitHub desde ontem.
Modelo chinês de 671B parâmetros alcança 90.2% no MATH e 92.3% no HumanEval, custando US$ 5.5M para treinar contra estimados US$ 100M+ do GPT-4. Arquitetura MoE com apenas 37B ativos por token.
DeepSeek lança R2 com 671B parâmetros totais, 37B ativos por token, superando o3-mini em matemática e custando 95% menos que GPT-4o na API
Toda nova matéria de Igor Morais Vasconcelos chega no seu email. Sem outros colunistas.