Eskudo News – (27/08/2025)

O Eskudo News retorna com mais uma edição, trazendo os principais acontecimentos do último mês nos temas de cibersegurança, inteligência artificial, nuvem e inovação digital. Esta edição resume os fatos mais relevantes que impactam diretamente empresas, governos e profissionais da área.


🤖 EUA x Brasil: a disputa sobre regras digitais vai além do Pix e pressiona compliance no setor de tecnologia

A abertura, em 15 de julho, de uma investigação comercial dos Estados Unidos contra o Brasil sob a Seção 301 colocou holofotes sobre o arcabouço digital brasileiro. O escopo oficial é amplo: práticas ligadas a comércio digital e serviços de pagamento eletrônico, eventuais tarifas preferenciais, aplicação anticorrupção, propriedade intelectual, acesso ao mercado de etanol e desmatamento ilegal. O processo prevê audiência pública e coleta de comentários, o que sinaliza margem para lobby setorial e ajustes de narrativa nos próximos meses.

Do lado das empresas, associações que representam big techs levaram à Casa Branca e à equipe de comércio preocupações que extrapolam o Pix. A pauta inclui moderação de conteúdo, exigências sobre data centers, regras emergentes para inteligência artificial e a perspectiva de tributação específica sobre receitas digitais no Brasil. Essa combinação, na leitura das entidades, criaria um ambiente hostil e um custo de conformidade em alta para operações e exportação de serviços digitais para o mercado brasileiro.

O desenho do inquérito da USTR deixa clara a intenção de avaliar se “atos, políticas e práticas” brasileiras são “injustificáveis ou discriminatórias” e se “oneram ou restringem” o comércio dos EUA. Na prática, esse tipo de investigação pode culminar em medidas compensatórias, em negociações bilaterais com compromissos regulatórios ou em uma acomodação no âmbito da OMC, a depender do equilíbrio de forças e do custo político para ambos os lados. Para empresas de tecnologia, pagamentos e nuvem, o ponto sensível é a previsibilidade: regras estáveis e transparentes de transferência internacional de dados, guarda local, responsabilidade de provedores e padrões para IA determinam estratégias de hospedagem, desenho de produtos e contratos.

Há um componente novo que merece atenção das equipes jurídicas e de produto: o debate brasileiro sobre regulação de IA vem acompanhando propostas que tratam de direitos sobre dados usados no treinamento de modelos. Em comentários submetidos ao processo, entidades do setor nos EUA argumentam que obrigações de compensação por conteúdos brasileiros em datasets de treino elevariam custos e criariam assimetrias para desenvolvedores estrangeiros. Ainda que se trate de contribuições de interessados e não de decisões finais, o sinal para roadmaps de IA é claro.

Para CISOs, DPOs e lideranças de TI, três movimentos práticos se impõem. Primeiro, alinhar matrizes de risco regulatório com cenários de curto prazo: tarifas, exigências de residência de dados e mudanças em obrigações de moderação devem estar refletidas em apólices, SLAs e cláusulas de revisão de preço. Segundo, revisar contratos com provedores de nuvem e ferramentas de IA, preservando flexibilidade para realocar cargas entre regiões e ajustar políticas de retenção e logging conforme regras evoluam. Terceiro, acompanhar o rito multilateral: a aceitação dos EUA ao pedido de consultas do Brasil na OMC abre uma janela para soluções negociadas que podem reduzir incerteza, mas que também podem exigir compromissos adicionais de compliance por parte de empresas que operam no país.

No curto prazo, a disputa tem mais cara de maratona do que de sprint. Enquanto Washington testa a alavanca da Seção 301, Brasília busca internacionalizar a controvérsia e blindar políticas domésticas prioritárias, como o Pix. O setor privado fica no meio, pressionado a demonstrar conformidade sem perder velocidade de execução em produtos digitais e iniciativas de IA. A capacidade de ajustar governança, arquitetura de dados e contratos será o diferencial entre quem apenas reage e quem transforma a incerteza regulatória em vantagem competitiva.


💲 Meta pisa no freio nas contratações de IA — ajuste de rota entre reestruturações, custo de talento e pressão por ROI

A decisão da Meta de congelar novas contratações na divisão de inteligência artificial após uma onda que trouxe mais de 50 pesquisadores e engenheiros sinaliza um momento de disciplina no gasto e reorganização estratégica, não um recuo da aposta em IA. A informação, revelada inicialmente pelo Wall Street Journal e confirmada pela Reuters, ocorre depois de meses de expansão agressiva de times e compras de talentos de ponta no setor. A empresa descreve o movimento como parte do planejamento, mas o recado ao mercado é de racionalização: foco em integrar o que já foi contratado, medir impacto e priorizar frentes com retorno mais claro.

Esse freio vem na esteira de sucessivas reestruturações internas do programa de IA — a quarta em seis meses, segundo reportagens recentes — com os esforços agora alinhados sob a bandeira da Meta Superintelligence Labs, estrutura criada para acelerar a ambição de avançar rumo a sistemas mais gerais e potentes. A reorganização busca reduzir redundâncias entre pesquisa fundamental, plataformas de modelo (como a família Llama) e times de produto, além de encurtar a distância entre laboratório e aplicações escaláveis. O desenho institucional tende a privilegiar accountability por métricas concretas (qualidade de modelo, custo por inferência, tempo de lançamento) e trilhas claras de transferência de tecnologia.

Ao mesmo tempo, o pano de fundo financeiro mudou: construir e operar infraestrutura de IA de ponta exige investimentos colossais em data centers, chips e rede. A Meta já vem buscando diluir esse CAPEX via venda de ativos e parcerias estratégicas — inclusive um acordo multibilionário de nuvem — numa tentativa de compartilhar risco, acelerar capacidade e preservar flexibilidade tecnológica. Esse contexto ajuda a explicar o foco em produtividade por cabeça e a cautela em ampliar headcount antes de capturar ganhos operacionais dos times recém-formados.

Para o ecossistema, os efeitos são imediatos: arrefecimento temporário da guerra por talentos, maior exigência de provas de valor para projetos pilotos e, possivelmente, mais abertura a parcerias e licenciamento seletivo enquanto a Meta calibra portfólio e custos. Em suma, o congelamento é menos um freio à IA e mais um ajuste fino para atravessar a fase “pós-hype”, em que eficiência e resultados mensuráveis pesam tanto quanto narrativas ambiciosas.


☁️ “Selfie não é senha”: por que golpes com reconhecimento facial estão crescendo no Brasil — e como blindar clientes e operações

Nos últimos meses, avançou no Brasil uma família de fraudes que se apoia em biometria facial: criminosos obtêm imagens da vítima (ou induzem a gravação de um vídeo “de verificação”) e exploram fluxos de onboarding e recuperação de conta para abrir crédito, movimentar valores e sequestrar identidades digitais. Reportagens recentes detalham o modus operandi: pedido de “selfie de conferência” por falsos atendentes, uso de fotos de redes sociais e de documentos perdidos, além de deepfakes simples para burlar checagens rasas de prova de vida. O resultado são prejuízos expressivos para consumidores e instituições, especialmente quando a verificação depende apenas do rosto e carece de contramedidas anti-spoofing robustas.

Há casos que ilustram o efeito sistêmico. Em maio, um relatório apontou o uso de selfies e imagens vazadas para autorizar empréstimos consignados no INSS sem consentimento — um ataque que combina engenharia social, lacunas de processo e autenticação frágil. Em julho, a Polícia Civil no Rio desmontou um grupo que trocava dados e “templates” faciais de clientes por fotos próprias para acessar contas e desviar valores, com perdas estimadas em milhões de reais. Esses episódios reforçam que biometria, isolada, não é panaceia.

Na defesa, o caminho passa por camadas. Primeiro, elevar o padrão de prova de vida com desafios ativos (giro de cabeça, comandos aleatórios), detecção de apresentação (PAD) contra replays e máscaras, e análise de qualidade de captura — idealmente com modelos treinados para contexto brasileiro. Segundo, vincular identidade ao dispositivo (“device binding”), reputação do hardware e localização habitual, acionando mitigação adaptativa quando o risco sobe (limites, adição de fator, bloqueio temporário). Terceiro, combinar educação do usuário com UX segura: nunca pedir vídeo com movimentos do rosto fora do app; orientar confirmação por canais oficiais; e desestimular o compartilhamento de dados “para completar cadastro”.

Políticas públicas e autorregulação também ajudam a reduzir o “blast radius”. Iniciativas setoriais como o Celular Seguro — que aciona bancos e operadoras para bloquear rapidamente aparelhos roubados — e diretrizes adicionais no ecossistema Pix (como regras antifraude no Pix Automático) fecham janelas de abuso e dão previsibilidade à resposta. Em paralelo, equipes de risco devem revisar runbooks: trilhas de investigação para fraude por biometria, gatilhos de estorno e preservação de evidências, e integração com forças de segurança. Em suma, trate a selfie como um sinal entre muitos — e não como uma senha mágica.

Para acompanhar todo lançamento do Eskudo News, nos siga no Linkedin do Eskudo e também no da 2R Datatel

Comentários desabilitados
2R Datatel
Privacy Overview

Este site usa cookies para que possamos fornecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.