Eskudo News – 19/06/2025

No Eskudo News dessa semana:


🧠 Inteligência Artificial

Governança clara de IA é urgente para equilibrar riscos cibernéticos – debate em Boston

Especialistas em cibersegurança reuniram-se em Boston nesta semana, durante um evento organizado pela Axios, para discutir os impactos da inteligência artificial na segurança digital. Christopher Ahlberg, CEO da Recorded Future, e Chris Wysopal, CTO da Veracode, defenderam que a adoção da IA é inevitável, mas que o risco aumenta na ausência de uma governança robusta. A discussão girou em torno da responsabilidade pelas ferramentas de IA e de como estruturas organizacionais devem se preparar para lidar com a tecnologia.

Chris Wysopal destacou que um dos maiores riscos está na automação de código: “O que me preocupa constantemente é que a IA estará escrevendo todo o software”, disse. A preocupação não se limita à geração de código malicioso, mas também à ausência de accountability em sistemas complexos. Para ambos os especialistas, falta uma arquitetura de decisão clara que defina quem deve supervisionar, validar e auditar esses sistemas.

O evento também chamou a atenção para a necessidade de qualificação de profissionais. Governos, universidades e empresas devem investir em treinamento para acompanhar a velocidade das mudanças tecnológicas. Segundo Ahlberg, “a lacuna de habilidades é tão perigosa quanto a lacuna técnica”.

Outro ponto em destaque foi a integração da IA em protocolos operacionais. As organizações precisam definir papéis entre desenvolvedores, analistas e decisores de alto nível. Isso evita que a IA opere de forma autônoma sem visibilidade adequada, um risco crescente em sistemas de segurança cibernética.

As recomendações dos participantes foram claras: é urgente estabelecer estruturas de governança de IA que sejam adaptáveis, auditáveis e voltadas à mitigação de riscos. A ausência de marcos regulatórios aumenta o espaço para erros catastróficos.

A conclusão do evento foi unânime: não há volta. A IA já está integrada às estratégias corporativas e à defesa digital de estados. Mas, sem mecanismos claros de responsabilização, essa integração pode se tornar uma vulnerabilidade crítica.

Fonte: Axios. Clear AI governance frameworks are key to manage cyber risks, experts say (16 jun. 2025)


🌐 Serviços Gerenciados de Segurança (MSS)

Exploração de zero-days e ransomware alavancam MSS com IA para triagem automática

Um aumento considerável de ataques cibernéticos na segunda semana de junho evidenciou o papel crítico dos serviços gerenciados de segurança (MSS) e sua integração com soluções baseadas em inteligência artificial. Segundo o Boston Institute of Analytics, diversas ameaças como zero-days, botnets e ransomware desafiaram a capacidade de resposta de organizações em todo o mundo.

Entre os incidentes, destaca-se a exploração ativa de uma vulnerabilidade no navegador Chrome (CVE-2025-12345), bem como uma falha zero-day no WebDAV explorada pelo grupo Stealth Falcon, conforme corrigido pela Microsoft. A Apple também divulgou um patch urgente para uma falha “zero-click” no iMessage utilizada pelo spyware Paragon.

Em paralelo, a OpenAI relatou ter bloqueado contas associadas a hackers estatais de países como Rússia, China, Irã e Coreia do Norte, por uso indevido de IA em campanhas de spear phishing e exploração de infraestrutura crítica.

Outra preocupação foi a ação de botnets baseadas em Mirai, que exploraram falhas no Wazuh (CVE-2025-24016) para realizar ataques DDoS em larga escala. O malware Myth Stealer, escrito em Rust e disfarçado como cheat de jogos, também chamou a atenção por sua capacidade de contornar detecções tradicionais.

Esses eventos reforçaram a tendência: MSSPs que incorporam IA em seus sistemas conseguem automatizar triagens, classificar alertas benignos e liberar tempo dos analistas para foco em incidentes reais.

Analistas apontam que a adoção de IA nesses serviços não é mais diferencial, mas sim requisito. Empresas que não integram soluções automatizadas correm risco de não identificar ameaças de forma oportuna.

O uso de IA permite respostas mais rápidas, detecção preditiva e análises comportamentais em tempo real. Especialmente diante de ameaças que se reinventam constantemente, a eficiência depende da capacidade de aprender com grandes volumes de dados.

Para os especialistas, é fundamental que as organizações avaliem seus fornecedores MSS com base na maturação das ferramentas de IA utilizadas, sua capacidade de integração com EDR e SIEMs e o suporte a resposta a incidentes.

Fonte: Boston Institute of Analytics. June 2025 Cybersecurity Weekly Recap (14 jun. 2025)


🛡 Cibersegurança

SafeLocker: novo ransomware com bootkit e evasão avançada intensifica alerta global

Na última semana, um novo tipo de ransomware chamado SafeLocker acendeu o sinal de alerta entre especialistas em segurança digital. Relatórios da CYFIRMA revelaram que o malware incorpora técnicas avançadas como bootkits, ofuscação de código, virtualização e injeção de processos para burlar sistemas de defesa e comprometer redes corporativas.

O funcionamento do SafeLocker é sofisticado: ele criptografa os arquivos da vítima e exige o pagamento de US$ 7.000 em Bitcoin, instruindo os afetados a utilizarem o navegador Tor para efetuar a transação. A extensão “.8xUsq62” aparece nos arquivos criptografados, indicando a assinatura do grupo criminoso por trás da ameaça.

Segundo os pesquisadores, a ameaça se destaca pelo uso simultâneo de múltiplas táticas de evasão, incluindo persistência no kernel e técnicas inspiradas no framework MITRE ATT&CK. Essa combinação dificulta a detecção por soluções tradicionais e evidencia a necessidade de estratégias defensivas mais inteligentes.

A recomendação da CYFIRMA é que organizações reforcem suas estratégias de segmentação de rede, empreguem detecção baseada em comportamento e revisem as políticas de segurança em dispositivos de endpoint. Ferramentas de EDR com IA são particularmente eficazes para identificar o comportamento anômalo antes da criptografia dos dados.

Além das barreiras técnicas, o SafeLocker também representa um novo estágio na profissionalização do cibercrime. A clareza da comunicação dos criminosos e a sofisticação da engenharia social aumentam o grau de intimidação das vítimas e complicam as negociações.

Empresas de infraestrutura crítica e serviços essenciais foram orientadas a revisar seus planos de contingência, treinar equipes para resposta imediata e intensificar os testes de penetração e recuperação de desastres.

O impacto psicológico e econômico de ataques como o SafeLocker deve ser encarado com a mesma seriedade de riscos físicos. A segurança da informação passa a demandar respostas integradas, envolvendo TI, jurídico e comunicação.

Para os analistas da CYFIRMA, a tendência é clara: o cibercrime está se tornando mais industrializado, utilizando tecnologias emergentes com o mesmo grau de inovação visto em startups de segurança.

É urgente que empresas deixem de tratar segurança como uma questão reativa. O caso SafeLocker deve servir de alerta para adoção de soluções proativas, inteligência de ameaças e automação defensiva.

Fonte: CYFIRMA. Weekly Intelligence Report – 13 June 2025


📊 Centros de Operação de Segurança (SOC)

Pesquisa avançada propõe co-teaming entre humanos e IA em SOCs de próxima geração

Pesquisadores de diferentes instituições acadêmicas divulgaram neste semestre uma série de estudos que propõem novos modelos de atuação conjunta entre humanos e inteligência artificial nos Centros de Operações de Segurança (SOCs). Os trabalhos foram desenvolvidos com foco em melhorar a eficiência operacional e reduzir a sobrecarga cognitiva das equipes.

O modelo proposto por Massimiliano Albanese defende a aprendizagem tácita da IA a partir das ações dos analistas. Isso significa que o sistema vai ajustando seu comportamento com base em decisões humanas, replicando e otimizando estratégias de triagem e resposta.

Ahmad Mohsin, por sua vez, formulou um framework baseado em cinco níveis de autonomia para os sistemas de IA. A estrutura permite calibrar a responsabilidade delegada à máquina conforme o nível de criticidade da ameaça identificada.

A pesquisa de Melissa Turcotte, utilizando a plataforma AACT, comprovou ganhos práticos: houve uma redução de 61% no volume de alertas que exigem intervenção humana, sem perda de eficácia na detecção.

Já o trabalho de James Bono analisou operações em tempo real com IA generativa. Os resultados apontaram queda na reabertura de incidentes e melhoria significativa na velocidade de classificação de eventos.

Esses estudos compartilham uma mesma visão: o SOC do futuro será colaborativo. Humanos e IAs dividirão tarefas, respeitando níveis de confiança, contexto operacional e capacidade de explicação.

Implementar esse modelo, no entanto, requer governança robusta. É necessário monitorar o desempenho dos algoritmos, revisar periodicamente as regras de operação e estabelecer auditorias permanentes.

As conclusões foram bem recebidas por membros da comunidade técnica e devem pautar discussões na próxima edição da conferência RSAC, principal fórum internacional de cibersegurança.

As organizações interessadas em modernizar seus SOCs já podem se beneficiar desses frameworks, iniciando testes em ambientes controlados antes de expandir sua adoção.

Fontes:
– Massimiliano Albanese et al. (09/05/2025). Towards AI-Driven Human ‑Machine Co ‑Teaming…
– Ahmad Mohsin et al. (29/05/2025). A Unified Framework for Human AI Collaboration…
– Melissa Turcotte et al. (14/05/2025). AACT: Intelligent System…
– James Bono et al. (09/04/2025). Generative AI in Live Operations…*

Para acompanhar todo lançamento do Eskudo News, nos siga no Linkedin do Eskudo e também no da 2R Datatel

Comentários desabilitados
2R Datatel
Privacy Overview

Este site usa cookies para que possamos fornecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.