Tudo sobre ChatGPT
Tudo sobre Inteligência Artificial
Tudo sobre OpenAI
Microsoft e OpenAI revelaram que grupos de hackers estão explorando novas fronteiras da cibercriminalidade ao empregar modelos de linguagem avançados, como o ChatGPT, para aprimorar seus ataques online. De acordo com estudos divulgados pelas empresas, hackers de várias origens, incluindo Rússia, Coreia do Norte, Irã e China, estão utilizando ferramentas como o ChatGPT para estudar alvos potenciais, refinar scripts e desenvolver táticas de engenharia social.
A Microsoft destaca que esses grupos criminosos estão constantemente buscando maneiras de se adaptar e contornar os controles de segurança existentes. “Os adversários estão explorando e testando diferentes tecnologias de IA à medida que surgem, em busca de vantagens para suas operações e para evitar detecções”, observa a empresa em um comunicado.
Por exemplo, o grupo Strontium, associado à inteligência militar russa, estaria utilizando modelos de linguagem para entender protocolos de comunicação via satélite e outras tecnologias sensíveis. Já o grupo hacker norte-coreano Thallium, estaria se aproveitando dessas ferramentas para pesquisar vulnerabilidades conhecidas e criar campanhas de phishing mais convincentes.
IA e ciberataques
- Além disso, a Microsoft alerta para o risco crescente de uso de inteligência artificial em ataques cibernéticos.
- Ferramentas como WormGPT e FraudGPT estão sendo empregadas para criar e-mails maliciosos mais sofisticados, aumentando o desafio para os sistemas de segurança.
- Embora ainda não tenham sido detectados ataques significativos utilizando essas técnicas, a Microsoft está monitorando de perto a situação e tomando medidas proativas para impedir possíveis incidentes.
- A empresa afirma estar desativando contas e ativos associados a grupos de hackers conhecidos e compartilhando informações com a comunidade de segurança cibernética.
- Diante desse cenário, a Microsoft diz estar investindo em soluções baseadas em IA para fortalecer as defesas cibernéticas.
- Um exemplo é o desenvolvimento do “Security Copilot”, um assistente de IA projetado para ajudar os profissionais de segurança a identificar ameaças e gerenciar a enorme quantidade de dados gerados pelas ferramentas de segurança.
- Apesar dos desafios apresentados pelo uso de IA em ataques cibernéticos, a Microsoft acredita que a tecnologia também pode ser parte da solução.
Assim como os hackers estão aproveitando a IA para aprimorar seus ataques, nós também podemos utilizar a mesma tecnologia para proteger, detectar e responder a essas ameaças.
Porta-voz da Microsoft ao The Verge