Microsoft y OpenAI frenaron la actividad de cinco actores de amenazas afiliados a Estados como China, Irán, Corea del Norte y Rusia.
Lo han hecho mediante el cierre de sus cuentas asociadas a herramientas de inteligencia artificial (IA) como ChatGPT, tecnología que utilizaban para mejorar sus técnicas de ciberataques.
Ambas compañías tecnológicas han advertido que, durante el último año, “la velocidad, la escala y la sofisticación” de los ciberataques han aumentado a la par que el desarrollo y la adopción de la IA.
Esto se debe a que los actores de amenazas han hecho un mal uso de la IA para llevar a cabo sus ataques maliciosos.
En este sentido, Microsoft realizó un estudio junto con OpenAI, en el que indicaron las principales amenazas emergentes actualmente “en la era de la IA”.
Incluyen ciberataques que contemplan el uso de indebido de modelos de lenguaje grandes (LLM) y el fraude.
CINCO CIBERDELINCUENTES IDENTIFICADOS
Así, el estudio se enfoca en la actividad que han identificado recientemente asociada a actores de amenazas ya conocidos.
En concreto, como detalló OpenAI, identificaron cinco ciberdelincuentes que pertenecen a grupos afiliados a un Estado.
Estos pueden plantear “riesgos únicos para el ecosistema digital y bienestar humano” , ya que tienen acceso a tecnología avanzada, grandes recursos financieros y personal capacitado.
A raíz de la investigación, ambas compañías cancelaron las cuentas relacionadas con dos actores afiliados a China, conocidos como Charcoal Typhoon y Salmon Typhoon.
El actor de amenazas Crimson Sandstorm, asociado a Irán; el actor afiliado a Corea del Norte, Emerald Sleet; y el ciberdelincuente relacionado con Rusia conocido como Forest Blizzard.
Así, según OpenAI, estos actores usaban los servicios de la compañía, como ChatGPT, para consultar información de código abierto, traducir y encontrar errores de codificación.
A su vez, eran usados para ejecutar tareas básicas de codificación.
UN AMPLIO ALCANCE OPERATIVO DE MICROSOFT
El actor de amenazas Charcoal Typhoon afiliado al Estado chino que, según Microsoft, dispone de “un amplio alcance operativo” , ha utilizado los LLM para respaldar el desarrollo de estas herramientas.
Las mismas fueron creadas para comprender diversas funciones de ciberseguridad o, incluso, para generar contenido que podía usarse para llevar a cabo ingeniería social.
Se apunta a que se ha dado lugar mediante estas a técnicas de manipulación que aprovechan los errores humanos para obtener acceso a servicios o información- frente a sus enemigos.
Este actor, también conocido como Aquatic Panda, ControlX o RedHotel, ha dirigido sus ciberataques principalmente contra entidades dentro de Taiwán, Tailandia, Mongolia, Malasia, Francia y Nepal.
Sus objetivos son instituciones e individuos a nivel global “que se oponen a las políticas de China”.
Otro de los actores identificados, relacionado con el Estado chino, es Salmon Typhoon.
UN USO PARA OBTENER INFORMACIÓN SENSIBLE
Este ha utilizado los LLM de OpenAI para obtener información sobre temas “potencialmente sensibles” , datos de personas de alto perfil a nivel geopolítica e influencia de Estados Unidos.
Según OpenAI, utilizó sus servicios para traducir documentos técnicos, recuperar información disponible públicamente sobre múltiples agencias de inteligencia y actores de amenaza regionales.
Incluso, se ha hecho uso de esto para investigar formas comunes para ocultar procesos en un sistema.
Salmon Typhoon, se ha reconocido anteriormente en ciberataques a agencias gubernamentales y entidades de Estados Unidos, con tecnología criptográfica.
Sobre Crimson Sandstorm, el actor de amenazas identificado con el Cuerpo de la Guardia Revolucionaria Islámica, usó los servicios de OpenAI.
Dicha utilización tuvo como fin obtener soporte para código relacionado con el desarrollo web y de aplicaciones.
De hecho, según ha determinado la compañía de IA, se utilizó para generar contenido enfocado en campañas de ‘phishing’ e investigar formas comunes de evadir la detección de este tipo de ataques.
Microsoft detalló que los ataques de este actor malicioso han ido habitualmente dirigidos a sectores de defensa, transporte, atención médica y tecnología.
Han encauzado dichos ataques a través de métodos de ingeniería social.
SE HACEN PASAR POR INSTITUCIONES Y ONG
Por su parte, Emerald Sleet se aprovechó de las tecnologías de Open AI para identificar expertos y organizaciones centradas en cuestiones de defensa en la región de Asia y el Pacífico.
Igualmente, ha hecho uso de los LLM para comprender las vulnerabilidades que existen actualmente y redactar contenido que utilizar en campañas de ‘phishing’.
Relacionado con Corea del Norte y conocido por otros investigadores como Kimsuky o Velvet Chollima, este actor se conoce por lanzar ataques haciéndose pasar por instituciones académicas y ONG.
Esto es de cara a atraer a víctimas para obtener información y comentarios de expertos sobre las políticas exteriores de Corea del Norte.
Finalmente, Forest Blizzard, utilizó los servicios de la compañía dirigida por Sam Altman para la investigación de código abierto sobre protocolos de comunicación satélite.
También hizo uso del soporte para tareas scripting.
En concreto, se trata de un actor de inteligencia militar ruso que, sobre todo, centra sus ataques en víctimas de interés para el Gobierno ruso.
SEGURIDAD EN EL USO DE LA IA
Así, tanto Microsoft como OpenAI compartieron su enfoque para asegurar un uso adecuado de la IA y detectar y bloquear posibles actores de amenazas como los mencionados anteriormente.
En este marco, desde OpenAI abogan por el uso de IA para frenar el mal uso de esta tecnología.
Según dijo, aunque las capacidades de sus modelos actuales para las tareas de ciberseguridad maliciosas “son limitadas” , ven “relevante adelantarse a las amenazas importantes en evolución”.
Para ello, la compañía de IA ha anunciado que invertirá en tecnología y equipos para identificar e interrumpir este tipo de actividades por parte de ciberdelincuentes.
Además, recordó que, hoy, sus equipos de Inteligencia e Investigaciones, Seguridad e Integridad utilizan sus modelos para buscar pistas.
También hacen uso de ellas para analizar cómo los actores maliciosos interactúan con la plataforma y evaluar sus intenciones.
SE NOTIFICA INMEDIATAMENTE AL PROVEEDOR
Tras la identificación de este tipo de actividades, toma las “medidas adecuadas” para interrumpir sus actividades.
Microsoft, indicó que, en caso de detectar un mal uso de la IA por parte de un actor de amenazas, lo notifica inmediatamente al proveedor de servicios en cuestión.
A su vez, comparte los datos relevantes relacionados.
De la misma forma, OpenAI también colabora con socios del sector y partes interesadas para intercambiar información sobre casos identificados de uso indebido de IA.
Siguiendo este hilo, la compañía de IA ha señalado que aprenden de “cada uso y mal uso” para crear sistemas de IA “cada vez más seguros con el tiempo”.
Con todo ello, ambas compañías han señalado la importancia de la transparencia.
De cara a promover un uso responsable de la IA, continuarán informando a los usuarios y a las partes interesadas sobre el alcance del uso de la IA en manos de actores maliciosos.
Fuente: EP.