Docta Magazine

Hackers están aprovechando la inteligencia artificial para lanzar ataques más sofisticados

Imagen de freepik

Los ciberdelincuentes están aprovechando cualquier herramienta que encuentran a su disposición para arrojar ideas de código o estrategias que permita engañar o directamente chantajear a sus víctimas.

Expertos en ciberseguridad están haciendo sonar las alarmas sobre el creciente uso de la inteligencia artificial para diseñar e implementar ciberataques. De hecho, gracias a la IA, la barrera para convertirse en un hacker es mucho menor ahora, estudios calculan que el aumento de los ciberataques este año se sitúa entre el 25% y el 30%.

Los ciberdelincuentes están aprovechando cualquier herramienta que encuentran a su disposición para arrojar ideas de código o estrategias que permita engañar o directamente chantajear a sus víctimas.

Microsoft y OpenAI presentaron un estudio donde revelan que varios grupos respaldados por Rusia, Corea del Norte, Irán y China utilizan herramientas como WormGPT y FraudGPT para redactar correos maliciosos, mejorar los scripts y construir técnicas de fraude.

Doxing, la manera de utilizar IA para estafas

Entre las técnicas que están utilizando los ciberdelincuentes se encuentra el doxing, una práctica de recopilar y publicar información sobre alguien sin su consentimiento. Se trataba principalmente de documentos comprometidos y ese tipo de cosas, pero hoy en día las tendencias han cambiado. La cantidad de información que puede resultar sensible de alguien es muchísimo más amplia.

Nombres e identidades personales de algunos usuarios, correos electrónicos, detalles de cuentas bancarias, dirección, números de teléfono personales y hasta fotos íntimas. De los casos más sonados se encuentran las filtraciones hechas a famosos, donde es evidente el uso del doxing para exponer a sus víctimas.

En este caso, la IA es una herramienta que está siendo aprovechada por los ciberdelincuentes para facilitar las estafas y chantajes que realizan mediante doxing. Los algoritmos de la IA pueden ser usados para rastrear y analizar grandes volúmenes de datos, localizando información en línea más rápido.

La IA puede analizar grandes conjuntos de datos para encontrar patrones y correlaciones que ayuden a los ciberdelincuentes a obtener información personal. Por ejemplo, les permite vincular diferentes cuentas de redes sociales de una persona basándose en similitudes en sus publicaciones, fotos, o hasta amigos comunes.

Pero otro de los modelos de falsificación utilizados por los ciberdelincuentes son la creación de deepfakes, de esta manera pueden generar contenido falso capaz de engañar a muchos usuarios para que revelen información personal.

Suplantación de voz

El uso de la inteligencia artificial por parte de los ciberdelincuentes no se limita únicamente al uso de filtración personal o creación de imagen, sino que también están suplantando la voz.

Microsoft advierte sobre casos de uso futuros como la suplantación de voz. «El fraude impulsado por la IA es otra preocupación crítica. La síntesis de voz es un ejemplo de esto, donde una muestra de voz de tres segundos puede entrenar un modelo para que suene como cualquier persona», dice la compáñía. «Incluso algo tan inocuo como el saludo de su correo de voz se puede usar para obtener una muestra suficiente».

Naturalmente, la solución de Microsoft es utilizar la IA para responder a los ataques de IA. «La IA puede ayudar a los atacantes a aportar más sofisticación a sus ataques, y tienen recursos para aprovecharla», afirma Homa Hayatyfar, director principal de análisis de detección de Microsoft. «Hemos visto esto con los 300+ actores de amenazas que Microsoft rastrea, y usamos IA para proteger, detectar y responder».

Para Nenad Zaric, CEO y Cofundador de Trickest, los equipos de seguridad de las compañías deben ser entrenados con IA para poder entender los ciberataques: «Los expertos en ciberseguridad ya están utilizando la tecnología para recrear las actividades de red teaming, imitando la forma en que los piratas informáticos utilizarían la IA para penetrar en sus sistemas».

«Este enfoque puede ayudar a los equipos a comprender mejor cómo funciona la IA, anticipar posibles amenazas y descubrir nuevas formas de defenderse de los ataques que los métodos tradicionales podrían pasar por alto», dice Zaric.

Por su parte, Microsoft está construyendo Security Copilot, un nuevo asistente de inteligencia artificial diseñado para que los profesionales de la ciberseguridad identifiquen las brechas y comprendan mejor la gran cantidad de señales y datos que se generan a diario a través de las herramientas de ciberseguridad. El gigante del software también está revisando la seguridad de su software después de los principales ataques en la nube de Azure e incluso de los piratas informáticos rusos que espían a los ejecutivos de Microsoft.

Artículo tomado de Entrepreneur, lea el original aquí.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.