Los hackers están utilizando la inteligencia artificial para crear malware malicioso, según el FBI | ENBLE

Hackers usan IA para crear malware malicioso, según FBI | ENBLE.

El FBI ha advertido que los hackers están haciendo estragos con herramientas de inteligencia artificial generativa (IA) como ChatGPT, creando rápidamente código malicioso y lanzando ataques cibernéticos que habrían requerido mucho más esfuerzo en el pasado.

El FBI detalló sus preocupaciones en una llamada con periodistas y explicó que los chatbots de IA han alimentado todo tipo de actividades ilícitas, desde estafadores y defraudadores perfeccionando sus técnicas hasta terroristas consultando las herramientas sobre cómo llevar a cabo ataques químicos más dañinos.

Sora Shimazaki / Pexels

Según un alto funcionario del FBI (a través de Tom’s Hardware), “Esperamos que con el tiempo, a medida que la adopción y democratización de los modelos de IA continúen, estas tendencias aumentarán”. Los actores malintencionados están utilizando la IA para complementar sus actividades delictivas regulares, continuaron, incluyendo el uso de generadores de voz de IA para hacerse pasar por personas de confianza con el fin de estafar a seres queridos o personas mayores.

No es la primera vez que vemos a hackers tomar herramientas como ChatGPT y torcerlas para crear malware peligroso. En febrero de 2023, investigadores de la empresa de seguridad Checkpoint descubrieron que los actores maliciosos habían podido alterar la API de un chatbot, lo que les permitía generar código de malware y poner la creación de virus al alcance de casi cualquier hacker en potencia.

¿Es ChatGPT una amenaza para la seguridad?

Hatice Baran / Unsplash

El FBI tiene una postura muy diferente a la de algunos de los expertos en ciberseguridad con los que hablamos en mayo de 2023. Nos dijeron que la amenaza de los chatbots de IA se ha exagerado en gran medida, ya que la mayoría de los hackers encuentran mejores exploits de código a partir de filtraciones de datos más tradicionales e investigaciones de código abierto.

Por ejemplo, Martin Zugec, Director de Soluciones Técnicas en Bitdefender, explicó que “la mayoría de los novatos en la creación de malware probablemente no posean las habilidades necesarias” para evadir las medidas de seguridad contra malware de los chatbots. Además, Zugec explicó que “la calidad del código de malware producido por los chatbots tiende a ser baja”.

Esto ofrece un contrapunto a las afirmaciones del FBI, y tendremos que ver qué lado resulta tener razón. Pero con OpenAI, el fabricante de ChatGPT, discontinuando su propia herramienta diseñada para detectar el plagio generado por chatbots, las noticias no han sido alentadoras últimamente. Si el FBI tiene razón, podrían venir tiempos difíciles en la batalla contra los hackers y sus intentos de malware impulsados por chatbots.