Resumen ejecutivo del Informe Global sobre Amenazas 2026 de CrowdStrike: el informe definitivo sobre inteligencia de amenazas para la era de la IA Descargar

La inteligencia artificial (IA) y el aprendizaje automático (ML) se han convertido en tecnologías básicas en el ámbito empresarial moderno. Desde el análisis de las tendencias de los clientes y el diseño de productos hasta el servicio de atención al cliente, el uso de las tecnologías basadas en IA/ML está en todas partes. De forma creciente, tanto la IA, como el ML se han convertido en un pilar fundamental para el funcionamiento de las empresas modernas y la manera en que llevan a cabo sus negocios.

Pero los ciberdelincuentes lo saben, y los sistemas de IA/ML se están convirtiendo en objetivos de ataque. Ahora han entrado en escena la IA adversaria (y el ML adversario). Se trata de técnicas diseñadas para engañar o realizar un exploit de los sistemas basados en IA con el objetivo de comprometer su eficacia. El ML adversario se ha vuelto tan frecuente en los últimos años que, en 2020, MITRE publicó la matriz de amenazas ATLAS™ (Adversarial Threat Landscape for Artificial-Intelligence Systems), en la que se describen las amenazas a los sistemas de aprendizaje automático que aumentan la superficie de ataque de los sistemas existentes.

Comprender el funcionamiento interno y las implicaciones de la IA adversaria es fundamental para cualquier equipo de operaciones de seguridad. En este artículo, analizaremos la IA adversaria en profundidad. Examinaremos por qué es una preocupación creciente, las técnicas clave que emplean los adversarios y cómo puedes mitigar los riesgos que introduce la IA adversaria.

¿Qué son la IA y el ML adversarios?

La IA adversaria o el aprendizaje automático adversario (ML) intentan inhibir el rendimiento de los sistemas de IA/ML manipulándolos o engañándolos. Estos ataques a los sistemas de aprendizaje automático pueden ocurrir en varias etapas del ciclo de vida del desarrollo del modelo, desde la manipulación de los datos de entrenamiento o el envenenamiento de los modelos de ML mediante la introducción de inexactitudes o sesgos, hasta la generación de entradas engañosas para producir resultados incorrectos. Además, estas tácticas pueden combinarse para aumentar la eficacia de un ataque.

A diferencia de las ciberamenazas tradicionales, como el malware o el phishing, la IA adversaria intenta aprovechar la lógica de toma de decisiones de un sistema de IA, lo que da lugar a malware que puede evadir un modelo de aprendizaje automático entrenado y listo para la producción. Como resultado, la IA y el ML adversarios se están convirtiendo en una de las principales preocupaciones para los equipos de SecOps modernos.

Informe Global sobre Amenazas 2025 de CrowdStrike

Informe Global sobre Amenazas 2025 de CrowdStrike

Consigue el informe sobre ciberseguridad imprescindible de este año.

Inquietudes críticas derivadas de la IA y el ML adversarios

La IA adversaria ya es una realidad y una técnica en auge, cuya creciente sofisticación la convierte en una amenaza cada vez más seria para la seguridad de las organizaciones. Esto pone de manifiesto varias inquietudes críticas:

  • Aumento de la complejidad de los modelos de IA y ML. A medida que los modelos de IA y ML se vuelven más avanzados, se convierten en objetivos más atractivos para los ciberataques.
  • Confianza implícita en los resultados de la IA y el ML. Las organizaciones consideran cada vez más los sistemas de IA/ML como cajas negras. Esta confianza creciente e incuestionable en los resultados de un sistema hace que estos sean más vulnerables a los ataques, y que los sistemas vulnerados sean más difíciles de detectar.
  • Presencia generalizada de IA/ML. Las tecnologías de IA/ML se han abierto camino en empresas de todos los sectores. Esto amplifica el impacto de un ataque exitoso de IA adversaria.
  • Capacidades mejoradas de los ciberdelincuentes. La tecnología relacionada con la IA/ML sigue avanzando, pero también lo hacen las herramientas, métodos y habilidades de quienes tratan de aprovecharse de estos sistemas.

Técnicas clave en IA y ML adversarios

Para comprender mejor cómo se ejecutan los ataques de IA adversaria, los profesionales de la seguridad deben familiarizarse con algunas de las técnicas que utilizan.

Envenenamiento de datos

Los modelos de ML se entrenan con grandes cantidades de datos. En la IA predictiva, un modelo de ML puede predecir resultados basándose en los datos históricos sobre los que se ha entrenado. En la IA generativa, un modelo puede generar contenidos completamente nuevos basándose en los datos de entrenamiento que ha consumido.

Los datos de entrenamiento son absolutamente críticos para el rendimiento de un modelo de ML, y por eso son un objetivo tan atractivo en la IA adversaria. El envenenamiento de datos consiste en alterar esos datos de entrenamiento para provocar un comportamiento o una toma de decisiones erróneos en el modelo resultante. Los sistemas construidos sobre modelos defectuosos experimentarán enormes impactos perjudiciales.

Manipulación de modelos

Los ataques de IA adversaria también utilizan la manipulación de modelos, en la que se realizan modificaciones no autorizadas en los parámetros o la estructura de un modelo de ML. A diferencia del envenenamiento de datos, el objetivo es el propio modelo previamente entrenado. Un modelo manipulado puede ver comprometida su capacidad para producir resultados precisos.

Dado que los modelos de IA/ML pueden utilizarse en la toma de decisiones empresariales o de consumo, un modelo manipulado (especialmente si pasa desapercibido durante mucho tiempo) puede tener resultados devastadores.

Transferencia de ataques

A medida que los ciberdelincuentes prueban tácticas en varios sistemas de IA/ML, pueden aprovechar las herramientas para aplicar técnicas de ataque exitosas a otros sistemas. Ampliar sus estrategias para ejecutar IA adversaria de forma generalizada requiere muchos menos recursos informáticos que los utilizados para crear y entrenar modelos y sistemas de IA/ML.

A la luz de estas técnicas de ataque, ¿cómo pueden las empresas modernas mitigar los riesgos?

Mitigación de riesgos

Para garantizar una posición de seguridad firme que incluya la protección frente a la IA adversaria, las empresas necesitan estrategias que partan del nivel básico de la ciberseguridad.

Monitorización y detección

Al igual que cualquier otro sistema de la red, los sistemas de IA/ML deben monitorizarse de forma continua para detectar y responder con rapidez ante una amenaza de IA adversaria. Aprovecha las plataformas de ciberseguridad con monitorización continua, detección de intrusiones y protección de endpoints. También puedes implementar el análisis en tiempo real de los datos de entrada y salida de tu sistema de IA/ML. Al analizar estos datos para detectar cambios inesperados o actividades anómalas de los usuarios, podrás responder rápidamente con medidas adecuadas para bloquear y proteger tus sistemas.

La monitorización continua también puede conducir a la aplicación de análisis de comportamiento de entidades y usuarios (UEBA), que puedes usar para establecer una referencia de comportamiento para tu modelo de ML. Basándote en esto, podrás detectar más fácilmente patrones de comportamiento anómalos en tus modelos.

Concienciación y formación de los usuarios

Es posible que muchos de tus empleados y partes interesadas desconozcan el concepto de IA adversaria, por no hablar de sus amenazas y señales concretas. Como parte de tu estrategia general de defensa en materia de ciberseguridad, crea conciencia mediante programas de formación y educación. Forma a tus equipos para que sepan cómo reconocer actividades o resultados sospechosos relacionados con sistemas basados en IA/ML. También debes preguntar a tu proveedor de seguridad cómo fortalecen su tecnología para combatir la IA adversaria. Una forma en la que CrowdStrike fortalece la eficacia del ML contra estos tipos de ataques es combinando nuestros propios clasificadores de ML con herramientas automatizadas que generan nuevas muestras adversariales basadas en una serie de generadores con ataques configurables.

Cuando tus empleados cuentan con este tipo de conocimientos, añades una capa adicional de seguridad y fomentas una cultura de vigilancia que mejora tus iniciativas en materia de ciberseguridad.

Entrenamiento adversarial

El entrenamiento adversarial es un algoritmo defensivo que algunas organizaciones adoptan para proteger proactivamente sus modelos. Implica introducir ejemplos adversariales en los datos de entrenamiento de un modelo para enseñarle a clasificar correctamente estas entradas como intencionalmente engañosas.

Al enseñar a un modelo de ML a reconocer los intentos de manipular sus datos de entrenamiento, pasa a verse a sí mismo como un posible objetivo y se defenderá contra ataques como el envenenamiento del modelo.

Más información

Lee este blog para saber más sobre cómo la plataforma Falcon está protegida contra ataques de IA y ML adversarios.

How CrowdStrike Boosts Machine Learning Efficacy Against Adversaries (Cómo CrowdStrike aumenta la eficacia del aprendizaje automático contra los adversarios)

Defenderse contra la IA y el ML adversarios con CrowdStrike

Dado que las empresas modernas dependen cada vez más de sistemas basados en IA/ML, no es de extrañar que la IA adversaria se haya convertido en un riesgo destacado para la ciberseguridad. Con el objetivo de inhibir el rendimiento de los sistemas de IA, la IA adversaria utiliza técnicas como el envenenamiento o la manipulación de modelos para reducir la precisión y fiabilidad de los resultados del sistema.

La defensa contra la IA adversaria requiere una posición de ciberseguridad reforzada que utilice herramientas robustas dentro de una única plataforma. La plataforma CrowdStrike Falcon® es un conjunto avanzado de herramientas de ciberseguridad que ofrece protección de extremo a extremo frente a todo tipo de ciberamenazas. Ponte en contacto con CrowdStrike para obtener más información.

Registrarse para solicitar una prueba gratuita

Lucia Stanham ocupa el puesto de Senior Product Marketing Manager en CrowdStrike y se centra en la protección de endpoints (EDR/XDR) y en la IA en ciberseguridad.  Forma parte de CrowdStrike desde junio de 2022.