El panorama actual de las amenazas cibernéticas es complejo. El cambio a entornos de nube y nube híbrida llevó a la dispersión de datos y a la ampliación de las superficies de ataque, mientras que los actores de amenazas continúan encontrando nuevas formas de explotar las vulnerabilidades. Al mismo tiempo, los profesionales de ciberseguridad siguen siendo escasos, con más de 700 000 vacantes solo en Estados Unidos.2
El resultado es que los ciberataques ahora son más frecuentes y más costosos. Según el Informe del costo de una filtración de datos, el costo promedio global para remediar una filtración de datos en 2023 fue de 4.45 millones de dólares, un aumento del 15 % en tres años.
La seguridad de la IA puede ofrecer una solución. Al automatizar la detección y respuesta a las amenazas, la IA facilita la prevención de ataques y la captura de los actores de amenazas en tiempo real. Las herramientas de IA pueden ayudar con todo, desde prevenir ataques de malware identificando y aislando software malicioso hasta detectar ataques de fuerza bruta reconociendo y bloqueando intentos repetidos de inicio de sesión.
Con la seguridad de IA, las organizaciones pueden monitorear continuamente sus operaciones de seguridad y emplear algoritmos de machine learning para adaptar a la evolución de las ciberamenazas.
No invertir en seguridad de IA es caro. Las organizaciones sin seguridad de IA se enfrentan a un costo promedio de filtración de datos de USD 5.36 millones, que es un 18.6% más alto que el costo promedio para todas las organizaciones.
Incluso la seguridad limitada podría proporcionar ahorros significativos de costos: aquellos con seguridad de IA limitada informaron un costo promedio de filtración de datos de USD 4.04 millones, USD 400 000 menos que el promedio general y un 28.1 % menos que aquellos sin seguridad de IA.
A pesar de sus beneficios, la IA plantea desafíos de seguridad, particularmente con la seguridad de los datos. Los modelos de IA son tan confiables como sus datos de entrenamiento. Los datos manipulados o sesgados pueden generar falsos positivos o respuestas inexactas. Por ejemplo, los datos de entrenamiento sesgados empleados para las decisiones de contratación pueden reforzar los sesgos de género o raciales, con modelos de IA que favorecen a ciertos grupos demográficos y discriminan a otros.3
Las herramientas de IA también pueden ayudar a los actores de amenazas a explotar con mayor éxito las vulnerabilidades de seguridad. Por ejemplo, los atacantes pueden emplear la IA para automatizar el descubrimiento de vulnerabilidades del sistema o generar sofisticados ataques de phishing.
Según Reuters, la Oficina Federal de Investigaciones (FBI) vio un aumento de las intrusiones cibernéticas debido a la IA.4 Un reporte reciente también encontró que el 75% de los profesionales sénior de ciberseguridad están viendo más ciberataques, y el 85% atribuye el aumento a los malos actores que emplean IA generativa.5
En el futuro, muchas organizaciones buscarán formas de invertir tiempo y recursos en IA segura para aprovechar los beneficios de la inteligencia artificial sin comprometer la ética o la seguridad de la IA (consulte "Mejores prácticas de seguridad de IA").