Vulnerabilidades de IA en la nube, riesgo creciente para empresas
Las herramientas de Inteligencia Artificial en la nube presentan vulnerabilidades para las empresas, pues exponen los datos y modelos a manipulación, adulteración y fugas.

La rápida adopción de herramientas de Inteligencia Artificial (IA) en las empresas ha generado un nuevo escenario donde la seguridad se vuelve crucial. Aunque la IA ofrece innumerables beneficios, también presenta riesgos que deben ser abordados para garantizar su uso responsable y efectivo.
Un reciente análisis de Tenable Research ha puesto de manifiesto que 70% de las cargas de trabajo en la nube que utilizan servicios de IA contienen vulnerabilidades no resueltas. Esta situación plantea una preocupación significativa, ya que los datos y modelos de IA confidenciales se vuelven susceptibles a la manipulación, adulteración y fugas.
El informe El riesgo de IA en la nube señala que la combinación de la nube y la IA crea complejas amenazas cibernéticas; y revela errores de configuración en servicios de IA gestionados, con 77% de las organizaciones presentando la cuenta de servicio predeterminada Compute Engine con privilegios excesivos configurada en Google Vertex AI Notebos.
Este tipo de vulnerabilidad, conocida como "estilo Jenga", permite que todos los servicios generados en este Compute Engine predeterminado estén en riesgo. Otra preocupante tendencia es que las instancias de computadoras portátiles de Amazon SageMaker otorgan acceso raíz predeterminadamente.
Esto significa que 91% de los usuarios de Amazon SageMaker tienen al menos una computadora portátil que, si se ve comprometida, podría otorgar acceso no autorizado y permitir la modificación potencial de todos los archivos en ella. Además, los datos de entrenamiento de IA son susceptibles al envenenamiento de datos, lo que amenaza con sesgar los resultados del modelo.
El informe también indica que 14% de las organizaciones que utilizan Amazon Bedrock no bloquean explícitamente el acceso público a al menos un bucket de entrenamiento de IA, mientras que 5% tiene al menos un bucket con permisos excesivos.
En este contexto, es fundamental adoptar una postura proactiva en ciberseguridad para proteger los datos de IA frente a ataques complejos y permitir una innovación responsable. Tenable enfatiza la necesidad de encontrar el equilibrio entre la protección de datos y la innovación.
"La inteligencia artificial en la nube está acelerando el crecimiento económico y la innovación en América Latina, pero también introduce riesgos cibernéticos. El reto está en encontrar el equilibrio entre proteger los datos de IA frente a ataques complejos y permitir una innovación responsable", se indicó.
Añaden que "cuando hablamos del uso de IA en la nube, hay más cosas en juego que los datos confidenciales. Si un agente malicioso manipula los datos o el modelo de IA, puede haber consecuencias catastróficas a largo plazo, como la integridad de los datos en riesgo, la seguridad de los sistemas críticos en riesgo y la degradación de la confianza del cliente."