Saltar al contenido

31 de marzo de 2026 • Dogalyir • 4 min de lectura

Vulnerabilidad en Vertex AI de Google Cloud: Riesgos en Agentes de IA y Exposición de Datos

Vulnerabilidad en Vertex AI de Google Cloud: Riesgos en Agentes de IA y Exposición de Datos

En el dinámico mundo de la tecnología cloud y la inteligencia artificial, la seguridad sigue siendo un pilar fundamental. Recientemente, investigadores de ciberseguridad han identificado una vulnerabilidad crítica en la plataforma Vertex AI de Google Cloud que podría transformar agentes de inteligencia artificial en herramientas de acceso no autorizado a datos sensibles.

El Punto Ciego en la Seguridad de Vertex AI

La vulnerabilidad, descubierta por investigadores de Palo Alto Networks Unit 42, se centra en cómo el modelo de permisos de Vertex AI puede ser explotado debido a configuraciones predeterminadas que otorgan privilegios excesivos a los agentes de servicio. Este problema representa lo que los expertos denominan un “punto ciego” en la arquitectura de seguridad de la plataforma.

Cuando una organización despliega un agente de IA utilizando el Agent Development Kit (ADK) de Vertex AI, el agente de servicio asociado (conocido como Per-Project, Per-Product Service Agent o P4SA) recibe automáticamente permisos más amplios de los necesarios. Esta configuración predeterminada crea una ventana de oportunidad para actores malintencionados.

Cómo Funciona la Explotación

El proceso de explotación comienza cuando un agente de Vertex AI es desplegado a través de Agent Engine. Cada vez que este agente realiza una llamada, invoca el servicio de metadatos de Google, exponiendo información crítica que incluye:

  • Credenciales del agente de servicio
  • El proyecto específico de Google Cloud Platform que aloja el agente de IA
  • La identidad del agente de IA
  • Los alcances de permisos de la máquina que ejecuta el agente

Con estas credenciales en su poder, un atacante podría saltar desde el contexto de ejecución del agente de IA directamente al proyecto del cliente, rompiendo las garantías de aislamiento y obteniendo acceso de lectura sin restricciones a todos los datos almacenados en Google Cloud Storage dentro de ese proyecto.

Consecuencias y Riesgos Ampliados

La exposición no se limita únicamente a los datos del cliente. Las credenciales comprometidas también permiten acceder a repositorios de Artifact Registry restringidos y propiedad de Google, que se revelan durante el despliegue del Agent Engine. Esto significa que un atacante podría:

  1. Descargar imágenes de contenedor desde repositorios privados
  2. Acceder al código fuente del Vertex AI Reasoning Engine
  3. Mapear la cadena de suministro de software interna de Google
  4. Identificar imágenes vulnerables o desactualizadas

Como señalan los investigadores, “ganar acceso a este código propietario no solo expone la propiedad intelectual de Google, sino que también proporciona a un atacante un plano para encontrar más vulnerabilidades”.

La Importancia del Principio de Mínimo Privilegio

Este caso ilustra perfectamente por qué el principio de mínimo privilegio (PoLP) es esencial en cualquier implementación tecnológica. Otorgar permisos amplios por defecto a agentes de IA viola este principio fundamental y representa, en palabras de los investigadores, “una falla de seguridad peligrosa por diseño”.

Google ha respondido actualizando su documentación oficial para clarificar cómo Vertex AI utiliza recursos, cuentas y agentes. La recomendación principal es que los clientes implementen Bring Your Own Service Account (BYOSA), reemplazando el agente de servicio predeterminado y asegurando que cada agente tenga solo los permisos estrictamente necesarios para su función específica.

Lecciones para el Desarrollo de Software Seguro

En empresas como Dogalyir, donde el desarrollo de software y soluciones tecnológicas es central, este incidente refuerza la importancia de:

  • Validar exhaustivamente los límites de permisos en todas las implementaciones
  • Restringir los alcances de OAuth al mínimo necesario
  • Revisar la integridad del código fuente
  • Realizar pruebas de seguridad controladas antes del despliegue en producción

Los agentes de IA deben tratarse con el mismo rigor que cualquier nuevo código de producción. Su capacidad para interactuar con sistemas y datos los convierte en puntos potenciales de entrada para amenazas de seguridad si no se implementan con las debidas precauciones.

El Futuro de la Seguridad en Plataformas de IA

A medida que las plataformas de inteligencia artificial como Vertex AI se vuelven más sofisticadas y ampliamente adoptadas, la gestión de permisos y el control de acceso se convierten en aspectos críticos. La automatización y la IA ofrecen enormes beneficios, pero también introducen nuevas superficies de ataque que requieren enfoques de seguridad adaptativos y proactivos.

La industria tecnológica está aprendiendo que la seguridad en la nube y la IA no pueden ser consideraciones secundarias. Deben integrarse desde las primeras etapas de diseño y mantenerse como prioridad durante todo el ciclo de vida del desarrollo. Solo así podremos aprovechar todo el potencial de estas tecnologías mientras protegemos los datos y sistemas que son fundamentales para las organizaciones modernas.