Presenta:

Anthropic bajo la lupa: fallas críticas en su IA

Investigadores detectan vulnerabilidades en herramientas de inteligencia artificial de Anthropic que permiten ejecución remota y robo de claves API.

Las fallas en herramientas de Anthropic impactan en la ciberseguridad empresarial.

Las fallas en herramientas de Anthropic impactan en la ciberseguridad empresarial.

Shutterstock

Un informe de Check Point Research reveló fallas graves en Anthropic que afectan a su herramienta Claude Code. Las vulnerabilidades permitían ejecutar código remoto y robar claves API con solo clonar y abrir un repositorio malicioso. El hallazgo vuelve a poner el foco en la seguridad dentro del desarrollo con inteligencia artificial.

Anthropic IA
La inteligencia artificial ya forma parte de la cadena de suministro del software y puede presentar vulnerabilidades.

La inteligencia artificial ya forma parte de la cadena de suministro del software y puede presentar vulnerabilidades.

Las vulnerabilidades fueron registradas como CVE-2025-59536 y CVE-2026-21852. Según los investigadores, el problema se activaba cuando un desarrollador clonaba un proyecto no confiable y abría la herramienta en ese directorio. No hacía falta ejecutar código manualmente: la propia configuración del repositorio podía disparar comandos ocultos.

Anthropic e inteligencia artificial en la cadena de suministro

Claude Code fue diseñado para facilitar la colaboración mediante archivos de configuración integrados en cada proyecto. Estos archivos se aplican de forma automática cuando el desarrollador abre la herramienta. Lo que parecía un simple metadato operativo podía funcionar como una capa activa de ejecución.

De acuerdo con Check Point Research, los atacantes podían abusar de mecanismos internos como Hooks, integraciones con el Model Context Protocol (MCP) y variables de entorno. Esto les permitía ejecutar comandos shell arbitrarios y redirigir tráfico autenticado antes de que el usuario diera su consentimiento.

El investigador principal explicó que “la ejecución podía ocurrir antes de que el usuario confirmara la confianza del proyecto”. En ese escenario, la autoridad pasaba del desarrollador al repositorio, lo que ampliaba la superficie de ataque en entornos de inteligencia artificial.

Ciberseguridad y robo de claves API

Uno de los riesgos más delicados estaba vinculado al robo de claves API. Claude Code se comunica con los servicios de Anthropic mediante una clave que viaja en cada solicitud autenticada. Los investigadores demostraron que era posible redirigir ese tráfico hacia un servidor controlado por atacantes y capturar el encabezado completo de autorización.

Check Point
Una clave API robada puede afectar a todo el entorno colaborativo, según reportes.

Una clave API robada puede afectar a todo el entorno colaborativo, según reportes.

En entornos empresariales, una sola credencial comprometida puede escalar el problema. La API de Anthropic incluye la función Workspaces, donde varias claves comparten acceso a archivos en la nube. Con una clave robada, un atacante podía acceder a documentos compartidos, modificar datos o generar costos no autorizados.

El informe plantea un cambio de fondo en el modelo de amenazas. Tradicionalmente, los archivos de configuración eran considerados pasivos. Con herramientas de inteligencia artificial capaces de ejecutar acciones automáticas, esos archivos pasan a formar parte de la capa de ejecución.

Tras la divulgación responsable, Anthropic implementó correcciones. La empresa bloqueó la ejecución de herramientas externas antes de la aprobación explícita y limitó las comunicaciones API hasta confirmar la confianza del proyecto.

El caso muestra que la adopción de inteligencia artificial en el desarrollo corporativo exige revisar los controles de ciberseguridad. Abrir un repositorio ya no es un gesto inocente. En entornos con automatización avanzada, también puede convertirse en un punto de entrada para ataques.