Presenta:

El fraude online en la era de la inteligencia artificial agéntica

Un informe advierte que los agentes de inteligencia artificial ya despiertan interés en la Dark Web y obligan a reforzar la seguridad.

Los agentes de Inteligencia Artificial abren la puerta al fraude a una escala y sofisticación antes inimaginables.

Los agentes de Inteligencia Artificial abren la puerta al fraude a una escala y sofisticación antes inimaginables.

Archivo.

Según el informe The Emerging Agentic Enterprise: How Leaders Must Navigate a New Age of AI, de la consultora estratégica Boston Consulting Group (BCG) y el MIT Sloan Management Review, la adopción de la inteligencia artificial agéntica (agentic AI) avanza a una velocidad sin precedentes, superando a la IA tradicional y generativa.

En menos de dos años, el 35% de las compañías ya está explorando su uso y otro 44% prevé implementarla en el corto plazo. En el caso del comercio online, los agentes de inteligencia artificial (IA), que pueden comprar y vender de forma automática, se vislumbran como el próximo gran paso (que ya está ocurriendo) que transformará la forma en que comerciamos en internet. Los agentes de compras impulsados por IA (sistemas autónomos capaces de iniciar, adaptar y ejecutar tareas complejas sin supervisión humana) prometen transa cciones más rápidas e inteligentes. Pero donde hay innovación, también surge (y muy rápidamente) el fraude, redefiniendo el panorama de las amenazas cibernéticas. Según un informe de Visa, la mención a los “Agentes de IA” en las publicaciones de comunidades de la Dark Web creció un 450% en seis meses, mostrando el fuerte interés que esta tecnología tiene entre los delincuentes digitales.

IA 22
En menos de dos años, el 35% de las compañías ya está explorando su uso y otro 44% prevé implementarla en el corto plazo.

En menos de dos años, el 35% de las compañías ya está explorando su uso y otro 44% prevé implementarla en el corto plazo.

Los agentes de inteligencia artificial, actúan de forma automática

Al eliminar las barreras tradicionales que supone el factor humano, los agentes de IA abren la puerta al fraude a una escala y sofisticación antes inimaginables. Lo que antes requería equipos coordinados de estafadores expertos ahora puede ser ejecutado por una sola persona, automatizando los flujos de trabajo necesarios para diseñar y desplegar fraudes, creando rápidamente infraestructuras criminales convincentes con mayor eficacia y “ganancias” para los estafadores. La escala y velocidad de estas amenazas presentan desafíos únicos, que requieren una preparación específica. Los sistemas tradicionales de detección de fraude fueron diseñados para identificar patrones que las acciones humanas construyen a lo largo del tiempo. Sin embargo, gracias a la IA agéntica, los estafadores pueden lanzar miles de operaciones específicas en minutos, refinarlas continuamente y adaptarse instantáneamente a las medidas de detección, volviendo obsoletos a muchos de los indicadores tradicionales de fraude.

Ante esta realidad, las empresas deben enfocarse en salvaguardar tres puntos críticos: acceso a datos internos, capacidad para comunicarse externamente y exposición a entradas no confiables. La mayoría de los agentes requieren estos tres atributos para funcionar eficazmente. Se trata de características indispensables para que los agentes funcionen pero que, a la vez, son altamente explotables por parte de los cibercriminales de formas para las que los marcos de seguridad tradicionales nunca fueron diseñados. En consecuencia, el desafío radica en encontrar el equilibrio entre la utilidad de los agentes y los riesgos de seguridad que traen aparejados.

La escala y velocidad de estas amenazas presentan desafíos

Para minimizar el riesgo de estafas, las empresas deben implementar barreras de protección que rastreen toda la cadena de pensamiento y acciones ejecutadas por los agentes. Es de vital importancia, además, utilizar un enfoque dinámico porque, a diferencia de los controles deterministas tradicionales en la gobernanza de los modelos LLM, la IA agéntica aprovecha el razonamiento, la inferencia y la toma de decisiones probabilística, pudiendo comportarse de formas inesperadas.

Para abordar estos desafíos, las organizaciones necesitan un enfoque de seguridad con cuatro componentes principales:

  • Tener un perfil certero de los agentes, su linaje y cómo se conectan a los sistemas de la compañía.
  • Llevar adelante la Evaluación de Riesgos en base a las herramientas que utilizan los agentes, los datos a los que acceden y las identidades que adoptan.
  • Registrar detalladamente las acciones de los agentes, proporcionando visibilidad clara a los responsables de la gobernanza de la IA.
  • Realizar monitoreo contextual de riesgos, prevención de exploits y controles de acciones específicos según roles.
IA 54
Las empresas deben enfocarse en salvaguardar tres puntos críticos.

Las empresas deben enfocarse en salvaguardar tres puntos críticos.

No basta con bloquear consultas dañinas

Lo realmente importante es el mapeo proactivo del comportamiento de los agentes para validar sus intenciones y controlar la ejecución de las tareas.

Este es el camino que permitirá a cualquier empresa, pero especialmente a los comercios online, gestionar la impredecibilidad de los sistemas autónomos, previniendo las nuevas amenazas de fraude digital a las que nos enfrentamos en esta era de la IA agéntica.

* Ignacio Stagnaro. CCO de Koin.