Presenta:

OpenAI admite que su navegador con IA es vulnerable a ciberataques estructurales

OpenAI reconoció que las "inyecciones de instrucciones" representan un riesgo imposible de eliminar por completo en el nuevo ChatGPT Atlas.

OpenAI

OpenAI

Shutterstock

La carrera por la autonomía de la inteligencia artificial ha topado con un muro de seguridad difícil de franquear. Esta semana, OpenAI admitió que ChatGPT Atlas, su navegador integrado con agentes de IA, presenta vulnerabilidades críticas ante ataques de "inyección de instrucciones".

Esta técnica permite a actores maliciosos alterar el comportamiento del sistema mediante mensajes ocultos en sitios web o correos electrónicos, aprovechando la propia naturaleza operativa de la IA generativa.

Logo OpenAI - Portada
OpenAI modifica su estrategia para entrar al ámbito educativo con cursos.

OpenAI modifica su estrategia para entrar al ámbito educativo con cursos.

Un problema de raíz en la IA generativa

A pesar de los refuerzos en la infraestructura de seguridad, la empresa señaló que este tipo de amenazas constituye un problema estructural. Al combinar la capacidad de tomar decisiones autónomas con el acceso a información sensible del usuario, el llamado "modo agente" amplía drásticamente la superficie de riesgo.

Esta postura coincide con las advertencias del Centro Nacional de Ciberseguridad del Reino Unido, organismo que sostiene que estas fallas probablemente nunca se erradiquen del todo. La recomendación de los expertos internacionales es clara: los esfuerzos deben centrarse en mitigar el impacto de los ataques en lugar de prometer una invulnerabilidad técnica que, hoy por hoy, parece inalcanzable.