ver más

Descargar una IA gratuita parece inofensivo, pero expone a tu computadora a serios problemas

Un informe de SentinelOne y Censys detectó modelos gratis de IA ejecutados sin protección: pueden ser tomados a distancia y usados para phishing y fraudes.


La expansión de los modelos de inteligencia artificial de código abierto cambió la forma en que miles de usuarios interactúan con esta tecnología. Hoy es posible descargar una IA gratuita, ejecutarla en una computadora personal o en un servidor propio y usarla sin depender de plataformas oficiales.

La accesibilidad tiene un costo poco visible: fallo o riesgos de seguridad que pueden convertir al usuario en una víctima —o en un intermediario involuntario— de actividades criminales.

Una investigación conjunta de las firmas de ciberseguridad SentinelOne y Censys, difundida por Reuters, advirtió que muchos equipos que ejecutan modelos de lenguaje abiertos quedan expuestos a manipulación remota, especialmente cuando se usan sin controles ni configuraciones de protección.
wifi3

SentinelOne y Censys detectaron miles de implementaciones inseguras vía Ollama, con controles desactivados deliberadamente.

Cómo se explotan las IA de código abierto

El estudio se desarrolló durante 293 días y analizó miles de implementaciones públicas de modelos de lenguaje que funcionaban a través de Ollama, una herramienta que permite ejecutar IA localmente. Los investigadores detectaron servidores y computadoras con configuraciones inseguras, en algunos casos con las limitaciones originales del modelo eliminadas de forma deliberada.

Entre los modelos observados había variantes de Llama, desarrollado por Meta, y Gemma, de Google DeepMind. Según los datos recopilados, el 7,5% de los modelos analizados permitía habilitar actividades dañinas, mientras que cerca del 30% de los servidores inseguros operaban desde China y un 20% desde Estados Unidos.

El problema no es menor: los atacantes pueden tomar el control de estos entornos y utilizarlos para enviar spam, lanzar campañas de phishing, difundir desinformación, generar contenido ilegal o facilitar estafas online. En muchos casos, el dueño del equipo no es consciente de que su máquina está siendo utilizada con fines ilícitos.

Inteligencia artificial rompe récords: inversión global supera USD 600.000 millones

Equipos vulnerables pueden terminar enviando spam, phishing o desinformación sin que su dueño lo note.

Prompts inseguros y responsabilidades compartidas

Uno de los hallazgos más sensibles del informe tiene que ver con los prompts de sistema, es decir, las instrucciones internas que determinan cómo se comporta un modelo. Los investigadores lograron observar estos prompts en aproximadamente una cuarta parte de las implementaciones públicas, y descubrieron que muchos permitían explícitamente la generación de spam, acoso o material ilegal.

Juan Andrés Guerrero-Saade, director ejecutivo de inteligencia y seguridad en SentinelOne, comparó el escenario con un iceberg: “Solo vemos una pequeña parte del problema, mientras que el resto permanece oculto y sin control suficiente”. Según advirtió, el debate sobre la seguridad en inteligencia artificial suele enfocarse en grandes plataformas, pero ignora el exceso de capacidad sin regulación que existe en el ecosistema open source.

La discusión también alcanza a la responsabilidad. Rachel Adams, directora del Global Center on AI Governance, sostuvo que la carga es compartida entre los laboratorios que crean los modelos, los desarrolladores que los adaptan y los usuarios que los ejecutan. Aunque no se puedan prever todos los abusos, remarcó la necesidad de anticipar riesgos, documentarlos y ofrecer guías claras de mitigación, sobre todo en un contexto global con regulaciones desiguales.

La respuesta de Meta frente a las IA OpenSource

Desde Meta, desarrolladora de Llama, destacan que existen herramientas y recomendaciones para promover un uso responsable, aunque evitan pronunciarse sobre el rol de los desarrolladores externos. Microsoft, en tanto, reconoce que los modelos abiertos impulsan la innovación, pero admite que sin salvaguardas adecuadas pueden ser explotados por actores maliciosos.

El caso deja una advertencia clara: descargar y ejecutar una IA gratuita sin conocimientos técnicos ni controles básicos puede abrir una puerta directa a ataques y abusos. A medida que estos modelos se multiplican, la seguridad deja de ser un detalle técnico y se convierte en una responsabilidad central para todo el ecosistema de la inteligencia artificial.