Presenta:

¿Cómo y quiénes deciden la seguridad y el marco ético de un sistema de Inteligencia Artificial?

El desajuste táctico y estratégico de los objetivos que privilegian el mercado sobre la reputación y la ética, destruyendo el sustento social y geopolítico de las compañías.

La Inteligencia Artificial funciona en entornos controlados.

La Inteligencia Artificial funciona en entornos controlados.

Marinak Sharma, director de seguridad del equipo de salvaguarda y defensa en bioterrorismo asistido por Inteligencia Artificial, renunció a su cargo en la corporación Anthropic el 9 de febrero de 2026. Además, tenía a su cargo estudiar y controlar la sicofancia —la tendencia de la IA a adular a los usuarios del sistema— mediante el desarrollo de defensas para evitar que fueran manipulados.

En una carta publicada en la red social X, expuso la motivación de su decisión. Sharma denunció la dificultad de sostener valores éticos como guía del desarrollo de sistemas de IA ante presiones corporativas para maximizar ganancias. Dijo haber sido testigo de decisiones operativas que no reflejaban valores esenciales para un desarrollo seguro y afirmó que enfrentó presiones constantes para dejar de lado lo que consideraba más importante.

IA 21
Decisiones operativas que no reflejaban valores esenciales para un desarrollo seguro.

Decisiones operativas que no reflejaban valores esenciales para un desarrollo seguro.

Una renuncia que excede lo técnico

La advertencia de Sharma trascendió el plano tecnológico y alertó sobre la existencia de una “metacrisis o policrisis”, que describió como una convergencia de amenazas interconectadas —IA, armas biológicas, crisis climática y social— donde la tecnología actúa como multiplicador de riesgos. Afirmó que “el mundo está en peligro” y sostuvo que la humanidad se acerca a un umbral en el que nuestra sabiduría debe crecer en igual medida que nuestra capacidad de afectar al mundo, o enfrentaremos consecuencias. Cerró su mensaje con un rechazo a la tecnocracia y, en un giro copernicano en su carrera como experto en IA, anunció su retiro para dedicarse a la poesía, la escritura y la construcción comunitaria. Una decisión que, por el contexto, llamó la atención dentro y fuera del sector.

El 15 de febrero de 2026, The Wall Street Journal reveló que, en la operación estadounidense para capturar al presidente de Venezuela, Nicolás Maduro, se utilizó por primera vez —en una misión clasificada— un modelo de IA comercial denominado Claude, de Anthropic. El acceso a la herramienta se habría realizado a través de Palantir Technologies, empresa de análisis de datos y contratista habitual del Pentágono. La información fue un shock para Anthropic, que, según lo reportado, desconocía este uso militar y se ha posicionado como una empresa de IA responsable y segura, con políticas que prohíben explícitamente el desarrollo de armas, la violencia y la vigilancia masiva.

Ética en negociación

En paralelo, se desarrolló una negociación intensa entre el Pentágono y Anthropic sobre uso y seguridad de IA, con impacto directo sobre la continuidad del contrato. La empresa buscó sostener restricciones de uso como principio: evitar que su tecnología se utilice en armamento autónomo letal (“killer robots”) o en programas de vigilancia masiva. Del otro lado, funcionarios del Pentágono exigieron acceso total a las empresas de IA —Anthropic, OpenAI, Google, xAI— y autorización para que fuerzas armadas y operadores utilicen herramientas disponibles para todos sus “propósitos legales”, sin límites definidos por marcos éticos corporativos que, argumentan, reflejan normas internacionales convencionales. Dado este contexto, el Pentágono podría declarar a Anthropic un riesgo en la cadena de suministro y terminar el vínculo contractual, un escenario que se describe como catastrófico para la corporación en un momento en el que se discute la rentabilidad de los sistemas de IA y se restringe el acceso al crédito.

En este clima de tensión entre valores y negocio, Zoe Hitzig renunció a OpenAI y publicó una columna en The New York Times centrada en la estrategia comercial de la empresa y sus implicaciones éticas. Planteó reservas sobre la introducción de anuncios en ChatGPT. Su crítica principal apuntó al potencial de manipular a los usuarios mediante el uso de datos extremadamente sensibles —miedos médicos, problemas de relación, creencias en Dios—, porque muchas personas creen que comparten información con un sistema sin motivaciones ocultas comerciales o de vigilancia. Lo sintetizó en una frase: “la publicidad basada en los datos sensibles de los usuarios crea la posibilidad de manipularlos de maneras que no tenemos herramientas para comprender”.

IA 44
Su crítica principal apuntó al potencial de manipular a los usuarios mediante el uso de datos extremadamente sensibles.

Su crítica principal apuntó al potencial de manipular a los usuarios mediante el uso de datos extremadamente sensibles.

Valores vs. rentabilidad

Estas dos renuncias en megaempresas de IA muestran, según el texto, un abandono progresivo de estándares éticos que cimentaron reputación en los inicios, en busca de flujos de caja que permitan sostener el crecimiento. El cambio se explica por un giro en la narrativa del mercado: el capital en un punto de riesgo dejó de financiar promesas y comenzó a exigir rentabilidad.

Deuda en crecimiento y límites físicos

La deuda está creciendo, con ejemplos citados: Oracle tendría una deuda de 100.0B (83,9% de su capital) y Apple 78.3B (60,4% de su capital). Morgan Stanley estima que los hyperscalers (Alphabet, Amazon, Meta, Microsoft) y empresas relacionadas recaudarán US$ 400 mil millones en el mercado de bonos en 2026, un 135% más que en 2025. UBS proyecta que la emisión de deuda vinculada a la IA podría dispararse hasta US$ 990 mil millones en 2026. También se afirma que el gasto de capital global en centros de datos hasta 2028 sería de aproximadamente 2.9 B, y que las empresas solo cubrirían con flujo de caja operativo la mitad, dejando un agujero de 1.5 B a financiar con deuda. Con retornos históricos de 2 a 3 veces el Capex, para mantener ese nivel necesitarían generar un beneficio anual de más de 1 B en 2026/27, cuando la estimación de consenso para 2026 sería de 450 millones. El argumento concluye que el “Rey está desnudo” no solo en lo financiero: los límites físicos son aún más difíciles de esquivar.

Entre esas restricciones aparece la producción eléctrica y el uso de agua. Para satisfacer la demanda de centros de datos, EE. UU. necesitaría una expansión masiva de generación y transmisión: la demanda aumentaría 20% (140 GW, frente a una demanda total actual de 760 GW) solo con la cartera de centros de datos en construcción. El gobierno planea cuadruplicar la capacidad nuclear para 2050, pero los plazos de construcción serían de 4 a 10 años. Se necesitarían aproximadamente entre 140 y 65 nuevas centrales nucleares (según capacidad y tecnología) para equilibrar, y no estarían listas hasta 2030/35. El mayor cuello de botella sería la conexión a la red: por saturación y falta de capacidad de transmisión, habría esperas de 4 a 7 años; el proceso de interconexión arrojaría 53 meses. Reactivar centrales viejas no compensaría la demanda. El agua es otra restricción crítica: un centro de datos de 100 MW consumiría 730 millones de litros (unos 2 millones por día, equivalente a 6.600 hogares estadounidenses). Un centro de datos de 365 M consumiría 1,38 millones de litros. La refrigeración de circuito cerrado reduce el consumo de agua directa, pero no elimina la huella hídrica indirecta de la generación eléctrica.

IA 37
Para satisfacer la demanda de centros de datos, EE. UU. necesitaría una expansión masiva de generación y transmisión.

Para satisfacer la demanda de centros de datos, EE. UU. necesitaría una expansión masiva de generación y transmisión.

En este escenario, se menciona que el congresista Robert Menéndez presentó dos proyectos de ley:

  • Ley Price, que obligaría a centros de datos a generar toda la electricidad que consumen, con objetivos crecientes de energía limpia hasta el 100% en 2040.
  • Ley de Transparencia de los Centros de Datos, que exigiría a la EPA informes trimestrales al Congreso sobre uso de agua y energía, reutilización, descarga de contaminantes e impacto local.

En estados con estrés hídrico o zonas agrícolas, la regulación del recurso alimenta conflictos, moratorias, demandas y oposición pública. Se añade otro límite: el agotamiento de memorias necesarias para centros de datos, “agotadas hasta el último trimestre del año 2026”.

Productividad: promesa y fricción

La pregunta final es si la inversión de capital y el consumo de recursos aumentan la productividad. La respuesta se describe como ambivalente: la IA funciona en entornos controlados y con usuarios entrenados, con ganancias reales en tareas específicas. PwC señala que el 92% de usuarios diarios son más productivos y la OCDE reporta mejoras del 40% en eficacia. Sin embargo, estas métricas no se trasladan a la macroproductividad: faltan estrategia empresarial, capacitación y controles; crecen riesgos de seguridad (shadow IA) y existe una tendencia a homogeneizar el pensamiento, con sesgos cognitivos que pueden producir “cisnes negros”. De allí la lectura sobre renuncias: cuando “los números aprietan”, las finanzas tienden a menospreciar riesgos de seguridad que antes aportaban reputación. Bajar barreras para ganar rentabilidad o cumplir requerimientos estatales —Anthropic con el Pentágono; OpenAI con publicidad— podría acelerar daños reputacionales, oposición social y demandas judiciales.

La Inteligencia Artificial funciona en entornos controlados

La conclusión sostiene que reducir estándares de seguridad es un error político y comercial. Cita a Harari en Nexus (con referencia a Von Clausewitz) para argumentar que los objetivos estatales y corporativos deben coordinarse táctica y estratégicamente, preservando poder, eficiencia y rentabilidad sin perder reputación y sustento ético. De lo contrario, la adopción social del sistema IA puede entrar en crisis y, en países en desarrollo, disparar políticas de soberanía tecnológica.

* Dr. Román Alberto Uez, Abogado, Magíster en Derecho Administrativo, Magíster en Tecnología, Políticas y Culturas, y Diplomado Experto en Derecho de la Inteligencia Artificial (Universidad Católica de Murcia e INEAF)