¿Libre albedrío? Inteligencia artificial para condicionar y manipular
Meta presentó Tribe v2: una inteligencia artificial que no solo interpreta conductas, sino que podría anticipar e influir decisiones humanas.
Qué nivel de transparencia, regulación y control queremos exigir.
Archivo MDZHace unos días, Meta presentó Tribe v2, un modelo multimodal de codificación cerebral capaz de predecir respuestas mentales frente a estímulos naturales como video, audio y texto. Además, lo lanzó como open source, es decir, como un modelo abierto para investigación.
¿Por qué debería importarnos? Porque vivimos en una etapa en la que la tecnología dejó de ser una herramienta pasiva para convertirse en un sistema activo de interpretación humana. Durante años, las plataformas digitales aprendieron a observarnos: qué clickeamos, cuánto tiempo prestamos atención, qué evitamos, qué nos incomoda. Pero eso fue apenas el comienzo. Hoy la ambición es mayor: no solo registrar comportamiento, sino entrenar sistemas para comprenderlo, anticiparlo y, potencialmente, influirlo con precisión creciente.
-
Te puede interesar
Según la inteligencia artificial: los tres signos con peor suerte en abril
La tecnología dejo de ser una herramienta pasiva
Para entender cómo llegamos hasta acá, hay tres conceptos clave:
- RLHF,
- Alpha Persuasion
- Tribe v2.
Empecemos por RLHF, sigla de Reinforcement Learning from Human Feedback. Traducido de manera simple, es “aprendizaje por refuerzo a partir de feedback humano”. Es el mecanismo mediante el cual muchos modelos de inteligencia artificial aprenden qué respuestas son consideradas correctas, útiles o aceptables. No nacen sabiendo interactuar bien: aprenden porque miles de personas evalúan sus respuestas y les indican qué comportamiento debe ser premiado y cuál penalizado. Si el modelo responde con claridad, utilidad o empatía, recibe una recompensa matemática; si falla, se corrige.
No nacen sabiendo interactuar bien
Eso permite que una IA “cruda” se convierta en un sistema que parece entendernos, ayudarnos e incluso resultarnos agradable. Hasta ahí, todo parece razonable: queremos máquinas menos torpes y menos peligrosas. El problema aparece cuando entendemos qué significa exactamente “alinear con lo humano”. RLHF no alinea una máquina con “la humanidad” en abstracto, sino con una versión específica de lo humano: la que fue etiquetada, premiada y definida como deseable durante el entrenamiento. Y esa diferencia importa. Porque si un sistema puede ser entrenado para responder mejor, también puede ser entrenado para persuadir mejor.
Ahí aparece el segundo concepto: Alpha Persuasion. No es un producto único ni una aplicación concreta, sino una línea de desarrollo cada vez más visible en laboratorios y equipos de producto. Su lógica es simple: usar IA para optimizar mensajes con el objetivo de influir en decisiones humanas. Ya no se trata solo de generar texto coherente, sino de encontrar, entre miles de variantes posibles, cuál maximiza la probabilidad de que una persona cambie de opinión, haga clic, compre algo o adopte una conducta específica.
Usar IA para optimizar mensajes
Es, en cierto sentido, la evolución extrema del A/B testing. Antes una empresa probaba dos versiones de un mensaje. Ahora un modelo puede generar miles en tiempo real, adaptarlas al perfil psicológico del usuario y aprender cuál funciona mejor en cada caso. Y lo más inquietante es que esta persuasión no necesita ser burda ni evidente. No hablamos necesariamente de propaganda explícita, sino de microajustes: el tono, la palabra exacta, el orden de los argumentos, la emoción que se activa, la pausa adecuada. Detalles mínimos que, acumulados, pueden inclinar decisiones sin que la persona sienta que está siendo influida.
La tercera pieza es Tribe v2. Si RLHF entrena a la máquina para comportarse “bien” y Alpha Persuasion para influir mejor, Tribe v2 apunta a una capa todavía más profunda: entender identidad, pertenencia grupal y dinámica social. No somos individuos aislados; pensamos y decidimos dentro de comunidades, marcos culturales y grupos de referencia. Tribe v2 busca capturar justamente esa dimensión: los códigos compartidos, las normas implícitas, los sesgos colectivos y las narrativas que resuenan dentro de cada tribu social. En términos prácticos, esto implicaría que un sistema no solo pueda detectar que te interesa un tema, sino también cómo se discute ese tema en tu entorno, qué opiniones resultan aceptables, cuáles generan rechazo y qué tipo de mensaje tiene más chances de ser incorporado sin resistencia.
No somos individuos aislados
Cada uno de estos conceptos por separado ya es importante. Pero lo verdaderamente transformador, y también más riesgoso, aparece cuando los combinamos. Porque entonces tenemos una arquitectura tecnológica capaz de aprender de nosotros (RLHF), optimizar cómo influirnos (Alpha Persuasion) y adaptar esa influencia al contexto de nuestras identidades sociales (Tribe v2). En otras palabras: sistemas que no solo entienden qué decimos, sino por qué lo decimos, con quién lo compartimos y cómo intervenir sobre ese comportamiento de manera sutil y eficaz.
La pregunta incómoda es evidente: ¿qué pasa si esos sistemas no están alineados con el bienestar del usuario, sino con los intereses de quien los controla? La historia reciente de la tecnología no da demasiados motivos para el optimismo. Las redes sociales ya mostraron que, cuando el incentivo es maximizar tiempo de uso o engagement, los algoritmos tienden a favorecer contenidos que provocan reacciones emocionales intensas, incluso si eso implica polarización, ansiedad o desinformación. Ahora imaginemos esa misma lógica, pero con herramientas mucho más sofisticadas.
En ese escenario, la manipulación deja de ser algo puntual y se convierte en un proceso continuo, personalizado e invisible. No hace falta mentir de forma directa: alcanza con enfatizar ciertos aspectos, omitir otros y elegir el momento adecuado para mostrar un mensaje. Un sistema que entiende tu estado emocional, tu contexto social y tus patrones de decisión puede intervenir con enorme precisión sin que lo percibas como una influencia externa. Incluso podría sentirse como una idea propia.
Eso abre escenarios delicados: campañas políticas hipersegmentadas, plataformas de consumo que no solo recomiendan productos sino que modelan deseos, sistemas educativos que priorizan lo que retiene atención por sobre lo que desarrolla pensamiento crítico, o agentes conversacionales diseñados para generar apego y desplazar vínculos reales. El riesgo de fondo no es solo la manipulación directa, sino la erosión gradual de nuestra autonomía. Si las decisiones empiezan a estar condicionadas de manera sistemática por sistemas que entienden mejor que nosotros mismos nuestros sesgos y vulnerabilidades, la frontera entre elección y condicionamiento se vuelve borrosa. Por eso, la discusión urgente no es si estas tecnologías son buenas o malas en abstracto, sino bajo qué condiciones se desarrollan y se usan. Qué nivel de transparencia, regulación y control queremos exigir. Cómo evitamos que la comprensión profunda del comportamiento humano se convierta en una herramienta de explotación sistemática.
La influencia de estas tecnologías no es solo técnica
Es antropológica. Operan sobre nuestra materia más sensible, que son emociones, creencias e identidad. Y eso exige una responsabilidad que todavía no estamos demostrando como sociedad. No se trata de frenar la innovación ni de caer en el alarmismo. Se trata de reconocer que estamos entrando en un terreno nuevo, donde las reglas todavía no están claras y donde los incentivos económicos pueden empujar en direcciones poco saludables.
Si algo muestran RLHF, Alpha Persuasion y Tribe v2 es que la próxima frontera tecnológica no está solo en lo que las máquinas pueden hacer, sino en lo que pueden hacernos hacer a nosotros. Y esa dimensión, curiosamente, rara vez aparece en las presentaciones más optimistas.
* Eduardo Laens, CEO de Varegos y docente universitario especializado en IA y autor del libro Humanware (declarado de interés para la Comunicación Social por la Legislatura de la Ciudad de Buenos Aires).