Las cosas como son

Un error fundamental: creer que una IA resuelve dilemas morales

Los límites de la IA para manejarse en el ámbito subjetivo y personal y sus respuestas como patrones estadísticos que no son un "razonamiento real".

Mookie Tenembaum viernes, 25 de abril de 2025 · 15:15 hs
Un error fundamental: creer que una IA resuelve dilemas morales
La inteligencia artificial está limitada por su composición Foto: EFE

La inteligencia artificial (IA) no puede responder preguntas sobre ética porque esta no es un conocimiento universal u objetivo, sino algo personal y subjetivo. No existe un código ético absoluto aplicable a todos, y la idea de que la IA pueda ofrecer respuestas válidas en este ámbito es un error conceptual. Así como no tendría sentido preguntarle a un perro sobre moral o a un psicópata sobre compasión, tampoco lo tiene preguntarle a una máquina que no siente, no experimenta sufrimiento y no tiene juicio propio.

El problema no es la IA, sino quienes insisten en hacerle preguntas que no tienen sentido. ChatGPT y otros modelos generan respuestas basadas en patrones estadísticos del lenguaje, no en razonamiento ni comprensión real. Su capacidad de estructurar frases coherentes no significa que piense o que tenga valores. Creer que una respuesta articulada equivale a una respuesta fundamentada es una falacia. La IA no sabe lo que dice; simplemente ordena palabras según las probabilidades aprendidas.

OpenAI y otras empresas crearon marcos éticos para la IA, pero esto no es más que una programación ideológica disfrazada de neutralidad. Lo que el algoritmo responde no es una reflexión autónoma, sino el reflejo de las reglas impuestas por quienes la diseñan. Si se le pregunta si es mejor consumir un producto local o importado, su respuesta dependerá de cómo se formule la pregunta. Si en lugar de “producto importado” se usa “mercancía extranjera de baja calidad”, la respuesta cambia. Esto prueba que el modelo no tiene una postura ética, solo sigue estructuras predefinidas.

El público se queja de que la IA está sesgada cuando las respuestas no les gustan, pero el problema es que esperan de ella algo que no puede ofrecer.

La insistencia en atribuir a la IA una responsabilidad ética es un error. La ética no es un conocimiento programable ni una verdad objetiva que pueda sintetizarse en un algoritmo. Cada persona toma decisiones morales basadas en su historia, valores y experiencias. Quienes buscan respuestas en estas tecnologías no buscan verdad, sino una validación de sus propias ideas.

En última instancia, la IA no tiene la capacidad de definir lo correcto o incorrecto. Es una herramienta que organiza información, no una entidad con juicio propio. Quienes depositan en ella expectativas éticas renuncian a su propia responsabilidad de pensar. La tecnología puede brindar información, pero la decisión final es humana.

Las cosas como son.

*Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.

Archivado en