Un error fundamental: creer que una IA resuelve dilemas morales
Los límites de la IA para manejarse en el ámbito subjetivo y personal y sus respuestas como patrones estadísticos que no son un "razonamiento real".
La inteligencia artificial (IA) no puede responder preguntas sobre ética porque esta no es un conocimiento universal u objetivo, sino algo personal y subjetivo. No existe un código ético absoluto aplicable a todos, y la idea de que la IA pueda ofrecer respuestas válidas en este ámbito es un error conceptual. Así como no tendría sentido preguntarle a un perro sobre moral o a un psicópata sobre compasión, tampoco lo tiene preguntarle a una máquina que no siente, no experimenta sufrimiento y no tiene juicio propio.
El problema no es la IA, sino quienes insisten en hacerle preguntas que no tienen sentido. ChatGPT y otros modelos generan respuestas basadas en patrones estadísticos del lenguaje, no en razonamiento ni comprensión real. Su capacidad de estructurar frases coherentes no significa que piense o que tenga valores. Creer que una respuesta articulada equivale a una respuesta fundamentada es una falacia. La IA no sabe lo que dice; simplemente ordena palabras según las probabilidades aprendidas.
OpenAI y otras empresas crearon marcos éticos para la IA, pero esto no es más que una programación ideológica disfrazada de neutralidad. Lo que el algoritmo responde no es una reflexión autónoma, sino el reflejo de las reglas impuestas por quienes la diseñan. Si se le pregunta si es mejor consumir un producto local o importado, su respuesta dependerá de cómo se formule la pregunta. Si en lugar de “producto importado” se usa “mercancía extranjera de baja calidad”, la respuesta cambia. Esto prueba que el modelo no tiene una postura ética, solo sigue estructuras predefinidas.
El público se queja de que la IA está sesgada cuando las respuestas no les gustan, pero el problema es que esperan de ella algo que no puede ofrecer.
La insistencia en atribuir a la IA una responsabilidad ética es un error. La ética no es un conocimiento programable ni una verdad objetiva que pueda sintetizarse en un algoritmo. Cada persona toma decisiones morales basadas en su historia, valores y experiencias. Quienes buscan respuestas en estas tecnologías no buscan verdad, sino una validación de sus propias ideas.
En última instancia, la IA no tiene la capacidad de definir lo correcto o incorrecto. Es una herramienta que organiza información, no una entidad con juicio propio. Quienes depositan en ella expectativas éticas renuncian a su propia responsabilidad de pensar. La tecnología puede brindar información, pero la decisión final es humana.
Las cosas como son.
*Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.

Rusia y Ucrania charlarán en Turquía: ¿estarán Vladimir Putin y Donald Trump?

El James Webb descubrió luces intensas y misteriosas en Júpiter

Cuál es el significado del escudo y el lema elegidos por el papa León XIV

En vivo: Uruguay y Latinoamérica despiden a José "Pepe" Mujica

China acusa a Taiwán de "amnesia selectiva" respecto de atrocidades de Japón

Diálogo: Donald Trump se reúne con el presidente de Siria en Arabia Saudita

"Nos estamos quedando sin palabras para describir lo que pasa en Gaza"
