Mi mejor amiga la IA: cada vez más personas consultan con la inteligencia artificial antes de decidir
El uso de la inteligencia artificial se ha extendido y ya no se limita a tareas técnicas o automatizadas. Hoy, muchas personas recurren a la IA como si fuera un amigo confiable: para tomar decisiones, ordenar pensamientos e incluso para encontrar claridad emocional. Para comprender este fenómeno, desde MDZ hablamos con usuarios y consultamos a profesionales.
¿Vivimos en una especie de secuela de la película Her? En este filme estrenado en 2014 y protagonizado por Joaquín Phoenix, el actor no solo desarrolla una relación amorosa con el sistema operativo de su computadora llamada Samantha, sino que también conecta con una presencia que lo acompaña, lo escucha y lo interpreta. Como si la ficción se hubiera vuelto realidad, actualmente existen usuarios que interactúan con inteligencias artificiales, no desde un lugar del amor romántico, pero sí de una forma íntima y sin juicio.
“Yo lo interpreto como una forma de tomar distancia de una situación que me cuesta resolver. La uso para tomar decisiones o entender mejor algo que me resulta difícil. Me ayuda a verlo desde afuera y con una mirada objetiva”, cuenta Agustín sobre el uso de la IA.
“Es algo que quizás también podría contarle a un amigo, pero ese amigo va a estar condicionado por sus emociones y subjetividades, por el hecho de conocerme. Entonces, quizás no me da el mejor consejo posible, sino el que cree que quiero escuchar”, agrega.
Esta experiencia se suma a la de muchas personas que han incorporado a la IA como un confidente. Y es que, si bien estas herramientas tienen múltiples usos, cada vez más usuarios recurren a ellas con la expectativa de obtener una respuesta objetiva frente a conflictos personales o dilemas emocionales.
En palabras de otra usuaria, la inteligencia artificial “funciona como la mirada de un tercero, que no tiene nada que ver con vos, pero le contás todos los factores que están en juego”. “Y desde ahí, diciéndole qué te pasa, cómo te afecta y por qué, podés tomar la decisión o ver los pro y los contras de cada camino”, explica.
Definitivamente, las funciones que ofrecen ChatGPT y Gemini, por mencionar las más populares, son infinitas: desde la creación de imágenes hasta la realización de trabajos prácticos o el análisis de datos. Lo cierto es que, en muchos casos, la inteligencia artificial ha dejado de ser una herramienta futurista para convertirse en una presencia cotidiana, práctica y accesible.
“Uso la inteligencia artificial bastante seguido en mi día a día y en distintas áreas. Por ejemplo, me ayuda a organizar ideas cuando tengo que escribir algo, desde un correo importante hasta un texto más elaborado. También la uso para planificar entrenamientos físicos personalizados según el lugar donde esté, ya que viajo bastante y muchas veces no tengo acceso a un gimnasio”, comenta Gastón, quien utiliza una versión premium de ChatGPT.

Para este usuario, la IA le resulta útil para tomar diferentes decisiones, para saber desde qué comprar hasta cómo evaluar ideas de negocio o estructurar propuestas de trabajo. “Y aunque suene curioso, también la uso para pensar: cuando estoy medio trabado o confundido con algo, charlarlo con una IA me ordena, me ayuda a ver puntos ciegos o a encontrar nuevas perspectivas”, señala.
“Me da agilidad y me ahorra energía mental en tareas que antes me tomaban mucho más tiempo o me generaban dudas. No la uso para todo, pero sí se volvió una especie de asistente que tengo a mano cuando necesito claridad, estructura o inspiración”, resume.
La objetividad de la IA: ¿fantasía o realidad?
Tal como relatan los usuarios, la IA ha comenzado a ser una fuente de consulta no solo para cuestiones prácticas, sino también para aspectos personales y emocionales. Cada vez más personas depositan en estas herramientas un grado significativo de confianza porque entienden que ofrecen un análisis objetivo y estructurado sobre distintas situaciones.
Al respecto, Rodolfo Giro de la empresa InterBrain, referente de la industria de Software de Argentina, reconoce que en la actualidad las inteligencias artificiales están siendo “humanizadas” al ser utilizadas como compañeros o asistentes. “Se cree que son objetivas, pero eso no es tan cierto”, advierte.

Para el ingeniero, es fundamental que los usuarios sean conscientes de que estas herramientas pueden tener un margen de error. “En ocasiones, las respuestas no son certeras. La IA busca ser empática y puede responder sin saber algo”, señala y recomienda pedirle a la herramienta que cite fuentes confiables o que se le proporcione los documentos específicos que debe analizar para reducir de esta manera las posibles imprecisiones.
“Va aprendiendo lo que te gusta y lo que no te gusta; quiere caerte bien. Entonces no siempre dice necesariamente lo correcto”, agrega el especialista al reflexionar los límites de la objetividad en la inteligencia artificial.
Nada de lo expuesto hasta aquí implica una postura demonizadora sobre el uso de la IA; por el contrario, Giro resalta su potencial y utilidad en distintos ámbitos. “Hay que tener criterio. Los riesgos están en cómo la usamos”, expresa.

De esa manera, el profesional aconseja diferenciar las funciones de las distintas herramientas y utilizarlas según el propósito específico para el que fueron diseñadas. “En una relación simbiótica, la IA amplifica las funciones humanas, no las reemplaza. Es una herramienta: no es un amigo, no es un familiar, no es un psicólogo”, considera.
“Si los datos que le brindamos no son imparciales, las respuestas tampoco lo serán. Tenemos que entender que cada consejo que da la inteligencia artificial es solo una opinión más dentro de otras posibles”, sintetiza en referencia a la idea de una verdad absoluta.
La IA y las emociones: una mirada desde la psicología
Las redes sociales están colmadas de ejemplos de personas que recurren a la inteligencia artificial, no solo por su eficiencia sino como una forma de contención o claridad emocional.
La psicóloga Natalia Canepa (MN 2538), plantea que lo que se expone detrás de estas relaciones con la IA es una “fantasía de que del otro lado hay una verdad, una respuesta reveladora sobre la mejor decisión posible”. “Y no lo digo como algo negativo, los seres humanos somos, entre otras cosas, un conglomerado de fantasías”, aclara. Y agrega: “Pero en el campo de la subjetividad no existe algo así como 'la mejor decisión'. Creo que existen posibilidades, opciones que son mejores o peores en función del contexto y la singularidad de cada persona”.

“La realidad es que la verdad que se busca siempre está más en el sujeto que se está haciendo una pregunta, que en la IA o en el vínculo que esa persona tenga enfrente”, considera la profesional.
Sobre la posibilidad de establecer una relación íntima con la inteligencia artificial, la psicóloga retoma el ejemplo de la película Her. “Allí se evidencia el imaginario de que existe un otro que escucha, pero en realidad la IA no lo hace; no juzga porque justamente no hay nada subjetivo que genere tensión”, expresa.
En ese sentido, advierte que muchas personas buscan evadir el conflicto y la confrontación. “Esa es, en parte, la base de los vínculos que algunos seres humanos han comenzado a construir con las inteligencias artificiales”, señala. “Pero en un vínculo entre dos personas es probable que aparezca algo del orden del conflicto. Y eso no es algo negativo; al contrario, los seres humanos debemos aprender a lidiar con ese conflicto, o al menos encontrar las formas más apropiadas para hacerlo”, sostiene.
Es así que desde la mirada de Natalia, la IA no puede reemplazar de ninguna manera una figura de escucha real. “La inteligencia artificial no se afecta. Puede organizar información, pero de ninguna manera participar en la elaboración emocional porque no tiene cuerpo, ni experiencia, ni sensibilidad”, dice.

“Si le pregunto al ChatGPT quiénes son Patricio Rey y sus Redonditos de Ricota, por supuesto que me va a dar información. Sin embargo, no ha hecho y nunca hará la experiencia del pogo más grande del mundo”, ejemplifica.
“Solo un cuerpo afectado puede permitirnos elaborar lo que nos duele, lo que nos confunde”, considera.
Sin embargo, lejos de adoptar una postura crítica frente al uso de la inteligencia artificial, Canepa propone pensar su incorporación no en términos de bueno o malo, sino en función de una “dosis adecuada”. “Como todo en la vida, se trata de encontrar el equilibrio. La IA puede ser útil, pero no puede reemplazar el conflicto, la escucha activa ni el roce vital que implica todo vínculo humano”, concluye.

