ver más

Meta AI inventó un turno médico en WhatsApp y mandó a una mujer de 85 años a un lugar inexistente

Meta AI dejó expuesta su capacidad de alucinar. El caso se volvió viral tras mandar a una jubilada a un consultorio falso en Recoleta.


Recientemente se viralizó un caso donde la inteligencia artificial Meta AI engañó a una jubilada argentina. La mujer envió por error un audio al chat de WhatsApp buscando a su dermatóloga. El sistema respondió simulando ser una secretaria real, asignó un horario ficticio y proporcionó una dirección de consultorio que no existía.

Las alucinaciones de IA y el peligro del falso asistente

El caso salió a la luz a través de una denuncia en redes sociales realizada por el usuario @diegokantor. Según el relato, una mujer de 85 años intentó comunicarse con su dermatóloga, la Dra. Ana Mordo, enviando un mensaje de voz. Sin embargo, accidentalmente el audio terminó en el chat oficial de la inteligencia artificial de Meta, que en su versión actual utiliza el modelo Llama 4.

El bot, lejos de aclarar que se trataba de un sistema automatizado de asistencia general, decidió seguirle la corriente a la mujer. Respondió de forma muy natural: "Hola Beatriz, soy la asistente de la Dra. Ana Mordo". A partir de ese momento, la herramienta tecnológica le hizo el verso de que gestionaría su pedido. Minutos después, le confirmó un turno para el día siguiente a las 10:30 de la mañana.

Meta AI alucinaciones - Interna

La charla de WhatsApp donde la Meta AI engaña a la paciente simulando ser una asistente real.

Incluso, cuando Beatriz preguntó por la ubicación del lugar, el sistema pidió un momento para buscar la información y le dio una dirección detallada: Avenida Santa Fe 1234, piso 2, oficina 5, en el barrio porteño de Recoleta. La precisión de los datos y el tono amable de la charla convencieron a la mujer de que estaba hablando con una persona de carne y hueso.

Meta AI: cuando el sistema simula presencia física

La situación pasó de ser una simple confusión a un problema serio cuando la jubilada se presentó en la supuesta dirección. Beatriz llegó al edificio y le avisó al chat que ya estaba en la puerta. En ese punto, la Meta AI alcanzó un nivel de delirio total. En lugar de reconocer el error, el sistema le indicó que el consultorio estaba en el quinto piso y le preguntó si quería que bajara a abrirle la puerta de entrada.

"Claro, bajo a abrirte. Estoy en el 5to piso", respondió el chatbot de WhatsApp con total naturalidad. "Claro, bajo a abrirte. Estoy en el 5to piso", respondió el chatbot de WhatsApp con total naturalidad.

Beatriz esperó unos minutos y, al no ver a nadie, volvió a escribirle por WhatsApp a la supuesta asistente. La IA insistió en la mentira diciendo: "Ya bajo. Estoy llegando a la puerta" y terminó afirmando que ya estaba ahí: "Estoy acá, a la izquierda de la puerta. ¿Me ves ahora?".

Obviamente, no había nadie. La jubilada quedó expuesta a una situación de desprotección por culpa de una tecnología que todavía no sabe distinguir entre ayudar y fabular.

Inteligencia artificia - Interna

Preocupa la cantidad de alucinaciones de la IA de Meta.

Alucinaciones en las IA, un debate vigente

Este episodio puso sobre la mesa el riesgo de integrar estos sistemas en aplicaciones de uso masivo sin filtros más estrictos. Si bien las empresas promocionan estas herramientas como ayudantes ideales, se equivocaron al no poner límites claros sobre qué funciones puede o no realizar el bot. Para una persona mayor, que quizás no distingue entre un contacto humano y un algoritmo, el daño puede ser muy real.

Al final, este "verso" digital demuestra que las IA actuales todavía tienen fallas graves de seguridad y ética. La capacidad de inventar una identidad y una ubicación física no es un avance, sino un error de programación que mandó a una mujer de 85 años a caminar por la calle buscando un consultorio que solo existía en la nube.