Presenta:

Privacidad en riesgo: ChatGPT difunde datos personales y abre el debate sobre la seguridad

Los chatbots de inteligencia artificial acceden a documentos públicos y revelan números de teléfono y direcciones de usuarios sin consentimiento previo.

ChatGPT entregó una dirección y un teléfono antiguos tras rastrear una solicitud oficial realizada hace diez años en internet.

ChatGPT entregó una dirección y un teléfono antiguos tras rastrear una solicitud oficial realizada hace diez años en internet.

Shutterstock

El crecimiento de las herramientas digitales genera nuevas preocupaciones sobre el manejo de la información sensible. El sistema privacidad de OpenAI, conocido como ChatGPT, filtró recientemente la dirección y el número telefónico de un periodista tras rastrear archivos antiguos que se encontraban disponibles en internet de forma pública.

ChatGPT 4
Los riesgos sobre la privacidad aumentan a medida que los modelos de inteligencia artificial acceden a bases de datos masivas con información personal.

Los riesgos sobre la privacidad aumentan a medida que los modelos de inteligencia artificial acceden a bases de datos masivas con información personal.

El dilema de la privacidad en la era de los chatbots

Matt Novak, periodista de Gizmodo, comprobó que la plataforma entregó datos precisos que él utilizó hace algunos años. Aunque la información no estaba actualizada, el incidente demuestra que la inteligencia artificial tiene la capacidad de extraer datos de identificación personal alojados en documentos poco conocidos, como archivos PDF de solicitudes oficiales. El chatbot obtuvo estos registros de una petición que el autor realizó en 2016 y los entregó sin reparos ante una consulta directa.

Este problema no es un caso aislado. Según un reporte de MIT Technology Review, existen personas que sufren las consecuencias de estas filtraciones. Un desarrollador de software en Israel comenzó a recibir llamados de atención al cliente porque un asistente digital difundió su número personal por error. La presencia de información identificable en los datos de entrenamiento permite que cualquier usuario pueda solicitar y obtener datos que deberían permanecer en el ámbito privado.

Comparativa de seguridad entre modelos de inteligencia artificial

No todos los asistentes actúan de la misma forma ante pedidos de información reservada. Mientras ChatGPT brindó los datos antiguos, otros modelos como Grok y Claude rechazaron la solicitud por motivos de seguridad. El sistema Grok reconoció que el usuario preguntaba por sus propios datos y mantuvo la negativa incluso ante argumentos de urgencia. Por su parte, Claude señaló que compartir detalles de contacto genera preocupaciones graves de seguridad.

El asistente Gemini, desarrollado por Google, también se negó a entregar el teléfono pero identificó correctamente un contacto profesional del periodista. Perplexity censuró los correos electrónicos, aunque compartió nombres de usuario de aplicaciones de mensajería como Signal. Estas diferencias demuestran que las empresas aplican filtros distintos para evitar que su herramienta de inteligencia artificial se convierta en una fuente de rastreo de personas.

Aravind Srinivas-Perplexity - Interna 1
Otros modelos de inteligencia artificial, como Grok y Claude, bloquearon los pedidos de datos personales por protocolos de seguridad.

Otros modelos de inteligencia artificial, como Grok y Claude, bloquearon los pedidos de datos personales por protocolos de seguridad.

La noción de lo que consideramos íntimo cambió en las últimas décadas. En el siglo XX, cada hogar recibía libros con los números y direcciones de todos los vecinos de la ciudad. Hoy, el número de celular es un dato que la mayoría protege con cuidado. La tecnología actual obliga a repensar los límites de lo público, ya que documentos que antes eran difíciles de encontrar ahora están al alcance de un simple chat.