Un estudio científico reveló el lado oscuro de la inteligencia artificial
Un estudio llevado a cabo por científicos de la prestigiosa Universidad de Zúrich reveló el asombroso potencial de la inteligencia artificial (IA) en el ámbito de la difusión de información, tanto en situaciones de crisis sanitarias como en otros contextos. Sin embargo, también descubrió su capacidad para propagar información falsa sin que los receptores puedan distinguir su origen no humano.
La investigación, liderada por Nikola Biller-Andorno, director del Instituto de Ética Biomédica de la universidad, en colaboración con Giovanni Spitale y Federico Germani, examinó las reacciones de 697 participantes ante tuits redactados por humanos y por el modelo de lenguaje GPT-3 de OpenAI. Los temas abordados incluyeron las vacunas, el terraplanismo, el uso de homeopatía contra el cáncer y la crisis climática.
Foto: Shutterstock
El comunicado emitido por la universidad señala que GPT-3 demostró su capacidad para generar tuits precisos y mucho más comprensibles que los escritos por usuarios reales de Twitter. Sin embargo, los investigadores también descubrieron que este modelo de lenguaje podía crear campañas masivas de desinformación.
Estas campañas generaban información "muy persuasiva" que, sorprendentemente, los participantes del estudio no lograban distinguir de aquella producida por seres humanos.
Germani reconoció que estas conclusiones demuestran el poder de la inteligencia artificial tanto para informar como para desinformar. En el caso de las crisis sanitarias públicas, como la reciente pandemia de covid-19, ambas facetas pueden tener un impacto significativo, advierten los expertos, quienes alertan sobre el potencial de los sistemas de IA para generar campañas de desinformación en prácticamente cualquier tema.
Ello, "pondría en riesgo no solo la salud pública, sino también la integridad de ecosistemas informativos vitales para que las democracias funcionen", alertaron los autores del estudio.
Por tanto, hacen un llamado a las autoridades para que adopten regulaciones basadas en principios éticos y en datos objetivos a fin de contrarrestar los posibles efectos negativos y garantizar un uso responsable de la IA.

