El peligro para la humanidad que sacudió a la inteligencia artificial más importante
Empleados de OpenAI advierten sobre un desarrollo de IA que imita el razonamiento humano, planteando serias preocupaciones éticas y de seguridad.
Recientemente, empleados de OpenAI revelaron a Reuters y The Information un documento alarmante. Enviado al consejo de OpenAI, alerta sobre una inteligencia artificial (IA) avanzada. Científicos de OpenAI, firmantes del documento, advierten de un "peligro existencial para la humanidad". Esta IA, posiblemente una inteligencia artificial general (AGI), podría pensar y entender como un humano. Si es real, marcaría un hito en la historia.
Peligro Oculto para el Consejo de OpenAI
Reportes de Reuters sugieren que la gravedad de este hallazgo, posiblemente oculto al consejo por Sam Altman, CEO de OpenAI, pudo haber causado su despido. Aunque la carta sigue sin ser pública, fuentes confirman su existencia y la seriedad de sus afirmaciones.
Altman ahora enfrenta una investigación interna. Este escrutinio surge tras advertencias del consejo sobre la rápida introducción de nuevas versiones de ChatGPT, sin considerar su impacto social. La carta podría haber sido el último empujón.
El Proyecto Q*
Según el documento, un proyecto llamado Q* podría haber logrado AGI. Fuentes de Reuters y The Information indican que Q* es un gran avance hacia la AGI. A diferencia de IA actuales, Q* razonaría como un humano.
Sorprendentemente, resuelve problemas matemáticos a nivel humano, aunque de momento opera como un estudiante de primaria. Este avance preocupa a los científicos de OpenAI, temiendo por la seguridad y la ética de tal desarrollo. Una IA así podría actuar independientemente, con consecuencias imprevisibles para la humanidad.