¿La inteligencia artificial será la perdición de la humanidad?

Lo más prudente sería posponer el desarrollo de una superinteligencia por una o dos generaciones, hasta que hayamos estudiado las consecuencias.

En su nuevo libro, Superintelligence: Paths, Dangers, Strategies, el filósofo existencialista sueco Niklas Boström (Nick Bostrom) de la Universidad de Oxford en Inglaterra, explora las consecuencias que tendría el advenimiento de una inteligencia artificial, similar o superior a la humana, lo que algunos especialistas piensan que podría ocurrir en lo que resta de la primera mitad de este siglo.

En su obra, Bostrom se pregunta qué sucederá cuando las máquinas superen a los seres humanos en inteligencia general. ¿Nos ayudarán o nos destruirán?

El autor sostiene que la inteligencia artificial podría desarrollarse de dos formas distintas. En un escenario prometedor podría mejorar nuestra vida en gran medida, y resolver los problemas que aquejan a la humanidad, tales como las enfermedades, el hambre e incluso el dolor. El segundo escenario es sombrío: la inteligencia artificial bien podría sustituirnos y posiblemente eliminar, o a la totalidad o a una gran parte de la humanidad, si los objetivos de la superinteligencia difieren de los de la humanidad, o si percibe que la humanidad representa una amenaza para el logro de sus objetivos. Considerando nuestra historia, para Bostrom el segundo escenario parece más probable.

Bostrom no es optimista que en el tiempo que resta hasta que se desarrolle una superinteligencia podamos aprender a dominarla.

Lo más prudente, dice el autor, sería posponer el desarrollo de una superinteligencia por una o dos generaciones, hasta que hayamos estudiado a profundidad las consecuencias que ese desarrollo tendría para la humanidad. Algo que ve extremadamente difícil, porque la finalidad del desarrollo informático es el lucro. Una vez que se desarrolle una superinteligencia que plantee un peligro para la humanidad, nada podrá hacerse: el genio habrá salido de la botella.

Si la superinteligencia no se diera en la primera mitad de este siglo, el desarrollo de una vía hacia la mejora de la cognición humana sería de gran ayuda. Nos daría tiempo de desarrollar seres humanos cognitivamente mejorados que podrían tener la capacidad de resolver el difícil problema de cómo dominar a una superinteligencia. Los humanos cognitivamente mejorados presumiblemente serían capaces de considerar mejor los efectos a largo plazo.

La mejora cognitiva podría darse a través de la capacidad cognitiva colectiva – la Internet, por ejemplo, así como po innovaciones institucionales que permitan que los seres humanos funcionen mejor en conjunto. En cuanto a la mejora de la cognición individual, lo más probable, dice el autor, es que tenga éxito por medio de selección genética en el contexto de la fertilización in-vitro, ya que no piensa que los ciborgs o los implantes puedan hacerse una realidad.

En conclusión, el autor pretende que su obra abra los ojos de quienes pueden hacer algo al respecto, y que se pongan a trabajar más mentes brillantes que puedan encontrar la forma de dominar a una superinteligencia, antes de que sea demasiado tarde para la humanidad.

El sitio web del doctor Bostrom se puede encontrar aquí.

Fuente: http://cienciaaldia.com/

En Imágenes