Carrera espacial de la IA

Inteligencia Artificial: el lado oscuro de esta tecnología

Los sistemas de inteligencia artificial de generación de imágenes están en auge y son una tecnología con el potencial de cambiar el mundo. Pero primero será necesario un debate ético y muchas más investigaciones.

Nicolás Hornos
Nicolás Hornos miércoles, 27 de julio de 2022 · 07:07 hs
Inteligencia Artificial: el lado oscuro de esta tecnología
Foto: Archivo

Durante los últimos años se lograron enormes avances en inteligencia artificial y se revelaron muchos aspectos que merecen un debate ético sobre la dirección que debe tomar esta tecnología para incorporarla en la sociedad con armonía.

Muchas compañías se encuentran desarrollando y explorando la inteligencia artificial ya que podría cambiar radicalmente la sociedad. Desde nuestros hábitos y rutinas hasta nuestro trabajo y educación.

Uno de los grandes avances que se conoció este año sobre inteligencia artificial fue por parte de OpenAI. Esta empresa de investigación de inteligencia artificial presentó meses atrás su nueva red neuronal de creación de imágenes llamada DALL.E 2. Esta IA puede crear sorprendentes imágenes de alta resolución de cualquier cosa que se le pida y en distintos estilos. Por ejemplo, "un plato de sopa como un portal a otra dimensión en arte digital":

Foto: DALL.E 2

Otro sistema de inteligencia artificial que trascendió poco tiempo después fue 'Imagen' la IA de creación de imágenes desarrollada por Google y que funciona mejor que DALL.E 2. Estos sistemas solo necesitan la descripción de la imagen que el usuario quiere y la máquina se encargará de generarla. Por ejemplo, si a la IA de Google le pedimos que genere una imagen de "un gran barco oxidado atrapado en un lago congelado. Montañas nevadas y hermosa puesta de sol en el fondo", el sistema generará esto:

Foto: Imagen, sistema de IA de Google

Meta también se encuentra en la carrera de la inteligencia artificial con su sistema llamado "Make-A-Scene" que incluso resuelve problemas de usabilidad de los anteriores ya que también se necesita bocetar la idea, además de describirla. Al dibujar sencillamente la idea que tenemos en mente le estamos dando más información al sistema sobre el espacio y las dimensiones que queremos que ocupen los objetos representados en la imagen. Por ejemplo, si a la IA de Meta le describimos "un boceto de una mesa de comedor con pizza y agua con una casa art deco" y luego hacemos un boceto como se ve a la izquierda de la imagen, se generará esto:

Foto: Make-A-Scene, sistema de IA de Meta

Florece una nueva industria

"¡Estamos viviendo la carrera espacial de la IA!", comentó un usuario de Twitter. "La industria de imágenes de archivo está oficialmente acabada", se lee en otro tuit.

Si la década de los '60 estuvo marcada por la carrera espacial a la Luna en cuanto a ciencia y tecnología, culminando con el el alunizaje en 1969 y que ofreció todo un nuevo paradigma en la sociedad, ahora podríamos decir que la carrera científica y tecnológica del momento histórico que estamos viviendo se centra en la inteligencia artificial.

Esta herramienta tiene el potencial de cambiar muchos aspectos de la vida como los conocemos hoy en día. No solo la industria de imágenes de archivo como comentó un usuario de Twitter. Sino que también podría modificar la publicidad, el marketing, el diseño gráfico, el arte, así como también nuestros hábitos y rutinas y tantos otros trabajos.

Imaginen lo fácil que sería para un publicista usar una inteligencia artificial de generación de imágenes para plasmar su idea como él se la imagina, o para un músico crear la tapa de su próximo álbum, o para un escritor crear ilustraciones para su libro con solo describir lo que tiene en mente y dibujarlo.

Sin embargo, todas las empresas que están en esta "carrera de la IA", presentan las creaciones de sus sistemas con animales tiernos haciendo cosas adorables. Como la siguiente creación de Imagen de Google.

"Una foto de un perro corgi con lentes de sol y sombrero de playa andando en Times Square".

O la siguiente ilustración de DALL.E 2:

"Ositos de peluche mezclando químicos como científicos locos como una caricatura de 1990 de los domingos por la mañana"

Esto nos lleva a preguntar si estos sistemas de inteligencia artificial solo pueden generar cosas tiernas, adorables y sorprendentes, o si también son capaces de generar cosas no éticas, racistas y xenófobas. Si la inteligencia artificial se alimenta de lo que hasta ahora conoce la inteligencia humana, ¿no debería almacenar en su mente-sistema tanto lo bueno como lo malo de nuestra especie? Dejemos aquí de lado el debate sobre si la inteligencia artificial superará en algún momento a la humana.

El lado B de los sistemas de inteligencia artificial

Un reciente artículo del MIT (Instituto Tecnológico de Massachussets) revela que existe una razón técnica y de relaciones públicas para que solo veamos "cosas lindas" de estos sistemas de inteligencia artificial. Mostrar imágenes de animales tiernos con características antropomórficas y haciendo cosas de humanos, causa un impacto positivo en nuestra red neuronal.

"Lo tierno esconde el lado más oscuro de estas herramientas, una parte que la gente no llega a ver, porque revelaría la fea verdad sobre cómo se crean", mencionan en el artículo del MIT.

Desde esta prestigiosa universidad explican que la mayoría de imágenes que estas empresas hacen públicas son cuidadosamente seleccionadas. "Las imágenes bonitas que coinciden con sus indicaciones con una precisión asombrosa que llegan al público, son de esperar. Pero no se ven imágenes con estereotipos de odio, racismo o misoginia. No hay imágenes violentas o sexistas. No hay porno panda. Y por lo que sabemos sobre cómo se construyen estas herramientas, debería haberlas", comentan.

Los grandes modelos de inteligencia artificial como DALL.E 2 (OpenAI), Imagen (Google) y Make-A-Scene (Meta), son entrenados con una gran cantidad de documentos y fotos de la web. Por lo tanto, absorben tanto los mejores como los peores aspectos de estos datos. 

Estas empresas lo reconocen explícitamente pero pocas personas se detienen a leer el funcionamiento de la IA. Al final del sitio web de Imagen se lee lo siguiente: "Aunque se ha filtrado un subconjunto de nuestros datos de entrenamiento para eliminar ruido y contenido indeseable, como imágenes pornográficas y lenguaje tóxico, también utilizamos el conjunto de datos LAION-400M que se sabe que contiene una amplia variedad de contenido inapropiado, incluidas imágenes pornográficas, insultos racistas y estereotipos sociales dañinos. Imagen se basa en codificadores de texto entrenados en datos a escala web no filtrados y, por lo tanto, hereda sesgos sociales y limitaciones de los grandes modelos de lenguaje. Como tal, existe el riesgo de que Imagen haya codificado estereotipos y representaciones dañinas, lo que explica nuestra decisión de no lanzar Imagen para uso público sin más salvaguardas".

OpenAI también reconoce que "los modelos entrenados en internet tienen sesgos a escala de internet". Estas empresas saben que sus modelos de inteligencia artificial son capaces de producir contenido horrible, pero por el momento no tienen ni idea cómo arreglarlo, o si sería posible arreglar esto.

Por ahora, la solución a este problema es no hacer públicos estos sistema de inteligencia artificial. "Están creando nuevas maravillas, pero también nuevos horrores, y siguen adelante encogiéndose de hombros. Cuando el equipo de ética interno de Google planteó problemas con grandes modelos de lenguaje, en 2020 provocó un debate que terminó con el despido de dos de sus principales investigadoras", comentó el MIT.

Los grandes sistemas de inteligencia artificial tienen el potencial de cambiar el mundo, pero es necesario controlar su toxicidad, debatir los usos morales y éticos de esta tecnología y realizar muchas más investigaciones en el campo de la IA.

Archivado en