No culpen al algoritmo: cómo regular la inteligencia artificial en un mundo demasiado humano
En 2018, en Salta se anunció un algoritmo que permitía predecir embarazos adolescentes. Esta iniciativa fue recibida generó muchísimo rechazo por su visión discriminadora. En 2022, en Mendoza se implementó un sistema para predecir interrupciones de trayectorias educativas de estudiantes secundarios y agilizar intervenciones para evitarlas. Varios actores lo reconocen como un caso de éxito de uso de datos para definición de políticas públicas.
Te puede interesar
Estafas con Shein y Temu: la advertencia que lanzó ARCA
Estamos hablando del mismo algoritmo para los dos casos: ¿por qué motivos el primero fue objeto de crítica casi unánime y el segundo es reconocido como un caso de éxito? ¿Podemos entender esos motivos para proponer una regulación clara de la Inteligencia Artificial (IA) que evite usos estigmatizantes y fomente aquellos que potencien el desarrollo?
Es que los casos de éxito del uso de la IA no se explican por los algoritmos o modelos utilizados: se explican por los contextos e intencionalidades de uso.
-
Te puede interesar
El amargo momento que vivió una economista mendocina en Europa
Hacia una regulación de la IA
No es lo mismo regular la IA que regular su uso. Tomemos como ejemplo los autos. Regular los automóviles es obligar a que cuenten con airbags o cinturones de seguridad. Regular su uso es definir velocidades máximas o exigir licencias de conducir.
De forma análoga, más importante que regular la IA es regular el uso de la IA, y el uso cambia en diferentes contextos y actividades: un sistema de IA en salud no puede ser tratado de la misma forma que en un juego de plataforma. En ambos casos existe el riesgo de filtración de datos usados en el entrenamiento, pero los daños potenciales de una filtración de datos sobre condiciones de salud es potencialmente mucho mayor que en el caso de un juego.
De qué hablamos cuando hablamos de regular el uso de la IA
Un camino alternativo es adaptar las regulaciones en función del tipo de uso. Así, con respecto a los usos en salud, de nada sirve regular la IA o la toma de decisiones automáticas: lo que debería regularse es el uso de dispositivos médicos que incorporan software. Este criterio podría llevarse a otras industrias y actividades, con sus normas específicas que deberán ser ampliadas para considerar el uso de nuevas herramientas. La regulación de la herramienta recién podría darse en un paso posterior y en función de las especificidades del objeto.
La validación humana de las decisiones generadas por un modelo o algoritmo suele proponerse como condición regulatoria para evitar potenciales errores o riesgos. Sin embargo, si bien es clave, no resulta suficiente. El problema, más profundo, es que existen sesgos cognitivos y situaciones sociales que suelen llevar a las personas a aceptar como válidas las recomendaciones de los sistemas de IA, dados los fuertes incentivos para su aceptación y desincentivos a desafiarlas, o sencillamente porque ocupan toda la atención del humano.
Una propuesta para la inteligencia artificial
Un paso previo a la regulación de la IA es modernizar, modificar y renovar la Ley de Datos Personales, y establecer una normativa moderna para el intercambio y manipulación de datos en el Estado y entre privados. Una regulación para la IA debe ser pensada sobre su uso y no sobre la tecnología. Regular los algoritmos no es la solución. La discusión podría ordenarse en tres pasos:
Definir los principales escenarios de uso de la IA en el presente y para el corto y mediano plazo, de manera tal de bajar a tierra la discusión. Esto permite concentrarse en los escenarios que ya se conocen o vislumbran y no adelantar discusiones para casos aún desconocidos. Identificar y analizar riesgos potenciales en cada escenario, realizando el análisis de riesgos con una matriz de probabilidad, impacto y mitigación para cada uno de ellos.

Para los escenarios de mayor riesgo, validar si la regulación actual aplicable al escenario resulta suficiente o si se requiere mayor precisión. Los casos que no estén cubiertos son candidatos para contar con una extensión de la regulación existente o una nueva propuesta regulatoria.
Los algoritmos no pueden tener responsabilidad: la responsabilidad del uso de IA debe ser asumida por alguien. Avanzar muy rápido en regulaciones sin dar los pasos previos necesarios es tan riesgoso como no avanzar en absoluto.

* Daniel Yankelevich. Analista principal del área de Datos.

