“El mundo tan desigual, fragmentado, dividido y polarizado que tenemos se está reproduciendo en las tecnologías”: Gabriela Ramos

Entrevista con la Directora General Adjunta de Ciencias Sociales y Humanas de la UNESCO sobre la Recomendación sobre la Ética de la Inteligencia Artificial.
Ciudad de México (CINU México) – ¿Cómo llevar la ética al desarrollo tecnológico? Maximizar los beneficios y minimizar los riesgos relacionados con el desarrollo, la adquisición y el uso de la Inteligencia Artificial (IA) requiere un marco ético, es el principio.
La Directora General Adjunta de Ciencias Sociales y Humanas de la UNESCO habla en entrevista con el Centro de Información de las Naciones Unidas para México, Cuba y República Dominicana sobre el primer instrumento mundial sobre la ética de la IA: la Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial.
Explica de qué se trata el instrumento normativo, cuáles son sus ideas centrales y de qué manera se intersecta la Inteligencia Artificial con los Objetivos de Desarrollo Sostenible y la Agenda 2030. El mensaje global de la Recomendación, adoptado por la Conferencia General de la UNESCO en noviembre de 2021, es que podemos hacer las cosas de manera distinta para evitar que las desigualdades e injusticias del mundo análogo no lleguen al digital.
- ¿Para qué regular la ética en la Inteligencia Artificial?
Para tener criterios de respeto y de acción que nos permitan convivir de una manera pacífica. La ética es una reflexión que lleva a conclusiones de acción concretas para lograr resultados en todo lo que hacemos que lleven a la igualdad, al respeto, a la justicia, a la diversidad, inclusión. Ese marco ético que nos acompaña en nuestra reflexión cotidiana, la consideración sobre las consecuencias de nuestras acciones en nuestro entorno, lo aplicamos en la UNESCO a las tecnologías. Al final del día se requiere un marco de reflexión, dar un paso atrás y pensar en el impacto que puede tener (el desarrollo tecnológico) en criterios de inclusión y respeto a los derechos humanos y a la dignidad humana.
- ¿Hablamos de desarrollar la tecnología con un propósito?
En lugar de que la tecnología nos maneje a nosotros, nosotros manejarla a ella. Pensar en cuáles son nuestros problemas como Humanidad: estamos en la última década de acción del 2030, estamos superando una crisis espantosa de distintas dimensiones, que es la COVID-19, tenemos una sociedad completamente desigual, inequidad de género... ¿Entonces debemos solamente desarrollar las tecnologías al margen de nuestros objetivos como humanidad? No. La Recomendación de la UNESCO busca reconvertir la forma en que se han desarrollado estos mercados para que sea casi natural que, si hay inversiones en tecnología e inteligencia artificial, no vayan a parar simplemente en que la gente consuma más sino para resolver estos grandes problemas globales.
- ¿Cómo se intersectan la Inteligencia Artificial, los Objetivos de Desarrollo Sostenible (ODS) y la Agenda 2030?
Te doy un ejemplo muy concreto, el ODS 5 (Igualdad de género): la mujer está subrepresentada en la economía y el mercado laboral y está sobrerrepresentada en la pobreza, entonces lo que dice la recomendación es: utilicemos la Inteligencia Artificial para ayudar en la igualdad de género. ¿Cómo? Evitando que estas tecnologías reproduzcan las desigualdades existentes en el mundo análogo.
El problema es que sí se está reproduciendo: el mundo tan desigual, fragmentado, dividido y polarizado que tenemos se está reproduciendo en las tecnologías, y éstas están ayudando a polarizar aún más. La recomendación comienza por identificar los rubros en los que las tecnologías tienen resultados negativos, identificar por qué y cómo corregirlo.
Es muy sencillo. En el tema de género: si sólo tienes 22% de los profesionales desarrollando estas tecnologías, es evidente que los sesgos de género se traducirán en el manejo de los datos, desarrollo de algoritmos y resultados. Está comprobado: las tecnologías de reconocimiento facial tienen más problemas para identificar caras de mujeres, y de mujeres morenas, por ejemplo; algunos algoritmos discriminan a las mujeres.
Cuando la tecnología tiene impactos no intencionales pero que suceden, ¿cómo los corregimos? Cambiando el modelo de negocios, haciendo mandatorias las cuestiones afirmativas, teniendo equipos más diversos, más mujeres en las industrias, que haya una reflexión entre quienes manejan el ciclo de la Inteligencia Artificial. No podemos regular todo, pero sí esperamos que con este instrumento se dé la reflexión y empecemos a corregir la forma en que se opera en la realidad que nos da estos resultados.
- ¿Se trata de evitar que las fallas estructurales del sistema se traduzcan a lo digital?
Cuando suceden estas discriminaciones en el mundo digital ni te enteras. Si tú no eres aceptado en una universidad, tú tienes derecho a preguntarle a la universidad cómo llegó a esa esa decisión. Eso lo establece la recomendación que es súper importante: tienes derecho a saber cuando una decisión que te afecta fue tomada con base en predicciones, proposiciones, recomendaciones, análisis que se hicieron a través de la Inteligencia Artificial. Ahora ese derecho no se reconoce todavía.
- ¿Cuál es el núcleo de la recomendación?
Tiene 3 elementos muy importantes: la construcción de una narrativa basada en valores que nos recuerda que estas tecnologías tienen que promover, potenciar, proteger los derechos humanos y la dignidad humana. Si las tecnologías discriminan no están siendo desarrolladas de una manera ética. Las tecnologías tienen que proteger al medio ambiente; fortalecer la justicia, la equidad y el Estado de Derecho en las plataformas digitales, que los individuos que se conectan con estas tecnologías sepan cuáles son sus derechos y que tengan posibilidad de defenderlos y protegerlos.
La Recomendación tiene una visión global pero su ambición se rige por ciertos principios que se tienen que cumplir: transparencia, responsabilidad, rendición de cuentas, respeto a los datos, equidad. No sólo principios, tenemos además políticas: la recomendación no se queda al nivel nada más de invitar a esta reflexión ética, sino que se traduce en qué hacemos con esto, en temas de educación.
El mensaje global es que estamos propugnando por una forma distinta de hacer las cosas. No podemos seguir en manos de desarrolladores que tienen como objetivo maximizar el consumo o maximizar su posición en la competencia global, que es lo que ha estado determinando a estas tecnologías. No podemos simplemente desproteger a nuestras democracias y a nuestros ciudadanos, hacerlos víctimas de desinformación, del miedo, del estereotipo, de los sesgos.