La Unesco abrió una consulta mundial sobre la ética de la inteligencia artificial (IA), con la que en paralelo promueve su primer borrador de recomendaciones o código de conducta para empresas y gobiernos con responsabilidades sobre esas tecnologías.
Audrey Arzolay, directora general de la Unesco (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) dijo que “es muy importante que se puedan escuchar las voces de todo el mundo durante el proceso de elaboración del primer instrumento normativo mundial sobre la ética de la IA”.
La Unesco sostiene la necesidad de contar con un instrumento sobre la ética de las tecnologías usadas para emular características o capacidades del intelecto humano, para garantizar que las cuestiones éticas, sociales y políticas puedan abordarse tanto en tiempos de paz como en situaciones extraordinarias.
El texto fue encargado a 24 especialistas de renombre y se buscan respuestas de organizaciones de la sociedad civil, responsables políticos, empresariales, de medios de comunicación y de la comunidad científica.
Un borrador final se presentará para su adopción por los Estados miembros durante la 41 conferencia general de la Unesco, prevista para noviembre de 2021.
El proyecto reconoce que los sistemas de IA pueden ser de gran utilidad para la humanidad, pero también suscitan preocupaciones éticas, por ejemplo por los sesgos que pueden incorporar y exacerbar, y así provocar desigualdad, exclusión y una amenaza para la diversidad cultural y social y la igualdad de género.
También advierte la necesidad de transparencia e inteligibilidad del funcionamiento de los algoritmos y los datos con los que han sido formados esos sistemas, y sus posibles impactos en la privacidad, la libertad de expresión, el ambiente y los procesos sociales, económicos y políticos.
Por otra parte, recoge que los países de ingreso medio-bajo, entre otros los de África, América Latina y el Caribe y Asia Central, así como los pequeños Estados insulares en desarrollo, se enfrentan en condiciones más desfavorables a una aceleración del uso de las tecnologías de la información y la IA.
El borrador reconoce que “los valores y principios éticos no son necesariamente normas jurídicas”, pero considera que “pueden influir poderosamente en la elaboración y aplicación de medidas políticas y de normas jurídicas, proporcionando orientación cuando el ámbito de las normas no esté claro”.
La ética de la IA se aborda como “un marco integral de valores, principios y acciones interdependientes que puede guiar a las sociedades en el ciclo de vida de los sistemas de IA, tomando la dignidad y el bienestar humanos como brújula para afrontar de manera responsable sus efectos conocidos y desconocidos”.
Considera que los sistemas de IA “pueden considerarse sistemas tecnológicos que tienen la capacidad de procesar información de una manera que se asemeja a un comportamiento inteligente, y suelen incluir funciones de aprendizaje, percepción, predicción, planificación o control”.
Entre sus más de 100 ítems, el texto asienta que la investigación, el diseño, el desarrollo, el despliegue y la utilización de los sistemas de IA deberían respetar y fomentar la diversidad y la inclusión.
Como mínimo, deberían ajustarse “al derecho, las normas y los principios internacionales de los derechos humanos, en particular en lo que respecta a la diversidad y la inclusión demográficas, culturales y sociales”.
“La investigación, el diseño, el desarrollo, el despliegue y la utilización de los sistemas de IA deberían respetar, proteger y promover la privacidad, un derecho esencial para la protección de la dignidad y la acción humanas”, asienta el texto.
Deben existir mecanismos para que quienes desarrollen sistemas de IA rindan cuentas con respecto a esas tecnologías y sus resultados, y los gobiernos deberían desempeñar una función de liderazgo para garantizar la seguridad y la protección de esos sistemas.
Entre las recomendaciones finales está el establecimiento de un observatorio de la IA, que abarque el cumplimiento del conjunto ético y sirva como mecanismo de intercambio de experiencias entre Estados y “medidor de cumplimiento” de las normas por parte de los desarrolladores de sistemas.
A-E/HM