RÍO DE JANEIRO – El sesgo de género y contra las minorías, así como la posibilidad de potenciar la desinformación en países donde ya es grave, como Brasil, son algunos temores despertados por el chatGPT, la nueva sensación en inteligencia artificial.
Esta vez el centro es el trabajo intelectual, no la mano de obra física que los robots venían sustituyendo en la industria. La nueva herramienta, capaz de escribir textos inéditos y responder cuestiones variadas, afecta especialmente a los servicios especializados, como los tecnológicos, los publicitarios y los financieros.
Los chatbots, programas de inteligencia artificial (AI), mediante los que asistentes virtuales dialogan en tiempo real con usuarios, han venido sustituyendo a las personas que atienden los clientes de grandes empresas, la mayoría de mujeres. Un ejemplo es Alexa, la asistente virtual de Amazon, la gigante estadounidense de comercio electrónico y servicios de computación.
Ahora el ChatGPT, modelo desarrollado por la OpenAI, también de Estados Unidos, tiende a desemplear también a muchas personas, ya que, según los expertos, podrá sustituir a programadores informáticos, ingenieros de software, diseñadores gráficos, gente de finanzas y publicidad, mayormente varones, porque sectores en que no predomina el trabajo femenino.
Sesgo de género y antiminorías
Pero esa aplicación de lo que se llama inteligencia artificial generativa, por su capacidad de generar textos, imágenes e incluso música originales, mantiene su sesgo de género y su “tendencia a excluir las minorías”, según Tainá Aguiar Junquilho, investigadora del Instituto de Tecnología y Sociedad (ITS).
Habitualmente se ha bautizado a los chatbots de atención al público con nombres, voces e imágenes femeninas. Además de Alexa, en Brasil el Banco Brasileño de Descuentos (Bradesco) tiene su muñeca Bia y la red comercial Magazine Luiza dispone de Lu para el servicio virtual.
“Eso refuerza la cultura machista de que se trata de profesiones femeninas, de que la mujer está allí para servir”, señaló Junquilho a IPS desde Brasilia.
En cambio, los nombres de sistemas de IA impulsados en el Poder Judicial brasileño se denominan Victor, en el Supremo Tribunal Federal, Sócrates en el Superior Tribunal de Justicia y Horus en el Tribunal de Justicia del Distrito Federal, entre otros.
“Son reflejos de la nomenclatura de género”, del sesgo en que el poder es masculino, acotó la investigadora de innovaciones y tecnología en el sector público, dijo Junquilho, doctora en Derecho.
“Los productos de IA, que procesan una gran masa de datos, tienden a generalizar. Subestiman la diversidad, las particularidades, en desmedro de las minorías. Es decir, refuerzan lo que hoy es mayoría”, explicó.
¿Inteligente?
A esa tecnología se atribuye inteligencia porque supone un “aprendizaje” a partir de una cantidad gigantesca de datos y el uso de algoritmos. Lógicamente tienden a reproducir sesgos y prejuicios de las informaciones del pasado, capturadas en internet y otras fuentes.
“No hay inteligencia intrínseca en la IA, incluso resisto al nombre. Comprende el software producido por seres humanos, que son la inteligencia del sistema. Las aplicaciones generativas son puro software, que responde a pruebas basado en una lógica preprogramada de búsqueda en un acervo gigantesco de contenido”, sostuvo Carlos Afonso, miembro del Hall de la Fama de Internet.
El ChatGPT y otros sistemas similares de respuestas aún son experimentos que demandan algún tiempo para comprobar su consistencia, evaluó en una entrevista a IPS en Río de Janiro.
“Todos los sistemas de IA son una combinación de dispositivos (computadoras y unidades de almacenaje) y el software, es decir los algoritmos. Ya se identificaron problemas graves, como vicios derivados del idioma de los programadores y del contenido capturado”, observó Afonso, uno de los introductores de internet en Brasil.
“Contenidos son manipulados, distorsionados, reescritos o plagiados”, lo que puede afectar el conocimiento acumulado por la humanidad, advirtió.
Censura y plagio
El escritor irlandés Roald Dahl (1916-1990) vio mutiladas sus obras destinadas al público infantil, como “Charlie y la fábrica de chocolate”, con la supresión de términos considerados ofensivos, como “gordo”, ejemplificó.
Ya hubo también denuncias de plagio, que deben multiplicarse ya que se trata de aprovechar en textos nuevos el conocimiento y el contenido del pasado. ChatGPT no menciona los autores de su base de datos, lo que pone en jaque los derechos autorales.
El Senado brasileño discute actualmente un proyecto de ley para reglamentar la IA en el país, aprobado en la Cámara de Diputados en septiembre de 2021. Probablemente estará desactualizado, ante las nuevas cuestiones impuestas por la IA generativa.
La propuesta, presentada en 2020, originó de problemas como el reconocimiento facial que llevó a la cárcel personas inocentes, en general negras, y el uso discriminatorio en la selección de nuevos empleados.
La IA es cada día más empleado en la selección de nuevos empleados, pero con herramientas que en general presentan un sesgo discriminatorio, al basarse en datos del pasado en que solo hombres aparecen con experiencia en las funciones de jefatura, lamentó Junquilho.
Eso aparece también en otras aplicaciones, como el traductor del Google, “que favorece el masculino”, o acentúa estereotipos. Enfermería, por ejemplo, solo se vincula a imágenes de “mujeres blancas”, acotó.
“Todos los sistemas de IA que no tengan una buena curadoría de datos, que evite una subrepresentación o sobrerrepresentación de algunos grupos, tenderán por la estadística a generalizar y excluir las minorías”, concluyó.
Multiplicador de noticias falsas
Otra preocupación en Brasil, por el escarmiento de los últimos años, es la exacerbación de las falsas informaciones que, según los especialistas, el ChatGPT y similares deberán provocar, al abaratar y facilitar su difusión.
El ascenso del movimiento de extrema derecha, liderado por el ex presidente Jair Bolsonaro, inundó Brasil de desinformación como forma de conquistar y fidelizar activistas y votos.
Además del desastre de casi 699 310 muertes por la covid-19 hasta el 10 de marzo, la diseminación de las noticias falsas generaron un clima de tensión y temor a un golpe de Estado en los tres últimos años.
Por otro lado, la IA representó hasta ahora un avance en las investigaciones científicas, al permitir el procesamiento acelerado y preciso de una cantidad sin precedentes de datos.
El Instituto del Hombre y el Medio Ambiente de la Amazonia (Imazon) empleó la IA para crear su plataforma PrevisIA, que permite prever donde puede ocurrir la deforestación, a partir de imágenes satelitales y datos geográficos, como carreteras.
La previsión tiene seguridad de 80 % en un radio de cuatro kilómetros, asegura Imazon, una organización no gubernamental que monitorea la pérdida de vegetación amazónica y desarrolló sistemas de alertas, ahora perfeccionadas con el uso de la IA.
ED: EG