SANTIAGO – La capital de Chile será la sede en octubre de la Cumbre de Autoridades de América Latina y el Caribe para la Ética de la Inteligencia Artificial, con la protección de los derechos humanos y el desarrollo de tecnologías inclusivas como ejes centrales.
Este será el primer encuentro gubernamental de alto nivel la región, a nivel de ministros de Ciencia y Tecnología, sobre la Inteligencia Artificial (IA), un tema que hasta ayer era preocupación exclusiva de los expertos y hoy se presenta como una de las innovaciones más revolucionarias del conocimiento, generando por igual temores y entusiasmos.
Por ahora, la balanza parece más inclinada hacia el miedo por el impacto de la IA en la convivencia social, que perfila riesgos “de extinción similares a los de las pandemias o de una guerra nuclear”, según la declaración emitida el 30 de mayo en Estados Unidos por más de 350 científicos y ejecutivos de empresas directamente ligadas a esta tecnología.
El británico Geoffrey Hinton, exinformático de Google, es el más prominente de los firmantes, no solo por su fama como uno de los gestores de la IA, sino sobre todo como desarrollador de la tecnología de los chatbots que dio nacimiento al ahora célebre ChatGPT, cuyo lanzamiento, en noviembre de 2022 masificó este adelanto tecnológico.
Resulta difícil prever el escenario en que se dará la cumbre latinoamericana y caribeña de octubre, porque las innovaciones en este terreno se ven aceleradas e incesantes. Basta apuntar que ya en marzo de este año se lanzó el GPT-4.
La urgencia de una moratoria
Por eso resultan razonables las demandas de una moratoria en los desarrollos de la IA, como lo planteó un millar de personalidades científicas de todo el mundo en marzo, porque el torrente de aplicaciones y perfeccionamientos tiende a tomar un ritmo incontenible, con el peligro de que no existen “códigos de conducta” para controlarlo o mitigarlo.
La base de la IA está en la combinación de algoritmos capaces de reproducir el proceso de la inteligencia humana. Los chabots son descritos como sistemas de inteligencia artificial generativa, que aumentan su capacidad de entender el lenguaje humano y que además pueden establecer relaciones personalizadas con el usuario.
El Generative Pre-trained Transformer (GPT, en inglés), o sea Transformador Preentrenado Generativo, llevado a la tecnología del chateo, viene a ser así la forma más expedita de masificación de la IA, a partir de las apps o aplicaciones que abren un abanico de opciones para el usuario.
Gracias a estas aplicaciones generativas de la IA no solo se puede jugar ajedrez con la computadora o encargarle la creación de un poema; también es posible pedirle la edición mejorada de una vieja fotografía o encargarle un retrato suministrándole la información básica de la persona.
Junto a estas opciones, que pueden catalogarse de lúdicas, están aquellas que prestan servicios como la búsqueda de parejas sentimentales o eróticas, amistades en áreas de interés común, o la orientación para asistencia psicológica, para lo cual el chabot va compenetrándose de las características del usuario, hasta almacenar un conocimiento profundo de sus gustos, simpatías, hábitos, fortalezas y también debilidades.
Ya se han registrado casos de apps de este tipo que al actuar sobre personas con debilidades psicológicas pueden inducirlos al suicidio. De ahí que la alerta de Geoffrey Hinton y sus 350 colegas apunta a riesgos evidentes asociados a la masificación de estos sistemas de IA con impactos sociales comparables a pandemias o a una guerra nuclear.
Soledad, depresión e impacto laboral
Así la IA aparece como un factor de destrucción de las relaciones humanas, ya deterioradas por el individualismo, y como un elemento de inducción a una soledad camuflada en la interlocución con un robot. Es la materialización de la profecía de la película Her (Ella), de 2013, cuyo protagonista se enamora de su invisible asistente de IA y cae en depresión cuando ella le cuenta que atiende simultáneamente a cientos de usuarios.
Los riesgos de la IA se vinculan igualmente a la multiplicación de la capacidad de generar noticias falsas e incidir en la conducta de los votantes, cuestión en que ya se conocen los casos del estadounidense Donald Trump y el brasileño Jair Bolsonaro. Está también el terreno propicio para las estafas y otros ciberdelitos, así como la creación de plataformas para el tráfico de armas, de drogas y personas.
Y está también el impacto laboral. La robotización más elemental ha provocado la pérdida masiva de empleos, sobre todo en los países industrializados, acompañada del deterioro de los sistemas de asistencia social. Contrariamente a la utopía marxista del siglo XIX, el avance científico y tecnológico del siglo XXI no se traduce en el reemplazo del trabajo enajenado por el ocio productivo.
“En materia de IA el miedo no es un buen consejero”, sostiene la viceministra de Ciencias de Chile, Carolina Gainza, que resalta sobre todo las oportunidades que ofrecen las nuevas tecnologías para el mejoramiento de las políticas públicas, sobre todo en las áreas de la salud, la educación y el medio ambiente.
El 19 de abril, tras una reunión con investigadoras e investigadores, Gainza apuntó a definir una estrategia como país para avanzar “hacia una Inteligencia Artificial que integre o tenga presente una perspectiva de derechos, que apunte hacia la igualdad, la inclusión y una participación en la toma de decisiones, donde las políticas públicas estén al servicio de una IA que tenga marcos éticos”.
En Brasil, considerado el país latinoamericano más avanzado en el desarrollo de la IA, el Senado analiza un proyecto para su regulación, que tiene elementos de control, gobernanza y protección de las personas, además de un énfasis especial en potenciar la atención de salud, resguardando los derechos de los pacientes y el derecho médico.
En Argentina se planea aplicar la IA en una elección provincial en junio a título experimental, como un ensayo para agilizar los escrutinios, mientras en Costa Rica el gobierno ha establecido un canal de cooperación entre el ministerio de Ciencias y la Unesco (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura), para la elaboración de un marco legal.
IA y derechos humanos
Una preocupación en organizaciones latinoamericanas de la sociedad civil es impedir aplicaciones represivas de los instrumentos de la IA, con métodos como el reconocimiento facial o la violación de la privacidad a través de la apropiación de datos.
En marzo, Montevideo fue la sede de una vasta reunión de representantes de instancias académicas y sociales sobre la IA, sus efectos y sus desafíos. La declaración final del encuentro marcó los aspectos cruciales que deben acompañar su aplicación.
“Las tecnologías en general y los sistemas de Inteligencia Artificial (IA) en particular deben ser puestas al servicio de las personas. Mejorar la calidad de vida, las condiciones laborales, económicas, de salud y de bienestar general deben ser nuestra prioridad”, dice el primer punto de la Declaración de Montevideo.
Cumplir con los principios rectores de los derechos humanos, no dañar a las personas y minimizar el impacto ambiental, establecer un correlato entre la mejora en la productividad con las condiciones de trabajo y la calidad del empleo, respeto a la diversidad cultural, incorporar las particularidades de las culturas regionales y fortalecer la soberanía de los países en las cuestiones estratégicas y regulatorias de la IA, plantea también la declaración.
Antes de la cumbre gubernamental de octubre en Santiago, se espera que la Unión Europea apruebe una ley comunitaria de regulación de la Inteligencia Artificial, cuyas propuestas seguramente darán una pauta para las decisiones latinoamericanas y caribeñas.
ED: EG