Hacete socio para acceder a este contenido

Para continuar, hacete socio de Caras y Caretas. Si ya formas parte de la comunidad, inicia sesión.

ASOCIARME
Sociedad

Antes que los humanos seamos arcilla

Inteligencia Artificial ¿quién la va a controlar?

Un reclame de Coca Cola maravilló al mundo con la aplicación de la Inteligencia Artificial; ¿un mecanismo de dominación?

Suscribite

Caras y Caretas Diario

En tu email todos los días

Las múltiples preguntas que surgen en torno al creciente avance de la aplicación de la Inteligencia Artificial (IA), las dejan por escrito en un ensayo Iván Meza, Sofía Trejo y Fernanda López para la revista Anfibia.

Son preguntas que nacen ante cierta "indiferencia" del sístema político que una vez mas parece dejar en manos de las empresas y el mercado un mecanismo que "busca ayudarte a tomar decisiones en todas las actividades de tu vida" pero sin responder ¿quién define lo que es correcto o no en esos sistemas? ¿Cómo garantizar el cumplimiento de los derechos humanos a nivel nacional e internacional?.

El ensayo apunta a la creación, desde las universidades, de Comisiones y Comités de Ética en Inteligencia Artificial encargados de definir principios de buenas prácticas.

El desarrollo de la tecnológia permite, señalan los ensayistas que "A diferencia de otros sistemas computacionales, uno basado en IA tiene como fin la toma de decisiones y además, se espera que la decisión tomada tenga un efecto en el mundo real en diferentes niveles. Por ejemplo, existen sistemas de IA que deciden comprar o vender acciones en el mercado de valores . En este caso la decisión a la que llega el sistema de IA se espera tenga un efecto directo, promoviendo o descartando la compra de acciones, en algunas ocasiones miles de veces por segundo. En otros sistemas de IA, la decisión tomada es para el consumo de las usuarias; por ejemplo, existen sistemas de IA que emiten recomendaciones de productos, lecturas, películas, noticias, etc. Finalmente, existen sistemas de IA que toman decisiones a bajo nivel como parte del proceso para producir una salida que será consumida por otro sistema. El reconocimiento de voz automático es un ejemplo de este tipo de sistema. Las decisiones tomadas por en sistema de reconocimiento automático de voz producen una transcripción del audio. Posteriormente esta transcripción puede ser utilizada como entrada por otro sistema, como para realizar una búsqueda en internet".

El avance viene dado debido "a la adopción y explotación de los sistemas de redes neuronales, ahora llamados de aprendizaje profundo".

No todo es la "chispa de la vida"

Reconociendo los avances, las dudas de siutaciones mas sutiles tuvieron como ejemplos el " Combatir los sesgos de género , una prioridad del campo de la IA. Sin embargo, ya que los sesgos de género están embebidos en los comportamientos sociales, los esfuerzos por corregir estas problemáticas en sistemas de IA han sido fútiles. Por ejemplo, una compañía internacional de tecnología tomó la decisión de parar el desarrollo de un sistema de IA para la evaluación de candidatos a puestos laborales debido a la imposibilidad de remover sesgos de género. La principal técnica utilizada para crear IA está basada en imitar comportamientos en los datos, lo que provoca que los sistemas de IA “aprendan” y reproduzcan prácticas discriminatorias".

Inteligencia Artificial y Derechos Humanos

"Los problemas sociales asociados con las inteligencias artificiales actuales tienen dos fuentes principales: los datos y el diseño. Como vimos anteriormente, los datos utilizados durante la creación de sistemas autónomos son considerados por los mismos como “la realidad”. Esto quiere decir que, de haber sesgos en los datos, éstos pueden ser repetidos y amplificados por el sistema, lo cual está teniendo como consecuencia la sistematización de problemáticas sociales como el racismo y la discriminación de género".

Si los datos van a tener como fuente lo que sucede en las redes sociales, los expertos señalan que "pensemos en una IA encargada de decidir qué contenido es mostrado a los usuarios en las redes sociales. En otras palabras, el sistema tiene como objetivo la moderación de contenido. Uno de los diseños más utilizados para este tipo de sistemas es el de optimizar el número de reacciones . Esto quiere decir que el sistema da prioridad al contenido que ha sido comentado o compartido muchas veces".

Ahora bien, gran parte del contenido viral en internet tiende a ser polémico, extremista y a generar un discurso de odio. De este modo, crear sistemas autónomos con la función de optimizar clics da prioridad a cierto tipo de discursos sobre otros . Lo que nos obliga a hacer una seria reflexión sobre la influencia que la IA tiene sobre la libertad de expresión y la libre autodeterminación de las personas.

Por ello la propuesta tomando en cuenta que " La creación de estatutos y organismos especializadas en la regulación y el arbitraje en el campo de la IA a nivel nacional e internacional será un proceso complejo, el cual requerirá la colaboración del gobierno, la industria, la academia y la sociedad civil. Existen sistemas de IA que entran dentro de las regulaciones de la bioética, como los que utilizan datos de voz. Sin embargo, la ética de la IA debe atender problemas sociales, como la discriminación y la libertad de expresión, dando prioridad al respeto de los derechos humanos. Por ello, consideramos fundamental que se reflexione y trabaje para crear una ética de la IA , nutrida de la bioética, pero enfocada al estudio de las problemáticas derivadas del procesamiento masivo de datos y de la agencia de sistemas autónomos inteligentes".

Dejá tu comentario

Forma parte de los que luchamos por la libertad de información.

Hacete socio de Caras y Caretas y ayudanos a seguir mostrando lo que nadie te muestra.

HACETE SOCIO