Generando cambio

Generando cambio

Coded bias: la imperiosa necesidad de regular los algoritmos PDF Imprimir Correo
Escrito por Agencia Paco Urondo   
Domingo, 11 de Abril de 2021 10:16

El documental muestra cómo los sesgos de la inteligencia artificial reproducen desigualdades sociales. Frente al modelo chino de orden social y el modelo corporativo estadounidense, queda poco espacio para escapar al determinismo del algoritmo si no se empiezan a generar mecanismos de control.- Por Marina Jiménez Conde El documental Coded bias, disponible en Netflix desde el lunes pasado, muestra el sesgo que tienen las aplicaciones desarrolladas en base al uso de datos y cómo esto termina afectando a todo tipo de tecnología, desde las de reconocimiento facial hasta otras más silenciosas a nivel cotidiano. El Gran Hermano de 1984 ya está aquí y, entre el modelo chino de orden social y el modelo corporativo estadounidense, queda poco espacio para escapar al determinismo del algoritmo si no se comienza a regularlo.
Coded bias comienza mostrando el problema de las aplicaciones de reconocimiento facial. Gracias a una investigación de Joy Buolamwini, activista digital, se descubrió que tenían sesgos racistas y sexistas: presentaban mayores errores para reconocer caras de mujeres con tez negra. Esto se debe a que los algoritmos se sirven de datos sesgados por lo que los resultados también lo estarán. La inteligencia artificial termina replicando el mundo social y  reproduce las desigualdades. No porque la tecnología aplique un criterio ético, sino que  simplemente se trata de una cuestión matemática de procesamiento de la información.
El documental recuerda una anécdota, un tanto inquietante, de cuando Windows lanzó un bot en Twitter llamado Tay con el fin de interactuar y aprender de esa red social. En menos de 16 horas decidieron apagarlo debido a que se había vuelto racista y misógino. No hay manera entonces de separar lo social de la tecnología.
Además, existe una complicación para explicar este tipo de fallas, porque el mismo modo de programar, generando que la inteligencia artificial “aprenda”, procesando grandes cantidades de datos, lleva a que ni quienes programan puedan saber bien por qué termina ocurriendo esto. Como explican varias especialistas que participan de Coded bias, se produce una caja negra que hace que solamente se puedan interpretar los resultados. La propuesta, entonces, es trabajar para ir eliminando todo sesgo posible que pueda hallarse en las aplicaciones.
La producción, de la directora Shalini Kantayya, basa gran parte del contenido en el problema de las aplicaciones de reconocimiento facial que la policía está utilizando en varias partes del mundo— en algunos lugares directamente se prohibió— incluyendo la Ciudad de Buenos Aires. Además del problema que se plantea, que se esté continuamente vigilando a la población y avasallando sus derechos, y de la transparencia de la base de datos donde se contrasta esa información, ni siquiera esas tecnologías funcionan bien, ya que tienen errores frecuentemente.
En las calles de Londres, una de las ciudades donde está habilitado su uso, se muestra cómo a un hombre por cubrirse la cara, al pasar delante de las cámaras, lo termina demorando la policía para identificarlo. Este modelo se encuentra expandido en Hong Kong,  donde el gobierno tiene acceso a todos los datos de la ciudadanía y se dice explícitamente que se está rastreando a la población, que usa el reconocimiento facial para muchas actividades cotidianas. Si bien puede parecer conveniente, se muestra la utilización de esta tecnología para la persecución de manifestantes que están en contra de su implementación.
Pero, además del modelo chino, en Coded bias también hay un punto de vista crítico sobre las compañías que monopolizan la mayoría de los datos (Facebook, Apple, Amazon, Google, IBM, Windows) las cuales no rinden cuentas sobre la utilización que hacen de éstos y que tienen en su poder la capacidad de influenciar sin que siquiera se pueda saber que lo están haciendo. Un modelo mucho más sutil destinado al mercado, pero no menos peligroso, dado que pueden hacer predicciones y usar zonas vulnerables para obtener lo que necesitan.
De manera conveniente, Coded bias pone el foco sobre las fallas de la aplicación de reconocimiento facial de Amazon, uno de los competidores de Netflix, en el, ahora, disputado mercado del streaming. Sin embargo, tal como pasaba en El dilema de las redes sociales, la plataforma con mayor acceso a un tipo de datos muy específicos que tiene que ver con consumos audiovisuales, queda afuera del análisis.
Para las voces que aparecen en el documental, la única alternativa que queda ante este escenario distópico, que ya está en el presente, es el fortalecimiento de legislaciones y la creación de organismos de control que puedan imponer condiciones a estos gigantes, defendiendo los derechos de la ciudadanía. A la par del debate sobre el uso que los Estados pueden hacer de la inteligencia artificial, sería engañoso centrarse solamente en éstos sin ver que, al menos en Occidente, la propiedad de los datos está en otras manos. Frente a esto, aparece también la posibilidad de que estas empresas jueguen en contra de cualquier personaje político que promoviera este tipo de medidas. ¿Acaso lo notaríamos?

 
Joomla 1.5 Templates by Joomlashack