No es el algoritmo, somos las personas

La Inteligencia Artificial, o IA, ha sido uno de los elementos más característicos y explorados de la ciencia ficción. Desde finales del siglo XIX y hasta nuestros días muchos autores se plantearon las interesantes posibilidades futuras (utópicas y también distópicas) del uso generalizado de estas inteligencias, desde películas como 2001: ‘Odisea en el espacio’, pasando por la nominada a los Óscar ‘Her’ o a las inquietantes historias de ‘Black Mirror’.

En la vida real, en cambio, la tecnología y el machine learning están lejos de tener esos niveles de desarrollo. No obstante, su evolución está siendo muy rápida y su mejora nos ayuda a dar sentido a una cantidad cada vez mayor de datos acerca de las personas y del mundo que nos rodea.

La capacidad de toma de decisiones de estos algoritmos está basada en datos, y se aplican a aspectos que impactan en nuestras vidas con mayor y mayor peso. Pero, ante la apariencia de neutralidad de estas decisiones “lógicas”, se hace cada vez más patente que esos algoritmos no siempre toman decisiones de forma justa ni transparente.

Tenemos cientos de ejemplos, desde algoritmos de Facebook Ads que sirven publicidad discriminando por raza y género; el >software de contratación de Amazon que puntúa peor a las mujeres o el reseteo que tuvo que hacer Instagram de sus algoritmos en 2019 al comprobar que posicionaba contenidos que contradecían sus propias normas de contenido peligroso.

Los algoritmos éticos

Todas las grandes empresas que recopilan y procesan nuestra información personal comienzan a admitir la importancia del factor humano a la hora de analizar estos datos, e incluso se comienza a hablar del término “algoritmos éticos”. Porque los algoritmos son creados por personas, y estas personas viven y se desarrollan en una sociedad, plasmando en sus programaciones los sesgos culturales, los prejuicios, los roles de género, etc. de esa sociedad en la que viven.

Según un estudio del IA Now Institute de la Universidad de Nueva York, el 80% de los profesores de esta materia en EE.UU. son hombres. Ese mismo estudio revelaba que sólo el 15% de las investigadoras en IA de Facebook eran mujeres, o que el 2,5% de los que lo hacen en Google son negros. De modo que no es casualidad que, en consecuencia, los software de reconocimiento facial existentes tengan un margen de error mayor a la hora de reconocer a una mujer negra que a un hombre blanco.

Pero no sólo debemos tener en cuenta el sesgo cognitivo de quienes configuran esos algoritmos que nos muestran unos contenidos u otros en redes. Debemos ser conscientes de que estas IAs aprenden del comportamiento que ven en los usuarios de esas mismas redes sociales. Son ellas las que imitan el comportamiento de las personas (el agregado de miles y miles de personas, de hecho), y no al revés.

Y si no, que se lo digan a Microsoft cuando, en 2016, lanzó un chatbot en Twitter que se relacionaba con los usuarios en base al machine learning y lo que recopilaba de los mismos. En menos de 24 horas tuvieron que retirarlo, ya que se había vuelto una IA racista, machista y defensora acérrima de Donald Trump.

Los algoritmos y las inteligencias artificiales pueden producir cambios en las conductas de los usuarios. Pero no olvidemos que son los algoritmos los que aprenden esas conductas del comportamiento de las personas en las redes, y no al revés.

Mejorar las tendencias positivas de los algoritmos

Por ello, cada vez que leemos un tweet cargado de odio, un vídeo en youtube que ridiculiza a ciertas personas o colectivos, una cuenta de Instagram haciendo bromas de mal gusto, alcanzando un enorme número de visitas y haciéndose viral hay que recordar que son las personas las que aúpan ese contenido hacia los primeros puestos.

Y por este motivo es importante que las personas que creemos que las redes son un lugar para convivir y relacionarnos de forma sana y colectiva alcemos la voz contra este tipo de comportamientos. Debemos convertir la tolerancia y el entendimiento en el comportamiento que quiera imitar el algoritmo, en lugar del insulto y la descalificación al contrario.

Remar en dirección contraria puede resultar duro al comienzo teniendo en cuenta que estas IAs recopilan datos de miles y miles de usuarios al día. Pero cuantos más seamos, más capacidad de influencia tendremos. Unidas y unidos podremos cambiar de tendencia el algoritmo.

¡Hagámonos Hateblockers!

Escrito por Pedro Nicolás.

Menú