Digital

La inteligencia artificial será un reflejo de lo peor de la sociedad si sigue así

iaTodos los avances que acontecen tecnológicamente son por y para la sociedad, desarrollados con carácter ambicioso pero que parten de la mentalidad y valores que sus creadores tengan. Por ello, la inteligencia artificial está adoptando tintes que sus propios creadores tienen arraigados, como el propio sexismo de la sociedad y otros asuntos aún por limar.

No todas las formas de sexismo son fácilmente identificables y menos el poder erradicarlas del día a día – y aún menos suprimirlas de aquellos individuos obstinados en no evolucionar. Como ya ha sido debatido una y mil veces, recae hasta en el propio lenguaje las formas sexistas de comunicación que, por haber sido siempre así, es tremendamente arduo el poder cambiarlo, - y más si la gran mayoría cree que eso es mínimo "ante los "verdaderamente importantes" problemas que de realmente trae el sexismo, cuando lo realmente serio nace de pequeñas cosas como esas -.

Por eso mismo, estas formas de sexismo están siendo trasladadas a la inteligencia artificial, especialmente a aquella que utiliza el lenguaje. Esta afirmación es fruto de la investigación del profesor de la Universidad de Stanford y antiguo trabajador en Microsoft, James Zou.

Según sus conclusiones, se produce una diferenciación en función del género para programar el habla de los programas de inteligencia artificial, los cuales, a medida que van avanzando en su aprendizaje, pueden desarrollar funciones negativas debido a ese punto sexista como por ejemplo en las búsquedas de empleo, según informa la MIT Tecnhology Review.

Al programar los sistemas de lenguaje de lo que pueden ser chatbots, algoritmos que recomiendan webs, sistemas de traducción o cualquier otro, se almacenan conjuntos de datos que representan la relación entre palabras cuando éstas se corresponden con distintos valores matemáticos. De manera traducida, supone que la máquina en cuestión pueda reconocer conexiones semánticas y entender que esa relación entre palabras es similar a la que hay entre “hombre y mujer”.

Pero al traducir del inglés al español, los investigadores descubrieron que por ejemplo, la palabra “programador”, - sin género asignado en inglés -, más cerca de la concepción de “hombre” que de “mujer”, y que la palabra más parecida a ésta es “ama de casa” - “homemaker”.

Estas relaciones preconcebidas con las propias palabras se ponen de manifiesto, por ejemplo, a la hora de buscar páginas web de programadores, aparecen en primer lugar todas las que pertenecen a hombres y posteriormente las femeninas. Como solución, propusieron reajustar la relación matemática entre las palabras de género neutro en inglés y las de género definido.

Pero como estamos hablando del carácter social reflejado en la inteligencia artificial, por supuesto no solo está marcado el sesgo sexista, sino también el racial y de otros tipos.

"No deberíamos pensar en esto como un fallo, sino como una característica", explica Arvind Narayanan, profesor de Princeton. "Realmente, todo depende de la aplicación. Lo que supone un sesgo o un prejuicio intolerable en una aplicación puede ser exactamente lo que necesitabas extraer de los datos en otra".

Atendiendo a declaraciones como estas, se vislumbra que para algunos eliminar estas conductas con sistemas automáticos podría reducir la “representación del mundo real” que manejan estos programas, y con ello, “hacerlos menos útiles a la hora de hacer predicciones o analizar datos”.

Sin embargo para otras como Barbara Grosz, de la Universidad de Hardvard, cree que puede agravar la ya presente desigualdad social. "Cuando estás en una sociedad que evoluciona de ciertas formas, lo que quieres es cambiar el futuro para que no sea como el pasado, y puesto que confiamos en los algoritmos que están haciendo ese tipo de predicciones, la cuestión ética es si no estaremos inhibiendo precisamente la evolución que queremos".

Te recomendamos

Eficacia

Atresmedia

ADN by DAN

EL OJO

Compartir