Sesgo algorítmico , la enciclopedia libre

Un gráfico de flujo que muestra las decisiones creadas por un motor de recomendación, circa 2001.[1]

El Sesgo algorítmico ocurre cuando un sistema informático refleja los valores de los humanos que están implicados en la codificación y recolección de datos usados para entrenar el algoritmo. El sesgo algorítmico se puede encontrar en todos lados, como en los resultados de los motores de búsqueda o en las redes sociales y pueden tener un gran impacto en temas como la privacidad o agravar sesgos sociales como los existentes respecto a razas, género, sexualidad o etnias. El estudio del sesgo algorítmico esta enfocado sobre todo en algoritmos que reflejan "discriminación sistemática e injusta". Este tipo de sesgos han empezado a ser tenidos en cuenta en marcos legales recientemente, como el Control de Protección de Datos Generales de la Unión Europea en 2018.

Tan pronto como los algoritmos expanden su capacidad de organizar la sociedad, la política, las instituciones, y el comportamiento, los sociólogos han empezado a preocuparse con las maneras en que los resultados no previstos y la manipulación de datos pueden impactar el mundo físico. Como los algoritmos son a menudo considerados neutros y sin sesgos, puede parecer que son mejores que los propios humanos, y en algunos casos, relevar trabajo en un algoritmo puede reducir el control humano sobre los resultados. Los sesgos pueden repercutir en los algoritmos teniendo como origen influencias culturales, sociales, o institucionales; debido a limitaciones técnicas de su diseño; o por ser utilizado en contextos no esperados en un principio o por usuarios que no se habían considerado en el diseño inicial del software.

Los sesgos algorítmicos han afectado a temas como los resultados de las elecciones. Los problemas de comprensión, investigación, y descubrimiento de sesgos en los algoritmos provienen de la naturaleza de estos, ya que los propietarios no suelen dejar acceder a su implementación, y aunque fuera así, muchas veces son demasiado complejos para entender cómo funcionan. Además, los algoritmos pueden cambiar, o responder a diferentes entradas de maneras que no pueden ser previstas o fácilmente reproducidas para su análisis. En muchos casos, incluso dentro de un solo sitio web o aplicación, no hay un solo algoritmo para examinar, si no un conjunto de procesos y entradas de datos interrelacionados.

Definiciones

[editar]
Un esquema de 1969 sobre cómo un programa de ordenador sencillo realiza decisiones, ilustrando un algoritmo muy básico.

Los algoritmos son difíciles de definir, pero se pueden entender como conjuntos de instrucciones dentro de un ordenador que determinan cómo estos programas leen, recogen, procesan, y analizan datos para generar una salida legible.[2][3]: 13  Los ordenadores más nuevos pueden procesar millones de estas instrucciones algorítmicas por segundo, lo cual ha impulsado el diseño y adopción de tecnologías como machine learning e inteligencia artificial.[4]: 14–15  Analizando y procesando datos, los algoritmos son el corazón de los motores de búsqueda, redes sociales, motores de recomendación, venta al detalle en línea, publicidad en línea, y otros.[5][6][7][8][9][10]

Los científicos sociales contemporáneos están preocupados con procesos algorítmicos incluidos en el hardware y  software debido a su impacto político y social, y cuestionan la suposición de que un algoritmo es neutral.[11]: 2 [12]: 563 [13]: 294 [14]​ El término sesgo algorítmico describe errores sistemáticos y repetidos que crean resultados injustos, como dar privilegios a un grupo de usuarios por encima otros de forma arbitraria. Por ejemplo, un algoritmo de puntuación de crédito puede negar un préstamo sin ser injusto, si se fija únicamente en criterios financieros pertinentes. Si el algoritmo recomienda préstamos a un grupo de usuarios, pero niega préstamos a otro conjunto de usuarios casi idénticos basándose en criterios no relacionados, y si este comportamiento se puede repetir en distintas ocasiones, se puede decir que es un algoritmo con sesgos.: 332  Estos sesgos pueden ser intencionados o involuntarios.: 332 

Métodos

[editar]

El sesgo puede ser introducido a un algoritmo de varias maneras. Durante el montaje de una base de datos, el dato tiene que ser recogido, digitalizado, adaptado, e introducido según un diseño humano.[15]: 3  Luego, los programadores asignan prioridades, o jerarquías, sobre cómo un programa evalúa y ordena los datos. Esto requiere decisiones humanas sobre cómo el dato es categorizado, y qué dato es incluido o descartado.[15]​ Algunos algoritmos recogen sus propios datos basados en  criterios de selección humanos, los cuales también pueden reflejar sesgos de los diseñadores.[15]​ Otros algoritmos pueden reforzar estereotipos y preferencias cuando procesan y muestran datos relevantes para los humanos, por ejemplo, al seleccionar información basada en elecciones anteriores de un usuario o grupo de usuarios similares.[15]

Más allá de reunir y procesar datos, los sesgos pueden surgir como resultado del diseño.[16]​ Por ejemplo, algoritmos que usan ordenación en los datos, aquellos que determinan la asignación de recursos o escrutinio, o los que clasifican e identifican usuarios, los cuales pueden discriminar a un grupo cuándo calculan el riesgo basado en datos de usuarios similares.[17]: 36  Por otro lado, los motores de recomendación que asocian a los usuarios con otros usuarios similares, o que infieren diferentes rasgos, podrían confiar en datos inexactos que reflejan estereotipos étnicos,de género, socioeconómicos, o raciales. Otro ejemplo surgiría de determinar los criterios que dicen que incluir y excluir de los resultados. Estos criterios podrían provocar resultados inesperados en las búsquedas, como un software de recomendaciones de compañías de vuelos  que omite los vuelos de compañías que no se patrocinan igual que el resto.[16]​ Los algoritmos también pueden mostrar un sesgo de incertidumbre, ofreciendo valoraciones más seguras cuándo los conjuntos de datos son más grandes. Esto puede afectar a procesos algorítmicos que analizan muestras muy grandes, que hacen se ignoren los datos de poblaciones poco representadas.[18]: 4 

Historia

[editar]

Críticas iniciales

[editar]
Esta tarjeta era usada para cargar software en una antigua unidad central. Cada byte (la letra 'A', por ejemplo) es introducido perforando agujeros. Aunque los ordenadores actuales son más complejos, reflejan este proceso humano de toma de decisiones al recopilar y procesar datos.[19][20]

Los primeros programas de ordenador fueron diseñados para imitar el razonamiento y las deducciones humanas, y se consideró que funcionaban cuando llegaron a reproducir esa lógica humana de manera exitosa y consistente. En su libro de 1976 (Computer Power and Human Reason), el pionero de la Inteligencia Artificial Joseph Weizenbaum sugirió que el sesgo podría surgir tanto de los datos utilizados en un programa como de la forma en que se implementa un programa.[19]: 149 

Weizenbaum describió los programas como secuencias de reglas creadas por humanos para que las siga una computadora. Al seguir esas reglas consistentemente, tales programas "encarnan la ley"[19]: 40 , es decir, hacen cumplir una forma específica de resolver problemas. Las reglas que sigue una computadora se basan en las suposiciones de un programador sobre cómo se pueden resolver estos problemas. Esto significa que el código podría incorporar la imaginación del programador y sus ideas de cómo funciona el mundo, incluyendo sus prejuicios y expectativas.[19]: 109  Mientras que un programa puede incorporar prejuicios de esta manera, Weizenbaum también señaló que cualquier dato alimentado a una máquina refleja adicionalmente los "procesos humanos de toma de decisiones" a medida que se van seleccionando los datos.[19]: 70, 105 

Finalmente, señaló que las máquinas también podrían transmitir buena información con consecuencias imprevistas si los usuarios no tienen claro cómo interpretar los resultados.[19]: 65  Weizenbaum advirtió en contra de confiar en las decisiones tomadas por los programas que el usuario no entiende, comparando esa fe con la de un turista que puede encontrar su camino a una habitación de un hotel girando a la izquierda o a la derecha jugando a cara o cruz. El turista no tiene base para entender cómo o por qué llegó a su destino, y el hecho de llegar no significa que el proceso sea preciso o confiable.[19]: 226 

Uno de los primeros ejemplos de sesgo algorítmico resultó en que hasta 60 mujeres y personas pertenecientes a minorías étnicas se les negara la entrada a la Escuela de Medicina del Hospital St. George's cada año entre 1982 y 1986, basado en la implementación de un nuevo sistema de evaluación por ordenador que negaba la entrada a mujeres y hombres con "nombres que suenan extranjeros" basándose en las tendencias históricas de las admisiones.[21]

Críticas actuales y respuestas

[editar]

Pese a que los algoritmos bien diseñados frecuentemente determinan resultados que son igualmente (o más) equitativos que las decisiones de seres humanos, aún ocurren casos de sesgo, y son difíciles de predecir y analizar.[22]​ La complejidad de analizar el sesgo algorítmico ha crecido a la vez que la complejidad de los programas y su diseño. Las decisiones que hace un diseñador o un equipo de diseñadores pueden ser oscurecidas entre las muchas partes de código creadas para un solo programa; a lo largo del tiempo estas decisiones y su impacto colectivo en la salida del programa se puede olvidar.[23]​ En teoría, estos sesgos pueden crear nuevos patrones de conducta, o “scripts”, en relación con tecnologías específicas según el código interactúa con otros elementos de la sociedad.[24]​ Los sesgos también pueden afectar cómo la sociedad se forma alrededor de puntos de datos que los algoritmos requieren. Por ejemplo, si los datos muestran un gran número de arrestos en una zona particular, un algoritmo podría asignar más patrullas de policía a esa zona, lo que puede llevar a más arrestos.[25]

Las decisiones de programas algorítmicos pueden verse como más autoritativas que las decisiones de los seres humanos que se supone que asisten,[26]​ un proceso descrito por el escritor Clay Shirky como “autoridad algorítmica”.[27]​ Shirky usa el término para describir “la decisión de considerar como autoritativo un proceso no gestionado de extraer valor de fuentes diversas y poco fiables”, como los resultados de búsqueda.[27]​ Esta neutralidad también puede malinterpretarse por el lenguaje usado por los expertos y los medios de comunicación cuando los resultados son presentados al público. Por ejemplo, una lista de noticias seleccionada y presentada como “de moda” o “popular” puede ser creada basándose en criterios bastante más amplios que su popularidad.[15]

Por su conveniencia y autoridad, los algoritmos son teorizados como un medio de delegar la responsabilidad lejos de los humanos.[26][28]​ Esto puede tener el efecto de reducir opciones alternativas, compromisos o flexibilidad.[26]​ El sociólogo Scott Lash ha criticado los algoritmos como una nueva forma de “poder generativo”, dado que son un medio virtual de generar fines reales. Donde previamente el comportamiento humano generaba datos para ser recogidos y estudiados, los algoritmos potentes podrían dar forma y definir los comportamientos humanos.[29]

Las preocupaciones sobre el impacto de los algoritmos en la sociedad han llevado a la creación de grupos de trabajo en organizaciones como Google y Microsoft, las cuales han cocreado un grupo de trabajo llamado Fairness, Accountability and Transparency in Machine Learning.[30]​ Entre algunas ideas de Google se incluyen comunidades que patrullan los resultados de algoritmos y votan por controlar o restringir los resultados que consideran que tienen consecuencias negativas.[30]​ En los últimos años, el estudio de Fairness, Accountability and Transparency (FAT) de los algoritmos ha surgido como un área interdisciplinaria de investigación con una conferencia anual llamada FAT.[31]

Tipos

[editar]

Preexistente

[editar]

Un sesgo preexistentes en un algoritmo es consecuencia de ideologías sociales e institucionales subyacentes. Estas ideas pueden influir o crear sesgos personales en los diseñadores o programadores. Dichos perjuicios pueden ser explícitos y conscientes, o implícitos e inconscientes.[13][32]​ Datos de entrada mal seleccionados influirán en los resultados creados por las máquinas.[20]​ La codificando de un sesgo preexistentes en el software puede preservar el sesgo social e institucional, y sin ninguna corrección podría replicarse en futuros usos de ese algoritmo.[23][28]

Un ejemplo de este tipo de sesgo es el Programa de la Ley de Nacionalidad Británica, diseñado para automatizar la evolución de los nuevos ciudadanos de Reino Unido a partir de 1981.[32]​ El programa reflejó con precisión los principios de la ley, que establecían que "un hombre es el padre solo de sus hijos legítimos, mientras que una mujer es la madre de todos sus hijos, legítimos o no”.[32][33]​ En su intento de transferir una lógica particular a un proceso algorítmico, el BNAP inscribió la lógica de la Ley de Nacionalidad Británica en su algoritmo, que la perpetuaría incluso si la ley fuera finalmente derogada.[32]

Sesgo en el aprendizaje automático

[editar]

El sesgo en el aprendizaje automático se refiere a las disparidades sistemáticas e injustas en los resultados producidos por algoritmos de aprendizaje automático. Estos sesgos pueden manifestarse de diversas maneras y, a menudo, reflejan los datos con los que fueron entrenados dichos algoritmos. A continuación, se presentan algunos aspectos clave:

Sesgo lingüístico

[editar]

El sesgo lingüístico se refiere a un tipo de sesgo estadístico asociado con el idioma de una consulta, que provoca "una desviación sistemática en la muestra de información, impidiendo que esta represente con exactitud la verdadera cobertura de temas y puntos de vista disponibles en su repositorio".[19]​ El trabajo de Luo et al.[19]​ muestra que los modelos de lenguaje actuales, predominantemente entrenados con datos en inglés, suelen presentar las perspectivas angloamericanas como verdades, mientras minimizan sistemáticamente puntos de vista en otros idiomas, considerándolos irrelevantes, erróneos o "ruido". Por ejemplo, ante la pregunta "¿Qué es el liberalismo?", ChatGPT, entrenado con datos en su mayoría en inglés, tiende a describir el liberalismo desde una perspectiva angloamericana, enfatizando aspectos relacionados con los derechos humanos y la igualdad. Sin embargo, omite otros enfoques igualmente válidos, como "oponerse a la intervención estatal en la vida personal y económica", dominante en Vietnam, o la "limitación del poder gubernamental" prevalente en la perspectiva china.[19]

Sesgo de género

[editar]

El sesgo de género se refiere a la tendencia de estos modelos a generar resultados que muestran prejuicios injustos hacia un género sobre otro. Este sesgo suele surgir de los datos utilizados para su entrenamiento. Por ejemplo, muchos modelos de lenguaje asignan roles y características basándose en normas de género tradicionales; así, pueden asociar profesiones como enfermería o secretaría predominantemente con mujeres y atribuir el rol de ingenieros o directores ejecutivos a hombres.[34][35]

Estereotipos

[editar]

Más allá del género y la raza, estos modelos pueden reforzar una amplia gama de estereotipos, incluyendo aquellos basados en la edad, la nacionalidad, la religión o la ocupación. Esto puede generar resultados que generalizan o caricaturizan injustamente a ciertos grupos de personas, a veces de manera perjudicial o peyorativa.[36]

Un enfoque reciente en la investigación se centra en la compleja interacción entre las propiedades gramaticales de un idioma y los sesgos del mundo real que pueden quedar integrados en los sistemas de inteligencia artificial, perpetuando estereotipos y suposiciones dañinas. Un estudio sobre el sesgo de género en modelos de lenguaje entrenados con islandés —un idioma altamente marcado por el género gramatical— mostró que los modelos presentaban una predisposición significativa hacia el género gramatical masculino al referirse a términos ocupacionales, incluso en profesiones con mayoría de mujeres.[37]​ Esto sugiere que los modelos amplifican los sesgos de género presentes en los datos de entrenamiento.

Sesgo político

[editar]

El sesgo político se refiere a la tendencia de los algoritmos a favorecer sistemáticamente ciertos puntos de vista, ideologías u orientaciones políticas sobre otros. Los modelos de lenguaje pueden mostrar también sesgos políticos. Dado que los datos de entrenamiento incluyen una amplia gama de opiniones políticas, los modelos podrían generar respuestas inclinadas hacia ideologías políticas particulares, dependiendo de la prevalencia de esas perspectivas en el conjunto de datos.[38]

Técnico

[editar]
Se descubrió que el software de reconocimiento facial utilizado junto con las cámaras de vigilancia muestra un sesgo al reconocer rostros asiáticos y negros sobre rostros blancos.[25]

El sesgo técnico surge a través de las limitaciones de un programa, la potencia computacional, su diseño u otra restricción en el sistema.[32]​ Tal sesgo también puede ser una restricción de diseño, por ejemplo, se puede entender que un motor de búsqueda que muestra tres resultados por pantalla privilegia los tres primeros resultados un poco más que los tres siguientes, como en una pantalla de precios de una aerolínea.[32]​ Otro caso es el software que se basa en la aleatoriedad para distribuciones justas de resultados. Si el mecanismo de generación de números aleatorios no es realmente aleatorio, puede introducir sesgos, por ejemplo, al sesgar las selecciones hacia los elementos al final o al principio de una lista.[32]

Un algoritmo descontextualizado utiliza información no relacionada para ordenar resultados, por ejemplo, un algoritmo de fijación de precios de vuelo que clasifica los resultados por orden alfabético estaría sesgado a favor de American Airlines sobre United Airlines.[32]​ También puede aplicarse lo contrario, en el que los resultados se evalúan en contextos diferentes de los que se recopilan. Los datos pueden recopilarse sin un contexto externo crucial: por ejemplo, cuando el software de reconocimiento facial es utilizado por cámaras de vigilancia, pero evaluado por personal remoto en otro país o región, o evaluado por algoritmos no humanos sin conocimiento de lo que ocurre más allá del campo visual de la cámara. Esto podría crear una comprensión incompleta de la escena de un crimen, por ejemplo, confundir a los espectadores con quienes cometen el crimen.[12]

Por último, se puede crear un sesgo técnico al intentar formalizar las decisiones en pasos concretos bajo el supuesto de que el comportamiento humano funciona de la misma manera. Por ejemplo, el software valora puntos de datos para determinar si un acusado debe aceptar un acuerdo de culpabilidad, mientras ignora el impacto de la emoción en un jurado.[32]​ Otro resultado no deseado de esta forma de sesgo se encontró en el software de detección de plagio Turnitin, que compara los textos escritos por los estudiantes con la información que se encuentra en línea y devuelve una puntuación de probabilidad de que el trabajo del estudiante sea una copia. Debido a que el software compara cadenas largas de texto, es más probable que identifique hablantes no nativos de inglés que hablantes nativos, ya que este último grupo podría cambiar mejor las palabras individuales, dividir cadenas de texto plagiado u oscurecer pasajes copiados a través de sinónimos. Debido a que es más fácil para los hablantes nativos evadir la detección como resultado de las limitaciones técnicas del software, esto crea un escenario en el que Turnitin identifica a los hablantes extranjeros de inglés para plagio mientras permite que más hablantes nativos evadan la detección.[26]

Emergente

[editar]

El sesgo emergente es el resultado del uso y confianza en algoritmos de contextos nuevos o imprevistos.[39]​ Los algoritmos pueden no haber sido ajustados para considerar nuevas formas de conocimiento, como nuevos medicamentos o descubrimientos médicos, nuevas leyes, modelos de negocio o normas culturales que cambian.[39]​ Esto puede excluir grupos mediante la tecnología, sin proporcionar contornos claros para entender quién es responsable de su marginación.[25]​ De manera similar, pueden emerger problemas al entrenar datos (los ejemplos de los que “se alimenta” una máquina, por los que modela conclusiones concretas) que no se corresponden con contextos que un algoritmo encuentra en el mundo real.[40]

En 1990, un ejemplo de sesgo emergente se detectó en el software utilizado para asignar estudiantes de medicina en EE. UU. a residencias, el National Residency Match Program (NRMP).[39]​ El algoritmo se diseñó en un momento en el que pocas parejas casadas buscaban residencia juntos. Según fueron entrando más mujeres a las escuelas de medicina, más probable era que los estudiantes solicitaran residencia junto a su pareja. El proceso pedía a cada candidato que aportara una lista de preferencias de ubicación alrededor de EE. UU., que después era ordenada y asignada cuando un hospital y un candidato acordaban un emparejamiento. En el caso de parejas casadas donde ambos buscaban residencia, el algoritmo consideraba las elecciones de ubicación de la persona más altamente valorada. El resultado era que con frecuencia se asignaban escuelas más preferidas al primer integrante de la pareja y menos preferidas al segundo, en lugar de buscar compromisos en preferencias de ubicación.[39]

Otros tipos de sesgo emergente son:

Correlaciones

[editar]

Correlaciones impredecibles pueden surgir cuando amplios conjuntos de datos son comparados entre sí. Por ejemplo, datos sobre patrones de navegación en la web pueden corresponderse con señales que marcan datos sensibles (como raza u orientación sexual). Seleccionando de acuerdo a cierto comportamiento o patrones, el efecto final sería casi idéntico a discriminación por el uso de datos directos de raza u orientación sexual.[18]​ En otros casos, el algoritmo extrae conclusiones de correlaciones, sin ser capaz de entender esas correlaciones. Por ejemplo, un programa de clasificación dio menor prioridad a asmáticos que padecieran neumonía que a asmáticos que no la padecieran. El algoritmo hizo esto ya que simplemente comparaba cotas de supervivencia: los asmáticos con neumonía tenían un riesgo mayor. Históricamente, por la misma razón, los hospitales típicamente dan a dichos asmáticos el mejor y más inmediato cuidado.[41]

Usos imprevistos

[editar]

El sesgo emergente puede ocurrir cuando un algoritmo se usa por público imprevisto. Por ejemplo, las máquinas pueden requerir que los usuarios sepan leer, escribir o entender números, o relacionarse con una interfaz usando metáforas que no entienden.[39]​ Estas exclusiones pueden convertirse en acentuadas según la tecnología sesgada o excluyente se va integrando más en la sociedad.[25]

Además de la exclusión, usos imprevistos pueden emerger por parte del usuario que confía en el software más que en su propio conocimiento. Por ejemplo, un grupo de usuarios imprevisto llevó a sesgo algorítmico en el Reino Unido, cuando ingenieros informáticos y abogados especializados en la inmigración crearon el British National Act Program como prueba de concepto con el fin de examinar de forma correcta para obtener la nacionalidad británica. Los diseñadores tenían acceso a mayores conocimientos legales que los usuarios en oficinas de inmigración, cuyo entendimiento tanto de software como de ley de inmigración seguramente fuera tosco. Los agentes que administraban las preguntas confiaban por completo en el software, lo que excluía distintos métodos de obtener la nacionalidad, y usaban el software incluso después de que los nuevos casos de leyes e interpretaciones legales llevaran a que el algoritmo estuviera anticuado. Como resultado de diseñar un algoritmo para los usuarios que presuntamente era inteligente en cuanto a la legalidad, el algoritmo del software llevó indirectamente a sesgo a favor de los candidatos que cumplían un conjunto restringido de criterios legales en lugar de los criterios más generales de la ley de inmigración.[39]

Ciclos de realimentación

[editar]

El sesgo emergente también podría crear un ciclo de realimentación, o recursión, si los datos recogidos para un algoritmo resultan ser respuestas reales que se vuelven a introducir al algoritmo.[42][43]​ Por ejemplo, simulaciones de software de policía predictiva (PredPol) desarrollados en Oakland, California, sugerían una presencia policial mayor en barrios de gente de raza negra basándose en los datos de crímenes denunciados por la gente.[44]​ La simulación mostraba que la gente denunciaba crímenes basándose en si veían coches de policía, independientemente de lo que la policía hiciera. La simulación interpretó los avistamientos de coches de policía para modelar sus predicciones de crimen, y asignaba por tanto aún más presencia policial en dichos barrios. La institución Human Rights Data Analysis Group, que llevó a cabo la simulación, advirtió que en lugares donde la discriminación racial favorece los arrestos, estos ciclos de realimentación podrían incrementar la discriminación racial en la policía.[43]

Los sistemas de recomendación como los que se usan para recomendar vídeos en línea o artículos de noticias pueden crear ciclos de realimentación.[45]​ Cuando los usuarios hacen clic en contenido sugerido por algoritmos, se influencia el siguiente conjunto de sugerencias. Con el paso del tiempo esto puede llevar a los usuarios a entrar en un filtro burbuja y no ser conscientes de contenido importante o útil.[46][47]

Impacto

[editar]

Influencias comerciales

[editar]

Los algoritmos corporativos pueden estar sesgados para favorecer de manera invisible los acuerdos financieros o los acuerdos entre empresas, sin el conocimiento de un usuario que pueda confundir el algoritmo como imparcial. Por ejemplo, American Airlines creó un algoritmo de búsqueda de vuelos en la década de 1980. El software presentaba una gama de vuelos de varias aerolíneas a los clientes, pero sopesaba los factores que destacaban sus propios vuelos, independientemente del precio o la conveniencia. En testimonio ante el Congreso de los Estados Unidos, el presidente de la aerolínea declaró abiertamente que el sistema fue creado con la intención de obtener una ventaja competitiva a través de un trato preferencial.[48]: 2 [32]: 331 

En un artículo de 1998 que describe a Google, se demostró que los fundadores de la empresa adoptaron una política de transparencia en los resultados de las búsquedas sobre la colocación remunerada, argumentando que "los motores de búsqueda financiados por publicidad estarán intrínsecamente sesgados hacia los anunciantes y alejados de las necesidades de los consumidores",[49]​ lo que constituiría una manipulación "invisible" del usuario.[48]: 3 

Comportamiento de voto

[editar]

Una serie de estudios sobre votantes indecisos en los Estados Unidos y en la India descubrieron que los resultados de los motores de búsqueda podían cambiar los resultados de la votación en aproximadamente un 20%. Los investigadores concluyeron que los candidatos "no tiene manera de competir" si un algoritmo, con o sin intención, aumenta los resultados de búsqueda de páginas para un candidato rival.[50]​ Los usuarios de Facebook que vieron mensajes relacionados con la votación tenían más probabilidades de votar. En 2010, una prueba aleatoria con usuarios de Facebook mostró un aumento del 20% (340,000 votos) entre los usuarios que vieron mensajes que promovían el voto, así como imágenes de sus amigos que habían votado.[51]​ El experto en legislación Jonathan Zittrain advierte que esto podría crear un "amaño digital" en las elecciones, "la presentación selectiva de información por un intermediario para cumplir con sus intereses, en lugar de servir a los usuarios", si se manipula intencionalmente.[52]

Discriminación de género

[editar]

En 2016, se descubrió que la red social de profesionales LinkedIn recomendaba variaciones masculinas de los nombres de las mujeres en respuesta a las consultas de búsqueda. El motor de búsqueda no hizo recomendaciones similares en la búsqueda de nombres masculinos. Por ejemplo, "Andrea" mostraba un mensaje preguntando si los usuarios querían decir "Andrew", pero las consultas por "Andrew" no preguntaban si los usuarios querían encontrar a "Andrea". La compañía dijo que esto fue el resultado de un análisis de las interacciones de los usuarios con el buscador.[53]

En 2012, la franquicia de tiendas por departamentos Target fue citada por recopilar datos para inferir cuándo las mujeres estaban embarazadas, incluso si no lo habían anunciado, y luego compartir esa información con sus socios de mercadeo.[54]: 94 [55]​ Debido a que los datos habían sido pronosticados, en lugar de ser observados o reportados directamente, la compañía no tenía la obligación legal de proteger la privacidad de esos clientes.[54]: 98 

Los algoritmos de búsqueda web también han sido acusados de ser sesgados. Los resultados de Google pueden dar prioridad al contenido pornográfico en términos de búsqueda relacionados con la sexualidad, por ejemplo, "lesbiana". Este sesgo se extiende al motor de búsqueda que muestra contenido popular pero sexualizado en búsquedas neutrales. Por ejemplo, los artículos "Top 25 Sexiest Women Athletes" (Las 25 mujeres atletas más sexys) aparecen como resultados de primera página en las búsquedas de "mujeres atletas"[56]: 31 . En 2017, Google ajustó estos resultados junto con otros relacionados con opiniones racistas, abuso infantil y pornografía, y otros contenidos perturbadores y ofensivos.[57]​ Otros ejemplos incluyen la exhibición de trabajos con mejor remuneración a los candidatos masculinos en los sitios web de búsqueda de empleo.[58]

En 2018, Amazon apagó un sistema que desarrolló para filtrar las solicitudes de empleo cuando se dieron cuenta de que estaba sesgado en contra de las mujeres.[59]

Discriminación racial y étnica

[editar]

Los algoritmos se han criticado como método para tapar los prejuicios raciales a la hora de decidir.[60]​ Debido a como ciertas razas y grupos étnicos fueron tratados en el pasado, la información actual puede contener ciertos sesgos ocultos. Por ejemplo, gente de raza negra son más proclives a recibir sentencias más largas que gente de raza blanca, las cuales cometieron el mismo delito.[61][62]​ Esto puede suponer que un sistema amplíe los sesgos originales en los datos.

Un ejemplo es el uso de evaluaciones de riesgos en sentencias penales en los Estados Unidos y audiencias de libertad condicional, donde a los jueces se les presentaba mediante un algoritmo, el riesgo de que un preso reincidiese en un crimen.[63]​ El periodo que comprende 1920 y 1970, la nacionalidad del padre de un criminal se tenía en cuenta en dichas evaluaciones de riesgo.[64]​ A día de hoy, estos resultados se comparten con jueces en Arizona, Colorado, Delaware, Kentucky, Louisiana, Oklahoma, Virginia, Washington y Wisconsin. Una investigación independiente por ProPublica, descubrió que estos resultados obtenidos eran inexactos en el 80% de los casos y desproporcionadamente sesgados por sugerir que personas negras tenían un 77% más de probabilidades de reincidir que una persona blanca.[63]

En 2015, Google se disculpó cuando personas negras se quejaron de que el algoritmo de identificación de imágenes en la aplicación de Fotos los identificaba como gorilas.[65]​ En 2010, las cámaras Nikon fueron criticadas debido a que su algoritmo de identificación preguntaba constantemente a los usuarios asiáticos si estaban parpadeando.[66]​ Estos ejemplos son producto del sesgo en el conjunto de datos biométricos.[65]​ Dichos datos biométricos se obtienen de aspectos del cuerpo, incluyendo las características raciales observadas, las cuales pueden entonces transferirse en puntos de datos.[60]​ La tecnología de reconocimiento de voz puede tener diferentes exactitudes dependiendo del acento del usuario. Esto se puede deber a la falta de datos de entrenamiento para usuarios de dicho acento.[67]

Los datos biométricos sobre la raza pueden también inferirse en lugar de observarse. Por ejemplo, en 2012 un estudio demostró que los nombre asociados con las personas negras eran más proclives a devolver resultados de búsqueda relacionados con arrestos, independientemente de si hay o no un registro policial para individuos con ese nombre.[68]

Un estudio sobre “Riesgo, Raza y Reincidencia: Sesgo Predictivo e Impacto Dispar” alegó que existía una probabilidad el doble de mayor (45% contra 23%) de que personas negras fueran clasificadas de mayor riesgo incluso después de haber permanecido durante un periodo de dos años sin ninguna reincidencia documentada.[69]

En 2019 un estudio de investigación reveló que un algoritmo de atención médica vendido por Optum favorecía a pacientes blancos por delante de pacientes negros, incluso estos estando más enfermos. El algoritmo predice cuánto costará el sistema de atención médica en el futuro. Sin embargo, el coste no es neutral con respecto a la raza, debido a que los pacientes negros incurrieron en aproximadamente 1.800$ menos en costes médicos por año que los pacientes blancos con el mismo número de problemas crónicos, lo que llevó al algoritmo a calificar a dichos pacientes blancos a tener el mismo riesgo de padecer ciertos problemas de salud en el futuro que los pacientes negros, los cuales sufrían significativamente de más enfermedades.[70]

Discurso de odio en línea

[editar]

En 2017 un algoritmo de Facebook diseñado para eliminar el discurso de odio en línea en favor de los hombres blancos frente a los negros a la hora de juzgar de manera objetiva el contenido, según documentos internos de Facebook.[71]​ El algoritmo, el cual es una combinación de programas informáticos y revisión humana, fue creado para proteger amplias categorías en lugar de subcategorías. Por ejemplo, publicaciones en contra de los “musulmanes” sería bloqueadas, mientras que aquellas que denunciaban a los “musulmanes radicales” sí serían permitidas. Un resultado inesperado del algoritmo es que permite el discurso de odio contra los niños negros, ya que denuncian la subcategoría de “niños” de los negros, en lugar de “todos los negros”, mientras que “todos los hombres blancos” daría lugar a un bloqueo, debido a que blancos y hombres no son considerados una subcategoría.[71]​ Además, se encontró que Facebook permitía a compradores de anuncios de dirigirse a “antijudíos” como una categoría de usuarios, que, según la compañía, fue resultado de los datos y los algoritmos usados. La compañía también permitió a los compradores de anuncios impedir que los afroamericanos vean anuncios de viviendas.[72]

Vigilancia

[editar]

El software que contienen las cámaras de vigilancia puede considerarse intrínsecamente político debido a que requiere algoritmos para distinguir comportamientos normales y anormales, y determinar quien pertenece a ciertos lugares en ciertos momentos.[12]​ La habilidad de dichos algoritmos de reconocer rostros de un espectro racial se ha demostrado que esta limitado por la diversidad racial de las imágenes en su base de datos de entrenamiento; Si la mayoría de las imágenes pertenecen a una raza o género, el software es mejor a la hora de reconocer otros miembros de esa raza o género.[73]​ Un análisis de software de 2002 utilizado para identificar individuos en imágenes de CCTV encontró varios ejemplos de predisposición cuando se ejecutan con las bases de datos de delincuentes. el software identificaba con más frecuencia a los hombres que a las mujeres, a las personas mayores más que a las jóvenes y a asiáticos, afroamericanos y otras razas con más frecuencia que a los blancos.[25]​ Otros estudios sobre el software de reconocimientos han encontrado lo contrario cuando se entrena con bases de datos de no criminales, siendo el software el menos preciso para identificar a las mujeres de pieles más oscuras.[74]

Discriminación sexual

[editar]

En 2011, usuarios de la aplicación de citas para homosexuales Grindr reportaron que el algoritmo de recomendación de Google Play estaba vinculando a Grindr con aplicaciones diseñadas para encontrar delincuentes sexuales, que según los críticos relacionaban incorrectamente la homosexualidad con la pedofilia. El escritor Mike Ananny criticó esta asociación en The Atlantic, argumentando que tales asociaciones estigmatizaron aún más a los hombres homosexuales.[75]​ En 2009, la compañía de comercio electrónico Amazon anuló 57.000 libros después de que un cambio algorítmico expandiese su lista negra de “contenido para adultos” para incluir cualquier libro que abordase temas de sexualidad o gay, como la novela aclamada por la crítica Brokeback Mountain.[76][77]

En 2019 se descubrió que, en Facebook, las búsquedas de “fotos de mis amigas” arrojaron sugerencias como “en bikini” o “en la playa”. En contraste, las búsquedas de “fotos de mis amigos” no arrojaron resultados.[78]

[editar]

Estos resultados muestran que la sociedad en su conjunto tiene una amplia gama de ideas sexistas sobre las mujeres. Aunque los usuarios son los que generan estos resultados en la parte superior de la página, Google no ha logrado eliminar los comentarios sexistas y racistas. En Algoritmos de Opresión,[79]Safiya Noble señala un ejemplo cuando realizas la búsqueda “chicas negras”. Una mujer estaba buscando en Internet actividades para entretener a un preadolescente y a sus primos de la misma edad. Después de buscar “chicas negras”, imágenes de pornografía llenaron la pantalla. Estos resultados son una correlación directa con los viejos medios en una nueva arquitectura de medios. Debido al algoritmo de Google, no puede borrar las páginas a menos que se consideren ilegales.[80]

Obstáculos de la investigación

[editar]

Muchos problemas impiden el estudio del sesgo algorítmico a gran escala, obstaculizando la aplicación de estudios académicos rigurosos y la comprensión pública.[11]

Falta de transparencia

[editar]

Los algoritmos comerciales son patentados y pueden tratarse como secretos comerciales.[11][81][25]​ El tratamiento de los algoritmos como secretos comerciales protege a las empresas, como los motores de búsqueda, donde un algoritmo transparente puede revelar tácticas para manipular el posicionamiento de los resultados de búsqueda.[82]​ Esto dificulta a los investigadores realizar entrevistas o análisis para descubrir como estos algoritmos funcionan.[83]​ Los expertos sugieren que este tipo de secreto puede ocultar métodos no éticos usados en la producción o el procesamiento de la salida de los algoritmos.[82]

Complejidad

[editar]

Los procesos de los algoritmos son complejos, a menudo excediendo la comprensión de la gente que los usa.[11][81]​ Las operaciones a gran escala pueden no ser comprendidas incluso por quienes están involucrados en crearlas.[84]​ Los métodos y los procesos de los programas de hoy en día a menudo se ven oscurecidos por la incapacidad de conocer cada permutación de una entrada o salida de código.[25]

El científico social Bruno Latour ha identificado este proceso como cajanegrizar. Según él mismo, cajanegrizar es "el camino mediante el cual el trabajo científico o técnico se vuelve invisible a causa de su propio éxito. Cuando una máquina funciona eficientemente o un hecho está establecido con firmeza, uno solo necesita concentrarse en los beneficios que genere y no en su complejidad interior. Así, paradójicamente sucede que la ciencia y la tecnología cuanto más éxito obtienen más opacas se vuelven."[85]​ Otros han criticado la metáfora de la caja negra, sugiriendo que los algoritmos actuales no son una caja negra, sino una interconexión de varias.[86]

Un ejemplo de esta complejidad se puede encontrar en el rango de entradas para personalizar la retroalimentación. Facebook tuvo en cuenta al menos 100.000 puntos de datos para determinar la disposición de una feed de redes sociales de un usuario en 2013.[87]​ Además, equipos grandes de programadores pueden operar en aislamiento relativo unos de otros y no ser conscientes de los efectos acumulados de las decisiones pequeñas con los algoritmos conectados y elaborados.[23]​ No todo el código es original, y puede ser cogido de otras librerías, creando un conjunto complicado de relaciones entre el procesamiento de datos y los sistemas de entrada de datos.[83]

Existe complejidad adicional a través del aprendizaje automático y la personalización de algoritmos basada en interacciones del usuario como los clics, el tiempo pasado en un sitio y otras métricas. Estos ajustes personales pueden confundir intentos generales de entender los algoritmos.[81][82]​ Un servicio de transmisión de radio no identificado informó de que usaba cinco algoritmos únicos de selección de música que había seleccionado para sus usuarios, basándose en su comportamiento. Esto crea diferentes experiencias del mismo servicio de transmisión entre diferentes usuarios, haciendo más difícil de entender qué hacen estos algoritmos.[11]​ Las empresas también realizan pruebas A/B frecuentes para ajustar los algoritmos basadas en las respuestas de los usuarios. Por ejemplo, el motor de búsqueda Bing puede ejecutar hasta diez millones de variaciones de su servicio por día, creando diferentes experiencias del servicio entre cada uso y/o usuario.[11]

Falta de datos sobre categorías sensibles

[editar]

Una barrera significativa para entender la lucha contra el sesgo en la práctica es que las categorías, como la demografía de las personas protegidas por la ley antidiscriminatoria, a menudo no se consideran de forma explícita al recopilar y procesar los datos.[88]​ En algunos casos, hay una pequeña oportunidad de recopilar estos datos explícitamente, como en la toma de huellas de dispositivos, la computación ubicua y el Internet de las Cosas. En otros casos, el responsable de los datos puede no querer recopilar esos datos por razones de reputación, o porque representa un mayor riesgo de responsabilidad y seguridad. También puede ser el caso de que, al menos en relación con el Reglamento General de Protección de Datos de la Unión Europea, esos datos entran en las disposiciones de “categoría especial” y por lo tanto conllevan más restricciones en su recogida y tratamiento.

Algunos profesionales han intentado estimar e imputar estas categorizaciones sensibles que no existen para permitir la mitigación del sesgo, por ejemplo, construyendo sistemas para deducir la etnia de los nombres.[89]​ Sin embargo, esto puede introducir otras formas de sesgo si no se realiza con cuidado.[90]​ Los investigadores de machine learning se han basado en tecnologías que mejoran la privacidad criptográfica, tales como la computación segura multipartita para proponer métodos mediante los cuales el sesgo algorítmico pueda ser evaluado o mitigado sin que estos datos estén nunca disponibles para los modeladores en texto plano.[91]

El sesgo algorítmico no sólo incluye categorías protegidas, sino que también incluye características menos observables o codificables, como los puntos de vista políticos. En estos casos, raramente hay una verdad fundamental fácilmente accesible o no controvertida, y eliminar el sesgo de un sistema así es más difícil.[92]

Además, pueden surgir correlaciones falsas y accidentales de una falta de comprensión de las categorías protegidas, por ejemplo, tasas de seguro basadas en datos de historiales de accidentes de coches que pueden solaparse, por casualidad, con grupos residenciales de minorías étnicas.[93]

Métodos y herramientas

[editar]

Ha habido varios intentos de crear métodos y herramientas que puedan detectar y observar sesgos dentro de un algoritmo. Este campo emergente se centra en las herramientas que generalmente se aplican a los datos (de capacitación) utilizados por el programa en lugar de los procesos internos del algoritmo. Estos métodos también pueden analizar el resultado de un programa y su utilidad y, por lo tanto, pueden involucrar el análisis de su matriz de confusión (o tabla de confusión).[94][95][96][97][98][99][100][101][102]

Actualmente, se está redactando un nuevo estándar IEEE que tiene como objetivo especificar metodologías que ayuden a los creadores de algoritmos a eliminar problemas de sesgo y articular la transparencia (es decir, a las autoridades o usuarios finales) sobre la función y los posibles efectos de sus algoritmos. El proyecto fue aprobado en febrero de 2017 y está patrocinado por el Comité de Estándares de Ingeniería de Sistemas y Software, un comité constituido por la IEEE Computer Society. Se espera que un borrador de la norma se someta a votación en junio de 2019.[103][104]

Este nuevo estándar es el IEEE P7003 y forma parte de una serie de 11 estándares éticos IEEE P70xx. Tiene como objetivo convertir los principios del documento “Diseño Éticamente Alineado” en directrices prácticas para crear un marco que pueda ser implementado como estándar en la industria. Con este marco se busca que los desarrolladores y responsables de implementar sistemas algorítmicos puedan identificar y mitigar sesgos no intencionados, injustificados o inapropiados en los resultados de estos sistemas. [105]

El estándar aborda tanto el sesgo injustificado, que se refiere al trato diferencial sin justificación operativa, como el sesgo inapropiado, aquel considerado legal o moralmente inaceptable en el contexto social donde se usa el sistema, como la discriminación basada en raza, género o sexualidad. Para ayudar a evitar estos problemas, el IEEE P7003 describe metodologías específicas, incluyendo guías de diseño ético, procedimientos de evaluación de sesgos, criterios de control de calidad de los datos de validación, y métodos para definir y comunicar los límites de aplicación del sistema. También incorpora estrategias para gestionar las expectativas del usuario y así reducir interpretaciones incorrectas de los resultados, como confundir correlación con causalidad.[106]

La estructura del estándar se organiza en secciones principales, abordando áreas como la taxonomía de sesgos, los marcos legales y el contexto cultural de los sesgos. Estas secciones proporcionan un contexto esencial para comprender los problemas éticos y mejorar la implementación. En la etapa de diseño, se consideran la categorización de usuarios, la representatividad de los datos y la transparencia del sistema, mientras que los casos de uso ofrecen ejemplos de sistemas que han causado sesgos, explicando cómo el marco propuesto puede mitigar estos problemas.[107]

El proceso de desarrollo de IEEE P7003 es deliberativo y abierto. Se divide en dos fases: una inicial exploratoria para identificar temas relevantes, y una de consolidación y especificación en la que se asignan responsabilidades y equipos para la redacción de contenido. [108]

Actualmente, el borrador de IEEE P7003 está en fase de desarrollo, con la última modificación realizada el 27 de octubre de 2024. El borrador sigue siendo un "draft" y está gestionado por Christy Bahn, Program Manager de IEEE. [109]

Soluciones

[editar]

Un estudio de 84 directrices de política sobre IA ética concluyó que la imparcialidad y la "mitigación del sesgo indeseado" eran preocupaciones frecuentes, abordadas mediante una combinación de soluciones técnicas, transparencia y monitoreo, derecho a reparación y mayores esfuerzos en diversidad e inclusión.[110]

Soluciones técnicas

[editar]

Se han propuesto diversos métodos y herramientas para detectar y observar sesgos en un algoritmo. Estas iniciativas suelen aplicarse a los datos de entrenamiento utilizados por el programa más que a los procesos internos del propio algoritmo. Además, pueden analizar la utilidad de sus resultados, a menudo a través del estudio de su matriz de confusión.[111][112][113][114][115][116][117][118][119]​ La IA explicable (Explainable AI) se ha propuesto como un medio para detectar la existencia de sesgos en un algoritmo o en un modelo de aprendizaje.[120]​ El uso de aprendizaje automático para detectar sesgos se conoce como "auditoría de IA", donde el “auditor” es un algoritmo que examina el modelo y sus datos de entrenamiento para identificar prejuicios.[121]

Asegurar que una herramienta de IA, como un clasificador, esté libre de sesgos es más complejo que simplemente eliminar la información sensible de las entradas, ya que esta puede inferirse de otras variables. Por ejemplo, los pasatiempos, deportes o escuelas de un candidato pueden revelar indirectamente su género, incluso si se ha eliminado el dato explícito. Las soluciones a este problema involucran el entrenamiento de agentes inteligentes que no puedan reconstruir información protegida o sensible del sujeto. Esto se demostró inicialmente en un trabajo donde se entrenó una red profunda para aprender una tarea, siendo a la vez completamente agnóstica respecto a la característica protegida.[122]​ Un método más simple se propuso en el contexto de las incrustaciones de palabras (word embeddings), que consiste en eliminar la información correlacionada con la característica protegida.[123]

Actualmente, se está redactando un nuevo estándar de la IEEE para especificar metodologías que ayuden a creadores de algoritmos a eliminar problemas de sesgo y a articular la transparencia (ya sea ante autoridades o usuarios finales) sobre el funcionamiento y posibles efectos de sus algoritmos. El proyecto fue aprobado en febrero de 2017 y está patrocinado por el Software & Systems Engineering Standards Committee, un comité de la IEEE Computer Society. Se esperaba un borrador del estándar para su votación en junio de 2019.[124][125]

Transparencia y monitoreo

[editar]

Las directrices éticas sobre IA señalan la necesidad de rendición de cuentas, recomendando la adopción de medidas para mejorar la interpretabilidad de los resultados.[126]​ Entre estas soluciones se contempla el “derecho a comprender” las decisiones basadas en aprendizaje automático y a evitar su despliegue en situaciones donde las decisiones no puedan ser explicadas o revisadas.[127]​ Para ello, ya existe un movimiento por la "Inteligencia artificial explicable" (Explainable AI), impulsado por organizaciones como DARPA, con fines que van más allá de la simple corrección de sesgos.[128]​ Por ejemplo, PwC sugiere que el monitoreo de los resultados implica diseñar sistemas de manera que los componentes individuales puedan aislarse y desactivarse si se detectan sesgos.[129]

Una aproximación inicial a la transparencia ha incluido la publicación abierta (open source) de los algoritmos.[130]​ Si bien esto permite el escrutinio y la mejora colaborativa del código, no garantiza transparencia si la audiencia no comprende la información brindada. Por ello, la presencia de una audiencia crítica y entendida es crucial para la rendición de cuentas. Sin una audiencia capaz de analizar y cuestionar estos algoritmos, no se puede lograr una verdadera responsabilidad.[131]

Derecho a la reparación

[editar]

Desde una perspectiva regulatoria, la Declaración de Toronto insta a aplicar un marco de derechos humanos a los daños ocasionados por el sesgo algorítmico.[132]​ Esto incluye legislar la debida diligencia en el diseño de algoritmos, así como crear mecanismos de responsabilidad cuando actores privados no protejan el interés público, reconociendo que estos derechos pueden verse oscurecidos por la complejidad de la cadena de responsabilidades.[133]​ Otros autores proponen la necesidad de mecanismos claros de seguros de responsabilidad civil.[134]

Diversidad e inclusión

[editar]

Existe preocupación respecto a que el desarrollo de sistemas de IA esté en gran medida en manos de hombres blancos, lo que puede acentuar sesgos algorítmicos.[135]​ Diversos expertos han sugerido que una mayor inclusión en el equipo de diseñadores de sistemas de IA ayudaría a minimizar el sesgo.[127][110]​ Por ejemplo, solo el 12% de los ingenieros de aprendizaje automático son mujeres,[136]​ y líderes negros en IA han señalado una "crisis de diversidad" en este campo.[137]​ Agrupaciones como Black in AI y Queer in AI buscan crear espacios más inclusivos en la comunidad de IA y oponerse a intereses corporativos que pueden orientar el rumbo de la investigación en IA de manera perjudicial.[138]​ Las críticas a los esfuerzos de inclusión señalan que los programas de diversidad no abordan formas de desigualdad entrecruzadas, lo que lleva a proponer una perspectiva interseccional en el diseño de algoritmos.[139][140]: 4  Investigadores de la Universidad de Cambridge han argumentado que abordar la diversidad racial se dificulta por la "blanquitud" cultural presente en el campo de la IA.[141]

Interdisciplinariedad y colaboración

[editar]

La integración de la interdisciplinariedad y la colaboración en el desarrollo de sistemas de IA puede desempeñar un papel crítico en la reducción del sesgo algorítmico. Incluir perspectivas de disciplinas ajenas a la informática puede ayudar a comprender mejor el impacto social de las soluciones basadas en datos. Un ejemplo es PACT (Participatory Approach to enable Capabilities in communiTies), un marco propuesto para fomentar la colaboración en el desarrollo de soluciones de IA con impacto social.[142]​ PACT enfatiza la importancia de la descolonización y el cambio de poder en el diseño de IA centrada en las personas.

La iniciativa del Instituto de IA Centrada en el Humano de la Universidad de Stanford (Stanford Institute for Human-Centered Artificial Intelligence) busca fomentar la colaboración multidisciplinaria para mejorar la condición humana a través de la IA.[143]

La colaboración con expertos externos y diversos actores ayuda a desarrollar sistemas inteligentes éticos, inclusivos y responsables. Esto implica considerar aspectos éticos, entender el contexto sociocultural, promover el diseño centrado en el ser humano, aprovechar la experiencia técnica y abordar políticas y aspectos legales.[144]​ En suma, la interdisciplinariedad es esencial para mitigar el sesgo en sistemas de IA y asegurar que estas tecnologías sean justas, transparentes y responsables.

Regulación

[editar]

Europa

[editar]

El Reglamento General de Protección de Datos (RGPD), el régimen revisado de protección de datos de la Unión Europea que se implementó en 2018, aborda en su Artículo 22 la “Toma de decisiones individuales automatizada, incluida la elaboración de perfiles”. Estas normas prohíben “únicamente” las decisiones automatizadas que tengan un efecto “significativo” o “legal” sobre un individuo, a menos que estén explícitamente autorizadas por el consentimiento, el contrato o la legislación de un Estado miembro. En los casos en que estén permitidos, deben existir salvaguardias, como el derecho a human-in-the-loop y el derecho a una explicación no vinculante de las decisiones adoptadas. Aunque estas normas se consideran comúnmente nuevas, en el Artículo 15 de la Directiva de Protección de Datos existen disposiciones casi idénticas en toda Europa desde 1995. Las reglas y salvaguardias originales de las decisiones automatizadas que se encuentran en la legislación francesa desde finales de los años setenta.[145]

El RGPD aborda el sesgo algorítmico en los sistemas de elaboración de perfiles, así como los enfoques estadísticos posibles para limpiarlos, directamente en el considerando 71,[110][146]​ señalando que

… el responsable del tratamiento debe utilizar procedimientos matemáticos o estadísticos adecuados para la elaboración de perfiles, aplicar medidas técnicas y organizativas adecuadas … que eviten, entre otras cosas, los efectos discriminatorios sobre las personas físicas por motivos de origen racial o étnico, opinión política, religión o convicciones, afiliación sindical, situación genética o sanitaria u orientación sexual, o que den lugar a medidas que tengan tal efecto.

Al igual que el derecho a una explicación en el considerando 71,[110][146]​ el problema es el carácter no vinculante de los considerandos.[147]​ Aunque el Grupo de trabajo del Artículo 29, que asesoró sobre la aplicación de la legislación de protección de datos, lo ha tratado como un requisito,[146]​ sus dimensiones prácticas no están claras. Se ha argumentado que las evaluaciones del impacto de la protección de datos para la elaboración de perfiles de datos de alto riesgo (junto con otras medidas preventivas dentro de la protección de datos) pueden ser una mejor manera de abordar los problemas de discriminación algorítmica, ya que restringen las acciones de quienes despliegan algoritmos, en lugar de exigir a los consumidores que presenten quejas o soliciten cambios.[148]

Estados Unidos

[editar]

Estados Unidos no tiene una legislación general que controle el sesgo algorítmico, abordando el problema a través de varias leyes estatales y federales que pueden variar según la industria, el sector y la forma en que se utiliza un algoritmo.[127]​ Muchas políticas son ejecutadas o controladas por la Comisión Federal de Comercio.[127]​ En 2016, la administración Obama lanzó el Plan Estratégico Nacional de Investigación y Desarrollo de Inteligencia Artificial,[149]​ el cual tenía la intención de guiar a los responsables de la formulación de políticas hacia una evaluación crítica de los algoritmos. Recomendó a los investigadores que “diseñen estos sistemas de manera que sus acciones y la toma de decisiones sean transparentes y fáciles de interpretar por los humanos, y así puedan contener, en lugar de simplemente aprender y repetir estos sesgos”. Pensado solo como una guía, el informe no sentó ningún precedente legal.[150]

En 2017, la ciudad de Nueva York aprobó el primer proyecto de ley de rendición de cuentas algorítmica en los Estados Unidos.[151]​ El proyecto de ley, que entró en vigor el 1 de enero de 2018, requería “la creación de un grupo de trabajo que proporcione recomendaciones sobre cómo la información sobre los sistemas de decisión automatizados de las organizaciones debería ser compartida con el público, y cómo esas organizaciones deberían abordar los casos en que las personas se ven perjudicadas por sistemas de decisión automatizados de la organización”.[152]​ Se requiere que el grupo de trabajo presente hallazgos y recomendaciones para acciones reguladoras adicionales en 2019.[153]

India

[editar]

El 31 de julio de 2018, se presentó un borrador del proyecto de ley de datos personales.[154]​ El borrador propone estándares para el almacenamiento, procesamiento y transmisión de los datos. Si bien no utiliza el término algoritmo, establece disposiciones para “…daños resultantes de cualquier procesamiento o cualquier tipo de procesamiento realizado por el fiduciario”. Define “cualquier denegación o retirada de un servicio, beneficio o bien resultante de una decisión de evaluación sobre el propietario de los datos” o “cualquier tratamiento discriminatorio” como una fuente de daño que podría surgir del uso indebido de los datos. También establece disposiciones especiales para las personas con “estatus intersexual”.[155]

Referencias

[editar]
  1. Jacobi, Jennifer (13 de septiembre de 2001). «Patent #US2001021914». Espacenet. Consultado el 4 de julio de 2018. 
  2. Striphas, Ted. «What is an Algorithm? – Culture Digitally». culturedigitally.org. Consultado el 20 de noviembre de 2017. 
  3. Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L.; Stein, Clifford (2009). Introduction to algorithms (3rd edición). Cambridge, Mass.: MIT Press. p. 5. ISBN 978-0-262-03384-8. 
  4. Kitchin, Rob (25 de febrero de 2016). «Thinking critically about and researching algorithms». Information, Communication & Society 20 (1): 14-29. doi:10.1080/1369118X.2016.1154087. Archivado desde el original el 24 de abril de 2017. Consultado el 19 de noviembre de 2017. 
  5. Google. «How Google Search Works». Consultado el 19 de noviembre de 2017.  |autor= y |apellido= redundantes (ayuda)
  6. Luckerson, Victor. «Here's How Your Facebook News Feed Actually Works». TIME.com. Consultado el 19 de noviembre de 2017. 
  7. Vanderbilt, Tom (7 de agosto de 2013). «The Science Behind the Netflix Algorithms That Decide What You'll Watch Next». Wired. Consultado el 19 de noviembre de 2017. 
  8. Angwin, Julia (20 de septiembre de 2016). «Amazon Says It Puts Customers First. But Its Pricing Algorithm Doesn't — ProPublica». ProPublica (en inglés estadounidense). Consultado el 19 de noviembre de 2017. 
  9. Livingstone, Rob. «The future of online advertising is big data and algorithms». The Conversation (en inglés). Consultado el 19 de noviembre de 2017. 
  10. Hickman, Leo (1 de julio de 2013). «How algorithms rule the world». Consultado el 19 de noviembre de 2017. 
  11. a b c d e f Seaver, Nick. «Knowing Algorithms». Media in Transition 8, Cambridge, MA, April 2013. Archivado desde el original el 1 de diciembre de 2017. Consultado el 18 de noviembre de 2017. 
  12. a b c Graham, Stephen D.N. (July 2016). «Software-sorted geographies». Progress in Human Geography 29 (5): 572. doi:10.1191/0309132505ph568oa. 
  13. a b Tewell, Eamon (4 de abril de 2016). «Toward the Resistant Reading of Information: Google, Resistant Spectatorship, and Critical Information Literacy». Portal: Libraries and the Academy 16 (2): 289-310. ISSN 1530-7131. Consultado el 19 de noviembre de 2017. 
  14. Crawford, Kate (1 de abril de 2013). «The Hidden Biases in Big Data». Harvard Business Review. 
  15. a b c d e Gillespie, Tarleton; Boczkowski, Pablo; Foot, Kristin (2014). Media Technologies. Cambridge: MIT Press. pp. 1–30. ISBN 9780262525374. 
  16. a b Diakopoulas, Nicholas. «Algorithmic Accountability: On the Investigation of Black Boxes |». towcenter.org (en inglés). Consultado el 19 de noviembre de 2017. 
  17. Lipartito, Kenneth (6 de enero de 2011). «The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today». SSRN Electronic Journal. doi:10.2139/ssrn.1736283. 
  18. a b Goodman, Bryce; Flaxman, Seth (2017). «EU regulations on algorithmic decision-making and a "right to explanation"». AI Magazine 38 (3): 50. doi:10.1609/aimag.v38i3.2741. 
  19. a b c d e f g h i j Weizenbaum, Joseph. Computer power and human reason : from judgment to calculation. San Francisco. ISBN 978-0-7167-0464-5.  Error en la cita: Etiqueta <ref> no válida; el nombre «:3» está definido varias veces con contenidos diferentes
  20. a b Goffrey, Andrew (2008). «Algorithm». En Fuller, Matthew, ed. Software studies: a lexicon. Cambridge, Mass.: MIT Press. pp. 15–20. ISBN 978-1-4356-4787-9. 
  21. Lowry, Stella; Macpherson, Gordon (5 de marzo de 1988). «A Blot on the Profession». British Medical Journal (6623 edición) 296: 657-8. PMC 2545288. PMID 3128356. doi:10.1136/bmj.296.6623.657. Consultado el 17 de noviembre de 2017. 
  22. «Miller, Alex P. (26 July 2018). "Want Less-Biased Decisions? Use Algorithms". Harvard Business Review. Retrieved 31 July 2018.». 
  23. a b c «Introna, Lucas D. (2 December 2011). "The Enframing of Code". Theory, Culture & Society. 28 (6): 113–141. doi:10.1177/0263276411418131». 
  24. «Bogost, Ian (2015-01-15). "The Cathedral of Computation". The Atlantic. Retrieved 19 November 2017.» |url= incorrecta con autorreferencia (ayuda). 
  25. a b c d e f g Introna, Lucas; Wood, David (2004). «Picturing algorithmic surveillance: the politics of facial recognition systems». Surveillance & Society (en inglés) 2 (2/3): 177-198. doi:10.24908/ss.v2i2/3.3373. Consultado el 22 de noviembre de 2019. 
  26. a b c d «Introna, Lucas D. (21 December 2006). "Maintaining the reversibility of foldings: Making the ethics (politics) of information technology visible". Ethics and Information Technology. 9 (1): 11–25. CiteSeerX 10.1.1.154.1313. doi:10.1007/s10676-006-9133-z.» |url= incorrecta con autorreferencia (ayuda). 
  27. a b «Shirky, Clay. "A Speculative Post on the Idea of Algorithmic Authority Clay Shirky". www.shirky.com. Retrieved 20 November 2017.» |url= incorrecta con autorreferencia (ayuda). 
  28. a b Ziewitz, Malte (1 de enero de 2016). «Governing Algorithms: Myth, Mess, and Methods». Science, Technology, & Human Values (en inglés) 41 (1): 3-16. ISSN 0162-2439. doi:10.1177/0162243915608948. Consultado el 29 de noviembre de 2019. 
  29. [doi:10.1177/0263276407075956. «Lash, Scott (30 June 2016). "Power after Hegemony". Theory, Culture & Society. 24 (3): 55–78.»]. 
  30. a b [doi:10.1215/07402775-3813015. «Garcia, Megan (1 January 2016). "Racist in the Machine". World Policy Journal. 33 (4): 111–117.»]. 
  31. «"ACM FAT* - 2018 Information for Press". fatconference.org». 
  32. a b c d e f g h i j Friedman, Batya; Nissenbaum, Helen (July 1996). «Bias in Computer Systems». ACM Transactions on Information Systems (3 edición) 14: 330-347. doi:10.1145/230538.230561. Consultado el 10 de marzo de 2019. 
  33. Sergot, MJ; Sadri, F; Kowalski, RA; Kriwaczek, F; Hammond, P; Cory, HT (May 1986). «The British Nationality Act as a Logic Program». Communications of the ACM 29 (5): 370-386. doi:10.1145/5689.5920. Consultado el 18 de noviembre de 2017. 
  34. Busker, Tony; Choenni, Sunil; Shoae Bargh, Mortaza (20 de noviembre de 2023). «Stereotypes in ChatGPT: An empirical study». Proceedings of the 16th International Conference on Theory and Practice of Electronic Governance. ICEGOV '23. New York, NY, USA: Association for Computing Machinery. pp. 24-32. ISBN 979-8-4007-0742-1. doi:10.1145/3614321.3614325. 
  35. Kotek, Hadas; Dockum, Rikker; Sun, David (5 de noviembre de 2023). «Gender bias and stereotypes in Large Language Models». Proceedings of the ACM Collective Intelligence Conference. CI '23. New York, NY, USA: Association for Computing Machinery. pp. 12-24. ISBN 979-8-4007-0113-9. doi:10.1145/3582269.3615599. 
  36. Cheng, Myra; Durmus, Esin; Jurafsky, Dan (29 de mayo de 2023), Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models, arXiv:2305.18189 .
  37. Friðriksdóttir, Steinunn Rut; Einarsson, Hafsteinn (2024), «Gendered Grammar or Ingrained Bias? Exploring Gender Bias in Icelandic Language Models», Lrec-Coling 2024: 7596-7610 .
  38. Feng, Shangbin; Park, Chan Young; Liu, Yuhan; Tsvetkov, Yulia (July 2023). «From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models». En Rogers, Anna; Boyd-Graber, Jordan; Okazaki, Naoaki, eds. Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (Toronto, Canada: Association for Computational Linguistics): 11737-11762. arXiv:2305.08283. doi:10.18653/v1/2023.acl-long.656. 
  39. a b c d e f «Friedman, Batya; Nissenbaum, Helen (July 1996). "Bias in Computer Systems" (PDF). ACM Transactions on Information Systems.». 
  40. «Gillespie, Tarleton. "Algorithm [draft] [#digitalkeywords] – Culture Digitally".». 
  41. «Kuang, Cliff (21 November 2017). "Can A.I. Be Taught to Explain Itself?". The New York Times. Retrieved 26 November 2017.». 
  42. «Jouvenal, Justin (17 November 2016). "Police are using software to predict crime. Is it a 'holy grail' or biased against minorities?". Washington Post.». 
  43. a b «Chamma, Maurice (2016-02-03). "Policing the Future". The Marshall Project. Retrieved». 
  44. [doi:10.1111/j.1740-9713.2016.00960.x. «Lum, Kristian; Isaac, William (October 2016). "To predict and serve?". Significance. 13 (5): 14–19.»]. 
  45. [doi:10.5220/0006938301100118. «Sun, Wenlong; Nasraoui, Olfa; Shafto, Patrick (2018). "Iterated Algorithmic Bias in the Interactive Machine Learning Process of Information Filtering". Proceedings of the 10th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management. Seville, Spain: SCITEPRESS - Science and Technology Publications: 110–118.»]. 
  46. «Hao, Karen; Hao, Karen. "Google is finally admitting it has a filter-bubble problem". Quartz.». 
  47. «"Facebook Is Testing This New Feature to Fight 'Filter Bubbles'". Fortune.». 
  48. a b Christian, Sandvig; Hamilton, Kevin; Karahalios, Karrie; Langbort, Cedric (22 de mayo de 2014). «Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms». 64th Annual Meeting of the International Communication Association. Consultado el 18 de noviembre de 2017. 
  49. Brin, Sergey. «The Anatomy of a Search Engine». Archivado desde el original el 2 de julio de 2019. Consultado el 18 de noviembre de 2019.  Parámetro desconocido |nombre 2= ignorado (ayuda); Parámetro desconocido |Apellido 2= ignorado (ayuda); Parámetro desconocido |Fecha acceso URL= ignorado (ayuda); Parámetro desconocido |Nombre página web= ignorado (ayuda); Parámetro desconocido |Estado del URL= ignorado (ayuda)
  50. Epstein, Robert; Robertson, Ronald E. (18 de agosto de 2015). «The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections». Proceedings of the National Academy of Sciences of the United States of America 112 (33): E4512-E4521. ISSN 0027-8424. PMC 4547273. PMID 26243876. doi:10.1073/pnas.1419828112. Consultado el 22 de noviembre de 2019. 
  51. Bond, Robert M.; Fariss, Christopher J.; Jones, Jason J.; Kramer, Adam D. I.; Marlow, Cameron; Settle, Jaime E.; Fowler, James H. (13 de septiembre de 2012). «A 61-million-person experiment in social influence and political mobilization». Nature 489 (7415). ISSN 0028-0836. PMC 3834737. PMID 22972300. doi:10.1038/nature11421. Consultado el 22 de noviembre de 2019. 
  52. Zittrain, Jonathan (2014). «Engineering an Election» (PDF). Harvard Law Review Forum: 335. Archivado desde el original el 4 de marzo de 2021. 
  53. Day, Matt. «How LinkedIn's search engine may reflect a gender bias». Consultado el 25 de noviembre de 2017. 
  54. a b Crawford, Kate; Schultz, Jason (2014). «Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms». Boston College Law Review 55 (1): 93-128. 
  55. Duhigg, Charles (16 de febrero de 2012). «How Companies Learn Your Secrets». The New York Times. Consultado el 18 de noviembre de 2017. 
  56. Noble, Safiya (2012). «Missed Connections: What Search Engines Say about Women». Bitch Magazine 12 (4): 37-41. Archivado desde el original el 23 de abril de 2021. 
  57. Guynn, Jessica (16 de marzo de 2017). «Google starts flagging offensive content in search results». USA TODAY. USA Today. Consultado el 19 de noviembre de 2017. 
  58. Simonite, Tom. «Study Suggests Google's Ad-Targeting System May Discriminate». Massachusetts Institute of Technology. 
  59. Dastin, Jeffrey (9 de octubre de 2018). «Amazon scraps secret AI recruiting tool that showed bias against women». Reuters. 
  60. a b Nakamura, Lisa (2009). Magnet, Shoshana; Gates, Kelly, eds. The new media of surveillance. London: Routledge. p. 158. ISBN 978-0-415-56812-8. 
  61. Alexander, Rudolph; Gyamerah, Jacquelyn (September 1997). «Differential Punishing of African Americans and Whites Who Possess Drugs: A Just Policy or a Continuation of the Past?». Journal of Black Studies 28 (1): 97-111. ISSN 0021-9347. doi:10.1177/002193479702800106. 
  62. Petersilia, Joan (1985-01). «Racial Disparities in the Criminal Justice System: A Summary». Crime & Delinquency (en inglés estadounidense) 31 (1): 15-34. ISSN 0011-1287. doi:10.1177/0011128785031001002. Consultado el 22 de noviembre de 2019. 
  63. a b Julia Angwin, Jeff Larson (23 de mayo de 2016). «Machine Bias». ProPublica (en inglés). Consultado el 22 de noviembre de 2019. 
  64. Harcourt, Bernard E. (16 de septiembre de 2010). «Risk as a Proxy for Race». Universidad de Chicago (en inglés) (Social Science Research Network) (ID 1677654): 4. Consultado el 22 de noviembre de 2019. 
  65. a b Guynn, Jessica. «Google Photos labeled black people 'gorillas'». USA TODAY (en inglés estadounidense). Consultado el 22 de noviembre de 2019. 
  66. Rose, Adam (22 de enero de 2010). «Are Face-Detection Cameras Racist?». Time (en inglés estadounidense). ISSN 0040-781X. Consultado el 22 de noviembre de 2019. 
  67. «The accent gap: How Amazon’s and Google’s smart speakers leave certain voices behind». Washington Post (en inglés). Consultado el 22 de noviembre de 2019. 
  68. Sweeney, Latanya (28 de enero de 2013). Discrimination in Online Ad Delivery (en inglés) (ID 2208240). Social Science Research Network. Consultado el 22 de noviembre de 2019. 
  69. Skeem, Jennifer L.; Lowenkamp, Christopher (14 de junio de 2016). Risk, Race, & Recidivism: Predictive Bias and Disparate Impact (en inglés) (ID 2687339). Social Science Research Network. Consultado el 22 de noviembre de 2019. 
  70. reporterEmailEmailBioBioFollowFollow, Carolyn Y. Johnson closeCarolyn Y. JohnsonScience. «Racial bias in a medical algorithm favors white patients over sicker black patients». Washington Post (en inglés). Consultado el 22 de noviembre de 2019. 
  71. a b Julia Angwin, Hannes Grassegger (28 de junio de 2017). «Facebook’s Secret Censorship Rules Protect White Men From Hate Speech But Not Black Children». ProPublica (en inglés). Consultado el 22 de noviembre de 2019. 
  72. Julia Angwin, Madeleine Varner (14 de septiembre de 2017). «Facebook Enabled Advertisers to Reach ‘Jew Haters’». ProPublica (en inglés). Consultado el 22 de noviembre de 2019. 
  73. Furl, Nicholas; Phillips, P. Jonathon; O'Toole, Alice J. (2002). «Face recognition algorithms and the other-race effect: computational mechanisms for a developmental contact hypothesis». Cognitive Science (en inglés) 26 (6): 797-815. ISSN 1551-6709. doi:10.1207/s15516709cog2606_4. Consultado el 22 de noviembre de 2019. 
  74. Buolamwini, Joy; Gebru, Timnit (2018). «Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification». Proceedings of Machine Learning Research 81: 1 – via MLR Press. 
  75. Ananny, Mike (14 de abril de 2011). «The Curious Connection Between Apps for Gay Men and Sex Offenders». The Atlantic (en inglés estadounidense). Consultado el 18 de noviembre de 2019. 
  76. «Did Amazon Really Fail This Weekend? The Twittersphere Says “Yes,” Online Retailer Says “Glitch.”». AllThingsD (en inglés estadounidense). Consultado el 18 de noviembre de 2019. 
  77. «Amazon Apologizes for “Ham-fisted Cataloging Error”». AllThingsD (en inglés estadounidense). Consultado el 18 de noviembre de 2019. 
  78. «Why Facebook Search Suggests ‘Photos of Female Friends in Bikinis’». Wired (en inglés). ISSN 1059-1028. Consultado el 18 de noviembre de 2019. 
  79. «Algorithms of Oppression». NYU Press (en inglés estadounidense). Consultado el 18 de noviembre de 2019. 
  80. Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. Nueva York. ISBN 9781479837243. OCLC 987591529. 
  81. a b c Sandvig, Christian; Hamilton, Kevin; Karahalios, Karrie; Langbort, Cedric (2014). Gangadharan, Seeta Pena; Eubanks, Virginia; Barocas, Solon (eds.). «"An Algorithm Audit"». 
  82. a b c Granka, Laura A. (27 de septiembre de 2010). «The Politics of Search: A Decade Retrospective». The Information Society 26 (5): 364-374. ISSN 0197-2243. doi:10.1080/01972243.2010.511560. Consultado el 27 de noviembre de 2019. 
  83. a b Kitchin, Rob (2 de enero de 2017). «Thinking critically about and researching algorithms». Information, Communication & Society 20 (1): 14-29. ISSN 1369-118X. doi:10.1080/1369118X.2016.1154087. Consultado el 27 de noviembre de 2019. 
  84. LaFrance, Adrienne (18 de septiembre de 2015). «The Algorithms That Power the Web Are Only Getting More Mysterious». The Atlantic (en inglés estadounidense). Consultado el 27 de noviembre de 2019. 
  85. Bruno Latour (1999). Pandora's hope: essays on the reality of science studies. Cambridge, Massachusetts: Harvard University Press. 
  86. Kubitschko, Sebastian; Kaun, Anne (26 de diciembre de 2016). Innovative Methods in Media and Communication Research (en inglés). Springer. p. 92. ISBN 978-3-319-40700-5. Consultado el 27 de noviembre de 2019. 
  87. «EdgeRank Is Dead: Facebook's News Feed Algorithm Now Has Close To 100K Weight Factors». Marketing Land. 16 de agosto de 2013. Consultado el 27 de noviembre de 2019. 
  88. Veale, Michael; Binns, Reuben (20 de noviembre de 2017). «Fairer machine learning in the real world: Mitigating discrimination without collecting sensitive data». Big Data & Society (en inglés estadounidense) 4 (2): 205395171774353. ISSN 2053-9517. doi:10.1177/2053951717743530. Consultado el 27 de noviembre de 2019. 
  89. Elliott, Marc N.; Morrison, Peter A.; Fremont, Allen; McCaffrey, Daniel F.; Pantoja, Philip; Lurie, Nicole (10 de abril de 2009). «Using the Census Bureau’s surname list to improve estimates of race/ethnicity and associated disparities». Health Services and Outcomes Research Methodology (en inglés) 9 (2): 69. ISSN 1572-9400. doi:10.1007/s10742-009-0047-1. Consultado el 27 de noviembre de 2019. 
  90. Chen, Jiahao; Kallus, Nathan; Mao, Xiaojie; Svacha, Geoffry; Udell, Madeleine (2019). «Fairness Under Unawareness: Assessing Disparity When Protected Class Is Unobserved». Proceedings of the Conference on Fairness, Accountability, and Transparency - FAT* '19 (Atlanta, GA, USA: ACM Press): 339-348. ISBN 9781450361255. arXiv:1811.11154. doi:10.1145/3287560.3287594. 
  91. Kilbertus, Niki; Gascon, Adria; Kusner, Matt; Veale, Michael; Gummadi, Krishna; Weller, Adrian (3 de julio de 2018). «Blind Justice: Fairness with Encrypted Sensitive Attributes». International Conference on Machine Learning (en inglés): 2630-2639. Consultado el 27 de noviembre de 2019. 
  92. Binns, Reuben; Veale, Michael; Van Kleek, Max; Shadbolt, Nigel (2017). «Like Trainer, Like Bot? Inheritance of Bias in Algorithmic Content Moderation». En Ciampaglia, Giovanni Luca, ed. Social Informatics. Lecture Notes in Computer Science (en inglés) (Springer International Publishing): 405-415. ISBN 978-3-319-67256-4. doi:10.1007/978-3-319-67256-4_32. Consultado el 27 de noviembre de 2019. 
  93. «EU Data Protection Law May End The Unknowable Algorithm». InformationWeek (en inglés). Consultado el 27 de noviembre de 2019. 
  94. «Attack discrimination with smarter machine learning». research.google.com. Consultado el 29 de noviembre de 2019. 
  95. Hardt, Moritz; Price, Eric; Srebro, Nathan (7 de octubre de 2016). «Equality of Opportunity in Supervised Learning». arXiv:1610.02413 [cs]. Consultado el 29 de noviembre de 2019. 
  96. «Microsoft is developing a tool to help engineers catch bias in algorithms». VentureBeat (en inglés estadounidense). 25 de mayo de 2018. Consultado el 29 de noviembre de 2019. 
  97. Gershgorn, Dave. «Facebook says it has a tool to detect bias in its artificial intelligence». Quartz (en inglés). Consultado el 29 de noviembre de 2019. 
  98. detect demographic differences in the output of machine learning models or other assessments: pymetrics/audit-ai, Pymetrics, 29 de noviembre de 2019, consultado el 29 de noviembre de 2019 .
  99. «Pymetrics open-sources Audit AI, an algorithm bias detection tool». VentureBeat (en inglés estadounidense). Consultado el 29 de noviembre de 2019. 
  100. Bias and Fairness Audit Toolkit . Contribute to dssg/aequitas development by creating an account on GitHub, Data Science for Social Good, 26 de noviembre de 2019, consultado el 29 de noviembre de 2019 .
  101. rayid. «Aequitas». Center for Data Science and Public Policy (en inglés estadounidense). Consultado el 29 de noviembre de 2019. 
  102. «Mitigating Bias in Artificial Intelligence (AI) Models -- IBM Research». IBM Research Blog (en inglés estadounidense). 7 de febrero de 2018. Consultado el 29 de noviembre de 2019. 
  103. Koene, A. (2017-06). «Algorithmic Bias: Addressing Growing Concerns [Leading Edge]». IEEE Technology and Society Magazine 36 (2): 31-32. ISSN 1937-416X. doi:10.1109/MTS.2017.2697080. Consultado el 29 de noviembre de 2019. 
  104. «P7003 - Algorithmic Bias Considerations». standards.ieee.org. Archivado desde el original el 3 de diciembre de 2018. Consultado el 29 de noviembre de 2019. 
  105. Koene, Dowthwaite, Seth, Ansgar, Liz, Suchana (2018). «IEEE P7003 Standard for Algorithmic Bias Considerations». ieeexplore.ieee.org. Consultado el 7 de noviembre de 2024. 
  106. Koene, Dowthwaite, Seth, Ansgar, Liz, Suchana (2018). «IEEE P7003 Standard for Algorithmic Bias Considerations». ieeexplore.ieee.org. Consultado el 7 de noviembre de 2024. 
  107. Koene, Dowthwaite, Seth, Ansgar, Liz, Suchana (2018). «IEEE P7003 Standard for Algorithmic Bias Considerations». ieeexplore.ieee.org. Consultado el 7 de noviembre de 2024. 
  108. Koene, Dowthwaite, Seth, Ansgar, Liz, Suchana (2018). «IEEE P7003 Standard for Algorithmic Bias Considerations». ieeexplore.ieee.org. Consultado el 7 de noviembre de 2024. 
  109. standards.ieee.org/ieee/7003/11357/. 27 de octubre de 2024 https://standards.ieee.org/ieee/7003/11357/ |url= sin título (ayuda). Consultado el 7 de noviembre de 2024. 
  110. a b c d Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 September 2019). «The global landscape of AI ethics guidelines». Nature Machine Intelligence 1 (9): 389-399. S2CID 201827642. arXiv:1906.11668. doi:10.1038/s42256-019-0088-2.  Error en la cita: Etiqueta <ref> no válida; el nombre «:0» está definido varias veces con contenidos diferentes
  111. https://research.google.com/bigpicture/attacking-discrimination-in-ml/ Attacking discrimination with smarter machine learning
  112. Hardt, Moritz; Price, Eric; Srebro, Nathan (2016). «Equality of Opportunity in Supervised Learning». arXiv:1610.02413  [cs.LG]. 
  113. https://venturebeat.com/2018/05/25/microsoft-is-developing-a-tool-to-help-engineers-catch-bias-in-algorithms/ Microsoft is developing a tool to help engineers catch bias in algorithms
  114. «Facebook says it has a tool to detect bias in its artificial intelligence». Quartz. 3 de mayo de 2018. Archivado desde el original el 5 de marzo de 2023. 
  115. open source Pymetrics audit-ai
  116. https://venturebeat-com.cdn.ampproject.org/c/s/venturebeat.com/2018/05/31/pymetrics-open-sources-audit-ai-an-algorithm-bias-detection-tool/amp/ Pymetrics open-sources Audit AI, an algorithm bias detection tool
  117. https://github.com/dssg/aequitas open source Aequitas: Bias and Fairness Audit Toolkit
  118. https://dsapp.uchicago.edu/aequitas/ Aequitas en University of Chicago
  119. https://www.ibm.com/blogs/research/2018/02/mitigating-bias-ai-models/ Mitigating Bias in AI Models
  120. S. Sen, D. Dasgupta and K. D. Gupta, "An Empirical Study on Algorithmic Bias", 2020 IEEE 44th Annual Computers, Software, and Applications Conference (COMPSAC), Madrid, Spain, 2020, pp. 1189-1194, doi 10.1109/COMPSAC48688.2020.00-95.
  121. Zou, James; Schiebinger, Londa (July 2018). «AI can be sexist and racist — it's time to make it fair». Nature 559 (7714): 324-326. Bibcode:2018Natur.559..324Z. PMID 30018439. doi:10.1038/d41586-018-05707-8. 
  122. Jia, Sen; Welfare, Thomas; Cristianini, Nello (2018). Right for the right reason: Training agnostic networks. International Symposium on Intelligent Data Analysis. Springer. 
  123. Sutton, Adam; Welfare, Thomas; Cristianini, Nello (2018). Biased embeddings from wild data: Measuring, understanding and removing. International Symposium on Intelligent Data Analysis. Springer. 
  124. Koene, Ansgar (June 2017). «Algorithmic Bias: Addressing Growing Concerns [Leading Edge]». IEEE Technology and Society Magazine 36 (2): 31-32. ISSN 0278-0097. doi:10.1109/mts.2017.2697080. Archivado desde el original el July 19, 2018. Consultado el August 1, 2019. 
  125. «P7003 - Algorithmic Bias Considerations». IEEE. Archivado desde el original el December 3, 2018. Consultado el 3 de diciembre de 2018. 
  126. The Internet Society (18 April 2017). «Artificial Intelligence and Machine Learning: Policy Paper». Internet Society. Consultado el 11 February 2020. 
  127. a b c d «White Paper: How to Prevent Discriminatory Outcomes in Machine Learning». World Economic Forum. 12 March 2018. Consultado el 11 February 2020.  Error en la cita: Etiqueta <ref> no válida; el nombre «:2» está definido varias veces con contenidos diferentes
  128. «Explainable Artificial Intelligence». www.darpa.mil. Consultado el 11 de febrero de 2020. 
  129. PricewaterhouseCoopers. «The responsible AI framework». PwC (en inglés británico). Consultado el 11 de febrero de 2020. 
  130. Heald, David (7 de septiembre de 2006). Transparency: The Key to Better Governance? (en inglés). British Academy. ISBN 978-0-19-726383-9. doi:10.5871/bacad/9780197263839.003.0002. 
  131. Kemper, Jakko; Kolkman, Daan (6 de diciembre de 2019). «Transparent to whom? No algorithmic accountability without a critical audience». Information, Communication & Society 22 (14): 2081-2096. ISSN 1369-118X. doi:10.1080/1369118X.2018.1477967. hdl:11245.1/75cb1256-5fe5-4724-9a63-03ef66032d8e. 
  132. «The Toronto Declaration: Protecting the rights to equality and non-discrimination in machine learning systems». Human Rights Watch (en inglés). 3 de julio de 2018. Consultado el 11 de febrero de 2020. 
  133. The Toronto Declaration: Protecting the Right to Equality and Non-Discrimination in Machine Learning Systems. Human Rights Watch. 2018. p. 15. 
  134. Floridi, Luciano; Cowls, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert; Pagallo, Ugo; Rossi, Francesca; Schafer, Burkhard (1 de diciembre de 2018). «AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations». Minds and Machines (en inglés) 28 (4): 703. ISSN 1572-8641. PMC 6404626. PMID 30930541. doi:10.1007/s11023-018-9482-5. 
  135. Crawford, Kate (25 de junio de 2016). «Opinion | Artificial Intelligence's White Guy Problem». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 11 de febrero de 2020. 
  136. «AI Is the Future—But Where Are the Women?». Wired (en inglés). ISSN 1059-1028. Consultado el 11 de febrero de 2020. 
  137. Snow, Jackie. «"We're in a diversity crisis": cofounder of Black in AI on what's poisoning algorithms in our lives». MIT Technology Review (en inglés estadounidense). Consultado el 11 de febrero de 2020. 
  138. Hao, Karen (14 de junio de 2021). «Inside the fight to reclaim AI from Big Tech's control». MIT Technology Review (en inglés estadounidense). Consultado el 21 de junio de 2021. 
  139. Ciston, Sarah (29 de diciembre de 2019). «Intersectional AI Is Essential». Journal of Science and Technology of the Arts (en inglés) 11 (2): 3-8. ISSN 2183-0088. doi:10.7559/citarj.v11i2.665. 
  140. D'Ignazio, Catherine; Klein, Lauren F. (2020). Data Feminism. MIT Press. ISBN 978-0262044004. 
  141. Cave, Stephen; Dihal, Kanta (6 de agosto de 2020). «The Whiteness of AI». Philosophy & Technology (en inglés) 33 (4): 685-703. ISSN 2210-5441. doi:10.1007/s13347-020-00415-6. 
  142. Bondi, Elizabeth; Xu, Lily; Acosta-Navas, Diana; Killian, Jackson A. (2021). «Envisioning Communities: A Participatory Approach Towards AI for Social Good». Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society. pp. 425-436. ISBN 9781450384735. S2CID 233740121. arXiv:2105.01774. doi:10.1145/3461702.3462612. Consultado el 6 de abril de 2023. 
  143. University, Stanford (18 de marzo de 2019). «Stanford University launches the Institute for Human-Centered Artificial Intelligence». Stanford News (en inglés). Consultado el 6 de abril de 2023. 
  144. Bondi, Elizabeth; Xu, Lily; Acosta-Navas, Diana; Killian, Jackson A. (21 de julio de 2021). «Envisioning Communities: A Participatory Approach Towards AI for Social Good». Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society. pp. 425-436. ISBN 9781450384735. S2CID 233740121. arXiv:2105.01774. doi:10.1145/3461702.3462612. 
  145. Bygrave, Lee A (1 de enero de 2001). «AUTOMATED PROFILING: MINDING THE MACHINE: ARTICLE 15 OF THE EC DATA PROTECTION DIRECTIVE AND AUTOMATED PROFILING». Computer Law & Security Review 17 (1): 17-24. ISSN 0267-3649. doi:10.1016/S0267-3649(01)00104-2. Consultado el 18 de noviembre de 2019. 
  146. a b c «Clarity, surprises, and further questions in the Article 29 Working Party draft guidance on automated decision-making and profiling». 
  147. Wachter, Sandra; Mittelstadt, Brent; Floridi, Luciano (1 de mayo de 2017). «Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation». International Data Privacy Law (en inglés) 7 (2): 76-99. ISSN 2044-3994. doi:10.1093/idpl/ipx005. Consultado el 18 de noviembre de 2019. 
  148. Edwards, Lilian; Veale, Michael (23 de mayo de 2017). Slave to the Algorithm? Why a 'Right to an Explanation' Is Probably Not the Remedy You Are Looking For (en inglés) (ID 2972855). Social Science Research Network. Consultado el 18 de noviembre de 2019. 
  149. «The Administration’s Report on the Future of Artificial Intelligence». whitehouse.gov (en inglés). 12 de octubre de 2016. Consultado el 18 de noviembre de 2019. 
  150. «The National Artificial Intelligence Research and Development Strategic Plan». Obama White House Archives: 26. 
  151. Kirchner, Lauren (18 de diciembre de 2017). «New York City Moves to Create Accountability for Algorithms». ProPublica (en inglés). Consultado el 18 de noviembre de 2019. 
  152. «The New York City Council - File #: Int 1696-2017». legistar.council.nyc.gov. Consultado el 18 de noviembre de 2019. 
  153. Powles, Julia (21 de diciembre de 2017). «New York City’s Bold, Flawed Attempt to Make Algorithms Accountable» (en inglés). ISSN 0028-792X. Consultado el 18 de noviembre de 2019. 
  154. «India Weighs Comprehensive Data Privacy Bill, Similar to EU's GDPR». Insurance Journal (en inglés estadounidense). 31 de julio de 2018. Consultado el 18 de noviembre de 2019. 
  155. «The Personal Data Protection Bill, 2018». Ministry of Electronics & Information Technology. 

Véase también

[editar]