Item request has been placed!
×
Item request cannot be made.
×
Processing Request
Artificial Intelligence and inclusion: an analysis of bias against the poor
Item request has been placed!
×
Item request cannot be made.
×
Processing Request
- المؤلفون: Curto Rex, Georgina
- المصدر:
TDX (Tesis Doctorals en Xarxa)- الوصف المادي :
148 p.- الموضوع:
- نوع التسجيلة:
Dissertation/Thesis- اللغة:
English- الدخول الالكتروني :
- المصدر:
- معلومة اضافية
- Contributors: University/Department: Universitat Ramon Llull. IQS
- Thesis Advisors: Comim, Flavio
- بيانات النشر: Universitat Ramon Llull, 2022.
- الموضوع: 2022
- نبذة مختصرة : La filòsofa Adela Cortina va encunyar el terme aporofòbia en 2017 per a descriure per què els estrangers rics són benvinguts mentre que els pobres són ignorats, rebutjats i fins i tot pateixen atacs verbals i físics. Mentre la eradicació de la pobresa és el primer dels Objectius de Desenvolupament Sostenible de les Nacions Unides en l’Agenda 2030, aquesta pràctica discriminatòria ha passat desapercebuda malgrat que constitueix un fre per a l’èxit de les polítiques destinades a mitigar la pobresa i que té efectes devastadors per a la dignitat de les persones afectades. Actualment, la discriminació es produeix tant en l’àmbit tangible com en el digital; l’un reforça l’altre en la realitat onlife. La discriminació dels pobres en l’àmbit digital va acompanyada de factors agreujants perquè, entre altres motius, existeix una sobrevaloració de la informació proporcionada pels models d’intel·ligència artificial (IA), que tanmateix estan entrenats a partir de les dades històriques proporcionades pel comportament dels usuaris online. Mentre els models d’IA repliquen, reforcen i sovint agreugen els patrons de discriminació existents a la societat, els proveïdors d’IA no reconeixen obertament l’existència de biaixos en els seus models i resulta difícil assignar responsabilitats quan els sistemes d’IA aprenen a partir de milions de dades obtingudes d’usuaris anonimitzats. En aquest context, les Directrius Ètiques per a una IA Fiable de la Comissió Europea són part d’un marc regulador per als drets humans bàsics en l’entorn online. Però el personal tècnic especialitzat en IA no té les eines necessàries per a aplicar els principis conceptuals de “diversitat, no discriminació i justícia, incloent la prevenció del biaix injust” en la pràctica quan estan programant els models de IA. D’altra banda, la bibliografia en l’àmbit de la discriminació i IA tracta la temàtica des del punt de vista dels algoritmes y en un entorn controlat, sense recolzar-se en un marc teòric robust que clarifiqui la naturalesa i causes del fenomen i com lidiar amb la discriminació de manera efectiva i realista en el onlife. La necessitat d’un anàlisi acadèmic sobre com identificar i mitigar el biaix és fins i tot més urgent quan la pobresa és el motiu de discriminació, ja que l’aporofòbia no es considera un grup històricament discriminat en el marc europeu per a una IA Fiable ni un “atribut sensible” en la literatura d’IA. En aquest context, aquesta tesi doctoral té el propòsit d’explicar, proporcionar evidència empírica i mitigar el fenomen de l’aporofòbia en el onlife. L’estructura de la tesi doctoral consta dels següents capítols: els capítols 1 i 6 constitueixen la introducció i conclusions de la tesi; el capítol 2 proporciona un marc conceptual de l’aporofòbia, identificant les circumstàncies d’aquesta pràctica discriminatòria; el capítol 3 analitza la relativitat de la percepció de la justícia en IA explica com l’ordre de reconeixement social del capitalisme constitueix un agreujant de l’aporofòbia, afegint l’element de culpa pel fet de ser pobre, i de cóm l’aporofòbia es trasllada a l’àmbit de la IA; el capítol 4 proporciona evidència empírica sobre l’existència de l’apofobòbia en les xarxes social i també en els models de Processament de Llenguatge Natural en IA que s’utilitzen per a desenvolupar aplicacions digitals en sectors tan crítics com són els serveis de salut, educació i justícia; el capítol 5 proporciona un Procés de Mitigació del Biaix en la Intel·ligència Artificial (PMBIA) que té el propòsit d’aplicar el principi d’IA Fiable de “diversitat, no discriminació i justícia, incloent la prevenció del biaix injust” proposant accions pro-ètiques durant cada pas del procés de desenvolupament dels models de IA; per últim, el capítol 6 presenta una de les futures línies de recerca, concretament un enfocament normatiu d’optimització mitjançant IA per a generar simulacions que permetin preveure com l’aporofòbia afecta els nivells de pobresa, proporcionant informació que podria guiar una nova generació de polítiques contra la pobresa, actuant no només a nivell redistributiu sinó també en l’àmbit de la discriminació.
- نبذة مختصرة : La filósofa Adela Cortina acuñó el término aporofobia en 2017 para describir porqué los extranjeros ricos son bienvenidos mientras los pobres son ignorados, rechazados e incluso sufren ataques verbales y físicos. Mientras la erradicación de la pobreza es el primer Objetivo de Desarrollo Sostenible de las Naciones Unidas en la Agenda 2030, esta práctica discriminatoria ha pasado desapercibida a pesar de constituir un freno para el éxito de las políticas destinadas a mitigar la pobreza y tener efectos devastadores para la dignidad de las personas afectadas. Actualmente, la discriminación se produce tanto en el ámbito tangible como en el digital, reforzando uno al otro en la realidad onlife. La discriminación de los pobres en el ámbito digital va acompañada de factores agravantes porque, entre otros motivos, existe una sobrevaloración de la información proporcionada por los modelos de inteligencia artificial (IA), que sin embargo están entrenados a partir de datos históricos proporcionados por el comportamiento de los usuarios online. Mientras los modelos de IA replican, refuerzan y a menudo agravan los patrones de discriminación existentes en la sociedad, los proveedores de IA no reconocen abiertamente la existencia de sesgos en sus modelos y resulta difícil asignar responsabilidades cuando los sistemas de IA aprenden a partir de millones de datos obtenidos de usuarios anonimizados. En este contexto, las Directrices Éticas para IA Fiable de la Comisión Europea son parte de un marco regulador para los derechos humanos básicos en el entorno online. Pero el personal técnico especializado IA no tienen las herramientas necesarias para aplicar principios conceptuales como “diversidad, no discriminación y justicia, incluyendo la prevención del sesgo injusto” en la práctica cuando están programando los modelos de IA. Por otro lado, la bibliografía en el ámbito de discriminación y IA trata la temática desde el punto de vista de los algoritmos y en un entorno controlado, sin apoyarse en un marco ético robusto que clarifique la naturaleza y las causas del fenómeno así como la forma de lidiar con la discriminación de manera efectiva y realista en el onlife. La necesidad de un análisis académico sobre cómo identificar y mitigar el sesgo es incluso más urgente cuando la pobreza es el motivo de discriminación, ya que la aporofobia no se consideran un grupo históricamente discriminado en el marco europeo para una IA Fiable ni como un “atributo sensible” en la literatura de IA. En este contexto, esta tesis doctoral tiene el propósito de explicar, proporcionar evidencia empírica y mitigar el fenómeno de la aporofobia en el onlife. La estructura de la tesis doctoral consta de los siguientes capítulos: los capítulos 1 y 6 constituyen la introducción y conclusiones de la tesis; el capítulo 2 proporciona un marco conceptual de la aporofobia, identificando las circunstancias de esta práctica discriminatoria, el capítulo 3 analiza la relatividad de la percepción de la justicia en IA, explica cómo el orden de reconocimiento social del capitalismo constituye un agravante de la aporofobia, añadiendo el elemento de culpa por el hecho de ser pobre, y cómo la aporofobia se traslada al ámbito de IA; el capítulo 4 proporciona evidencia empírica sobre la existencia de la aporofobia en las redes sociales y también en los modelos de Procesamiento de Lenguaje Natural en IA que se utilizan para desarrollar aplicaciones digitales en sectores tan críticos como son la sanidad, la educación y la justicia; el capítulo 5 proporciona un Proceso de Mitigación del Sesgo en Inteligencia Artificial (PMSIA) que tiene el propósito de aplicar el principio de IA Fiable de “diversidad, no discriminación y justicia, incluyendo la prevención del sesgo injusto” proponiendo acciones pro-éticas durante cada paso del proceso de desarrollo de los modelos de IA; por último el capítulo 6 presenta una de las futuras líneas de investigación, concretamente un enfoque normativo de optimización mediante IA para generar simulaciones que permitan prever cómo la aporofobia afecta los niveles de pobreza, proporcionando información que podría guiar una nueva generación de políticas contra la pobreza, actuando no sólo a nivel redistributivo sino también en el ámbito de la discriminación.
Philosopher Adela Cortina coined the term aporophobia in 2017 to describe why wealthy foreigners are welcome while those that are poor are ignored, rejected and even suffer from verbal and physical attacks. While the eradication of poverty is the first Sustainable Development Goal of the United Nations 2030 Agenda, this discriminatory practice has gone unnoticed despite constituting a brake for the success of the policies aimed at mitigating poverty and having devastating effects for the dignity of the persons affected. Additionally, aporophobia constitutes an aggravating factor for other historically identified kinds of discrimination in terms of gender, ethnic and sexual orientation. In our days, discrimination occurs both in the digital and the tangible world, reinforcing one another in an onlife reality. Discriminating the poor in the digital world, however, has some aggravating factors since, among other reasons, there is an overestimation of the information provided by artificial intelligence (AI) models, which in fact are trained on historical data provided by the users online behavioural data. While AI models replicate, reinforce and often aggravate the discrimination patterns existing in society, AI providers do not publicly acknowledge the existence of bias in their models and it is difficult to define accountability when AI systems learn from millions of data obtained from anonymised users. In this context, the European Commission’s Ethics Guidelines for Trustworthy AI are part of a framework that seeks to regulate basic agreed human rights in the online environment. However, AI practitioners do not know how to apply conceptual principles such as “diversity, non-discrimination and fairness, including the avoidance of unfair bias” in practice when programming the actual AI models. On the other hand, the literature aiming to tackle the discrimination topic in AI, does it from an algorithmic point of view and in controlled environments, without providing a strong ethical framework that clarifies neither the nature, the causes nor a way to effectively and realistically deal with discrimination in the onlife. The need for academic analysis to support the identification and mitigation of aporophobia is even more urgent, since the poor are not considered a historically discriminated group in the EU regulatory framework for Trustworthy AI and poverty is not described as a “sensitive attribute” in AI literature. In this context, this doctoral thesis seeks to explain, provide evidence and mitigate the phenomenon of aporophobia in the onlife. The structure of this doctoral thesis consists on the following chapters: chapters 1 and 7 constitute the introduction and conclusions of the thesis; chapter 2 provides a conceptual framework for aporophobia, identifying the circumstances of this discriminatory practice; chapter 3 analyses the relativeness of the perception of AI fairness, how capitalism social recognition order constitutes an aggravator for aporophobia by adding an element of blame for being poor and how aporophobia is translated into the AI environment; chapter 4 provides empirical evidence of the existence of aporophobia in the social networks and also in AI Natural Language Processing models that are used to develop apps in critical sectors such as health, education and justice; chapter 5 provides a hands-on Artificial Intelligence Bias Mitigation Process (AIBMP) that seeks to apply the Trustworthy AI principle of “diversity, non-discrimination and fairness, including the avoidance of unfair bias” by proposing specific pro-ethical actions within each step of the AI models’ development process; finally chapter 6 presents one of the lines of future research, namely using an AI norm optimisation approach to generate simulations that allow to foresee how aporophobia actually affects poverty levels, providing insights that could guide a new generation of poverty reduction policies, acting not only on redistribution but also on discriminatory issues. - File Description: application/pdf
- Rights: ADVERTIMENT. Tots els drets reservats. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.
- الرقم المعرف: edstdx.10803.674378
- Contributors:
حقوق النشر© 2024، دائرة الثقافة والسياحة جميع الحقوق محفوظة Powered By EBSCO Stacks 3.3.0 [353] | Staff Login
حقوق النشر © دائرة الثقافة والسياحة، جميع الحقوق محفوظة
No Comments.