نبذة مختصرة : Studien undersöker hur bias uppstår och manifesteras i datadrivna system. Genom att applicera Lopez(2021) teoretiska ramverk delas bias in i tre nivåer: 1. Teknisk bias: Hur homogeniteten iträningsdatan, framför allt med överrepresentation av västerländska prover, kan leda till överanpassademodeller som ger felaktiga prediktioner, 2. Socioteknisk bias: Hur den tekniska snedvridningen kanintegreras i myndighetsutövningen och systemets beslutsprocesser, vilket i sin tur kan förstärkaojämlikheter och snedvridna bedömningar, 3. Social bias: Hur de felaktiga prediktionerna riskerar attleda till oönskade, diskriminerande konsekvenser för asylsökande, där felklassificeringar kan påverkarättssäkerheten.För att tillämpa det teoretiska ramverket appliceras den på en fallstudie; den datadrivna processen föråldersbedömning med hjälp av den epigenetiska klockan, som presenteras i Varshavsky m.fl. (2023).Studien jämför traditionella medicinska metoder för åldersbedömning, såsom röntgenbaseradebedömningar av tänder och knän, med den nya teknologin utnyttjar maskininlärningsmetoder(exempelvis Gaussian Process Regression) för att förutsäga kronologisk ålder utifrån epigenetiskamarkörer, Varshavsky m. fl (2023). Trots metodens höga precision under kontrollerade förhållandenbelyser studien att ett ensidigt och homogent dataset kan leda till snedvridna resultat vid praktisktillämpning i asylprocessen. Huvudsakligen belyser studien hur teknisk bias kan uppstå samt hur denkan leda till socioteknisk och social bias eller avtäcka den redan existerande sociotekniska ochsamhälleliga snedvridning som låg till grund för den tekniska biasen.
The study investigates how bias arises and manifests in data-driven systems. Applying Lopez's(2021) theoretical framework, bias is divided into three levels: 1. Technical bias: How the homogeneity of the training data, especially with overrepresentation of Western samples, can lead to overfitting models that produce incorrect predictions, 2. Socio-technical bias: How the technical bias canbe integrated into the exercise of authority and the system's decision-making processes, which in turn can reinforce inequalities and biased assessments, 3. Social bias: How the incorrect predictions risk leading to undesirable, discriminatory consequences for asylum seekers, where misclassifications can affect legal certainty.To apply the theoretical framework, it is applied to a case study; the data-driven process ofage assessment using the epigenetic clock, as presented in Varshavsky et al. (2023). The study compares traditional medical methods of age assessment, such as X-ray-basedassessments of teeth and bones, with the new technology utilizing machine learning methods(e.g. Gaussian Process Regression) to predict chronological age based on epigeneticmarkers, Varshavsky et al. (2023). Despite the high precision of the method under controlled conditions, the study highlights that a biased and homogeneous dataset can lead to biased results in practical application in the asylum process. Mainly, the study highlights how technological bias can arise and how itcan lead to socio-technical and social bias or uncover the already existing socio-technical andsocietal bias that underpinned the technological bias.
No Comments.