Alexandria Ocasio-Cortez siger, at algoritmer kan være racistiske. Her er hvorfor hun har ret.

  • Rudolf Cole
  • 0
  • 2509
  • 679

I sidste uge kom den nyvalgte amerikanske Rep. Alexandria Ocasio-Cortez overskrifter, da hun sagde som en del af den fjerde årlige MLK Now-begivenhed, at ansigtsgenkendelsesteknologier og algoritmer "altid har disse racemæssige uligheder, der bliver oversat, fordi algoritmer stadig oprettes af mennesker, og disse algoritmer er stadig knyttet til grundlæggende menneskelige antagelser. De er bare automatiserede. Og automatiserede antagelser - hvis du ikke løser biasen, automatiserer du bare biasen. "

Betyder det, at algoritmer, der teoretisk er baseret på de objektive sandheder i matematik, kan være "racistiske?" Og hvis ja, hvad kan der gøres for at fjerne denne bias? [De 11 smukkeste matematiske ligninger]

Det viser sig, at output fra algoritmer faktisk kan give partiske resultater. Dataforskere siger, at computerprogrammer, neurale netværk, maskinlæringsalgoritmer og kunstig intelligens (AI) fungerer, fordi de lærer at opføre sig ud fra de data, de får. Software er skrevet af mennesker, der har bias, og træningsdata genereres også af mennesker, der har bias.

De to faser i maskinlæring viser, hvordan denne bias kan krybe ind i en tilsyneladende automatiseret proces. I den første fase, træningstrinnet, lærer en algoritme baseret på et datasæt eller på bestemte regler eller begrænsninger. Den anden fase er inferensfasen, hvor en algoritme anvender det, den har lært i praksis. Denne anden fase afslører en algoritmes forspændinger. For eksempel, hvis en algoritme trænes med billeder af kun kvinder, der har langt hår, vil den tro, at enhver med kort hår er en mand.

Google kom berygtet under ild i 2015, da Google Fotos mærkede sorte mennesker som gorillaer, sandsynligvis fordi det var de eneste mørkhudede væsener i træningssættet.

Og bias kan krybe ind gennem mange veje. ”En almindelig fejltagelse er at uddanne en algoritme til at tage forudsigelser baseret på tidligere beslutninger fra partiske mennesker,” fortalte Sophie Searcy, en senior datavidenskabsmand ved data-science-training bootcamp Metis. "Hvis jeg laver en algoritme til at automatisere beslutninger, der tidligere var truffet af en gruppe af låneansvarlige, tager jeg måske den lette vej og træner algoritmen om tidligere beslutninger fra disse låneansvarlige. Men så, selvfølgelig, hvis disse låneansvarlige var partiske, så den algoritme, jeg bygger, vil fortsætte disse forspændinger. "

Searcy citerede eksemplet på COMPAS, et forudsigeligt værktøj, der bruges i hele det amerikanske strafferetssystem til straffedom, som forsøger at forudsige, hvor kriminalitet vil finde sted. ProPublica foretog en analyse af COMPAS og fandt, at værktøjet efter kontrol med andre statistiske forklaringer overvurderede risikoen for recidivisme for sorte tiltalte og undervurderede konsekvent risikoen for hvide tiltalte..

For at hjælpe med at bekæmpe algoritmiske fordrejninger, fortalte Searcy, skulle ingeniører og dataforskere bygge mere forskelligartede datasæt til nye problemer samt forsøge at forstå og afbøde den bias, der er indbygget i eksisterende datasæt.

Først og fremmest, sagde Ira Cohen, en dataforsker hos forudsigende analysefirma Anodot, ingeniører skulle have et træningssæt med relativt ensartet repræsentation af alle befolkningstyper, hvis de træner en algoritme til at identificere etniske eller kønsattributter. "Det er vigtigt at repræsentere nok eksempler fra hver befolkningsgruppe, selvom de er et mindretal i den samlede befolkning, der undersøges," fortalte Cohen. Endelig anbefaler Cohen at kontrollere for forudindtægter på et testsæt, der inkluderer mennesker fra alle disse grupper. "Hvis nøjagtigheden for et bestemt løb statistisk er signifikant lavere end de andre kategorier, kan algoritmen muligvis have en bias, og jeg vil evaluere de træningsdata, der blev brugt til det," fortalte Cohen til LiveScience. For eksempel, hvis algoritmen korrekt kan identificere 900 ud af 1.000 hvide ansigter, men korrekt registrerer kun 600 ud af 1.000 asiatiske ansigter, kan algoritmen muligvis have en bias "mod" asiater, tilføjede Cohen.

Fjernelse af bias kan være utroligt udfordrende for AI.

Selv Google, der betragtes som en forløber inden for kommerciel AI, kunne tilsyneladende ikke komme med en omfattende løsning på dets gorilla-problem fra 2015. Wired fandt, at i stedet for at finde en måde for dens algoritmer at skelne mellem mennesker af farve og gorillaer, blokerede Google simpelthen dets billedgenkendelsesalgoritmer fra identificering af gorillaer overhovedet.

Googles eksempel er en god påmindelse om, at træning af AI-software kan være en vanskelig øvelse, især når software ikke testes eller trænes af en repræsentativ og forskelligartet gruppe af mennesker.

  • Kunstig intelligens: Venlig eller skræmmende?
  • Super-intelligente maskiner: 7 robotfutures
  • 10 skøre nye færdigheder, som robotter plukket op i 2018

Oprindeligt offentliggjort den .




Endnu ingen kommentarer

De mest interessante artikler om hemmeligheder og opdagelser. Masser af nyttige oplysninger om alt
Artikler om videnskab, rum, teknologi, sundhed, miljø, kultur og historie. Forklare tusinder af emner, så du ved, hvordan alt fungerer