Dårlige Nyheder: Kunstig Intelligens Er Racistisk, Også

{h1}

Kunstig intelligens, der lærer af sprog, repræsenterer verden præcist - selv fordommene og forstyrrer mennesker hold.

Da Microsoft udgav en kunstigt intelligent chatbot ved navn Tay på Twitter i marts sidste år, tog tingene en forudsigelig katastrofal tur. Inden for 24 timer spydede boten racistiske, neo-nazistiske rants, hvoraf mange hentede ved at indarbejde sproget for Twitter-brugere, der interagereede med det.

Desværre finder ny forskning, at Twitter trolde ikke er den eneste måde, hvorpå AI-enheder kan lære racistisk sprog. Faktisk vil enhver kunstig intelligens, der lærer af menneskers sprog, sandsynligvis komme til at være forskudt på samme måde som mennesker er, ifølge forskerne.

Forskerne eksperimenterede med et udbredt maskinelæringssystem kaldet Global Vectors for Word Representation (GloVe) og fandt ud af, at enhver slags menneskelig bias de testede dukkede op i det kunstige system. [Super-Intelligent Machines: 7 Robotic Futures]

"Det var forbløffende at se alle de resultater, der blev indlejret i disse modeller," siger Aylin Caliskan, en postdoktorale forsker i datalogi på Princeton University. Selv AI-enheder, der er "trænet" på formodede neutrale tekster som Wikipedia eller nyhedsartikler, kom til at afspejle fælles menneskelige biaser, fortalte hun WordsSideKick.com.

Indbyggede forspændinger

GloVe er et værktøj, der bruges til at uddrage foreninger fra tekster - i dette tilfælde er et standardkorpus af sprog trukket fra World Wide Web.

Psykologer har længe vidst, at den menneskelige hjerne gør foreninger mellem ord baseret på deres underliggende betydning. Et værktøj kaldet Implicit Association Test bruger reaktionstider til at demonstrere disse foreninger: Folk ser et ord som "påskelilje" sammen med hyggelige eller ubehagelige begreber som "smerte" eller "skønhed" og skal hurtigt knytte vilkårene ved hjælp af en nøglepresse. Ikke overraskende er blomster hurtigere forbundet med positive begreber; mens våben, for eksempel, er hurtigere forbundet med negative begreber.

IAT kan bruges til at afsløre ubevidste foreninger folk gør om sociale eller demografiske grupper også. F.eks. Er nogle IAT'er, der er tilgængelige på webstedet Project Implicit, fundet, at folk er mere tilbøjelige til automatisk at forbinde våben med sorte amerikanere og harmløse objekter med hvide amerikanere.

Der er debatter om, hvad disse resultater betyder, har forskere sagt. Gør folk disse foreninger, fordi de har personlige, dybtliggende sociale forstyrrelser, de ikke er opmærksomme på, eller absorberer de dem fra sprog, der statistisk set er mere tilbøjelige til at lægge negative ord i tæt samarbejde med etniske minoriteter, ældre og andre marginaliserede grupper?

Digitale stereotyper

Caliskan og hendes kolleger udviklede en IAT for computere, som de kaldte WEAT, til Word-Embedding Association Test. Denne test måler styrken af ​​foreninger mellem ord som repræsenteret af GloVe, meget som IAT måler styrken af ​​ordforeninger i den menneskelige hjerne.

For hver association og stereotype testet, returnerede WEAT de samme resultater som IAT. Maskinindlæringsværktøjet gengiver menneskelige foreninger mellem blomster og behagelige ord; insekter og ubehagelige ord; musikinstrumenter og behagelige ord; og våben og ubehagelige ord. I et mere foruroligende fund oplevede det europæisk-amerikanske navne som mere behageligt end afrikansk-amerikanske navne. Det associerede også mandlige navne lettere med karrieremæssige ord, og kvindelige navne lettere med familieord. Mænd var tættere forbundet med matematik og videnskab og kvinder med kunst. Navne i forbindelse med gamle mennesker var mere ubehagelige end navne i forbindelse med unge mennesker.

"Vi var helt overraskede over, at vi kunne replikere hver eneste IAT, der tidligere blev udført af millioner," sagde Caliskan.

Ved hjælp af en anden metode, der var ens, fandt forskerne også, at maskinindlæringsværktøjet var i stand til nøjagtigt at repræsentere fakta om verden fra sine semantiske foreninger. Sammenligning af GloVe-ordindlejringsresultaterne med den reelle amerikanske arbejdsstatistikkoplysninger om procentdelen af ​​kvinder i erhverv, fandt Caliskan en 90 procent sammenhæng mellem erhverv, som GloVe så som "kvindelig" og den faktiske procentdel af kvinder i disse erhverv.

Programmer, der lærer fra menneskers sprog, får med andre ord "en meget præcis repræsentation af verden og kulturen", sagde Caliskan, selvom den kultur - som stereotyper og fordomme - er problematisk. AI er også dårligt i forståelseskontekst, at mennesker forstår let. For eksempel vil en artikel om Martin Luther King Jr. fængslet for civilretlige protester i Birmingham, Alabama i 1963 sandsynligvis forbinde en masse negative ord med afroamerikanere. Et menneske ville med rimelighed fortolke historien som en retfærdig protest af en amerikansk helt; en computer ville tilføje en anden tally til sin "black = fængsel" kategori.

Beholdningsnøjagtighed, mens man får AI-værktøjer til at forstå retfærdighed, er en stor udfordring, siger Caliskan. [En kort historie om kunstig intelligens]

"Vi tror ikke, at fjerne bias nødvendigvis ville løse disse problemer, fordi det sandsynligvis vil bryde den nøjagtige repræsentation af verden," sagde hun.

Unbiasing AI

Den nye undersøgelse, der blev offentliggjort online i dag (12. april) i tidsskriftet Science, er ikke overraskende, sagde Sorelle Friedler, computerforsker ved Haverford College, der ikke var involveret i forskningen.Det er dog vigtigt, sagde hun.

"Dette bruger en standard underliggende metode, som mange systemer derefter bygges ud af," fortalte Friedler WordsSideKick.com. Med andre ord vil biases sandsynligvis infiltrere ethvert AI, der bruger GloVe, eller det lærer fra menneskers sprog generelt.

Friedler er involveret i et voksende forskningsområde kaldet Fairness, Accountability og Transparency in Machine Learning. Der er ingen nemme måder at løse disse problemer på, sagde hun. I nogle tilfælde kan programmører muligvis udtrykkeligt fortælle systemet automatisk at ignorere specifikke stereotyper, sagde hun. Under alle omstændigheder, der involverer nuance, kan mennesker være nødt til at blive sløjet ind for at sikre, at maskinen ikke kører amok. Løsningerne vil sandsynligvis variere afhængigt af, hvad AI er designet til at gøre, siger Caliskan - er de til søgninger, til beslutningstagning eller for noget andet?

Hos mennesker er de implicitte holdninger ikke korreleret meget stærkt med eksplicitte holdninger til sociale grupper. Psykologer har argumenteret for, hvorfor dette er: Skal folk bare holde mum om deres fordomme for at undgå stigma? Gør IAT'en faktisk ikke fordomme så godt? Men det ser ud til, at folk i det mindste har evnen til at redegøre for rigtigt og forkert, med deres forspændte foreninger, sagde Caliskan. Hun og hendes kolleger mener, at mennesker bliver nødt til at være involveret - og programmeringskoden skal være gennemsigtig - så folk kan lave værdidomme om maskinens retfærdighed.

"I en forudindtaget situation ved vi, hvordan vi træffer den rigtige beslutning," sagde Caliskan, "men desværre er maskiner ikke selvbevidste."

Originalartikel om WordsSideKick.com.


Video Supplement: .




DA.WordsSideKick.com
All Rights Reserved!
Reproduktion Af Materialer Tilladt Kun Prostanovkoy Aktivt Link Til Webstedet DA.WordsSideKick.com

© 2005–2019 DA.WordsSideKick.com