De sanne farene ved AI er nærmere enn vi tror

Glem superintelligent AI: Algoritmer skaper allerede ekte skade. Den gode nyheten: tilbakekampen har begynt.

21. oktober 2020 william isaac

William Isaac begynte å forske på skjevheter i prediktive politialgoritmer i 2016.David Vintiner

Så lenge mennesker har bygget maskiner, har vi fryktet dagen de kunne ødelegge oss. Stephen Hawking advarte berømt at AI kunne bety en slutt på sivilisasjonen. Men for mange AI-forskere føles disse samtalene ufortøyde. Det er ikke det at de ikke frykter AI som går amok – det er at de ser at det allerede skjer, bare ikke på den måten folk flest forventer.



iq er ikke genetisk

AI screener nå jobbkandidater, diagnostiserer sykdom og identifiserer kriminelle mistenkte. Men i stedet for å gjøre disse beslutningene mer effektive eller rettferdige, opprettholder det ofte skjevhetene til menneskene hvis beslutninger det ble trent på.

Det langsiktige problemet

Denne historien var en del av november 2020-utgaven vår

  • Se resten av saken
  • Abonnere

William Isaac er seniorforsker i etikk- og samfunnsteamet ved DeepMind, en AI-startup som Google kjøpte i 2014. Han er også medleder for konferansen Fairness, Accountability, and Transparency – den fremste årlige samlingen av AI-eksperter, samfunnsvitere, og advokater som jobber på dette området. Jeg spurte ham om de nåværende og potensielle utfordringene som AI-utvikling står overfor – så vel som løsningene.

Spørsmål: Bør vi være bekymret for superintelligent AI?

A: Jeg vil flytte spørsmålet. Truslene overlapper hverandre, enten det er prediktiv politiarbeid og risikovurdering på kort sikt, eller mer skalerte og avanserte systemer på lengre sikt. Mange av disse problemstillingene har også bakgrunn i historien. Så potensielle risikoer og måter å nærme seg dem på er ikke så abstrakte som vi tror.

hva er korket trelast

Det er tre områder jeg vil flagge. Sannsynligvis det mest presserende er dette spørsmålet om verdijustering: hvordan designer man egentlig et system som kan forstå og implementere de ulike formene for preferanser og verdier til en befolkning? De siste årene har vi sett forsøk fra beslutningstakere, industri og andre på å prøve å bygge verdier inn i tekniske systemer i stor skala – på områder som prediktivt politiarbeid, risikovurderinger, ansettelse osv. Det er tydelig at de viser en form for skjevhet som gjenspeiler samfunnet. Det ideelle systemet vil balansere alle behovene til mange interessenter og mange mennesker i befolkningen. Men hvordan forener samfunnet sin egen historie med aspirasjon? Vi sliter fortsatt med svarene, og det spørsmålet kommer til å bli eksponentielt mer komplisert. Å få det riktige problemet er ikke bare noe for fremtiden, men for her og nå.

Den andre ville være å oppnå påviselig sosial fordel. Frem til dette punktet er det fortsatt få empiriske bevis som bekrefter at AI-teknologier vil oppnå den bredbaserte sosiale fordelen som vi streber etter.

Til slutt tror jeg den største som alle som jobber i rommet er bekymret for er: hva er de robuste mekanismene for tilsyn og ansvarlighet.

Spørsmål: Hvordan overvinner vi disse risikoene og utfordringene?

A: Tre områder vil gå langt. Den første er å bygge en kollektiv muskel for ansvarlig innovasjon og tilsyn. Sørg for at du tenker på hvor formene for feiljustering eller skjevhet eller skade finnes. Sørg for å utvikle gode prosesser for hvordan du sikrer at alle grupper er engasjert i prosessen med teknologisk design. Grupper som historisk har vært marginalisert er ofte ikke de som får dekket sine behov. Så hvordan vi designer prosesser for å faktisk gjøre det er viktig.

Den andre akselererer utviklingen av de sosiotekniske verktøyene for å faktisk gjøre dette arbeidet. Vi har ikke mange verktøy.

Den siste gir mer midler og opplæring for forskere og utøvere – spesielt forskere og fargeutøvere – for å utføre dette arbeidet. Ikke bare innen maskinlæring, men også innen STS [vitenskap, teknologi og samfunn] og samfunnsvitenskap. Vi ønsker ikke bare å ha noen få individer, men et fellesskap av forskere for å virkelig forstå spekteret av potensielle skader som AI-systemer utgjør, og hvordan man kan redusere dem.

glød i mørket hund crispr

Spørsmål: Hvor langt har AI-forskere kommet i å tenke på disse utfordringene, og hvor langt må de fortsatt gå?

A: I 2016, husker jeg, hadde Det hvite hus nettopp kommet ut med en stor datarapport, og det var en sterk følelse av optimisme om at vi kunne bruke data og maskinlæring til å løse noen vanskelige sosiale problemer. Samtidig var det forskere i det akademiske miljøet som hadde flagget i en veldig abstrakt forstand: Hei, det er noen potensielle skader som kan gjøres gjennom disse systemene. Men de hadde stort sett ikke samhandlet i det hele tatt. De fantes i unike siloer.

Siden den gang har vi nettopp hatt mye mer forskning rettet mot dette skjæringspunktet mellom kjente feil innenfor maskinlæringssystemer og deres anvendelse i samfunnet. Og når folk begynte å se det samspillet, innså de: Ok, dette er ikke bare en hypotetisk risiko. Det er en reell trussel. Så hvis du ser på feltet i faser, var fase én i stor grad fremhevet og synliggjort at disse bekymringene er reelle. Den andre fasen begynner nå å kjempe med bredere systemiske spørsmål.

Spørsmål: Så er du optimistisk når det gjelder å oppnå bredt basert fordelaktig AI?

Jeg er. De siste årene har gitt meg mye håp. Se på ansiktsgjenkjenning som et eksempel. Det var det store arbeidet til Joy Buolamwini, Timnit Gebru og Deb Raji med å avdekke skjæringsforskjeller i nøyaktighet på tvers av ansiktsgjenkjenningssystemer [dvs. viser at disse systemene var langt mindre nøyaktige på svarte kvinnelige ansikter enn hvite mannlige]. Det er talsmannen som skjedde i sivilsamfunnet for å sette i gang et strengt forsvar av menneskerettighetene mot feil bruk av ansiktsgjenkjenning. Og også det store arbeidet som beslutningstakere, regulatorer og samfunnsgrupper fra grasrota og opp gjorde for å kommunisere nøyaktig hva ansiktsgjenkjenningssystemer var og hvilke potensielle risikoer de utgjorde, og for å kreve klarhet om hva fordelene for samfunnet ville være. Det er en modell for hvordan vi kunne tenke oss å engasjere oss med andre fremskritt innen AI.

Men utfordringen med ansiktsgjenkjenning er at vi måtte bedømme disse etiske og verdimessige spørsmålene mens vi offentlig implementerte teknologien. I fremtiden håper jeg at noen av disse samtalene skjer før de potensielle skadene dukker opp.

Spørsmål: Hva drømmer du om når du drømmer om fremtiden til AI?

A: Det kan være en flott utligner. Som om du hadde AI-lærere eller -veiledere som kunne være tilgjengelige for studenter og lokalsamfunn der tilgangen til utdanning og ressurser er svært begrenset, ville det vært veldig styrkende. Og det er en ikke-triviell ting å ønske seg fra denne teknologien. Hvordan vet du at det er styrkende? Hvordan vet du at det er samfunnsnyttig?

Jeg gikk på forskerskole i Michigan under vannkrisen i Flint. Da de første forekomstene av blyrør dukket opp, var registreringene de hadde for hvor rørsystemene var plassert på kartotekkort i bunnen av en administrativ bygning. Mangelen på tilgang til teknologi hadde satt dem i en betydelig ulempe. Det betyr at menneskene som vokste opp i disse samfunnene, hvorav over 50 % er afroamerikanske, vokste opp i et miljø der de ikke får grunnleggende tjenester og ressurser.

Så spørsmålet er: Hvis det gjøres på riktig måte, kan disse teknologiene forbedre deres levestandard? Maskinlæring var i stand til å identifisere og forutsi hvor blyrørene var, så det reduserte de faktiske reparasjonskostnadene for byen. Men det var et stort foretak, og det var sjeldent. Og som vi vet, har Flint fortsatt ikke fjernet alle rørene, så det er politiske og sosiale utfordringer også - maskinlæring vil ikke løse dem alle. Men håpet er at vi utvikler verktøy som styrker disse fellesskapene og gir meningsfull endring i livene deres. Det er det jeg tenker på når vi snakker om det vi bygger. Det er det jeg vil se.

gjemme seg