Colorado er først i landet til å vedta lovgivning som takler AI-bias

De første forsøkene på å regulere kunstig intelligens-programmer som spiller en skjult rolle i ansettelse, bolig og medisinske avgjørelser for millioner av amerikanere står overfor press fra alle kanter og flyr rundt i statshus over hele landet.

Bare ett av syv lovforslag som tar sikte på å forhindre AIs tilbøyelighet til å diskriminere når de tar konsekvensbeslutninger – inkludert hvem som blir ansatt, penger til et hjem eller medisinsk behandling – har vedtatt. Colorado-guvernør Jared Polis signerte nølende lovforslaget fredag.

Colorados lovforslag og de som vaklet i Washington, Connecticut og andre steder møtte kamper på mange fronter, inkludert mellom borgerrettighetsgrupper og teknologiindustrien, og lovgivere som var forsiktige med å vasse inn i en teknologi få ennå forstår, og guvernører bekymret for å være den odde-staten-out og skremmende AI-startups.

Polis signerte Colorados lovforslag «med forbehold», og sa i en uttalelse at han var på vakt mot reguleringer som svekker AI-innovasjon. Lovforslaget har en toårig rullebane og kan endres før det blir lov.

«Jeg oppfordrer (lovgivere) til å forbedre dette betydelig før det trer i kraft,» skrev Polis.

Colorados forslag, sammen med seks søsterregninger, er komplekst, men vil stort sett kreve at selskaper vurderer risikoen for diskriminering fra deres AI og informerer kundene når AI ble brukt for å ta en konsekvensbeslutning for dem.

Lovforslagene er atskilt fra mer enn 400 AI-relaterte lovforslag som har vært debattert i år. De fleste er rettet mot deler av AI, for eksempel bruk av dype forfalskninger i valg eller for å lage pornografi.

De syv lovforslagene er mer ambisiøse, gjelder på tvers av store industrier og retter seg mot diskriminering, et av teknologiens mest perverse og komplekse problemer.

«Vi har faktisk ingen innsyn i algoritmene som brukes, enten de fungerer eller ikke, eller om vi blir diskriminert,» sa Rumman Chowdhury, AI-utsending for det amerikanske utenriksdepartementet som tidligere ledet Twitters AI-etikkteam .

Et annet beist

Mens antidiskrimineringslover allerede er på bok, sier de som studerer AI-diskriminering at det er et annet beist, som USA allerede står bak når det gjelder å regulere.

«Datamaskinene tar partiske beslutninger i stor skala,» sa Christine Webber, en borgerrettighetsadvokat som har jobbet med gruppesøksmål om diskriminering, inkludert mot Boeing og Tyson Foods. Nå nærmer Webber seg endelig godkjenning av et av de første oppgjørene i et gruppesøksmål om AI-diskriminering.

«Ikke, jeg skal si, at de gamle systemene var helt fri for skjevhet heller,» sa Webber. Men «en person kunne bare se på så mange CVer i løpet av dagen. Så du kan bare ta så mange partiske beslutninger på en dag, og datamaskinen kan gjøre det raskt på tvers av et stort antall mennesker.»

Når du søker på en jobb, en leilighet eller et boliglån, er det en god sjanse for at AI vurderer søknaden din: sender den opp, tildeler den en poengsum eller filtrerer den ut. Det er anslått at så mange som 83% av arbeidsgivere bruker algoritmer for å hjelpe til med å ansette, ifølge Equal Employment Opportunity Commission.

AI selv vet ikke hva de skal se etter i en jobbsøknad, så det undervises basert på tidligere CV. De historiske dataene som brukes til å trene algoritmer kan smugle inn skjevhet.

Amazon jobbet for eksempel med en ansettelsesalgoritme som ble trent på gamle CV-er: stort sett mannlige søkere. Ved vurdering av nye søkere, nedgraderte den CV-er med ordet «kvinners» eller som oppførte kvinnehøgskoler fordi de ikke var representert i de historiske dataene – CV-ene – den hadde lært av. Prosjektet ble forkastet.

Webbers gruppesøksmål hevder at et AI-system som skårer leiesøknader uforholdsmessig tildelt lavere poengsum til svarte eller latinamerikanske søkere. En studie fant at et AI-system bygget for å vurdere medisinske behov gikk over svarte pasienter for spesiell omsorg.

Studier og søksmål har gitt et glimt under panseret av AI-systemer, men de fleste algoritmer forblir tilslørt. Amerikanerne er stort sett uvitende om at disse verktøyene blir brukt, viser meningsmåling fra Pew Research. Bedrifter er vanligvis ikke pålagt å eksplisitt opplyse om at en AI ble brukt.

«Bare å trekke forhenget tilbake slik at vi kan se hvem som virkelig gjør vurderingen og hvilket verktøy som brukes er et stort, stort første skritt,» sa Webber. «De eksisterende lovene fungerer ikke hvis vi ikke kan få i det minste noen grunnleggende informasjon.»

Det er det Colorados regning, sammen med en annen overlevende regning i California, prøver å endre. Lovforslagene, inkludert et flaggskipforslag i Connecticut som ble drept under motstand fra guvernøren, er stort sett like.

Colorados lovforslag vil kreve at selskaper som bruker AI hjelper til med å ta konsekvensbeslutninger for amerikanere å årlig vurdere deres AI for potensiell skjevhet; implementere et tilsynsprogram i selskapet; fortelle statsadvokaten hvis det ble funnet diskriminering; og informere kundene når en AI ble brukt for å hjelpe dem med å ta en avgjørelse for dem, inkludert en mulighet til å anke.

Fagforeninger og akademikere frykter at en avhengighet av selskaper som fører tilsyn med seg selv betyr at det vil være vanskelig å proaktivt ta opp diskriminering i et AI-system før det er gjort skade. Bedrifter er redde for at tvungen åpenhet kan avsløre forretningshemmeligheter, inkludert i potensielle rettssaker, i dette hyperkonkurransedyktige nye feltet.

AI-selskaper presset også på for, og mottok generelt, en bestemmelse som bare lar riksadvokaten, ikke borgere, reise søksmål under den nye loven. Håndhevingsdetaljer er overlatt til riksadvokaten.

Mens større AI-selskaper mer eller mindre har vært med på disse forslagene, sa en gruppe mindre Colorado-baserte AI-selskaper at kravene kan være håndterbare av store AI-selskaper, men ikke av spirende startups.

«Vi er inne i en helt ny æra av ursuppe,» sa Logan Cerkovnik, grunnlegger av Thumper.ai, med henvisning til AI-feltet. «Å ha altfor restriktiv lovgivning som tvinger oss inn i definisjoner og begrenser vår bruk av teknologi mens dette dannes, vil bare være skadelig for innovasjon.»

Alle var enige, sammen med mange AI-selskaper, at det som formelt kalles «algoritmisk diskriminering» er avgjørende å takle. Men de sa at regningen slik den er skrevet, ikke når det målet. I stedet foreslo de å styrke eksisterende antidiskrimineringslover.

Chowdhury bekymrer seg for at søksmål er for kostbare og tidkrevende til å være et effektivt håndhevingsverktøy, og lover bør i stedet gå utover det til og med Colorado foreslår. I stedet har Chowdhury og akademikere foreslått en akkreditert, uavhengig organisasjon som eksplisitt kan teste for potensiell skjevhet i en AI-algoritme.

«Du kan forstå og håndtere en enkelt person som er diskriminerende eller partisk,» sa Chowdhury. «Hva gjør vi når det er innebygd i hele institusjonen?»

___

Bedayn er korpsmedlem for Associated Press/Report for America Statehouse News Initiative. Rapport for Amerika er et nonprofit nasjonalt tjenesteprogram som plasserer journalister i lokale redaksjoner for å rapportere om skjulte saker.

Rating
( No ratings yet )
admin/ author of the article
Loading...