Kuinka National Science Foundation suhtautuu oikeudenmukaisuuteen tekoälyssä

Suurin osa tekoälypolitiikkaa koskevasta julkisesta keskustelusta keskittyy toiseen kahdesta näkökulmasta: miten hallitus voi tukea tekoälyinnovaatioita ja miten hallitus voi estää sen haitallista tai huolimatonta käyttöä. Silti myös hallituksella voi olla rooli tekoälyn hyödyllisen käytön helpottamisessa – National Science Foundation (NSF) on löytänyt tavan osallistua tähän markkinarakoon. Fairness in Artificial Intelligence (FAI) -nimisen apurahaohjelman kautta NSF tarjoaa 20 miljoonan dollarin rahoitusta tutkijoille, jotka työskentelevät tekoälyn vaikeiden eettisten ongelmien parissa. Ohjelma, yhteistyössä Amazonin kanssa, on nyt rahoittanut 21 hanketta kahden ensimmäisen vuoden aikana kutsu hakea kolmantena ja viimeisenä vuonna. Tämä on tärkeä pyrkimys, joka edistää liittovaltion tukea teknologian vastuulliseen kehittämiseen, ja NSF:n tulisi jatkaa tätä tärkeää eettisen tekoälyn rahoituslinjaa.

Mikä on NSF:n Fairness in AI -ohjelma?

FAI-ohjelma on investointi siihen, mitä NSF kutsuu käyttövaikutteinen tutkimus , jossa tutkijat yrittävät käsitellä peruskysymyksiä todellisen maailman haasteiden ja pakottavien tieteellisten rajoitusten inspiroimana. Käyttövaikutteinen tutkimus on vaihtoehto perinteiselle perustutkimukselle, joka pyrkii saavuttamaan perustavanlaatuista edistystä tieteellisessä ymmärryksessä ilman välttämättä erityistä käytännön tavoitetta. NSF tunnetaan paremmin tietojenkäsittelytieteen perustutkimuksestaan, jossa NSF tarjoaa 87 % kaikesta liittovaltion perustutkimuksen rahoituksesta. Näin ollen FAI-ohjelma on suhteellisen pieni osa NSF:n kokonaisinvestoinneista tekoälyyn – noin 3,3 miljoonaa dollaria vuodessa, kun otetaan huomioon, että Amazon kattaa puolet kustannuksista. Kaiken kaikkiaan NSF pyysi 868 miljoonaa dollaria tekoälyn menoissa noin 10 % sen koko budjetista vuodelle 2021, ja kongressi hyväksyi joka pennin . Erityisesti tämä on laaja määritelmä tekoälyn kulutukselle, joka sisältää monia tekoälyn sovelluksia muille aloille, eikä itse tekoälyn perustavanlaatuisia edistysaskeleita, jotka ovat todennäköisesti lähempänä 100 tai 150 miljoonaa dollaria karkean arvion mukaan.

FAI-ohjelma on suunnattu nimenomaan oikeudenmukaisuuden eettiseen periaatteeseen – tästä valinnasta lisää hetken kuluttua. Vaikka tämä saattaa tuntua epätavalliselta, ohjelma on jatkoa aiemmalle valtion rahoittamalle tutkimukselle teknologian moraalisista vaikutuksista ja seurauksista. 1970-luvulta lähtien liittovaltio aloitti aktiivisesti muokkaamassa bioetiikan tutkimusta sisään vastaus julkisuuteen AP:n Tuskegee-syfilistutkimuksen raportin jälkeen. Vaikka alkuperäiset ponnistelut saattoivat olla taantumuksellisia, ne johtivat vuosikymmenten työskentelyyn biolääketieteen tieteiden parantamiseksi. Vuonna 1990 Human Genome Projectin rinnalla käynnistettiin laaja tutkimuslinja suuntautunut genomiikan eettisiin, oikeudellisiin ja sosiaalisiin vaikutuksiin. Vuodesta 2018 alkaen NSF on rahoittanut 21 tutkimusapurahaa vaikutuksesta AI yhteiskunnassa , nykyisen FAI-ohjelman edeltäjä. Tänä päivänä on mahdollista vetää karkea trendiviiva näiden pyrkimysten kautta, jolloin hallitus on alkanut keskittyä enemmän ensin puhtaaseen tieteeseen, sitten tieteellisen prosessin etiikkaan ja nyt itse tieteen eettisiin tuloksiin. Tämä on myönteinen kehitys, jota kannattaa rohkaista.



Keskittyminen oikeudenmukaisuuteen

NSF teki tietoisen päätöksen keskittyä oikeudenmukaisuuteen muiden yleisten teemojen, kuten luotettavuuden tai ihmiskeskeisen suunnittelun, sijaan. Tri Erwin Gianchandani, NSF:n apulaisjohtaja, on kuvattu FAI:n toimialueen neljä ongelmaluokkaa, ja ne voidaan helposti yhdistää nykyisiin ja jatkuviin tekoälyn haasteisiin. Ensimmäinen luokka keskittyy monia ristiriitaisia ​​matemaattisia määritelmiä oikeudenmukaisuudesta ja epäselvyys, mitkä ovat sopivia missä yhteyksissä. Yksi rahoitettu hanke tutki ihmisten käsityksiä siitä, mitkä oikeudenmukaisuusmittarit ovat sopivimpia algoritmille takuita koskevien päätösten yhteydessä – sama sovellus pahamaineinen COMPAS-algoritmi . Tutkimuksessa kävi ilmi, että kyselyyn vastanneet pitivät hieman parempana algoritmia, jossa oli johdonmukainen määrä vääriä positiivisia tuloksia (kuinka monta ihmistä tarpeettomasti pidettiin vankilassa oikeudenkäynnin aikana) kahden roturyhmän välillä sen sijaan, että algoritmi olisi yhtä tarkka molemmille roturyhmille. Erityisesti tämä on päinvastainen COMPAS-algoritmin laatu, joka oli kohtuullinen kokonaistarkkuudeltaan, mutta johti enemmän vääriin positiivisiin mustien vastaajien kohdalla.

Toinen luokka, Gianchandani kirjoittaa, on ymmärtää, kuinka tekoälyjärjestelmä tuottaa tietyn tuloksen. NSF näkee tämän liittyvän suoraan oikeudenmukaisuuteen, koska antamalla loppukäyttäjälle enemmän tietoa tekoälyn päätöksestä, he voivat kyseenalaistaa päätöksen. Tämä on tärkeä seikka – oletusarvoisesti tekoälyjärjestelmät peittävät päätöksentekoprosessin luonteen ja vaikeuttavat yksilön prosessia. Ehkä uusin NSF FAI:n rahoittama projekti yrittää testata elinkelpoisuutta tekoälyjärjestelmien joukkolähdetarkastuksia . Joukkolähdeisessä auditoinnissa monet henkilöt saattavat rekisteröityä työkaluun, esimerkiksi verkkosivustoon tai verkkoselainlaajennukseen, joka kerää tietoja siitä, kuinka online-AI-järjestelmä kohteli näitä henkilöitä. Yhdistämällä nämä tiedot joukko voi määrittää, onko algoritmi syrjivä, mikä olisi toiminnallisesti mahdotonta kenellekään yksittäiselle käyttäjälle.

Kolmannessa kategoriassa pyritään käyttämään tekoälyä tekemään olemassa olevista järjestelmistä oikeudenmukaisempia, mikä on erityisen tärkeä tehtävä, sillä hallitukset ympäri maailmaa jatkavat pohtimista, voisiko tekoälyjärjestelmiä sisällyttää julkisiin palveluihin ja miten. Yksi New Yorkin yliopiston tutkijoiden projekti pyrkii osittain vastaamaan oikeudenmukaisuuden haasteeseen, kun algoritmia käytetään ihmisen päätöksentekijän tukena. Tämä on ehkä saanut inspiraationsa tuoreesta Tuomareiden arviointi algoritmisten riskinarviointien avulla Virginiassa, jossa todettiin, että algoritmi ei parantanut yleistä turvallisuutta ja sillä oli tahaton vaikutus nuorten syytettyjen vangitsemiseen. NYU:n tutkijoilla on mielessään samanlainen haaste – kehittää työkalu, jolla tunnistetaan ja vähennetään systeemisiä ennakkoluuloja piirilakimiesten tekemissä syyttäjäpäätöksissä.

Neljäs luokka on ehkä intuitiivisin, sillä sen tarkoituksena on poistaa tekoälyjärjestelmien harha tai vaihtoehtoisesti varmistaa, että tekoälyjärjestelmät toimivat yhtä hyvin kaikille. Eräässä hankkeessa pyritään luomaan yhteisiä arviointimittoja luonnollisen kielen käsittelyä varten, jotta niiden tehokkuutta voidaan verrata keskenään monia eri kieliä , auttaa voittamaan likinäköisen keskittymisen englannin kieleen. Muut hankkeet tarkastelevat oikeudenmukaisuutta vähemmän tutkituissa menetelmissä, kuten verkkoalgoritmit , ja vielä enemmän parannettavaa tietyissä sovelluksissa, kuten lääketieteelliset ohjelmistot ja algoritminen palkkaaminen . Nämä kaksi viimeistä ovat erityisen huomionarvoisia, koska vallitsevat julkiset todisteet viittaavat siihen, että algoritmi vääristää terveydenhuollon ydinhuolto ja palkkaaminen on yleistä.

Yrityskumppanuuden kompromissit

Kriitikot voivat valittaa, että Big Tech, joka esittää a merkittävä rooli tekoälytutkimuksessa , on mukana myös tässä liittovaltion ohjelmassa – Amazon tukee NSF:n tukea, joten jokainen organisaatio maksaa noin 10 miljoonaa dollaria. Ei kuitenkaan ole mitään syytä uskoa, että NSF:n riippumattomuus olisi vaarantunut. Amazonilla ei ole mitään roolia apurahahakemusten valinnassa, eikä kenelläkään apurahansaajista, joihin oli otettu yhteyttä, ollut huolia apurahojen valintaprosessista. NSF-virkailijat huomauttivat myös, että kaikki toimiva yhteistyö Amazonin kanssa (kuten teknisen tuen saaminen) on täysin valinnaista. Tietenkin kannattaa pohtia, mitä Amazonilla on tästä kumppanuudesta hyötyä. Lukemalla FAI:n ilmoitus Se osoittaa, että ohjelma pyrkii edistämään luotettavia tekoälyjärjestelmiä, jotka hyväksytään helposti, ja että projektit mahdollistavat tekoälyjärjestelmien laajemman hyväksynnän. Ei ole mikään salaisuus, että nykyinen suurten teknologiayritysten sukupolvi hyötyisi valtavasti yleisön lisääntyneestä luottamuksesta tekoälyyn. Silti yritysten rahoitus aidosti riippumattomaan tutkimukseen on hyvä ja moitteeton – varsinkin suhteessa muihin vaihtoehtoihin, kuten yrityksiin suoraa rahoitusta akateeminen tutkimus.

Rahoitusosuuden lisäksi kumppanuudesta voi tulla muita yhteiskunnallisia etuja. Ensinnäkin Amazon ja muut teknologiayritykset voivat kiinnittää enemmän huomiota tutkimuksen tuloksiin. Amazonin kaltaiselle yritykselle tämä saattaa tarkoittaa tulosten sisällyttämistä omiin algoritmeihinsa tai Amazon Web Services (AWS) -palvelun kautta myymiin tekoälyjärjestelmiin. AWS-pilvipalveluihin ottaminen voi olla erityisen vaikuttavaa, koska monet tuhannet datatieteilijät ja yritykset käyttävät näitä palveluita tekoälyyn. Esimerkkinä oli professori Sandra Wachter Oxford Internet Institutesta riemuissaan oppia, että a oikeudenmukaisuuden mittari hän ja mukana kirjoittajat olivat kannattaneet oli sisällytetty AWS pilvipalvelu , mikä tekee siitä paljon helpommin saatavilla datatieteen harjoittajille. Yleisesti ottaen laajennettu valikoima helppokäyttöisiä ominaisuuksia tekoälyn oikeudenmukaisuuden vuoksi tekee todennäköisemmin, että datatieteilijät tutkivat ja käyttävät näitä työkaluja.

FAI:n arvo

FAI on kokonaisuudessaan pieni mutta mahtava tutkimushanke. Tekoälyn asettamat lukemattomat haasteet ovat parantuneet tämän riippumattoman tutkimuksen pohjalta lisäämällä tietämystä ja vastuullisempia menetelmiä. Vaikka tekoälytutkimukseen suunnataan valtavasti yritysten rahoitusta, se ei ole riippumatonta eikä ensisijaisesti pyritä oikeudenmukaisuuteen, ja se voi sulkea kokonaan pois jotkin FAI-aiheet (esim. oikeudenmukaisuus tekoälyn hallituksessa). Vaikka tämä on FAI-ohjelman viimeinen vuosi, yksi NSF:n FAI:n ohjelmajohtajista, tohtori Todd Leen, korosti, kun hän sai yhteyden tämän artikkelin johdosta, että NSF ei jätä näitä tärkeitä tutkimuskysymyksiä ja että FAI:n tehtävät otetaan huomioon tietojenkäsittelytieteen pääosasto. Tähän imeytymiseen voi liittyä pieniä haittoja – esimerkiksi selkeästi määritellyn budjettikohdan puuttuminen ja konsolidoidun raportoinnin puuttuminen rahoitetuista tutkimushankkeista. NSF:n tulisi harkita näiden investointien seurantaa ja selkeää viestintää tutkimusyhteisölle, että tekoälyn oikeudenmukaisuus on NSF:n jatkuva prioriteetti.

Bidenin hallinto voisi myös erityisesti pyytää NSF:n lisärahoitusta oikeudenmukaisuuteen ja tekoälyyn. Kerrankin tämä rahoitus ei olisi vaikea myynti poliittisille päättäjille. Kongressi rahoitti koko NSF:n 868 miljoonan dollarin budjettipyynnön tekoälylle vuonna 2021, ja presidentti Biden on osoittanut selkeää kiinnostusta tieteen rahoituksen laajentamiseen; ehdotettu budjetti vaatii NSF:n kasvu 20 % rahoitusta tilivuodelle 2022, ja hallinto on käynnistänyt a Kansallinen tekoälytutkimustyöryhmä Yhteispuheenjohtajana ei kukaan muu kuin tohtori Erwin Gianchandani. Kaiken tämän mielenkiinnon vuoksi 5–10 miljoonan dollarin kirjanmerkkien lisääminen vuodessa nimenomaan tekoälyn oikeudenmukaisuuden edistämiseksi on selvästi mahdollista ja varmasti kannattavaa.