5 kysymystä, jotka päättäjien tulisi kysyä kasvojentunnistuksesta, lainvalvonnasta ja algoritmiharhasta

Vuoden 2002 futuristisessa elokuvassa Minority Report lainvalvontaviranomaiset käyttävät tekoälyä (AI) sisältävää ennakoivaa tekniikkaa riskinarviointiin mahdollisten murhaajien pidättämiseksi ennen rikosten tekemistä. Poliisi on kuitenkin nyt yksi syytetyistä tulevista murhaajista ja pakenee oikeusministeriöstä todistaakseen, että tekniikassa on puutteita. Jos luulet, että tästä fiktiivisestä elokuvasta voi tulla totta, sinun tulee jatkaa lukemista – koska taiteesta on tullut todellisuutta.

Kehittyvien teknologioiden lupaukset ja vaarat ovat yllämme. Tekoäly tarjoaa lainvalvonnalle edistysaskeleita aiemmin käytettyihin menetelmiin verrattuna rikosten ehkäisemiseksi ja ratkaisemiseksi, tehokkuuden parantamiseksi, rodullisten erojen vähentämiseksi ja mahdollisesti inhimilliseen ja taloudelliseen pääomaan liittyvien resurssien säästämiseksi. Tällä hetkellä osa koneoppimisalgoritmeja käyttävistä lainvalvontatekniikoista sisältää älykkäät katuvalot, hot spot -poliisit, kasvojentunnistuksen, drone-valvonnan, geoaidat, riskinarvioinnit ja sosiaalisen median tiedot. lopeta jengiväkivalta . Massachusettsin osavaltion poliisi on nyt paikalla robottikoirat kentällä nostaen vertailua dystooppiseen vuoden 1987 elokuvaan RoboCop. Myös lainvalvonnan ja teknologian tehtävät muuttuvat nopeasti. Vuonna 2017 tein tutkimuksen, joka osoitti merkittävää tukea siviilien ja poliisien taholta vartaloon kiinnitetyt kamerat väitetty ihmelääke poliisin ja yhteisön välisten suhteiden parantamiseksi. Nyt tekoäly voi oletettavasti määrittää, kuka tekee rikoksen, ennustaa, missä rikollisuutta tapahtuu, ja tunnistaa mahdolliset uhat – tämä kaikki vahvistaa sen elinkelpoisuutta vartalossa käytettävien kameroiden suhteen.

Teknologiayritykset luovat jo kaupallisia tekoälytuotteita vähäisellä valvonnalla tai sääntelyllä. Lisäksi he usein pyytävät lainvalvontaviranomaisia ​​osallistumaan pilottitutkimuksiin ja testikokeisiin vastineeksi uuden teknologian käytöstä. Koska monet lainvalvontaviranomaiset ovat rahapulassa, mahdollisuus kokeilla uutta kiiltävää lelua on houkutteleva. Yhdistynyt kuningaskunta lähetti a passintunnistusohjelmisto vaikka tiesimme, että se ei toiminut hyvin ihmisille, joilla on tummempi ja vaaleampi iho. Tämä ei kuitenkaan tapahdu vain Euroopassa. Kuten tämä paperi osoittaa, Yhdysvallat on täynnä näitä ongelmia. Yrittessään kilpailla Kiinan, Intian ja muiden maiden kanssa rikosoikeudellisen teknologian alalla Yhdysvallat vaarantaa huippusuorituskykynsä ja saattaa kaikki amerikkalaiset vaaraan.

Yrittessään kilpailla … muiden maiden kanssa rikosoikeudellisen teknologian alalla Yhdysvallat vaarantaa huippusuorituskykynsä ja saattaa kaikki amerikkalaiset vaaraan.

Mutta päättäjät voivat puuttua asiaan rakentavasti. On olemassa merkityksellisiä suojatoimia, jotka on otettava käyttöön ihmisten suojelemiseksi. Voidaan myös väittää, että tekoälyn mahdollisuudet määrittää, kenet lainvalvontaviranomaiset pidättävät, vangitaan ja vapautetaan vankilasta, ovat varovaisuustarpeen listan kärjessä. Mitä poliittisten päättäjien on tiedettävä tekoälyn käyttöönotosta lainvalvonnassa, ja mitä keskeisiä kysymyksiä on esitettävä, kun säännöksiä ja suojatoimia pannaan täytäntöön?

Kasvojentunnistus poliisitoiminnassa

Yksi suurimmista julkisista huolenaiheista tekoälyn ja muiden uusien teknologioiden lainvalvontaviranomaisten käyttöön liittyy kasvojentunnistukseen. Vuodesta 2016 lähtien yli puolet kasvot amerikkalaisista aikuisista oli osa lainvalvontaviranomaisten käytettävissä olevia kasvojentunnistustietokantoja. Kaikki eivät kuitenkaan ole huolissaan tästä käyttöönotosta. Yli 50 % ihmiset luottavat poliisin kasvojentunnistukseen , ja lähes 75 % uskoo, että kasvojentunnistus tunnistaa ihmiset tarkasti. On kuitenkin olemassa merkittäviä demografisia eroja. Noin 60 % valkoisista vastaajista ja hieman yli 40 % mustista vastaajista luottaa poliisin kasvojentunnistuksen käyttöön. Ikä näyttää samankaltaista gradienttia, mutta ei odotettuun suuntaan. Alle 30-vuotiaat yli 65-vuotiaisiin verrattuna luottavat vähemmän kasvojentunnistuksen käyttöön poliisitoiminnassa. Nuorten aikuisten skeptisyys voi johtua siitä, että heillä on enemmän tietoa tekoälyn kyvyistä manipuloida todellista videomateriaalia ja muuta sitä, mitä henkilö sanoo ja tekee.

Vuodesta 2016 lähtien yli puolet amerikkalaisten aikuisten kasvoista oli osa lainvalvontaviranomaisten käytettävissä olevia kasvojentunnistustietokantoja.

Tässä on kuitenkin suuri ongelma: vain 36 % aikuisista uskoo, että yksityiset yritykset käyttävät kasvojentunnistusta vastuullisesti, jotka usein myyvät kasvojentunnistusjärjestelmiä lainvalvontaviranomaisille.

Vaikka yleinen mielipide on jakautunut kasvojentunnistuksen käytöstä poliisitoiminnassa, tutkimukset osoittavat, että kasvojentunnistus kärsii algoritmisesta harhasta. National Institute for Standards and Technology (NIST) julkaisi a paperi osoittavat, että kasvojentunnistus johti pienempään tarkkuuteen naisilla kuin miehillä ja mustilla verrattuna valkoisiin henkilöihin. Eräs tutkimus osoitti, että mustien naisten sukupuoli luokiteltiin väärin yli 33 % ajasta. Vuonna 2019 Amazonin kasvojentunnistusohjelmisto Rekognition oli merkitty väärin ammattiurheilijoita Bostonissa rikollisina. Ohjelmisto myös merkitsi virheellisesti joka viidestä Kalifornian lainsäätäjästä rikollisia . New Yorkin poliisilaitos (NYPD) manipuloi epäselviä kuvia näyttelijöiden, kuten Woody Harrelsonin, kanssa saadakseen enemmän selvyyttä mahdollisista epäillyistä valvontamateriaalissa.

Näistä ja muista syistä San Franciscolla on kielletty poliisin kasvojentunnistuksen käyttö; Oakland ja osa Massachusettsia seurasivat pian esimerkkiä. Toisaalta kaupungit pitävät Detroit ja Chicago ovat käyttäneet kasvojentunnistusohjelmistoja vähäisellä valvonnalla viime vuosina. Detroitissa vuonna 2019 voimaan tulleet uudet määräykset rajoittavat kasvojentunnistuksen käytön väkivaltarikoksiin ja kodin tunkeutumiseen liittyviin still-kuviin. Vaikka kaupungin lainvalvontaviranomaiset kiittelevät mahdollisuutta jatkaa kasvojentunnistuksen käyttöä, siviilivalvontakomitean jäsenet väittävät, että tekniikka on eräänlainen tekno-rasismi pääosin mustassa kaupungissa, jolla on historian poliisiväkivalta ja ongelmalliset poliisin ja yhteisön väliset suhteet. Yksi keskeinen huolenaihe on kritiikki, jonka mukaan lainvalvontaviranomaiset käyttävät epäluotettavaa tekniikkaa, joka luokittelee kaupungin asukkaat väärin, kuten aiemmin mainittiin.

Vaikka on tärkeää, että lainvalvontaviranomaisilla on mahdollisuus kokeilla uusia tekniikoita, tekoäly ei saa auttaa tekemään päätöksiä rikosasioissa ennen kuin tekniikka parantaa tarkkuuttaan.

Vaikka on tärkeää, että lainvalvontaviranomaisilla on mahdollisuus kokeilla uusia tekniikoita, tekoäly ei saa auttaa tekemään päätöksiä rikosasioissa ennen kuin tekniikka parantaa tarkkuuttaan. Pilottitutkimuksista saatujen tietojen analysointia (mahdollisesti kolmannen osapuolen, kuten yliopiston tutkimuskeskuksen tai yrityksen) suorittaman analyysin perusteella tulisi olla lykkäys, jotta voidaan arvioida poliisitoiminnan tuloksia käyttämällä olemassa olevia menetelmiä tekoälyn käyttöön.

miltä kabul näyttää

Valvonta tekoälyllä

Kasvojentunnistuksen lisäksi on olemassa muita tekoälyn käyttöönoton muotoja, jotka päättäjien tulee ottaa huomioon. Pyrkiessään olemaan ensimmäinen todellinen älykäs kaupunki, San Diego otettiin käyttöön älykkäät katuvalot Vuonna 2016. Älykkäiden katuvalojen antureita esitellään keinona vähentää energiankulutusta lainvalvontaviranomaisten käytössä valvoa jalankulku-, ajoneuvo- ja pysäköintiliikennettä, tallentaa videota alueesta ja ratkaista rikoksia. Monille kaupunkilaisille valot eivät ole ongelma. Pikemminkin poliisin valojen käyttöönotto ilman suostumus yleisö on suurin ongelma. Kolme kaupunginvaltuuston jäsentä pyysi valojen käytön keskeyttämistä.

San Diego on myös ottamassa käyttöön sotilastason lennokki kaupungin yli vuonna 2020, jolla on potentiaalia suorittaa valvontaa ja kerätä tiedustelutietoa, joka on samanlainen kuin asevoimien tiedustelukyky. Vuonna 2018 Rutherford County, Tennessee , sai ensimmäisenä maassa liittovaltion luvan lennättää droneja ihmisten yli. Kaupungin työntekijät sanovat, että Rutherford County voi käyttää droneja torjuakseen kaatopaikkakriisiä, arvioidakseen myrskytuhoja, katsella väkijoukkoja valkoisten nationalistien mielenosoituksissa ja jäljittää pakolaisia. Itärannikolla NYPD:llä on käytettyjä droneja marssien ja paraatien sarjassa, mukaan lukien Pride March ja Puerto Rican Day Parade. Tältä osin scifi-show Black Mirror voi muuttua ennustavaksi – sen Hated in the Nation -jaksossa oli edistynyt kasvojentunnistus ja parvia pieniä, dronemaisia ​​mehiläisiä, joilla oli tappavia ominaisuuksia.

Mukana useita IT-alan johtajia maat mukaan lukien Yhdysvallat, Ranska, Australia ja Kanada ovat erittäin huolissaan tekoälyn käytöstä autonomisissa aseissa. Jotkut vastustavat jyrkästi käyttöä teknologioita tällä tavalla, mukaan lukien Yhdistyneiden Kansakuntien jäsenet. Jotkut poliittiset ja liike-elämän johtajat, tutkijat ja järjestöt väittävät, että täysin itsenäiset aseet johtavat itse asiassa lisää konfliktia , epätasa-arvo ja lisääntynyt sodan mahdollisuus. Mielenkiintoista on, että ihmisillä näyttää olevan vähemmän ongelmia varsinaisen teknologian kanssa ja enemmän ongelmia sääntelyn, avoimuuden, yksityisyyden ja suostumuksen puutteessa.

Vuonna 2017 lainvalvontaviranomaiset käyttivät geoaidat seurata rasismin vastaisia ​​aktivisteja North Carolina-Chapel Hillin yliopistossa, jotka vastustivat konfederaation patsasta, joka tunnetaan nimellä Silent Sam. Geofencing on virtuaalinen ympärysmitta, jonka avulla voidaan seurata matkapuhelindataa, kerätä sosiaalisen median tietoja (kuten marssissa tai mielenosoituksissa twiittaavien ihmisten sijainti) ja kerätä verkkosivustotietoja yrityksille sijaintiin perustuvien mainosten tekemiseksi. palveluille ja tuotteille. Monet ihmettelivät, miksi geoaitoja käytettiin näiden rasismin vastaisten mielenosoittajien sosiaalisen median toiminnan seuraamiseen, mutta sitä ei käytetty valkoisten ylivallan kannattajien tarkkailuun. Näiden tekniikoiden erilainen käyttöönotto saa aikaan kollektiivisia muistoja siitä, kuinka poliisivoimia käytetään syrjäytyneissä yhteisöissä. Ottaen huomioon Carpenter vastaan ​​Yhdysvaltojen korkeimman oikeuden päätöksen, muut kyseenalaistivat geoaidan käytön laillisuuden kyseisessä tilanteessa. Ihmisillä on samanlainen huoli hot spot poliisi —joille lainvalvonta kohdistuu tietyille maantieteellisille alueille, joilla rikollisuus voi olla keskittyneempää — ja pohditaan, onko kyseessä pelkkä rodullinen profilointi ennakoivalla poliisinimellä.

murtautui valkoiseen taloon

Näiden tekniikoiden erilainen käyttö herättää kollektiivisia muistoja siitä, kuinka poliisivoimaa käytetään syrjäytyneissä yhteisöissä.

Poliisilaitokset pääsevät myös yksityisasuntojen kameroihin, jos alueella on tapahtunut rikos. Näkyvin ovikello-kamerayhtiö, Rengas , on solminut videonjakokumppanuudet 400 poliisilaitoksen kanssa kaikkialla Yhdysvalloissa. Vaikka poliisilla pitäisi olla mahdollisuus päästä käsiksi monenlaisiin resursseihin rikosten ratkaisemiseksi, yksityisasunnoissa pitäisi olla säännellympi ja avoimempi tapa päästä käsiksi videoihin ja dataan. Esimerkiksi asunnonomistajien pitäisi pystyä katsomaan materiaalia, jota he käsittelivät heidän kodeistaan, ja tietää, kuinka kauan materiaalia säilytetään.

Minority Reportin mukaisesti jotkin tuomioistuimet käyttävät algoritmeja riskinarviointien tekemiseen uusintarikollisuutta ennen ihmisten vapauttamista vankilasta. Chicagon Strateginen aiheluettelo ja Crime and Victimization Risk Model ovat käyttäneet tekoälyohjelmistoa ennustamaan, kuka saattaisi tehdä enemmän rikoksia pidätyksen jälkeen. Chicagon Office of Inspector Generalin vuoden 2020 raportissa todettiin, että ohjelmisto oli epäluotettava ja tietojen laatu oli heikko. Chicagon kaltaisessa kaupungissa nämä havainnot ovat vieläkin merkityksellisempiä, kun otetaan huomioon taso rasismia havaittu tuomioistuimissa.

Oletuksena näyttää olevan, että algoritmeja käyttävät tekniikat tunnistavat paremmin uhkia ja mahdollisia rikollisia. Jotkut tutkimukset käyttävät koneoppimista takuiden vapauttaminen näyttää, kuinka tekoälyä voidaan käyttää uusien rikosten, rikosten ja rodullisten erojen vähentämiseen tuomioissa. Samaan aikaan algoritmit voivat itse asiassa replikoida haitallisia päätöksiä joita esiintyy sosiaalisessa elämässä. Näin näytti olevan Chicagon kohdalla. Yksi keskeinen seikka on, että rodun jättäminen pois malliattribuutista, kuten Chicagon ohjelmiston tapauksessa, voi johtaa enemmän harhaan kuin sen sisällyttäminen. Ilman lisää sääntelyä ja suojatoimia näiden tulosten vaihtelevuus ilmenee edelleen.

[O]rodun jättäminen mallimääritteeksi … voi johtaa enemmän harhaan kuin sen sisällyttäminen.

Mihin poliittisten päättäjien tulisi nämä käyttötapaukset huomioon ottaen keskittyä tekoälyjärjestelmien oikeudenmukaisessa käytössä ja käyttöönotossa?

Poliittisten päättäjien on esitettävä kysymyksiä lainvalvonta- ja teknologiayrityksille

Päättäjillä on vaikea työ yrittää selvittää, kuinka jatkuvasti muuttuvia teknologiamarkkinoita säännellään algoritmeilla, jotka käyttävät koneoppimista rakentaakseen itsensä reaaliajassa. Vaikka poliittisilla päättäjillä ei välttämättä ole kaikkia vastauksia tai asiantuntemusta tehdäkseen parhaita päätöksiä vapaan yrittäjyyden, avoimuuden, yksityisyyden ja sääntelyn tasapainottamiseksi, parhaiden kysyttävien kysymysten tietäminen voi olla tärkeä askel tällä välin. Listan alle viisi.

1) Onko yhteisölle tiedotettu ja onko sillä ollut mahdollisuus esittää kysymyksiä ja ehdotuksia?

Avoimuuden puute rikkoo yhteisön luottamusta ja vaikeuttaa teknologista kehitystä. Siksi vastauksen tähän kysymykseen on mentävä pidemmälle kuin vastaus, jossa mainitaan vain raatihuone tai kirkkokäynti. Yleisölle on tiedotettava ennen uusien tekniikoiden käyttöönottoa paikallisten tiedotusvälineiden, suorien ilmoitusten ja tietojen paljastamisen kautta joko postitse, sähköpostitse tai sosiaalisessa mediassa. Yleisöllä tulisi olla oikeus esittää kysymyksiä ja ehdotuksia teknologiasta kotinsa lähellä. Poliisiteknologian julkinen valvonta ( LÄHETTÄÄ ) Act in New York City on varteenotettava vaihtoehto, miltä tämä saattaa näyttää. Tämä verkkosivusto Harvardin yliopiston Kennedy School of Governmentin jatko-opiskelijoiden kokoaman tiedon tarjoaminen yleisölle tekoälyn käytöstä New York Cityssä, on lainvalvontaviranomaisten ja kaupunkien hallitukset huomioitava akateemikkojen kanssa tehtävän kumppanuuden tärkeydestä.

2) Mitä suojatoimia on otettu käyttöön sen varmistamiseksi, että tekniikkaa käytetään oikein ja että se toimii tarkoitetulla tavalla?

Tämä kysymys koskee sääntelyä. Kasvojentunnistusteknologian lupalaki on hyvä askel eteenpäin ja korostaa molempien puolueiden merkitystä. Jos lainvalvontaviranomaiset haluavat käyttää kasvojentunnistusta yli 72 tuntia, laki edellyttäisi, että heidän on saatava tuomarin hyväksyntä, ja hyväksyntä on rajoitettu 30 päivään. Tuomareiden raporttien yhteydessä Yhdysvaltain tuomioistuinten hallintoviraston johtajan on toimitettava senaatin ja edustajainhuoneen oikeuskomitealle vuosittain tiedot, jotka sisältävät oikeuden päätösten lukumäärän, oikeuden määräyksiin liittyvät rikokset ja käyttötiheys. tekniikka, tarkkailtujen ihmisten määrä ja niiden ihmisten määrä, jotka tunnistettiin väärin tekniikan kanssa. Vaikka tämä lakiesitys on kiitettävä, siinä on mahdollisia porsaanreikiä. Esimerkiksi lainvalvontaviranomaiset voisivat toimia jatkuvasti 72 tunnin aikana tai väittää, että kasvojentunnistushaku on kansallisen turvallisuuden kannalta tärkeä asia, mikä näyttää ohittavan laskun.

3) Kuinka aiot suojautua teknologiasi harhoilta?

Tämä kysymys koskee haitallisia tietoja ja syrjiviä tuloksia. Algorithmic Accountability Act ja Oikeuslääketieteen algoritmien laki 2019 tavoitteena on auttaa tässä prosessissa vaatimalla yrityksiä arvioimaan algoritmejaan puolueellisten tulosten varalta. Nämä teot vaativat monilta osin yrityksiä toimimaan rotuun vaikuttavia lausuntoja . Rotuvaikutuksista kertovat lausunnot ovat työkaluja, jotka auttavat lainsäätäjiä arvioimaan, onko ehdotettuun lainsäädäntöön sisältynyt eroja ennen lain hyväksymistä. Nämä lausunnot auttavat päätöksentekijöitä selventämään ja kehittämään erityistä kieltä mahdollisten ennakkoluulojen poistamiseksi.

Edustavia otantatekniikoita käyttämällä yritysten tulee tuottaa merkittäviä tuloksia akateemisten standardien mukaisesti osoittaakseen, että niiden algoritmit ennustavat samalla tavalla ihmisiä eri sosiaalisten identiteettien, kuten rodun, sukupuolen ja näiden kahden välillä. Yritykset ja lainvalvontaviranomaiset voivat tehdä yhteistyötä tutkimusyliopistokeskusten ja -ajatusryhmien kanssa näiden tutkimustehtävien suorittamiseksi. NIST voi kehittää neuvoa-antavan paneelin, joka arvioi raportteja, jotka ovat samankaltaisia ​​kuin akateemiset lehdet käyttävät toimituslautakuntia ja ulkopuolisia arvioijia uuden tutkimuksen tarkistamiseen. Etusijalla tulisi myös olla varoa tutkimuksilta, joissa vähemmistöryhmiä ei käsitellä kunnolla. Lisäksi monimuotoisemmat yritykset tarkoittavat usein monipuolisempia ideoita, mikä puolestaan ​​voi johtaa demografisten tietojen keräämiseen – mikä voi tehokkaasti vähentää harhaa ja eroja. Piilaakso tällä alueella on paljon kasvuvaraa. Jos näistä standardeista ei tule normatiivisia, lainvalvontatekniikassa on joitain samoja vääristymiä ja puutteita kuin lääke ja muilla aloilla.

4) Miten teknologiasi siirtyy suostumusta pidemmälle ja sisältää yksityisyyden suojan?

Yksityisyyden suoja on tärkeää. Vartaloon kiinnitettävät kamerat opettavat meille suostumuksesta. Virkamiehillä on kehote, jota he käyttävät ilmoittaakseen kiinnostuneelle henkilölle, että heitä tallennetaan video- ja äänitallenteessa. Kasvojentunnistusta varten meidän on siirryttävä suostumuksen ulkopuolelle. Tämä kysymys koskee sitä, kuinka lainvalvonta varmistaa, että kasvojentunnistusohjelmistojen ja sosiaalisen median tietojen käyttö ei kerää meta- ja mikrotason tietoja, jotka loukkaavat edelleen ihmisten yksityisyyttä. Kun koneoppimisalgoritmit rakentavat, ne linkittävät samalla tavalla määriteltyä dataa. Joskus on epäselvää, miltä nämä tulokset näyttävät. Tämän sääntelemiseksi tarvitaan suojatoimia. Ihmisten tulisi myös tietää, kuinka kauan heidän tietojaan säilytetään ja mihin heidän tietojaan käytetään. Silti julkisissa ja yksityisissä paikoissa olevat kyltit, joissa sanotaan, että täällä käytetään kasvojentunnistusohjelmistoa, ovat hyödyllisiä.

5) Onko keinoja käyttää tekoälyä lainvalvontakoulutukseen?

Tämä kysymys koskee yritysten työntämistä pohtimaan tapoja parantaa lainvalvontakoulutuksen tehokkuutta. Soveltavan yhteiskuntatieteellisen tutkimuksen laboratorio , jossa toimin toiminnanjohtajana, tekee yhteistyötä suurten yritysten ja valtion tahojen kanssa tarjotakseen virtuaalitodellisuuskoulutusta käyttämällä kehittyneitä algoritmeja, jotka antavat lainvalvontaviranomaisille realistisemman kokemuksen kentällä kohtaamistaan ​​kohtaamisista. Yritykset pitävät Flikshop ovat alkaneet käyttää algoritmeja tarjotakseen työkoulutusta ihmisille, jotka ovat vangittuina. Nämä pyrkimykset auttavat vähentämään puolueellisuutta poliisitoiminnassa, parantamaan poliisin ja yhteisön välisiä suhteita ja vähentämään uusintarikollisuutta.

Kaiken kaikkiaan teknologia voi tehdä poliisitoiminnasta tehokkaampaa, mutta tehokkuus ei välttämättä tarkoita oikeudenmukaisuutta tai puolueellisuuden puutetta. Koneoppimisalgoritmit ylittävät paljon yleisön ymmärryksen näistä teknologioista. Päättäjien ei tarvitse miettiä vain sääntelyä, vaan myös rangaistuksia, jos lainvalvontaviranomaiset ja yritykset rikkovat suojatoimia. Jos tämä on menneisyyden kaltaista, ennakkoluulolla on jatkossakin valtava rooli yhteiskunnallisissa tuloksissa, ellei näiden tekniikoiden käyttöönottoa lainvalvontaympäristöissä hidasteta dramaattisesti. Lainsäätäjien ja sidosryhmien tulisi keskittyä älykkäisiin käytäntöihin, jotka auttavat tekemään yhteiskuntastamme turvallisemman ja varmistamaan, että yksityisyys, suostumus ja avoimuus ovat oikeudenmukaisia ​​kaikille.