Povežite se s nama

Računalna tehnologija

OASI, prva tražilica koja je pronašla algoritme koje vlade i tvrtke koriste za građane

PODJELI:

Objavljeno

on

Koristimo vašu registraciju za pružanje sadržaja na način na koji ste pristali i za bolje razumijevanje vas. Možete se odjaviti u bilo kojem trenutku.

  • Osnovana od strane Eticas Foundation, Opservatorij za algoritme sa društvenim utjecajem, OASI, prikuplja podatke iz desetaka algoritama koje koriste javne uprave i tvrtke diljem svijeta kako bi saznali više o njihovom društvenom utjecaju.
  • Cilj je omogućiti javnosti pristup informacijama o vladama i algoritmima tvrtki te znati tko ih koristi, tko ih razvija, koje prijetnje predstavljaju i jesu li podvrgnuti reviziji, između ostalih karakteristika.
  • Pristranost algoritma i diskriminacija obično se javljaju među ostalim vrijednostima na temelju dobi, spola, rase ili invaliditeta, ali zbog općeg nedostatka transparentnosti, još uvijek nije moguće znati sve njegove posljedice na pogođene skupine.

Eticas Foundation, neprofitna organizacija koja promiče odgovornu uporabu algoritama i sustava umjetne inteligencije (AI), stvorila je Opservatorij za algoritme sa društvenim učinkom (OASI). Ova opservatorija uvodi tražilicu kako bi saznala više o alatima koji donose važne automatizirane odluke o građanima, potrošačima i korisnicima diljem svijeta.

Trenutno i tvrtke i javna uprava automatiziraju odluke zahvaljujući algoritmima. Međutim, njegov razvoj i puštanje u rad ne slijede vanjske kontrole kvalitete, niti su transparentni koliko bi trebali biti, što ostavlja stanovništvo nezaštićenim. Pomoću ove tražilice svatko može saznati više o tim algoritmima: tko ih je razvio, tko ih koristi, njihov opseg primjene, jesu li bili podvrgnuti reviziji, njihove ciljeve ili njihov društveni utjecaj i prijetnje koje predstavljaju.

U trenutku, OASI prikuplja 57 algoritama, ali očekuje se da će u sljedećih nekoliko mjeseci doseći 100. Među njima, 24 se već primjenjuju u SAD -u od strane vlade i velikih tehnoloških tvrtki. Na primjer, ShotSpotter, algoritamski alat koji je upotrijebila Oaklandska policijska uprava za borbu i smanjenje nasilja oružjem putem mikrofona za nadziranje zvuka, te algoritam za predviđanje potencijalnog zlostavljanja i zanemarivanja djece koji koristi okrug Allegheny, Pennsylvania. Još jedan primjer jedne korporacije je Rekognance, Amazonov sustav prepoznavanja lica, koji je početkom 2019. revidirao MIT Media Lab, a za koji je utvrđeno da se pokazao znatno lošijim pri identificiranju spola pojedinca ako je ženskog ili tamnijeg tena.

Najčešća diskriminacija je na temelju dobi, spola, rase ili invaliditeta, nenamjerno proizveli programeri kojima nedostaju socioekonomske vještine da razumiju utjecaj ove tehnologije. U tom smislu, ti inženjeri dizajniraju algoritme samo na temelju tehničkih vještina, a budući da nema vanjskih kontrola i čini se da radi prema očekivanjima, algoritam nastavlja učiti iz nedostatnih podataka.

S obzirom na nedostatak transparentnosti u funkcioniranju nekih od ovih algoritama, Zaklada Eticas, osim što je pokrenula OASI, razvija i projekt vanjske revizije. Prvi je VioGén, algoritam koji koristi španjolsko Ministarstvo unutarnjih poslova za dodjeljivanje rizika ženama koje traže zaštitu nakon što su pretrpjele slučajeve obiteljskog nasilja. Eticas će provesti vanjsku reviziju putem obrnutog inženjeringa i administrativnih podataka, intervjua, izvješća ili scenarija za dizajn kako bi prikupio opsežne rezultate. Sve to s ciljem otkrivanja mogućnosti za poboljšanje zaštite ovih žena.

"Unatoč postojanju algoritamskih metoda kontrole i revizije kako bi se osiguralo da tehnologija poštuje trenutne propise i temeljna prava, Uprava i mnoge tvrtke i dalje se oglušuju o zahtjeve za transparentnošću građana i institucija", izjavila je Gemma Galdon, osnivačica Eticas Foundation . „Osim OASI-a, nakon nekoliko godina u kojima smo razvili više od desetak revizija za tvrtke kao što su Alpha Telefónica, Ujedinjeni narodi, Koa Health ili Međuamerička razvojna banka, objavili smo i Vodič za algoritamsku reviziju da ih svatko može izvesti. Cilj je uvijek podići svijest, osigurati transparentnost i vratiti povjerenje u tehnologiju, što samo po sebi ne mora biti štetno. ”

U tom smislu, algoritmi koji se obučavaju tehnikama strojnog učenja koriste veliku količinu povijesnih podataka kako bi ih "naučili" birati na temelju prošlih odluka. Obično ti podaci ne predstavljaju socioekonomsku i kulturnu stvarnost na koju su primijenjeni, ali u mnogim prilikama odražavaju nepoštenu situaciju koja se ne namjerava ovjekovječiti. Na ovaj način, algoritam bi tehnički donosio "ispravne" odluke prema svojoj obučenosti, iako je realnost njegova preporuka ili predviđanja pristrana ili diskriminirajuća.

Oglas

O zakladi Eticas

Zaklada Eticas radi na prevođenju u tehničke specifikacije načela koja vode društvo, poput jednakih mogućnosti, transparentnosti i nediskriminacije u tehnologijama koje donose automatizirane odluke o našim životima. Traži ravnotežu između mijenjanja društvenih vrijednosti, tehničkih mogućnosti najnovijih dostignuća i pravnog okvira. U tu svrhu vrši reviziju algoritama, provjerava primjenjuju li se pravna jamstva na digitalni svijet, osobito na umjetnu inteligenciju, te provodi intenzivan rad na podizanju svijesti i širenju potrebe za odgovornom, kvalitetnom tehnologijom.

Podijelite ovaj članak:

EU Reporter objavljuje članke iz raznih vanjskih izvora koji izražavaju širok raspon stajališta. Stavovi zauzeti u ovim člancima nisu nužno stavovi EU Reportera.

Trendovi