Algoritamska transparentnost
Algoritamska transparentnost je princip da faktori koji utiču na odluke koje algoritmi donose treba da budu vidljivi, ili transparentni, ljudima koji ih koriste, regulišu i na koje utiču sistemi koji koriste te algoritme. Iako su frazu 2016. skovali Nikolas Dijakopulos i Majkl Koliska o ulozi algoritama u odlučivanju o sadržaju usluga digitalnog novinarstva,[1] osnovni princip potiče iz 1970-ih i perioda uspona automatizovanih sistema za rangiranje potrošačkih kredita.
Izrazi „algoritamska transparentnost“ i „algoritamska odgovornost“[2] se ponekad koriste naizmenično – posebno zato što su ih skovali isti ljudi – ali imaju suptilno različita značenja. Konkretno, „algoritamska transparentnost” navodi da ulazi u algoritam i sama upotreba algoritma moraju biti poznati, ali ne moraju biti pravedni. „Algoritamska odgovornost“ podrazumeva da organizacije koje koriste algoritme moraju biti odgovorne za odluke koje ti algoritmi donose, iako odluke donosi mašina, a ne ljudsko biće.[3]
Trenutna istraživanja o algoritamskoj transparentnosti zainteresovana su za društvene efekte pristupa daljinskim uslugama koje pokreću algoritmi,[4] kao i za pristupe matematike i računarske nauke koji se mogu koristiti za postizanje algoritamske transparentnosti.[5] U Sjedinjenim Državama, Biro zaštite potrošača Federalne trgovinske komisije proučava kako potrošači koriste algoritme tako što sprovodi sopstveno istraživanje o algoritamskoj transparentnosti i finansira eksterna istraživanja.[6] U Evropskoj uniji zakoni o zaštiti podataka koji su stupili na snagu u maju 2018. uključuju „pravo na objašnjenje“ odluka koje donose algoritmi, iako je nejasno šta to znači.[7] Štaviše, Evropska unija je osnovala Evropski centar za algoritamsku transparentnost (ECAT).[8]
Reference
уреди- ^ Diakopoulos, Nicholas; Koliska, Michael (2017). „Algorithmic Transparency in the News Media”. Digital Journalism. 5 (7): 809—828. doi:10.1080/21670811.2016.1208053.
- ^ Diakopoulos, Nicholas (2015). „Algorithmic Accountability: Journalistic Investigation of Computational Power Structures.”. Digital Journalism. 3 (3): 398—415. S2CID 42357142. doi:10.1080/21670811.2014.976411.
- ^ Dickey, Megan Rose (30. 4. 2017). „Algorithmic Accountability”. TechCrunch. Приступљено 4. 9. 2017.
- ^ „Workshop on Data and Algorithmic Transparency”. 2015. Приступљено 4. 1. 2017.
- ^ „Fairness, Accountability, and Transparency in Machine Learning”. 2015. Приступљено 29. 5. 2017.
- ^ Noyes, Katherine (9. 4. 2015). „The FTC is worried about algorithmic transparency, and you should be too”. PCWorld (на језику: енглески). Приступљено 4. 9. 2017.
- ^ „False Testimony” (PDF). Nature. 557 (7707): 612. 31. 5. 2018.
- ^ „About - European Commission”.