A.I. Onderzoeksinstituut laat zien hoe je verantwoorde algoritmen kunt creëren

$config[ads_kvadrat] not found

Het YouTube algoritme manipuleren - (Deel 1/3) Smarter Every Day 213

Het YouTube algoritme manipuleren - (Deel 1/3) Smarter Every Day 213
Anonim

Het onderzoeksinstituut AI publiceerde nu nieuwe aanbevelingen voor de verantwoordelijke implementatie van algoritmen in de publieke sfeer op woensdag. Hun advies is gericht op een task force die in januari door de gemeenteraad van New York is gevormd en die onderzoek doet naar het gebruik van kunstmatige intelligentie door de overheid.

AI Now's rapport, Algorithmic Impact Assessments: naar verantwoord automatisering in publieke instellingen, schetst de behoefte aan transparantie als het gaat om de inzet van algoritmen. Algoritmen hebben een enorme impact op ons dagelijks leven, maar hun impact blijft soms onopgemerkt. Omdat ze bijvoorbeeld in de infrastructuur van sociale media en videoplatforms worden ingebakken, is het gemakkelijk om te vergeten dat programma's vaak bepalen welke inhoud wordt gepusht voor internetgebruikers. Pas als er iets misgaat, zoals een video over complottheorieën die de top van de trendinglijst van YouTube bereikt, onderzoeken we de geautomatiseerde besluitvormingsprocedures die online ervaringen bepalen.

En algoritmen zijn niet beperkt tot internetplatforms. Overheidsinstellingen zijn in toenemende mate afhankelijk geworden van algoritmen, in domeinen variërend van onderwijs tot strafrecht. In een ideale wereld zouden algoritmen menselijke vooringenomenheid uit moeilijke beslissingen verwijderen, zoals het bepalen of een gevangene voorwaardelijk moet worden toegestaan. In de praktijk zijn algoritmen echter alleen zo effectief als de mensen die ze maken.

Bijvoorbeeld een onderzoek door ProPublica aangetoond dat risicobeoordelingsalgoritmen die in rechtszalen werden gebruikt, racistisch bevooroordeeld waren. Om het nog erger te maken, veel van de algoritmen die in de publieke sector worden gebruikt, zijn privé-eigendom en sommige bedrijven weigeren de code die aan hun software ten grondslag ligt te delen. Dat maakt het onmogelijk te begrijpen waarom deze zogenaamde "zwarte doos" -algoritmen bepaalde resultaten retourneren.

Een mogelijke oplossing aangeboden door AI Now? Algoritmische effectbeoordelingen. Deze evaluaties stellen een norm voor volledige transparantie vast, wat betekent dat overheidsinstanties die algoritmen gebruiken, moeten aangeven wanneer en hoe ze deze gebruiken. "Deze eis op zichzelf zou een lange weg naar licht werpen op welke technologieën worden ingezet om het publiek te dienen, en waar verantwoordingsonderzoek moet worden gericht," aldus het rapport.

Een beleid van openheid rond algoritmen zou ook de deur openen voor burgers om hun gebruik kritisch te bekijken en te protesteren. Zou u een algoritme willen dat u een risicobeoordelingsscore geeft gebaseerd op factoren buiten uw controle, vooral wanneer die score zou kunnen helpen bepalen of u naar de gevangenis gaat? Misschien wel misschien niet. Hoe dan ook, het is belangrijk om precies te weten welke variabelen door het algoritme worden geanalyseerd.

Daarnaast raadt AI Now aan om een ​​wettelijke standaard in te stellen voor mensen om tegen oneerlijke algoritmen te lobbyen.

Als een bureau bijvoorbeeld geen systemen vrijgeeft die redelijkerwijs binnen het bereik vallen van degenen die geautomatiseerde beslissingen nemen, of als het verkopers toestaat om overboord handelsgeheimen te claimen en zo een zinvolle systeemtoegang blokkeert, moet het publiek de kans hebben om bezorgdheden te uiten met een orgaan voor toezicht door een instantie of rechtstreeks bij een rechtbank indien het bureau weigerde deze problemen na de periode van openbaar commentaar te corrigeren.

De aanbevelingen komen in feite neer op één overkoepelend mandaat: als u algoritmen gebruikt, wees er dan niet schaduwziek over.

Lees hier het volledige rapport.

$config[ads_kvadrat] not found