Dit is hoe we toekomstige Rogue A.I. van Imitating HAL 9000

$config[ads_kvadrat] not found

HAL 9000: "I'm sorry Dave, I'm afraid I can't do that"

HAL 9000: "I'm sorry Dave, I'm afraid I can't do that"
Anonim

Hoe stoppen we een toekomstige A.I. van ongehoorzaamheid aan bevelen en ervoor kiezen om zijn eigen weg te gaan? Het klinkt misschien als het plot van 2001: A Space Odyssey, maar een expert beweert dat het iets is dat we misschien al moeten gaan bedenken. Natuurlijk kunnen we het zoekalgoritme van Google uitschakelen als het ooit schurkenstaten is geworden, maar als het om financiële en juridische gevolgen gaat, is het misschien makkelijker gezegd dan gedaan. In de toekomst kan het, als we afhankelijk worden van meer geavanceerde A.I., onmogelijk zijn.

"Dit algoritme heeft niet opzettelijk ontworpen zelf onmogelijk te rebooten of uit te schakelen, maar het is mede-geëvolueerd om op die manier te zijn, "zei Stuart Armstrong, een onderzoeker bij het Future of Humanity Institute, op Pirate Summit 2016 op woensdag. Dit betekent dat een wijziging met onopzettelijke resultaten moeilijk kan worden verholpen en dat dit misschien niet de eerste A.I. is. om zich in die situatie te bevinden.

De oplossing van Isaac Asimov was de drie wetten van de robotica, die keihard ideeën coderen als mensen niet schaden. Het probleem is dat schade tamelijk subjectief is en open voor interpretatie. Mensen werken meer aan waarden, zoals het begrip dat het slecht is om schade aan te richten en de situatie te interpreteren, dan te werken aan een harde regel die nooit schadelijk mag zijn.

"Het is vanwege dit soort problemen dat mensen nu veel meer geïnteresseerd zijn in het leren van machines om waarden te krijgen in plaats van ze te proberen te coderen op deze traditionele manier", zei Armstrong. "Waarden zijn stabiel op een manier dat andere dingen niet in A.I. Waarden verdedigen zichzelf intrinsiek."

Maar zelfs in deze situaties is het belangrijk om A.I. om ze onderbreekbaar te maken terwijl ze actief zijn. Veilige onderbreekbaarheid zorgt voor veilige beleidswijzigingen, die onbedoelde gevolgen van geleerde waarden kunnen voorkomen. Als HAL 9000 ooit geprobeerd heeft de deuren van de pod-bay niet te openen, is het belangrijk dat we vaststellen dat de waarden van de A.I. verkeerd zijn en ingrijpen zonder het systeem offline te nemen.

$config[ads_kvadrat] not found