Zijn ingenieurs wettelijk verantwoordelijk voor moorddadige robots?

$config[ads_kvadrat] not found

Verdienen robots rechten? Wat als machines bewust worden?

Verdienen robots rechten? Wat als machines bewust worden?
Anonim

Automaten en androïden hebben fictieve mensen afgeslacht sinds de Tsjechische schrijver Karel Čapek de term 'robot' populair maakte in zijn sciencefiction-spel uit 1920 Rossum's universele robots. Čapek onderzocht een onderwerp dat centraal staat in veel moderne debatten: wie is verantwoordelijk voor een robot die doodt? De Tsjechische schrijver leek Rossum, zijn ingenieur uit Frankenstein, te raken, maar de juridische realiteit is wat gecompliceerder.

Technische veranderingen, maar intentie is nog steeds alles.

Als een ingenieur een leger van doodsvesten creëert voor het uitdrukkelijke doel van de doodshandel (denk aan de hordes van Ultron), dan is hij of zij verantwoordelijk voor wat er gebeurt als ze sterk worden. Volgens 18 Amerikaanse code § 1111 is moord:

Het onwettig doden van een mens met voorbedachte boosaardigheid. Elke moord gepleegd door gif, op de loer liggen, of elke andere vorm van opzettelijke, opzettelijke, kwaadwillige en met voorbedachte rade doden … of gepleegd uit een met opzet beraamd ontwerp op onwettige en kwaadwillige wijze om de dood van een ander mens dan degene die is gedood tot stand te brengen, is moord in de eerste graad.

"Alle andere soorten" van de dood laten het raam open voor moordende robots, die een soort mechanisch gif zijn.

Zelfs als de hypothetische bot-builder een gevaarlijk programma programmeert - hoewel niet uitdrukkelijk moordenaar - machine, er is een precedent dat hij verantwoordelijk is voor dodelijke uitkomsten. Wanneer waakhonden dodelijk omstanders aanvallen, hebben jury's de hondeneigenaars schuldig bevonden aan moord. En wat is, afgezien van het feit dat één methode bestaat uit commandocodes en andere gesproken opdrachten, het verschil tussen een robot trainen en een hond trainen?

Als de bewapende robots een beetje slimmer zijn dan een Duitse herder - zeg maar, een volledig autonome geweerbot - is Rossum nog steeds niet van de haak. Groepen zoals de Human Rights Watch voorspellen dat "commandanten of exploitanten schuldig kunnen worden bevonden als ze opzettelijk een volledig autonoom wapen inzetten om een ​​misdaad te begaan." Deze groepen - en mensenrechtenorganisaties in het algemeen - hebben misschien een onrealistisch rooskleurig beeld van het gerechtelijk apparaat, maar een van de dwingende redenen om Predator Drones op afstand te houden, is ervoor te zorgen dat aanvallen uit de VS komen Leger "zodat militaire wetenschappers hun Europese vakanties niet beëindigen met een volledig betaalde tour door Den Haag.

Het probleem wordt een beetje duisterder wanneer robots die voor één taak worden samengesteld, een bloedige pivot maken. In het verhaal van Čapek verzamelde Rossum zijn robots voor handarbeid, niet voor moord. Maar er gebeurde moord (niet het niet-transitieve werkwoord). Als Rossum voor de rechtbank berecht zou worden, zou zijn gebrek aan naleving van de kwaliteitscontrole-slash-Asimovs wetten hem in de problemen brengen. Wanneer een defect product burgers doodt, betaalt de fabrikant, wat voorspellers zeggen dat Google zal overkomen als hun geautomatiseerde auto's de wet overtreden. Het is onnodig om te zeggen dat een aantal technologiebedrijven advocaten hun aansprakelijkheidsblootstelling overwegen.

Het feit dat robots niet kunnen worden opgeladen, biedt de mogelijkheid om veel onder de bus te gooien. De vraag die onze beste juridische geesten proberen te beantwoorden? Wie zou in de war raken in die assen.

$config[ads_kvadrat] not found