Deze robot heeft geleerd hoe hij 'nee' tegen menselijke eisen kan zeggen

$config[ads_kvadrat] not found

LEREN LEREN: Waarom kun jij je gele markeerstift beter weggooien als je écht iets wil leren?

LEREN LEREN: Waarom kun jij je gele markeerstift beter weggooien als je écht iets wil leren?
Anonim

Robots moeten, net als mensen, leren wanneer ze "nee" moeten zeggen. Als een verzoek onmogelijk is, schade zou veroorzaken of hen zou afleiden van de taak, dan is het in het belang van een 'bot en zijn mens' voor een diplomatieke Nee bedankt deel uitmaken van het gesprek.

Maar wanneer moet een machine terug praten? En onder welke voorwaarden? Ingenieurs proberen uit te vinden hoe dit gevoel van hoe en wanneer te bevelen in mensachtigen te trotseren.

Zie hoe deze Nao-robot weigert naar voren te lopen, wetende dat hij door het doen van die tafel van de rand van een tafel zou vallen:

Eenvoudig spul, maar zeker essentieel voor het optreden als een controle op menselijke fouten. Onderzoekers Gordon Briggs en Matthias Scheutz van Tufts University ontwikkelden een complex algoritme dat de robot in staat stelt te evalueren wat een mens hem heeft gevraagd te doen, te beslissen of hij het al dan niet moet doen en adequaat te reageren. Het onderzoek werd gepresenteerd tijdens een recente bijeenkomst van de Association for the Advancement of Artificial Intelligence.

De robot stelt zichzelf een reeks vragen met betrekking tot de vraag of de taak uitvoerbaar is. Weet ik hoe ik het moet doen? Ben ik fysiek in staat om het nu te doen? Ben ik normaal fysiek in staat om het te doen? Kan ik het nu meteen doen? Ben ik verplicht op basis van mijn sociale rol om het te doen? Is het in strijd met een normatief principe om het te doen?

Het resultaat is een robot die niet alleen verstandig lijkt, maar op een dag zelfs verstandig.

Let op hoe Nao van gedachten verandert over het vooruitlopen nadat de mens belooft hem te vangen. Het zou gemakkelijk zijn om een ​​ander scenario voor te stellen, waarbij de robot zegt: "Echt niet, waarom zou ik je vertrouwen?"

Maar Nao is een sociaal wezen, door ontwerp. Om mensen te behagen zit in zijn DNA, dus gezien de informatie dat de mens van plan is hem te vangen, stapt hij blindelings de afgrond in. Natuurlijk, als de mens zijn vertrouwen zou misleiden, zou hij in de wring worden gelegd, maar hij vertrouwt hoe dan ook. Het is de manier van Nao.

Terwijl robotgenoten steeds geavanceerder worden, zullen robottechnici met deze vragen moeten worstelen. De robots zullen beslissingen moeten nemen, niet alleen over het behoud van hun eigen veiligheid, maar ook over grotere ethische vragen. Wat als een mens een robot vraagt ​​om te doden? Om fraude te plegen? Om een ​​andere robot te vernietigen?

Het idee van machine-ethiek kan niet los worden gezien van kunstmatige intelligentie - zelfs onze auto's zonder chauffeur van de toekomst zullen moeten worden ontworpen om namens ons levensdood keuzes te maken. Dat gesprek zal noodzakelijkerwijs complexer zijn dan alleen het geven van marsorders.

$config[ads_kvadrat] not found