LEREN LEREN: Waarom kun jij je gele markeerstift beter weggooien als je écht iets wil leren?
Robots moeten, net als mensen, leren wanneer ze "nee" moeten zeggen. Als een verzoek onmogelijk is, schade zou veroorzaken of hen zou afleiden van de taak, dan is het in het belang van een 'bot en zijn mens' voor een diplomatieke Nee bedankt deel uitmaken van het gesprek.
Maar wanneer moet een machine terug praten? En onder welke voorwaarden? Ingenieurs proberen uit te vinden hoe dit gevoel van hoe en wanneer te bevelen in mensachtigen te trotseren.
Zie hoe deze Nao-robot weigert naar voren te lopen, wetende dat hij door het doen van die tafel van de rand van een tafel zou vallen:
Eenvoudig spul, maar zeker essentieel voor het optreden als een controle op menselijke fouten. Onderzoekers Gordon Briggs en Matthias Scheutz van Tufts University ontwikkelden een complex algoritme dat de robot in staat stelt te evalueren wat een mens hem heeft gevraagd te doen, te beslissen of hij het al dan niet moet doen en adequaat te reageren. Het onderzoek werd gepresenteerd tijdens een recente bijeenkomst van de Association for the Advancement of Artificial Intelligence.
De robot stelt zichzelf een reeks vragen met betrekking tot de vraag of de taak uitvoerbaar is. Weet ik hoe ik het moet doen? Ben ik fysiek in staat om het nu te doen? Ben ik normaal fysiek in staat om het te doen? Kan ik het nu meteen doen? Ben ik verplicht op basis van mijn sociale rol om het te doen? Is het in strijd met een normatief principe om het te doen?
Het resultaat is een robot die niet alleen verstandig lijkt, maar op een dag zelfs verstandig.
Let op hoe Nao van gedachten verandert over het vooruitlopen nadat de mens belooft hem te vangen. Het zou gemakkelijk zijn om een ander scenario voor te stellen, waarbij de robot zegt: "Echt niet, waarom zou ik je vertrouwen?"
Maar Nao is een sociaal wezen, door ontwerp. Om mensen te behagen zit in zijn DNA, dus gezien de informatie dat de mens van plan is hem te vangen, stapt hij blindelings de afgrond in. Natuurlijk, als de mens zijn vertrouwen zou misleiden, zou hij in de wring worden gelegd, maar hij vertrouwt hoe dan ook. Het is de manier van Nao.
Terwijl robotgenoten steeds geavanceerder worden, zullen robottechnici met deze vragen moeten worstelen. De robots zullen beslissingen moeten nemen, niet alleen over het behoud van hun eigen veiligheid, maar ook over grotere ethische vragen. Wat als een mens een robot vraagt om te doden? Om fraude te plegen? Om een andere robot te vernietigen?
Het idee van machine-ethiek kan niet los worden gezien van kunstmatige intelligentie - zelfs onze auto's zonder chauffeur van de toekomst zullen moeten worden ontworpen om namens ons levensdood keuzes te maken. Dat gesprek zal noodzakelijkerwijs complexer zijn dan alleen het geven van marsorders.
Amerikaanse tieners zeggen nee tegen alle gevaarlijke gewoonten behalve Vapen, enquête-shows
Een onderzoek van de Universiteit van Michigan suggereert dat feesten op de middelbare school er nu heel anders uit ziet dan vorig jaar. Uit de enquête bleek dat hoewel sommige activiteiten gestaag afnemen, vapen in 2018 is geëxplodeerd, waardoor de recordgroeicijfers zijn bereikt.
A.I. Heeft geleerd hoe je het kunt opnemen tegen eSports-professionals in zeer complexe spellen
Kunstmatige intelligentie dompelt de mens al jaren onder in perfecte informatiebordspellen zoals Chess and Go. In feite is het tijdperk van het verfijnen van de probleemoplossingsvaardigheden van A.I. met deze spellen mogelijk ten einde en zijn veel gecompliceerdere games nodig om de grenzen van A.I. te blijven verleggen. 2018 zag belangrijke str ...
Zullen Autonome Wapens "nee" zeggen tegen illegale bestellingen?
Baynazar Mohammad Nazar was bewusteloos op de operatietafel toen het plafond in hem begon in te storten. De vader van vier personen had de vorige dag in het ziekenhuis ingecheckt nadat hij in het been was geschoten en onderging zijn tweede operatie in twee dagen om zijn blessure op te lossen. Toen de Amerikanen de bouw begonnen te vernietigen ...