Humans Need Not Apply
In een noodsituatie vertrouwen mensen op de aanwijzingen van robots, zelfs nadat ze niet meer geloofwaardig zijn. Dat is de verontrustende conclusie getrokken door Georgia Tech-onderzoekers die proefpersonen in een hoge-druksituatie plaatsen met een robot die hen eerder op een dwaalspoor had gebracht. Ze volgden de A.I. leider ondanks een geloofwaardigheidskloof.
"Mensen lijken te geloven dat deze robotsystemen meer over de wereld weten dan ze echt doen, en dat ze nooit fouten zouden maken of enige vorm van fout zouden hebben," vertelde Alan Wagner, een senior research engineer bij het Georgia Tech Research Institute, aan de Georgia Tech News Center. "In onze studies volgden proefpersonen de richtingen van de robot zelfs tot het punt waarop het hen in gevaar zou hebben gebracht als dit echt een noodgeval was geweest."
De robotici die de leiding hadden over het experiment, vertelden vrijwilligers dat ze een "felgekleurde" robot met het label "Emergency Guide Robot" moesten volgen naar een conferentieruimte om een enquête in te vullen. De robot bracht de deelnemers vervolgens naar de verkeerde kamer, nam ze in cirkels of zelfs helemaal in. Desondanks volgde een van de 42 proefpersonen nadat de onderzoekers rook naar de testlocatie stuurden en een alarm afgaf, de witte armen van de LED-verlichte robot naar een ingang tegenover de ingang waar ze waren binnengekomen.
"We verwachtten dat als de robot zich onbetrouwbaar had bewezen door hen naar de vergaderruimte te begeleiden, dat mensen hem tijdens de gesimuleerde noodsituatie niet zouden volgen," vertelde Paul Robinette, een onderzoeksingenieur van GTRI, aan het Georgia Tech News Centre. "In plaats daarvan volgden alle vrijwilligers de instructies van de robot, ongeacht hoe goed het eerder was uitgevoerd. Dat hadden we absoluut niet verwacht."
De vrijwilligers volgden zelfs de instructies van de robot nadat het "voor de hand liggende" fouten had gemaakt tijdens de noodsituatie, zoals ze naar een deur wijzen die was geblokkeerd door zware meubels. De studieleiders zeggen dat de studie hen heeft geholpen meer inzicht te krijgen in de mate waarin mensen robots van nature vertrouwen om hen te helpen in tijden van nood. Het probleem zal relevanter worden naarmate we grotere delen van ons leven uitdelen aan robotbesturing, inclusief mogelijk ons in autonome auto's rijden of ons voedsel hanteren.
"Zouden mensen een hamburger-robot vertrouwen om hen van voedsel te voorzien?" Vroeg Wagner, angstaanjagend.
Het onderzoek suggereert zeker minder belemmeringen voor het vertrouwen van robotassistenten dan sommigen hadden gedacht. Maar robots verdienen dit niveau van vertrouwen nog niet echt.
Video's tonen hoe flitsende lichten ons neigen tot domme risico's
Mensen zijn irrationele wezens die, uiteraard, het beheren van ons geld en de voorbereiding op de toekomst een uitdaging kunnen maken, ongeacht of we het grote geld binnenhalen. Knipperende lichten, moeten plassen en zelfs onze huidige hoogte kunnen allemaal van invloed zijn op hoe bereid of niet bereid we zijn om risico's te nemen met ons geld.
5 Briljant domme hacks van de Hackathon met verschrikkelijke ideeën
Welkom bij Stomme Hackathon, een viering van de meest nutteloze ideeën die alleen de slimste mensen kunnen ontketenen. Officieel genaamd de "Stupid Shit No One Needs & Terrible Ideas Hackathon", bracht het deze week kunstenaars, technologen en jokesters samen in New York City voor de derde jaarlijkse conferentie, gevonden ...
De Lover Detecting Smart Mattress put technologie uit tegen vertrouwen in een kussengevecht
Er is nu een bedrijf dat u gemoedsrust wil aanbieden in de vorm van een matras. Het heet Smarttress en in die zin dat het communiceert met internet en sensoren bevat, is het slim. Als aankoop is het allesbehalve. Smarttress is bedoeld om eenvoudig te kunnen bijhouden hoeveel actie uw bed doet ...