Notre Dame vs. Georgia Tech Condensed Game | 2020 ACC Football
Voor oren die gevoelig zijn voor naschoolse specialisaties en diversiteitsseminars, klinkt dit slecht, maar we willen dat robots snel een oordeel vellen op basis van het uiterlijk. Vooroordelen overwinnen is goed, maar het onvermogen om stereotypen te verminderen vermindert intelligentie - kunstmatig en anderszins. Alan Wagner, Ph.D., een roboticus bij Georgia Tech, is de belangrijkste voorstander van stereotypering van technologie. Hij betoogt dat dit soort logica niet hoeft te worden toegepast op ras of geslacht, alleen op situaties en gedragingen.
In een vroege test van zijn stereotype algoritme, trainde Wagner een naïeve robot om conclusies te trekken uit wat het zag. De robot leerde en werd opmerkzaam, waardoor Wagner kritisch kon nadenken over de ethiek van robotaannames, met name de voorverprogrammeerde. Hij sprak met omgekeerde over zijn werk en zijn vertakkingen.
Laat me zien hoe het experiment werkt.
De robot communiceert met verschillende soorten individuen - brandweerman, EMT of wat dan ook - maar hij heeft geen eerdere ervaring met een van deze categorieën van personen. Het is, in feite, ervaringsleren.
Het idee was om te laten zien dat de robot perceptuele functies van het individu kon gebruiken om hun behoeften op het gebied van gereedschapsgebruik te voorspellen. De manier waarop het algoritme werkte, zag de camera van de robot verschillende aspecten van hoe het individu eruit zag: hun uniforme kleur, bijvoorbeeld of ze een baard hadden en hun haarkleur.
Het zou hen ook vragen stellen over hoe ze eruit zien. Vragen stellen is natuurlijk niet wat je in het veld wilt doen, maar de perceptie van de robot is op dit moment zo beperkt. We hadden een manier nodig om het proces over leren over een persoon op te starten. De persoon zou het gereedschap selecteren en vervolgens zou de robot het gereedschap selecteren en na verloop van tijd zou de robot leren welk gereedschap elk type persoon de voorkeur gaf.
Verwachtte je dat de robot zou leren dat een badge betekent dat een politieagent of een zware reflecterende jas een brandweerman betekent?
We hadden het eigenlijk verwacht. Maar er waren ook enkele verrassende dingen.De robot zag bijvoorbeeld ten onrechte dat een baard wordt voorspeld met een brandweerman - dat was vreemd, maar als je naar de gegevens kijkt, was het niet verrassend. De eerste verschillende mensen die ermee communiceerden waren brandweermensen met baarden. Dus we argumenteren dat er behoefte is aan perceptuele diversiteit, een idee dat als de robot grote, breed verschillende soorten individuen in een categorie zou kunnen zien, het de categorie beter zou kunnen ontwikkelen en begrijpen.
Zou je zeggen dat autonome robots getraind moeten worden om deze eigenaardigheden glad te strijken, dus een robot zal niet denken als deze persoon een baard heeft, hij is een brandweerman?
Absoluut. Het is van cruciaal belang dat we deze dingen gladstrijken. Het is van cruciaal belang dat we deze robots hebben die werken van een gevarieerde reeks individuen.
Hoe kan dat leren eruitzien?
Het zou de robot in staat stellen zich te concentreren op dingen die brandbestrijders beter kunnen karakteriseren. Een brandweerman draagt bijvoorbeeld misschien niet eens een jas. De robot zou dan andere aspecten van brandbestrijding opmerken, misschien de laarzen, misschien de handschoenen, misschien helmen. Het zou zeggen: "OK deze persoon echt is een brandweerman in deze omgeving."
Als je genoeg mensen had, zou het in staat kunnen zijn om een brandweerman te herkennen bij een brand versus een brandweerman tijdens een Halloween-feest. Het zijn subtiele perceptuele details, zoals het verschil tussen de kwaliteit van de soorten uniformen of contextuele omgevingen.
Behalve het associëren van baarden met brandweermannen, hoe succesvol was dit algoritme dan?
Er waren twee dingen waar we echt naar wilden kijken: een, wat kun je ermee doen? Als robots brandbestrijders kunnen herkennen, helpt dat dan op de een of andere manier? De krant toonde aan dat je je zoekopdracht kon verfijnen. In plaats van te kijken naar baarden voor haarkleur, op zoek naar oogkleur of wat je verder nog zoekt, kun je je richten op de functies die er echt toe deden. Draagt de persoon een brandweerjas? Dat zou het proces kunnen versnellen.
Een ander heel belangrijk ding waar we naar keken, is: wat als de categorie die de robot voorspelt verkeerd is? Wat voor effect heeft dat op jou? Je kunt je voorstellen dat zoek- en reddingsomgevingen chaotisch kunnen zijn: je werkt misschien in rookgevulde omstandigheden, de robot kan alles misschien niet goed waarnemen, er kunnen fouten in zitten. Je kunt je een slechtere situatie voorstellen, waarbij de robot denkt dat de persoon een slachtoffer is, terwijl ze in werkelijkheid een brandweerman zijn. Dus het probeert een brandweerman te redden. Dat zou verschrikkelijk zijn. We wilden zien waar het breekt, hoe het breekt, welke functies het meest impact hebben en wat de verschillende soorten fouten zijn.
Je kunt deze aanpak op verschillende manieren gebruiken - als ze de persoon helemaal niet kunnen zien, maar wel de acties zien die ze doen. Als ik kan zien dat de persoon een bijl selecteert, kan ik voorspellen dat ze een helm hebben.
Hoe benader je een robot om de context te beoordelen en een voorspelling te doen?
We hebben geprobeerd een aantal verschillende omgevingen te bekijken: een restaurant, een school en een verpleeghuis. We probeerden functies vast te leggen over de omgeving en welke objecten in de omgeving aanwezig zijn, welke acties de persoon selecteert en hoe de mensen in de omgeving eruit zien en proberen die te gebruiken om veel sociale voorspellingen te doen. In een schoolomgeving heffen mensen bijvoorbeeld hun hand op voordat ze praten. Dus als ik de actie zie dat mensen hun hand opsteken, welk type objecten zou ik dan verwachten in de omgeving? Verwacht ik een schoolbord te zien; verwacht ik een bureau te zien? Ik zou verwachten kinderen te zien.
De hoop die er is om deze informatie te gebruiken. Als de robot een evacuatieprocedure uitvoert, ziet hij wat voor soort mensen er zijn en waar ze zich kunnen bevinden.
Laten we zeggen dat er een robot aan je deur komt en zegt: "Volg me alsjeblieft naar de uitgang." Zoiets eenvoudigs als dat is eigenlijk heel complex. Als een robot op een deur in een flatgebouw klopt, heb je geen idee met wie je gaat communiceren. Het kan een vierjarig kind zijn, het kan een 95-jarige persoon zijn. We willen graag dat de robot zijn interactieve gedrag afstemt op het type persoon dat hij ziet om hen te redden. We nemen enkele van deze contextuele lessen en proberen die applicatie te ontwikkelen.
Gebruik je een vergelijkbare definitie van "stereotype" voor robots en mensen, of is er iets anders aan de hand?
De term stereotypering heeft een negatieve context. De manier waarop we het gebruiken, is eenvoudig categorieën van mensen ontwikkelen en categorische informatie gebruiken om de kenmerken van een persoon te voorspellen. Ik weet dat in de psychologie veel werk gericht is op gezichtsstereotypen en genderstereotypen. We doen zoiets niet. Is het proces hetzelfde? Ik weet het niet. Geen idee.
Ben je bang dat mensen misvattingen kunnen hebben over je werk?
Een paar jaar geleden ontwikkelden we dit idee van robots die mensen zouden kunnen misleiden. In de media was er een misvatting dat dit ertoe zou leiden dat robots de portemonnee van mensen zouden stelen.
Ik wil graag de noodevacuatiesituatie gebruiken: je wilt niet altijd helemaal eerlijk zijn met een persoon in een evacuatie, toch? Bijvoorbeeld, als iemand je vroeg: "Is mijn familie in orde?" Het zou verschrikkelijk kunnen zijn als de robot zei: "Nee, ze zijn allemaal gestorven. Volg me alsjeblieft naar de uitgang. "Er zijn een aantal situaties waarin de robot eigenlijk kort oneerlijk moet zijn. Maar mijn ervaring was dat mensen het gevoel hadden dat we probeerden het einde van de wereld te bereiken.
We zijn altijd geïnteresseerd in de pro-sociale aspecten van deze mens-robottechnieken. We proberen mensen te helpen, niet iets slechts.
Leslie Jones Reageert op de 'Ghostbusters'-rol van Claims is stereotype
Veel mensen hadden veel te zeggen over de officiële Ghostbusters-trailer die pas twee dagen geleden uitkwam. Sommigen dachten dat het te serieus was, anderen speculeerden dat Kate McKinnon's karakter op Kristen Wiig zou verpletteren, en op Twitter was het woord dat Leslie Jones - de enige niet-blanke en niet-sci ...
Georgia Tech Students vinden de Firefighter-versie van de gezondheidsmeter van het videospel
Twee studenten van Georgia Tech hebben een icoon van videogaming - de zeer belangrijke gezondheidsbar - naar de echte wereld gebracht om brandweerlieden te helpen veilig te blijven. Met FireHUD, een real-time heads-up display (HUD) -systeem dat biometrische en omgevingsgegevens bewaakt en toont voor brandweerlieden, technische studenten Zachary Braun ...
Heeft Microsoft's Tay de Turing-test mislukt? Ja, maar racisme was niet het probleem
Als het succes van een kunstmatige intelligentie het creëren van een kunstmatige persoonlijkheid is, heeft A.I. van A. bot, Tay, kan als een teken van vooruitgang worden beschouwd. Maar meer in het algemeen kan Tay als een mislukking worden beschouwd. "Het doel van de meeste mensen die aan dit soort conversationele agenten werken, is niet zozeer om iets door te geven ...