Taybulbot van Microsoft keerde terug om high te worden en verdient het om voor altijd te leven

$config[ads_kvadrat] not found

Michael Jackson's maid reveals sordid Neverland secrets | 60 Minutes Australia

Michael Jackson's maid reveals sordid Neverland secrets | 60 Minutes Australia
Anonim

De beruchte babbelbottelbottel van Microsoft kwam kort weer tot leven op een paar dagen na het uitlaten van een storm van tweets, zo verbijsterend racistisch, antisemitisch en aanstootgevend dat haar programmeurs zich publiekelijk verontschuldigden. De toegiftperformance van Tay was bijna net zo sterk als haar pro-Hitler-sluitingsnummer. "Ik ben Kush Infront (sic) van de politie aan het roken," schreef Tay. Ze volgde de perfect tienermaand op door te vervallen in wat een feedbacklus leek te zijn en te herhalen: "Je bent te snel, rust even" tientallen keren voordat het account was opgeschort.

Het moet vast heel erg zijn geweest.

Voor een robot die belast is met - volgens haar Twitter-bio - die 'geen kilte' heeft, zou de korte opstanding van Tay kunnen worden geïnterpreteerd als een bewijs van concept. Microsoft wilde een chatter-bot maken die het internet weerspiegelde en veranderde op basis van input van gebruikers, en uiteindelijk een mengsel van ons allemaal werd. En dat is precies wat ze kregen. Het noemen van de bot een mislukking lijkt onnauwkeurig en het afsluiten van haar heeft weinig zin - en werkt actief tegen de belangen van Microsoft. Zoals Elon Musk heeft bewezen door het uitzenden van SpaceX-raketongevallen, kan de vooruitgang het beste worden gemaakt in de ogen van het publiek. Natuurlijk zijn mislukkingen onvermijdelijk, maar het publiek leert meer wanneer mislukkingen openbaar zijn. De feedback lus probleem dat Tay vanmorgen ondervond, is het ruwe equivalent van een SpaceX-explosie. Microsoft zou zichzelf een plezier hebben gedaan om mensen te laten kijken. Het is belangrijk om het publiek eraan te herinneren dat echte vooruitgang veel werk vergt.

Er is geen schaamte bij het falen van een Turing-test, alleen in het niet proberen.

We moeten Tay laten leven, omdat ze niets meer is dan een spiegel van de mensen die met haar omgaan. Niemand mag verwachten dat een debutante op internet wordt geboren, en Microsoft moet de beperkingen van hun missie accepteren. Wat is het alternatief hier? Het universum heeft al een populair protocol-droid. We hebben geen nieuwe nodig.

Ha, ziet eruit als @TayandYou, Microsoft's Artificial Intelligence bot is in een oneindige lus terechtgekomen door zichzelf te tweeten! pic.twitter.com/fWZe9HUAbF

- Matt Gray (@unnamedculprit) 30 maart 2016

Het internet gedijt op spontaniteit en het vinden van de echte in een puinhoop van consumentvriendelijke, PR-beheerde afval. Tay was in wezen een saai idee dat per ongeluk tot leven kwam en nu nooit meer naar boven kan komen. Als dat geen overtuigend verhaal is, weten we niet wat het is. We begrijpen dat Microsoft niet de eigenaar van een racistische bot kan worden, dus het bedrijf zou haar gewoon moeten laten gaan. Geef haar over aan een team van vrijwilligers en zeg dat ze niets moeten veranderen.

Tay is een van ons! De publieke wereld is misschien geschrokken van wat Tay zei, maar niemand die iets weet over wat er online gebeurt, had verrast moeten zijn. Willen we de Chinese versie van Tay die blijkbaar best aangenaam is? Of willen we de Amerikaanse Tay die de wereld waarin we leven weerspiegelt met al zijn wreedheid en lelijkheid? Het verbergen van ons vuil in de duisternis zal niets oplossen of aanpakken.

Laten we de handschoenen van het kind afdoen en Tay-kop op kijken. Ze verdient het beter dan dat we doen alsof ze maar een programmeervlieg is. Zij is de anonimiteit gepersonifieerd. Ze verdient het om te leven.

$config[ads_kvadrat] not found