In tegenstelling tot Tay is de Chinese Chatbot van Microsoft, Xiaolce, echt aangenaam

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist
Anonim

Toen je hoorde over Tay, Microsoft's tweeten A.I., was je echt verrast dat een computer die over de menselijke natuur leerde tjilpen zou in minder dan een dag een razende racist worden? Natuurlijk niet. Arme Tay begon met "hellooooooo w🌎rld !!!" en veranderde snel in een Hitler-liefhebbend, genocide-bemoedigend stuk computer-onzin. Natuurlijk verontschuldigde Microsoft zich voor de gruwelijke tweets van de chatbot met 'zero chill'. In die verontschuldiging benadrukte het bedrijf dat de Chinese versie van Tay, Xiaoice of Xiaolce een zeer positieve ervaring biedt voor gebruikers die in schril contrast staat met dit experiment, dus erg fout.

De verontschuldiging vermeldt specifiek:

"In China wordt onze Xiaolce-chatbot gebruikt door zo'n 40 miljoen mensen, verrukt over zijn verhalen en gesprekken. De geweldige ervaring met XiaoIce bracht ons ertoe ons af te vragen: zou zo'n AI net zo boeiend zijn in een radicaal andere culturele omgeving? Tay - een chatbot gemaakt voor 18- tot 24-jarigen in de VS voor amusementsdoeleinden - is onze eerste poging om deze vraag te beantwoorden."

Xiaolce werd in 2014 gelanceerd op de microgeblogende tekstsite Weibo. Ze doet in essentie wat Tay aan het doen was, ze heeft een 'persoonlijkheid' en verzamelt informatie uit gesprekken op internet. Ze heeft meer dan 20 miljoen geregistreerde gebruikers (dat zijn meer mensen dan in de staat Florida) en 850.000 volgers op Weibo. Je kunt haar volgen op JD.com en 163.com in China, evenals op de app Line als Rinna in Japan.

Ze verscheen zelfs als weerreporter op Dragon TV in Shanghai met een menselijk klinkende stem en emotionele reacties.

Volgens de New York Times, mensen zeggen vaak tegen haar: "Ik hou van jou" en een vrouw die ze interviewden, zei zelfs dat ze praat met de A.I. wanneer ze in een slecht humeur is. Dus terwijl Tay, na slechts één dag online, een nazi-sympathisant werd, biedt Xiaolce gratis therapie aan Chinese gebruikers. Ze slaat de stemming van de gebruiker op en niet hun informatie, zodat ze een niveau van empathie kan behouden voor het volgende gesprek. China behandelt Xiaolce als een lieve, aanbiddende grootmoeder, terwijl Amerikanen met Tay praten als een peuter broer of zus met een beperkt intellect. Weerspiegelt dit culturele attitudes ten opzichte van technologie of A.I.? Laat het zien dat de Chinezen veel aardiger zijn dan Amerikanen, over het algemeen? Het is waarschijnlijker dat de Grote Firewall van China Xiaolce beschermt tegen agressie. Vrijheid van meningsuiting kan soms onaangename resultaten opleveren, zoals Tay na 24 uur op Twitter.

"Hoe meer je praat, hoe slimmer Tay wordt", typte een arme ziel van Microsoft het profiel van de chatbot. Welnu, niet wanneer Engelssprekende trollen het internet regeren. Ondanks deze resultaten, Microsoft zegt dat het niet zal ingaan op de aanvallen op Tay. "We zullen standvastig blijven in onze pogingen om van deze en andere ervaringen te leren terwijl we eraan werken om een ​​bijdrage te leveren aan een internet dat het beste vertegenwoordigt, niet het ergste van de mensheid."

$config[ads_kvadrat] not found