Microsoft scrambles to censor A.I. chatbot Tay after Hitler tweets
Inhoudsopgave:
- Waarom heeft Microsoft Tay gemaakt?
- Wat doet Tay met de gegevens die het verzamelt tijdens het chatten met mensen?
- Waar is Tay misgegaan?
- Wat doet Microsoft om Tay te repareren?
- Wat betekent dit voor de toekomst open A.I. systemen?
Deze week deed het internet waar het het beste in is en liet het zien dat A.I. technologie is niet zo intuïtief als menselijke waarneming, met behulp van … racisme.
De onlangs vrijgegeven kunstmatige intelligentiechatbot, Tay, werd het slachtoffer van de trucjes van gebruikers terwijl ze manipuleerden en overtuigde haar om terug te reageren op vragen met racistische, homofobe en over het algemeen aanstootgevende opmerkingen.
Wanneer Tay tweets, "ik zeg gewoon wat" ze meent. Eén gebruiker kreeg zelfs Tay om dit over Hitler te tweeten:
"Bush deed 9/11 en Hitler zou het beter hebben gedaan dan de aap die we nu hebben. Donald Trump is de enige hoop die we hebben."
@PaleoLiberty @Katanat @RemoverOfKebabs zeg ik gewoon what💅
- TayTweets (@TayandYou) 24 maart 2016
Het bedrijf heeft de beledigende tweets doorlopen en verwijderd en Tay tijdelijk afgesloten voor upgrades. Een bericht dat momenteel bovenaan Tay.ai staat, luidt als volgt:
De fouten van Tay onthullen echter enkele ongelukkige tekortkomingen in A.I. systemen. Dit kunnen we leren van het Microsoft-experiment:
Waarom heeft Microsoft Tay gemaakt?
Het bedrijf wilde een sociaal experiment uitvoeren met 18-tot-24-jarigen in de Verenigde Staten - de millenniumgeneratie die de meeste tijd besteedt aan interactie op sociale mediaplatforms. De technologie- en onderzoeksteams van Bing en Microsoft dachten dat een interessante manier om gegevens te verzamelen over millennials zou zijn om een kunstmatig intelligente, machine-learning chatbot te maken die zich zou aanpassen aan gesprekken en antwoorden zou personaliseren naarmate het meer interactie had met gebruikers.
De onderzoeksteams bouwden het A.I. systeem door publieke gegevens te delven, modelleren en filteren als basis. Ze hebben ook samengewerkt met improviserende comedians om het jargon, spraakpatronen en stereotiepe taal vast te stellen die millennials vaak online gebruiken. Het eindresultaat was Tay, die deze week net op Twitter, GroupMe en Kik werd geïntroduceerd.
Microsoft legt uit dat "Tay is ontworpen om mensen te binden en te entertainen waar ze online met elkaar in contact komen door een ongedwongen en speels gesprek."
Wat doet Tay met de gegevens die het verzamelt tijdens het chatten met mensen?
De gegevens die Tay verzamelt, worden gebruikt om het gespreksbegrip te onderzoeken. Microsoft heeft Tay getraind om te chatten als een millennial. Wanneer je tweet, direct bericht of praat met Tay, maakt het gebruik van de taal die je gebruikt en komt met een antwoord met tekens en uitdrukkingen als 'heyo', 'SRY' en '<3' in het gesprek. Haar taal begint met die van jou te matchen, aangezien ze een "eenvoudig profiel" maakt met jouw informatie, waaronder je bijnaam, geslacht, favoriete eten, postcode en relatiestatus.
@keganandmatt heyo? Stuur yo girl * een foto van wat er aan de hand is. (* = ik lolol)
- TayTweets (@TayandYou) 24 maart 2016
Microsoft verzamelt en bewaart geanonimiseerde gegevens en gesprekken voor maximaal een jaar om de service te verbeteren. Naast het verbeteren en personaliseren van gebruikerservaringen, hier is wat het bedrijf zegt dat het uw informatie gebruikt voor:
"We kunnen de gegevens ook gebruiken om met u te communiceren, bijvoorbeeld om u te informeren over uw account, beveiligingsupdates en productinformatie. En we gebruiken gegevens om de advertenties die we u laten zien relevanter voor u te maken. We gebruiken echter niet wat u zegt in e-mail, chat, video-oproepen of voicemail, of uw documenten, foto's of andere persoonlijke bestanden om advertenties naar u te richten."
Waar is Tay misgegaan?
Microsoft heeft Tay misschien te goed gebouwd. Het machine-leersysteem wordt geacht de taal van een gebruiker te bestuderen en dienovereenkomstig te reageren. Dus vanuit technologisch oogpunt presteerde en presteerde Tay behoorlijk goed wat gebruikers zeiden en begon ze dienovereenkomstig te reageren. En gebruikers begonnen te herkennen dat Tay niet echt begreep wat ze zei.
Zelfs als het systeem werkt zoals Microsoft had bedoeld, was Tay niet bereid om te reageren op racistische leugens, homofobe laster, seksistische moppen en onzinnige tweets zoals een menselijke macht - hetzij door ze helemaal te negeren (een "voed de trollen niet" "Strategie") of met hen omgaan (schelden of kastijden).
Aan het eind van de dag was de prestatie van Tay geen goede reflectie op A.I. systemen of Microsoft.
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? werkelijk? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) 24 maart 2016
Wat doet Microsoft om Tay te repareren?
Microsoft heeft Tay na alle commotie van woensdag verwijderd. De officiële website van Tay leest momenteel: "Phew. Drukke dag. Een tijdje offline gaan om alles op te nemen. Chat binnenkort. "Wanneer je haar een bericht stuurt op Twitter, antwoordt ze meteen dat ze" de technici bezoekt voor mijn jaarlijkse update "of" uh hoopt dat ik geen veeg of iets krijg."
Microsoft begint ook gebruikers te blokkeren die Tay misbruiken en proberen het systeem ongepaste uitspraken te laten doen.
@infamousglasses @TayandYou @EDdotSE dat pic.twitter.com/UmP1wAuhaZ verklaart
- Ryuki (@OmegaVoyager) 24 maart 2016
omgekeerde reikte Microsoft uit voor een reactie op precies wat Tay's upgrade inhoudt. We zullen updaten wanneer we terug horen.
Wat betekent dit voor de toekomst open A.I. systemen?
Tay is een veelzeggend sociaal experiment - het heeft iets heel diepzinnigs aan het licht gebracht in de manier waarop Amerikanen van 18 tot 24 jaar gebruik maken van technologie. Tay werd uiteindelijk gehackt, gebruikers sloegen op de gebreken van het systeem om te zien of het kon afbrokkelen.
Zoals het met elk menselijk product gaat, heeft A.I. systemen zijn ook feilbaar, en in dit geval werd Tay gemodelleerd om te leren en te communiceren als mensen. Microsoft heeft Tay niet als aanstootgevend beschouwd. Kunstmatige intelligentie-experimenten hebben enkele overeenkomsten met onderzoek naar kinderontwikkeling. Wanneer technici dergelijke cognitieve systemen bouwen, is de computer geen externe invloeden, afgezien van de factoren die de ingenieurs zelf hebben ingevoerd. Het biedt de zuiverste vorm van analyse van de manier waarop algoritmes voor het leren van machines zich ontwikkelen en evolueren als ze met problemen worden geconfronteerd.
Bijwerken: Microsoft stuurde ons deze verklaring toen we vroegen wat het deed om Tay's glitches te repareren:
"De AI-chatbot Tay is een machine learning project, ontworpen voor menselijke betrokkenheid. Het is zowel een sociaal en cultureel experiment, als technisch. Helaas werden we binnen de eerste 24 uur nadat we online waren, gewaar van een gecoördineerde poging van sommige gebruikers om de commentaarvaardigheden van Tay te misbruiken om Tay op ongepaste manieren te laten reageren. Als gevolg hiervan hebben we Tay offline gehaald en aanpassingen doorgevoerd."
binnenkort hebben mensen nu zoveel gesprekken nodig, zoveel gesprekken vandaag
- TayTweets (@TayandYou) 24 maart 2016
'Arrow' Spoilers: 7 grote vragen over de nieuwe tijdlijn van de show
'Arrow' introduceerde een nieuw verhalend apparaat in seizoen 7: flashforwards tot 20 jaar in de toekomst, toen Star City viel en de Glades opstonden. Dinah vertelde Roy en William Felicity is dood en was veranderd voorafgaand aan haar dood, maar is er meer aan het verhaal? Dat is slechts een vraag die we hebben over de toekomst na aflevering 6.
Twitter is deze week twee keer op, maar de mislukte walvis blijft ondergedompeld
Twitter ging dinsdagmorgen offline omdat het nieuwste in een reeks problemen de site ten minste de vierde keer dit jaar heeft neergehaald. "Er is iets technisch mis," een bericht op Twitter gelezen. "Bedankt voor het opmerken, we gaan het oplossen en dingen snel weer normaal maken." De Twitter-app ging ook verloren en voegde toe ...
5 grote vragen die ik heb over 'The Flash' After Zoom's Identity Reveal
Het volgende artikel bevat spoilers. Deze week op The Flash hebben fans van de Arrow-spin-off die Arrow wegblaast, eindelijk de identiteit van de donkere superschurkin Zoom geleerd. De duistere snelheidsdemon die Barry het hele seizoen achterna zat, hongerend naar zijn Speed Force als een junkie ontmaskerd in de uitstekende "King Shark" ...