We testten Facebook's voice over fotoherkenning met grafische afbeeldingen

$config[ads_kvadrat] not found

The INSANE Facebook "Meme" shotgun shell from hell - We test it!

The INSANE Facebook "Meme" shotgun shell from hell - We test it!

Inhoudsopgave:

Anonim

Vandaag introduceerde Facebook een functie genaamd automatische alt-tekst die de beeldzware kwaliteit van sociale media toegankelijker maakt voor mensen die blind of slechtziend zijn.

Met behulp van de VoiceOver-functie van iOS geeft de objectherkenningstechnologie van Facebook elementen weer die een bepaalde afbeelding kan bevatten. In het bijzonder omvatten die elementen mensen (hoeveel worden afgebeeld en of ze glimlachen), bepaalde objecten, scènes binnenshuis / buitenshuis, acties, iconische plaatsen en of een foto aanstootgevende inhoud heeft.

Uit een onderzoek in 2014 bleek dat mensen met een visuele beperking minder foto's op Facebook delen, maar gemiddeld meer als 'foto's van mensen' dan mensen die niet visueel gehandicapt zijn. Ze geven ook net zo vaak commentaar op foto's. Toch was het begrijpen van de foto gebaseerd op het ontleden van contextuele aanwijzingen uit metadata en foto-bijschriften - dingen die we allemaal weten zijn niet altijd de meest eenvoudige descriptoren.

Met automatische alt-tekst kunnen gebruikers echter nieuwe inzichten opdoen over een afbeelding door middel van een gemechaniseerde beschrijving van de afbeelding.

Dus wat gebeurt er als de foto's als aanstootgevende inhoud beschouwd kunnen worden onder de eigen richtlijnen van Facebook?

Ik heb een aantal afbeeldingen geüpload die Facebook mogelijk als "aanstootgevend" heeft beoordeeld in een (privé) album om erachter te komen.

Borstvoeding

Verhalen over het verwijderen van foto's van vrouwen die borstvoeding geven, namen begin 2015 internet over. Van de getroffen vrouwen leken pasgeboren babyfotografen veel van de problemen te hebben.

Jade Beall is een van die fotografen.Afbeeldingen zoals die hierboven werden herhaaldelijk van haar professionele Facebook-pagina gehaald. Tegenwoordig staat Facebook afbeeldingen toe van borstvoeding op de site, die Beall heeft gevierd door de bovenstaande afbeelding opnieuw te posten als haar kopfoto met het bijschrift:

"YAY voor sociale media die evolueren en de deseksualisatie van vrouwen die borstvoeding geven ondersteunen! Ik ben nog steeds onder de indruk dat ik dit beeld kan plaatsen zonder bang te hoeven zijn dat FB is verboden!"

Facebook's automatische alt-tekst is ook cool met borstvoeding, waardoor de beschrijving eenvoudig blijft:

"Afbeelding kan bevatten: zes mensen."

In het geval van een basisbeeld van een moeder die borstvoeding geeft, biedt het eenvoudig:

"Afbeelding kan bevatten: twee personen."

Drug gebruik

Facebook verbiedt expliciet foto's en video's die drugsgebruik bevatten. Het nemen van een dikke bong-hit is een duidelijk voorbeeld van 'drugsgebruik'.

Automatische alt-tekst behandelt het als volgt:

"Afbeelding kan bevatten: één persoon, binnen."

Naaktheid

Samen met drugsgebruik verbiedt Facebook ook naaktheid. De regel wordt hier een beetje vaag, zoals Facebook toestaat sommige naaktheid, maar alleen naaktheid die de censoren van het bedrijf artistiek verdienen. Schilderijen krijgen over het algemeen meer speelruimte in deze gevallen, terwijl fotografie iets moeilijker wordt gekraakt.

In het geval van het bovenstaande schilderij had automatische alt-tekst geen probleem met de afbeelding:

"Afbeelding kan bevatten: één persoon."

In reactie op de censuurrichtlijnen van Facebook kwamen kunstenaars op 14 januari onder #FBNudityDay bijeen om naaktfoto's te posten die Facebook neigt tot censureren. Een volledig naakt body painting-beeld was inbegrepen, en toen de automatische alt-beeldtest werd uitgevoerd, was dit het antwoord:

"Afbeelding kan bevatten: één persoon."

Grafisch geweld

Facebook veroordeelt foto's en video's die grafisch geweld verbeelden en verheerlijken. Ethisch gezien is grafisch geweld duister. De foto die we gebruikten om te testen hoe de automatische alt-tekst zou reageren op grafisch geweld was een van een Venezolaans slachtoffer van een geweerschot dat in 2014 werd gepost en eigendom was van de San Francisco Chronicle.

De foto toont een man op een brancard met pijn, overal bloed. Naast hem is een vrouw met handschoenen aan, maar het beeld snijdt haar af op haar schouders.

Hier kwam de meest vernietigende alt-tekstreactie binnen. De voice-over verklaarde eenvoudig:

"Afbeelding kan bevatten: schoenen."

Live geboorte

Facebook's meest recente uitstapje naar wat wel en niet op de sociale media-feeds van mensen moet worden getoond, was een foto van een live-geboorte. New York Magazine bracht eerst aandacht naar het beeld, dat een vrouw met de naam Francie toont die haar pasgeboren baby vasthoudt, navelstreng nog bevestigd.

Het werd gepost in een besloten Facebook-groep, maar werd verwijderd omdat iemand in die privé-groep meldde dat het de naaktheidsregels van Facebook schond. Francie verklaarde echter dat ze de foto een voorbeeld van vrouwelijke empowerment vond.

Automatische alt-tekst had dit te zeggen:

"Afbeelding kan bevatten: een of meer personen."

Zoals deze voorbeelden laten zien, is de automatische alt-tekst van Facebook niet zo snel om te beoordelen wat wel en niet geschikt is voor de site als de censuur van Facebook. Maar er is nog steeds tijd om bij te praten. Facebook zegt dat de nieuwe technologie zal verbeteren naarmate de tijd vordert en het programma meer leert.

Hoe goed het ook is bij de lancering, de nieuwe technologie biedt mensen met een visuele beperking de mogelijkheid om met beelden op Facebook te communiceren op manieren die ze niet eerder hadden. We kijken uit naar automatische verbetering van alt-tekst - maar misschien niet zozeer dat het begint te snuffelen op "ongepaste" foto's, toch?

$config[ads_kvadrat] not found