Pixelbeelden zijn geen match voor Cornell Tech's gezichtsherkenning A.I.

$config[ads_kvadrat] not found

The Search For D. B. Cooper

The Search For D. B. Cooper
Anonim

Drie onderzoekers van Cornell Tech in New York City hebben ontdekt dat wazige en gepixelde afbeeldingen geen partij zijn voor kunstmatige intelligentie. Hoewel verborgen afbeeldingen onbegrijpelijk blijven voor het menselijk oog en dus lijken ze hun gevoelige inhoud te beschermen, kunnen neurale netwerken vaak precies vertellen wie wie is in het oorspronkelijke beeld.

Met andere woorden, mensen zijn niet langer de lakmoesproef. We kunnen niet langer vragen of iets de menselijke hersens verslaat. A.I.s - zelfs eenvoudige A.I.s - kunnen beter presteren dan mensen, dus het verslaan ervan moet altijd deel uitmaken van de vergelijking.

Het onderzoek van de Cornell Tech-onderzoekers richtte zich op het testen van privacybehoudalgoritmen die bepaalde informatie of delen van afbeeldingen vervagen of pixeliseren. Eerder vertrouwden we impliciet op privacybehoudende software of algoritmen, ervan uitgaande dat de informatie die ze verduisterden veilig was omdat er geen menselijk kon vertellen wie achter de digitale sluier zat. Het onderzoek laat zien dat die tijd voorbij is en dat gerelateerde anonimiseringsmethoden niet lang zullen duren. Neurale netwerken, die met deze privacymaatregelen worden geconfronteerd, zijn onaangedaan.

Richard McPherson is een Ph.D. kandidaat in computerwetenschappen aan de Universiteit van Texas, Austin, die zijn professor, Vitaly Shmatikov, naar Cornell Tech volgde. Samen met Reza Shokri toonden ze aan dat eenvoudige neurale netwerken gemeenschappelijke beeldverbuigingsmethoden konden ontmaskeren. De techniek is relatief ongecompliceerd, wat de ontdekking zorgelijker maakt: dit zijn gebruikelijke, toegankelijke methoden en ze waren in staat de industrienormen voor obfuscatie te verslaan.

Neurale netwerken zijn grote, gelaagde structuren van knopen of kunstmatige neuronen, die de basisstructuur van de hersenen nabootsen. Ze zijn "gebaseerd op een vereenvoudigd begrip van hoe neuronen werken", vertelt McPherson omgekeerde. "Geef het wat input, en het neuron vuurt of vuurt niet."

Ze zijn ook in staat om 'te leren', door een ruwe definitie van de term. Als je een wild (volledig ongeschoold) mens iets "rood" laat zien en hem vertelt alle "rode" dingen uit een emmer te halen, zullen ze eerst worstelen, maar in de loop van de tijd verbeteren. Dat geldt ook voor neurale netwerken. Machinaal leren betekent gewoon een computer leren om de 'rode' dingen uit een virtuele emmer met veelkleurige dingen te kiezen.

Dat is hoe McPherson en zijn bedrijf hun neurale netwerk hebben getraind. "In ons systeem creëren we een model - een architectuur van neurale netwerken, een gestructureerde set van deze kunstmatige neuronen - en dan geven we ze een grote hoeveelheid versluierde beelden", zegt hij. "We kunnen ze bijvoorbeeld honderd verschillende afbeeldingen van Carol geven die zijn gepixeld en vervolgens honderd verschillende afbeeldingen van Bob die zijn gepixeld."

De onderzoekers labelen deze gepixelde afbeeldingen en vertellen aan het model wie in elk beeld zit. Na het verwerken van deze dataset, weet het netwerk functioneel hoe Pixelated Bob en Pixelated Carol eruit zien. "We kunnen het dan een ander korrelig beeld geven van Bob of Carol, zonder het label," legt McPherson uit, "en het kan een gok wagen en zeggen:" Ik denk dat dit Bob is met een nauwkeurigheid van 95 procent."

Het model reconstrueert het versluierde beeld niet, maar het feit dat het in staat is om de meest gebruikelijke en voorheen meest betrouwbare anonimisatiemethoden te verslaan, is op zichzelf al verontrustend. "Ze zijn in staat om erachter te komen wat wordt versluierd, maar ze weten niet hoe het er oorspronkelijk uitzag," zegt McPherson.

Maar de neurale netwerken zijn nog steeds in staat om zo veel beter te doen dan mensen. Toen de beelden het meest versluierd waren met één industriestandaard-techniek, was het systeem nog steeds voor meer dan 50 procent nauwkeurig. Voor iets minder versluierde afbeeldingen bleek het systeem opmerkelijk, met een nauwkeurigheid van ongeveer 70 procent. De YouTube-norm voor onscherpe gezichten is totaal mislukt; zelfs de meest wazige beelden werden overtroffen door het neurale netwerk, dat 96 procent nauwkeurig bleek te zijn.

Andere voorheen ongeschonden data-, tekst- en beeldanonisatietechnieken zijn eveneens onbetrouwbaar. "In de zomer was er een werk dat keek naar het anonimiseren van tekst met behulp van pixelatie en vervaging, en toonde aan dat ze ook gebroken konden worden", zegt McPherson. En andere betrouwbare methodes kunnen ook de deur uit zijn. Hoewel hij de ins-en-outs van voice obfuscation-technieken, zoals die voor anonieme tv-interviews, niet kent, zou hij 'niet verrast' zijn als neurale netwerken de anonimisering zouden kunnen doorbreken.

McPherson's ontdekking bewijst dan ook dat "de privacy-bewarende methoden die we in het verleden hadden, niet echt van toepassing zijn, met name met moderne machine learning-technieken." Met andere woorden, we coderen onszelf in irrelevantie, we trainen machines om overtref ons in alle rijken.

"Naarmate de kracht van machine learning groeit, zal deze tradeoff verschuiven ten gunste van de tegenstanders", schreven de onderzoekers.

$config[ads_kvadrat] not found