MIT zegt A.I. Nog niet slim genoeg Toch heeft Cybersecurity nog steeds mensen nodig

$config[ads_kvadrat] not found

Incident Response | Cyber Security Crash Course

Incident Response | Cyber Security Crash Course
Anonim

Het Massachusetts Institute of Technology heeft goed nieuws als u zich in de beveiligingsindustrie bevindt: A.I. robots misschien niet neem je werk.

Onderzoekers van MIT's Computer Science and Artificial Intelligence Laboratory (CSAIL) hebben vorige week een paper gepubliceerd waarin een verbeterd cybersecurity-systeem, "A.I.²", wordt beschreven. Het is een "analist-in-the-loop-systeem" dat A.I. door enorme hoeveelheden gegevens en menselijke analisten heen te kammen om feedback te geven.

A.I.² combineert de twee typen cyberbeveiligingssystemen die momenteel in gebruik zijn: door analisten gestuurd (mensen die proberen te identificeren en reageren op aanvallen) en zonder toezicht op het leerproces worden gestuurd (A.I. met patronen om aanvallen te voorspellen en te detecteren). Beide systemen hebben hun nadelen. Mensen hebben de neiging om veel cyberaanvallen te missen vanwege overweldigende gegevens, en A.I. heeft de neiging veel valse alarmen uit te zetten omdat patronen niet altijd voorspellend zijn.

Het combineren van de kracht van een mens bij het identificeren van ware dreigingen, en de kracht van A.I. bij het verwerken van grote hoeveelheden gegevens, resulteert in een sterker beveiligingssysteem. Ook kunnen mensen hun cybersecurity-banen behouden.

Teruggaan naar menselijk werk klinkt misschien als iets dat onderzoekers in een laboratorium voor kunstmatige intelligentie zouden proberen te voorkomen. Maar de onderzoekers van MIT beweren dat het gebruik van mensen en A.I. samen leidt dit tot een detectiesnelheid van 86,8 procent - 10 keer beter dan de solo-A.I. tarief van 7,9 procent - en is het goedkoper om op te starten.

A.I.² bestaat uit vier componenten. Ten eerste verzamelt een computer big data. De gegevens worden verwerkt en uitbijters worden uitgetrokken met behulp van reeds bestaande A.I. technologie. Vervolgens heeft de A.I. trekt alles wat "kwaadaardig" kan zijn en stuurt het naar een menselijke analist. Ten slotte stuurt de analist feedback naar de A.I., die leert van de informatie en beter wordt in het ontcijferen als een aanval kwaadaardig of normaal is.

Een echte gegevensset van 3,6 miljard logregels verifieerde dat A.I. en mensen presteerden beter als een team dan als afzonderlijke entiteiten.

In het algemeen klinkt A.I.² meer als een tussenstap tussen de ontwikkeling van technologie en volledige autonomie. De A.I. zal uiteindelijk genoeg van hun menselijke medewerkers leren dat de student de meester wordt. Maar totdat deep-learning A.I. overweldigend effectiever dan door de mens ondersteunde A.I., voorspelt het onderzoekspaper dat cybersecurity-analisten in nog een paar jaar werkzekerheid kunnen schrijven.

$config[ads_kvadrat] not found