A.I.'s snelle vooruitgang moet eng zijn als u oplet

$config[ads_kvadrat] not found

GHOSTEMANE - AI (OFFICIAL VIDEO)

GHOSTEMANE - AI (OFFICIAL VIDEO)
Anonim

Als het gaat om het identificeren van existentiële bedreigingen door technologische innovaties, roept de populaire verbeelding visies op van terminator, The Matrix, en Ik robot - dystopieën geregeerd door robot-overlords die mensen massaal uitbuiten en uitroeien. In deze speculatieve toekomsten leidt een combinatie van superintelligentie en kwade bedoelingen ertoe dat computers het menselijke ras vernietigen of tot slaaf maken.

Een nieuwe studie suggereert echter dat het de banale toepassingen van A.I. dat zal de komende jaren tot ernstige sociale gevolgen leiden. Het rapport - "Schadelijk gebruik van kunstmatige intelligentie" - geschreven door 26 onderzoekers en wetenschappers van elite-universiteiten en technisch gerichte denktanks, schetst manieren waarop de huidige A.I. technologieën bedreigen onze fysieke, digitale en politieke veiligheid. Om hun onderzoek onder de aandacht te brengen, heeft de onderzoeksgroep alleen gekeken naar technologie die al binnen de komende vijf jaar bestaat of plausibel zal zijn.

Wat de studie vond: A.I. systemen zullen waarschijnlijk bestaande bedreigingen uitbreiden, nieuwe introduceren en het karakter ervan veranderen. De stelling van het rapport is dat technologische vooruitgang bepaalde wandaden eenvoudiger en waardevoller maakt. De onderzoekers beweren dat verbeteringen in A.I. vermindert de hoeveelheid middelen en expertise die nodig is om een ​​aantal cyberaanvallen uit te voeren, waardoor de barrières voor criminaliteit effectief worden verminderd:

De kosten van aanvallen kunnen worden verlaagd door het schaalbare gebruik van AI-systemen om taken uit te voeren die normaliter menselijke arbeid, intelligentie en expertise vereisen. Een natuurlijk effect zou zijn om het aantal actoren uit te breiden dat bepaalde aanvallen kan uitvoeren, de snelheid waarmee ze deze aanvallen kunnen uitvoeren en de reeks potentiële doelen.

Het rapport bevat vier aanbevelingen:

1 - Beleidsbepalers moeten nauw samenwerken met technische onderzoekers om mogelijk kwaadwillig gebruik van AI te onderzoeken, te voorkomen en te beperken.

2 - Onderzoekers en ingenieurs op het gebied van kunstmatige intelligentie moeten de dual-use aard van hun werk serieus nemen, waardoor misvervormde overwegingen invloed kunnen hebben op onderzoeksprioriteiten en -normen en proactief contact kunnen maken met relevante actoren wanneer schadelijke toepassingen te voorzien zijn.

3 - Beste praktijken moeten worden geïdentificeerd op onderzoeksgebieden met meer volwassen methoden voor het aanpakken van dual-use-zaken, zoals computerbeveiliging, en geïmporteerd waar van toepassing op het geval van AI.

4 - Actief zoeken naar uitbreiding van het scala aan belanghebbenden en domeinexperts die betrokken zijn bij discussies over deze uitdagingen

Hoe A.I. kan huidige oplichting slimmer maken: bijvoorbeeld, speer-phishing-aanvallen, waarbij oplichters zich voordoen als een vriend, familielid of collega van een doelwit om vertrouwen te winnen en informatie en geld te extraheren, zijn al een bedreiging. Maar vandaag hebben ze een aanzienlijke hoeveelheid tijd, energie en expertise nodig. As A.I. systemen worden steeds geavanceerder, sommige activiteiten die nodig zijn voor een spear phishing-aanval, zoals het verzamelen van informatie over een doelwit, kunnen worden geautomatiseerd. Een phisher kan dan aanzienlijk minder energie investeren in elke grift en meer mensen aanspreken.

En als oplichters A.I. beginnen te integreren. in hun online griften, kan het onmogelijk worden om de werkelijkheid van simulatie te onderscheiden. "Naarmate AI verder ontwikkelt, kunnen overtuigende chatbots het vertrouwen van mensen oproepen door mensen in langere dialogen te betrekken en zich uiteindelijk visueel voordoen als een andere persoon in een videochat", zegt het rapport.

We hebben de gevolgen van machinegegenereerde video al gezien in de vorm van Deepfakes. Naarmate deze technologieën toegankelijker en gebruiksvriendelijker worden, maken de onderzoekers zich zorgen dat slechte acteurs gefabriceerde foto's, video's en audiobestanden zullen verspreiden. Dit kan resulteren in uiterst succesvolle lastercampagnes met politieke consequenties.

Voorbij het toetsenbord: En potentieel misdrijf is niet beperkt tot internet. Naarmate er meer autonome voertuigen worden geïmplementeerd, kunnen hackers tegenstrijdige voorbeelden inzetten om zelfrijdende auto's voor de gek te houden zodat ze hun omgeving verkeerd kunnen waarnemen. "Een afbeelding van een stopbord met een paar pixels die op specifieke manieren zijn veranderd, wat mensen gemakkelijk zouden herkennen als nog steeds een afbeelding van een stopbord, kan desalniettemin verkeerd worden aangemerkt als iets anders geheel door een AI-systeem", zegt het rapport.

Andere bedreigingen zijn autonome drones met geïntegreerde gezichtsherkenningssoftware voor targetingdoeleinden, gecoördineerde DOS-aanvallen die menselijk gedrag nabootsen, en geautomatiseerde, hyper-gepersonaliseerde desinformatiecampagnes.

In het rapport wordt aanbevolen dat onderzoekers potentiële kwaadaardige toepassingen van A.I. tijdens het ontwikkelen van deze technologieën. Als er geen afdoende verdedigingsmaatregelen worden getroffen, hebben we misschien al de technologie om de mensheid te vernietigen, geen moordende robots vereist.

$config[ads_kvadrat] not found