Musk, Wozniak, Hawking, andere genieën zijn tegengestelde autonome wapens

$config[ads_kvadrat] not found

Elon Musk, Stephen Hawking Warn of Killer Robot Wars

Elon Musk, Stephen Hawking Warn of Killer Robot Wars
Anonim

Al tientallen jaren is de AK-47 de dodelijke machine van keuze in veel stoffige hoeken van de wereld, omdat deze goedkoop, duurzaam en alomtegenwoordig is. Diezelfde factoren, beweren ondertekenaars van een open brief die maandag is vrijgegeven door het Future of Life Institute, zijn de reden waarom autonome wapens vol gevaar zitten. Maar wat kunstmatige bewapening onderscheidt van Kalashnikovs, is dat de autonome machine 'doelen kan selecteren en aangrijpen zonder menselijk ingrijpen' - wat in de verkeerde handen gruwelijkheden zou kunnen bedrijven die veel groter zijn dan enig niet-becijferend geweer.

De ondertekenaars hebben hun werk voor hen gedaan. Als mens zijn we als geheel veel beter in reageren dan in denken. Grote spelers zijn traag geweest met het verlagen van onze nucleaire wapens (en autonome drones bouwen, zo denkt men, zou een fractie van de machinerie nodig hebben die nodig is om een ​​atoombom te maken); elders, landmijnen nog steeds tientallen jaren oude slagvelden. Wanneer een technologie een revolutie teweeg zou brengen in oorlogsvoering - of het nu buskruit of scheepszucht of verrijkt uranium betreft - is er bijna nooit sprake van niet een wapenwedloop geweest.

De FLI maakt een onderscheid tussen de drones die we nu hebben, op afstand bestuurd door menselijke handen, en een robot ingeschakeld en overgelaten aan zijn eigen moorddadige apparaten. De oprichting van de laatste zou leiden tot een wereldwijde AI-wapenwedloop, zoals de FLI beweert, en zoals de geschiedenis van de Kalashnikov laat zien, zou niet goed eindigen:

Het zal slechts een kwestie van tijd zijn totdat ze verschijnen op de zwarte markt en in de handen van terroristen, dictators die hun bevolking beter willen beheersen, krijgsheren die etnische zuivering willen plegen, enz. Autonome wapens zijn ideaal voor taken zoals moorden, destabilisatie naties, het onderwerpen van bevolkingen en het selectief doden van een bepaalde etnische groep. We zijn daarom van mening dat een militaire AI-wapenwedloop niet gunstig zou zijn voor de mensheid. Er zijn veel manieren waarop AI slagvelden veiliger kan maken voor mensen, vooral burgers, zonder nieuwe hulpmiddelen te creëren om mensen te doden.

Dit is wat zware shit. En de namen achter deze waarschuwing zijn niet jouw alledaagse Skynet-crackpots - het zijn makers, ingenieurs, wetenschappers en filosofen die hebben geholpen te bepalen hoe onze technologie er vandaag uitziet. Een deel van de namen zijn: Apple's Steve Wozniak, Skype's Jaan Tallinn, fysica van Harvard Lisa Randall, een who's who van AI-onderzoekers en robotici - inclusief Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - actrice Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawking heeft de laatste tijd beetje een beetje een pessimistische neiging, en herhaalt ook zijn voorspellingen over de gevaren van het ontmoeten van buitenaards leven. Hij zal deze week ook vragen beantwoorden over deze brief en de toekomst van technologie op Reddit - we kunnen mogelijk geen controle uitoefenen over vijandige buitenaardse wezens, maar we kunnen de nadruk leggen op wetenschappers die voorop lopen bij deze technologie om de menselijke factor te behouden voorop en centraal van hun innovaties."

U kunt ook uw naam aan de brief toevoegen.

$config[ads_kvadrat] not found