Het OpenAI-project van Elon Musk identificeerde 4 grote problemen voor AI

Elon Musk: Can Superintelligent AI Help us Reach Type 1 Civilization?

Elon Musk: Can Superintelligent AI Help us Reach Type 1 Civilization?

Inhoudsopgave:

Anonim

De meeste problemen die kunnen voortvloeien uit steeds geavanceerdere kunstmatige intelligentie zijn veel subtieler dan SkyNet, maar dat betekent niet dat er slimmer A.I. komt niet zonder zijn risico's.

Dat is de reden waarom Elon Musk en andere Silicon Valley-topduiven Open AI vormden, een groep die zich bezighield met het oplossen van problemen met A.I. voordat ze echte schade kunnen aanrichten. Die groep wordt OpenAI genoemd en zoekt hulp bij deze problemen.

"OpenAI is een non-profit onderzoeksbureau voor kunstmatige intelligentie," zegt de groep op de pagina Over. "Ons doel is om digitale intelligentie te bevorderen op de manier die de mensheid als geheel het meest ten goede zal komen, niet beperkt door de noodzaak om financieel rendement te genereren."

Een vacature die is vermomd als een blogpost met de titel "Speciale projecten" schetst vier van dergelijke "projecten" als problemen met "zeer brede implicaties" of die "belangrijke gevolgen van AI-ontwikkeling" aanpakken. En dan zijn schrijvers - Ilya Sutskever, Dario Amodei en Sam Altman - nodigen alle krachtige machine-learningexperts uit om "een poging te wagen aan een van deze problemen bij OpenAI." Dien gewoon een aanvraag in, vragen ze. Hier zijn die vier grote problemen voor kunstmatige intelligentie:

Verborgen AI-systemen zoeken.

Wat is erger dan een erg slimme A.I. die kan worden gebruikt voor het verkeerde doel? Een zeer slimme A.I. dat is al voor het verkeerde doel gebruikt zonder dat iemand het weet. "Naarmate het aantal organisaties en middelen dat aan AI-onderzoek wordt toegewezen toeneemt, neemt de kans toe dat een organisatie een niet-bekendgemaakte AI-doorbraak maakt en het systeem gebruikt voor mogelijk kwaadwillige doeleinden", schrijft het OpenAI-team in zijn blogpost. "Het lijkt belangrijk om dit te detecteren. We kunnen ons veel manieren voorstellen om dit te doen - kijken naar het nieuws, financiële markten, online games, etc."

Het bouwen van een A.I. dat kan programmeren.

Sommige van de beste programmeurs zijn lui. Het is dus logisch dat OpenAI een A.I. in staat om zelfstandig programma's te maken. Beter om de tijd te besteden aan het maken van een A.I. slim genoeg om alles te coderen wat je in de toekomst misschien nodig hebt, dan al die dingen zelf te coderen. Dit is 2016, voor hardop schreeuwen, en programmeurs hebben een pauze nodig!

A.I. gebruiken voor cyberdefensie.

"Een vroeg gebruik van AI zal zijn om in te breken in computersystemen", schrijft OpenAI. "We willen graag dat AI-technieken beschermen tegen geavanceerde hackers die veel gebruikmaken van AI-methoden." Dat klinkt goed, vooral omdat MIT waarschuwde dat huidige A.I. vertrouwt op mensen om zich te beschermen tegen cyberaanvallen.

Het maken van echt complexe simulaties.

"We zijn geïnteresseerd in het bouwen van een zeer grote simulatie met veel verschillende agents erin die met elkaar kunnen communiceren, over een lange periode kunnen leren, taal kunnen ontdekken en een rijke verscheidenheid aan doelen kunnen bereiken", schrijft het OpenAI-team.

Oh kom op. Nu proberen jullie alleen maar te bewijzen dat Musk gelijk heeft over ons leven in een simulatie.