Artsen in Amerika hoopvol over corona-aanpak Biden
Ed Felten, de vice-chief technology officer van de Verenigde Staten voor het Witte Huis Office of Science and Technology Policy, zegt dat mensen twee belangrijke verantwoordelijkheden hebben als het gaat om de ontwikkeling en vooruitgang van kunstmatige intelligentie.
De eerste, zegt hij, is "de voordelen van A.I. een realiteit. "De tweede:" om de risico's van A.I."
Felten sprak met een kamer vol mensen in het Skirball Center for the Performing Arts van de Universiteit van New York op A.I. Nu - een reeks lezingen voor de zomer, mede gesponsord door het Witte Huis, dat de belangrijkste kwesties met betrekking tot de toekomst van A.I. wilde onderzoeken en bespreken. technologie.
A.I. staat op een kruispunt, A.I. Nu wees co-voorzitter Kate Crawford (een onderzoeker bij Microsoft Research) en Meredith Whittaker (de oprichter en leider van Google Open Research) op. Particuliere en publieke sectoren moeten samenwerken om een of andere haalbare A.I. het beleid. Maar het probleem is dat, terwijl technologiebedrijven enorme vooruitgang boeken in de richting van het bevorderen van de eigenlijke code en architectuur die gaat naar het maken van A.I. een almachtige kracht, onze huidige beleidsstructuren zijn verouderd of, erger nog, niet-bestaand.
Te lang, A.I. is weggegooid als een futuristisch concept, niet van toepassing op de moderne tijd. Maar A.I. heeft zich stilletjes gemanifesteerd in het stedelijk beleid, door een massa gegevens gesluisd en diensten aan mensen geleverd op een manier dat louter menselijke macht niet in staat is om ooit te bereiken. Felten noemde voorbeelden in de manier waarop algoritmen gegevens kunnen gebruiken om mensen te koppelen aan betaalbare woningen, of om transparantie af te dwingen, zodat het publiek toegang heeft tot waardevolle informatie.
Dat wil niet zeggen dat A.I. is perfect; het is heel veel niet. Tijdens het hoofdpaneel voor de avond, Latanya Sweeney, een A.I. onderzoeker aan de Harvard University, besprak een verhaal dat ze noemde: "The Day My Computer Was Racist."
Een verslaggever die Sweeney interviewde, zocht haar naam op via Google en ontdekte dat haar naam opdook onder advertenties voor sites die aanbieden om gegevens over strafrechtelijke arrestaties te verzamelen en te delen. Sweeney was nooit gearresteerd en haar naam maakte zelfs geen deel uit van de database van de website, maar haar naam was prominent aanwezig in de advertentie. Zoals elke goede wetenschapper nam Sweeney haar eigen persoonlijke ervaring en voerde ze een studie uit en ontdekte dat deze advertenties significant meer namen van zwarte individuen bevatten dan blanke individuen. De reden? De levering van deze advertenties door Google is het resultaat van een algoritme dat meer gewicht geeft aan wat mensen hebben geklikt toen advertenties werden weergegeven. Toen een zwarte naam met Google werd Googled, klikten meer mensen op deze advertenties. Het systeem leerde het patroon en begon die advertenties in grotere frequentie weer te geven.
Het is een waardevolle les om de belofte van A.I te gronden: mensen voeren uiteindelijk technologie aan, en racistische acties van mensen kunnen ontwerp en algoritmen beïnvloeden en, ja, zelfs A.I.
Google kan die vooroordelen in hun advertentieservices gemakkelijk detecteren en ze corrigeren. 'Ze hebben ervoor gekozen dat niet te doen,' voerde Sweeney aan.
Zou een moderner beleidskader Google kunnen dwingen dit probleem te verhelpen? Misschien. Nicole Wong, die van 2013 tot 2014 de voorganger van Felten was, benadrukte dat veel mensen - inclusief A.I. onderzoekers zelf - hadden een grote bezorgdheid over een "groeiende asymmetrie in macht" tussen de mensen die big data gebruiken en de mensen die uiteindelijk getroffen worden, die varieerden van de onderwerpen van de gegevens, of degenen die beïnvloed werden door de beslissingen die door dergelijke gegevens werden geïnformeerd.
Deze zorgen zijn niet alleen beperkt tot de particuliere sector. Roy Austin, adjunct-assistent van de president van de raad voor het binnenlands beleid van het Witte Huis, heeft gerefereerd hoe de rechtshandhaving door A.I. sterk zou kunnen worden verbeterd. - of maak een massale machtsovername en misbruik als het gaat om de privacy van burgers. "De vraag wordt:" Wat doen we met deze gegevens? ", Zei hij. Het is één ding om gegevens te hebben, maar wie heeft er toegang toe? Voor hoelang? Wie heeft er toegang toe? Nogmaals, we hebben geen beleidsantwoorden of oplossingen voor deze vragen en onzekerheden - en dat is verontrustend omdat we naar een toekomst lopen die meer en meer gecontroleerd wordt door A.I.
Een derde pijler van zorg had minder te maken met schandelijk gebruik van A.I., en meer te maken met hoe A.I. en autonome systemen verplaatsen mensen van hun werk. Henry Siu, een A.I. Onderzoeker aan de Universiteit van British Columbia, sprak over 'routinematige' bezigheden (waarbij medewerkers een heel specifieke reeks taken uitvoeren die bijna nooit afwijken van een vaste routine), en hoe dit banenverlies het meest kwetsbaar is voor verstoringen in technologie. Automatisering heeft een schrijnende inkrimping gecreëerd in deze banen - en ze komen niet terug.
Klinkt als hetzelfde oude verhaal van industrialisatie, maar het is niet helemaal. Terwijl "deze revolutie misschien al hier is … het misschien minder exotisch is dan we hadden voorzien", waarschuwde David Edelman, speciale assistent van de president voor economisch en technologiebeleid. Baanverlies "zal niet allemaal tegelijk gebeuren." Zowel hij als Siu benadrukten dat de oplossing is om een onderwijsklimaat te creëren waar mensen niet stoppen met naar school gaan, ze verwerven voortdurend nieuwe vaardigheden en specialisaties die hen laten aanpassen met technologie.
Het zou voor beleidsmakers geruststellend kunnen zijn om te beseffen dat de Verenigde Staten niet de enige is die deze problemen aanpakt. Maar als Amerika de leiding wil blijven nemen voor A.I., moet het opvoeren in de beleidsarena.
Mustafa Suleyman, de medeoprichter van Google DeepMind, besprak het potentieel voor A.I. om systemen in de gezondheidszorg te ondersteunen en artsen over machine-algoritmen in staat te stellen bepaalde ziekten en ziekten te diagnosticeren - zodat mensen tijd vrijmaken om met behandelmethoden te komen. Voor Suleyman, die Brits is, leek het niet vergezocht om een dergelijk systeem in ziekenhuizen op te zetten. Sweeney wees er echter op dat "u in de VS geen controle heeft over uw eigen gegevens" - er zijn geen wettelijke maatregelen om ervoor te zorgen dat informatie niet wordt misbruikt. En dat is a reusachtig probleem.
"Ik wil alles dat ik uit elk succes van technologie kan persen", zei Sweeney. "Het probleem is niet de technologische kant; het probleem is dat we niet in de pas lopen met het overheidsbeleid. '
Onze hersenen leggen het moment vast dat we sterven
Het menselijk brein onthult chemisch de tijd van overlijden zonder falen, concluderen een aantal onderzoekers. Onderzoekers die verduurzaamde hersenen onderzoeken, ontdekten dat alle biologische activiteit stopt op het moment van overlijden, wat op zijn beurt het punt van overlijden markeert. De bepaling van het tijdstip van overlijden (TOD) is verbonden met wat co ...
Waarom kunnen we niet horen dat onze harten kloppen? Hier is hoe onze hersenen het volume verlagen
Denk aan de keren dat je in staat was om je hart te voelen - de gierende, smoorlollie na een uitputtende training of een adrenaline-aangedreven moment. Als u gezond bent, zijn dit de zeldzame momenten waarop u zich bewust bent van uw eigen hartslag. Er is eerder aangenomen dat dit komt door de hersenen, maar tot nu toe ...
Nieuw Hubble-beeld van sterren "zwermen" kan aanwijzingen bevatten naar het verleden van onze melkweg
Onderzoek naar beelden uit de Hubble-ruimtetelescoop van de NASA onthult enkele aanwijzingen over de archeologie van het Melkwegstelsel.