När når vi singulariteten? – En tidslinje konsensus från AI forskare

posted in: Articles | 0

på Emerj, vi är stolta över att presentera objektiv information om tillämpningar av artificiell intelligens inom industrin. AI är tillämplig på en mängd olika områden – allt från jordbruk till cybersäkerhet.

det mesta av vårt arbete har dock varit på den kortsiktiga effekten av AI i näringslivet. Men hur är det på lång sikt? Vi pratar inte om nästa kvartal, eller ens nästa år, men under de kommande decennierna.,

eftersom AI blir kraftfullare förväntar vi oss att den får större inverkan på vår värld, inklusive din organisation. Så vi bestämde oss för att göra det vi gör bäst: en djup analys av AI-applikationer och konsekvenser. Men den här gången ville vi tillämpa den analysen på AI: s långsiktiga framtid så att vi kunde hjälpa regeringen och företagsledarna att förstå de mer avlägsna möjligheter som denna teknik skulle kunna ge upphov till.,

vi intervjuade 32 doktorander inom AI-området och frågade dem om den tekniska singulariteten: en hypotetisk framtida händelse där dataintelligens skulle överträffa och överträffa den mänskliga intelligensen med djupgående konsekvenser för samhället.

under hela vår forskning ville vi svara på sex huvudfrågor:

  • när kommer singulariteten att inträffa, om alls?
  • Hur kan Post-human intelligens troligen uppnås?,
  • kommer framtida artificiell intelligens att ha en tendens att fragmentera, eller att klustera in i en singulär intelligens?
  • vilken roll kommer människor att spela i en post-singularity Värld?
  • ska internationella organ som FN spela en roll för att vägleda AI?
  • Vad ska företag och regeringar göra nu för att förbereda sig för AI: s framtid?

som sådan har denna serie totalt sex kapitel:

  1. (du är här) När kommer vi att nå singulariteten?, – En tidslinje konsensus från AI forskare
  2. hur vi kommer att nå singularitet-AI, neuroteknik, och mer
  3. kommer artificiell intelligens bildar en Singleton – eller kommer det att finnas många AGI agenter? – En AI-forskare konsensus
  4. efter singulariteten, kommer människor att spela Roll? – AI forskare konsensus
  5. bör FN spela en roll för att styra Post-Human artificiell intelligens?,
  6. företags-och Regeringsledarnas roll i att styra Post – Human Intelligence-AI-forskarens konsensus

tidigare har singulariteten varit mer sfären av science fiction att utforska. Men många AI-experter, som Stuart Russell, Max Tegmark och Stuart Armstrong, tar detta väldigt seriöst. Vårt mål med denna undersökning var att samla en grundad åsikt om singulariteten från dussintals AI-experter, liksom deras tankar om hur mänskligheten kan förbereda sig för AI: s framtid.,

innan vi fortsätter bör vi notera att detta inte är en definitiv skildring av framtiden; bara möjligheter. Det var mycket oenighet bland våra experter, inklusive huruvida singulariteten skulle inträffa eller inte. Men oavsett, förstå möjligheterna kommer att vara viktigt för alla i regeringen eller industrin att ligga steget före kurvan. Som en av våra respondenter sa:

”framtiden kommer sannolikt att vara främling och mer oförutsägbar än vi föreställer oss.”- James J Hughes

när kommer vi att nå singulariteten?,

om vi skulle be Google Maps att navigera oss till singulariteten, vilken väg skulle det ta oss? Och när skulle vi nå vår destination? Våra experter svarade med ett brett utbud av svar. Nedan följer en grafisk uppdelning av deras svar:

de första frågorna vi ställde till våra experter var när de förväntade sig att singulariteten skulle inträffa., 2100

  • 17% av respondenterna förutspår ett datum efter 2100
  • 21% av respondenterna tror att singulariteten sannolikt inte kommer att uppstå
  • brutit ner ett annat sätt:

    • 45% av respondenterna förutspår ett datum före 2060
    • id=”66b91560ea”>34% av respondenterna förutspår ett datum efter 2060
    • 21% av respondenterna tror att singulariteten sannolikt aldrig kommer att inträffa

    förutsägelserna skeva mot ett datum tidigare än 2100 eller till och med potentiellt tidigare än 2060., Detta stämmer ganska bra med tidigare undersökningar Vi har gjort (se: tidslinje för Maskinmedvetenhet).

    det är intressant att notera att vårt nummer ett svar, ”2036-2060”, följdes av ”sannolikt aldrig” som det näst mest populära svaret. Muller och Bostrom, diskuteras senare i denna artikel, noterade i sin egen undersökning writeup att många deltagare som sannolikt skulle falla i kategorin ”sannolikt aldrig” helt enkelt inte svarade på undersökningen. Forskarna inkluderade ett citat från en huvudtalare, Hubert Dreyfus, vid konferensen ”filosofi och teori om AI” i 2011 för att illustrera denna punkt., Dreyfus sa:

    Jag skulle inte tänka på att svara på ett sådant partiskt frågeformulär…jag tror att någon diskussion om överhängande Super–intelligens är felaktig. Det visar ingen förståelse för misslyckandet av allt arbete i AI. Även bara formulera ett sådant frågeformulär är partisk och är ett slöseri med tid.

    med andra ord, vi inser och förstår att liksom de andra undersökningar som diskuteras i denna rapport, vår undersökning kan falla offer för urval partiskhet., De människor som svarade oss är kanske mer benägna att tro att singulariteten inte bara kommer att inträffa utan kommer att ske tidigare än senare. Vi kan helt enkelt inte bedöma om så är fallet.

    som sagt, Varför valde experterna de datum de valde (varav många är inom våra livstider)? Medan vår undersökning inte frågade efter en anledning till varför en deltagare valde den tidsram de gjorde, misstänker vi att ett antal viktiga AI-trender kan ha påverkat deras åsikter.,

    många nationer har hoppat på tåget och har släppt nationella AI-strategier för att främja inhemska R&d och nya nystartade företag med miljarder dollar av stöd. Sektorer från pharma till bank blir värd för dussintals årliga AI-händelser och hundratals eller tusentals sektorsspecifika AI-leverantörsföretag.

    den tydliga dynamiken i ai-finansiering, utbildning och nationell strategi bådar verkligen gott för AI: s fortsatta framsteg, och det är möjligt att dessa trender påverkade våra deltagares svar. Med det sagt kan vi inte vara säkra.,

    i de kommande tre delarna av artikeln jämför vi våra resultat med två andra undersökningar av AI-forskare som genomfördes under de senaste fyra åren och åsikterna från två framstående futuristiska uppfinnare och AI-tankeledare. Vi börjar med en undersökning från Muller och Bostrom.

    Muller och Bostroms ”framtida framsteg inom artificiell intelligens”

    Vincent C., Müller, Professor i Filosofi vid Anatolien Högskola och Ordförande för Europeiska Föreningen för Kognitiva System, och Nick Bostrom, känd filosofi vid Oxford, som har skrivit över 200 publikationer på superintelligens, artificiell generell intelligens (AGI), och andra ämnen, har genomfört en undersökning av AI-forskare och filosofer.

    de ställde 550 deltagare fyra huvudfrågor, varav två kommer vi att diskutera i den här artikeln:

    1. när är AGI sannolikt att hända?,
    2. hur snart efter AGI, som de kallade ”hög nivå maskin intelligens,” kommer AGI överträffa kraftigt mänskliga möjligheter (singularitet)?

    det bör noteras att frågorna inte formulerades på detta sätt i Muller och Bostroms undersökning; vi har parafraserat frågorna.,något på det sätt som de deltar i singularity och AGI-diskussionen:

    • PT-AI-deltagarna var mestadels icke-tekniska ai-trodde ledare
    • AGI-deltagarna var mestadels tekniska AI-forskare
    • eetn-deltagarna bestod av endast publicerade tekniska AI-forskare
    • Top100 deltagare var också mestadels tekniska AI-forskare

    som tidigare nämnts frågade Muller och Bostrom deltagarna om vad de kallar ”högnivåmaskinsintelligens” eller hlmi., De gjorde detta för att mildra bias som kunde ha uppstått om deras undersökning innehöll ord som ”artificiell allmän intelligens” eller ”singularitet.”

    att veta detta, vi har beslutat att ersätta” HLMI ” för AGI för sammanhållning i denna artikel. Muller och Bostrom definierar HLMI som en intelligens ”som kan utföra de flesta mänskliga yrken åtminstone såväl som en typisk människa” och hänvisar till det som ”mycket sannolikt innebär att kunna klara ett klassiskt Turingtest.”Som ett resultat tror vi att vår retoriska substitution är berättigad.,

    Muller och Bostrom hittade några intressanta resultat:

    • deltagarna gav det en 10% sannolikhet att vi skulle ha AGI av 2022, en 50% sannolikhet att vi skulle ha AGI av 2040, och en 90% sannolikhet att vi skulle ha AGI av 2075. Dessa år var alla median svar.
    • deltagarna gav det en median 10% sannolikhet att AGI i hög grad kommer att överträffa mänsklig intelligens bara två år efter uppfinningen., Även om de kanske inte är säkra på den tvååriga banan efter uppfinningen, tror de att det finns 75% sannolikhet att en superintelligens som överträffar människor kommer att uppstå 30 år efter uppfinningen av AGI.
      • kanske värt att notera är att AGI-gruppen av deltagare, mestadels tekniska AI-forskare, fann det 5% mer sannolikt än den totala poolen av deltagare som AGI skulle överträffa människor två år (15%) efter uppfinningen och 15% mer sannolikt att det skulle överträffa människor i 30 år (90%).,
      • konstigt nog var de andra två grupperna av tekniska forskare (EETN och TOP100) mycket mindre benägna än AGI-gruppen att tro att AGI skulle överträffa mänsklig intelligens om 30 år efter uppfinningen (55% respektive 50%).

    Muller och Bostrom frågade inte direkt deltagarna när singulariteten kan uppstå, men det verkar vara en signifikant skillnad mellan sina deltagare och våra. Hälften av alla Muller och Bostroms deltagare svarade att det finns en 90% sannolikhet att uppnå AGI efter 2075. Det genomsnittliga året var 2081.,

    Även om det inte finns något sätt att direkt jämföra resultaten av vår undersökning med resultaten av Muller och Bostroms på grund av olika metoder, kanske finns det något att säga om det faktum att 24% våra deltagare, den största rapporteringsgruppen, var övertygade om att singulariteten skulle inträffa mellan 2036 och 2060, medan 50% av Muller och Bostroms deltagare gav det en 90% sannolikhet att vi inte ens skulle uppnå AGI förrän efter 2075, än mindre nå singulariteten.,

    Muller och Bostroms deltagare i allmänhet trodde att singulariteten har en 75% chans att inträffa 30 år efter AGI uppnås, vilket sätter tidsramen för singulariteten flera decennier senare än våra deltagare trodde.

    prognoser från futurister-Ray Kurzweil och Louis Rosenberg

    i allmänhet verkar det våra deltagare projekt en kortare tidsram för att nå singulariteten än Muller och Bostroms. detta sätter dem mer i linje med Ray Kurzweil, känd futurist och Googles chef för teknik., Kurzweil hävdar en 86% noggrannhet med sina förutsägelser som går tillbaka till 90-talet. i sin singularitets tidslinje förutspår han att singulariteten själv uppnås 2045.

    På samma sätt har Louis Rosenberg, PhD, inventor och CEO och Chief Scientist of Unionist AI, detta att säga om tidsramen för singulariteten:

    tillbaka i början av 1990-talet, när jag började tänka på denna fråga, trodde jag att AI skulle överstiga mänskliga förmågor runt år 2050. För närvarande tror jag att det kommer att ske tidigare än så, möjligen så tidigt som 2030., Det är väldigt förvånande för mig, eftersom dessa typer av prognoser vanligtvis glider längre in i framtiden när teknikens gränser kommer i fokus, men den här skriker mot oss snabbare än någonsin.

    Kurzweil är känd för en mängd olika förutsägelser om framväxande teknik och transhuman övergång, inklusive hjärna-maskin gränssnitt, nanoteknik, AGI, etc.

    Kurzweils förutsägelser från – singulariteten är nära (2005). Källa: Wikipedia

    Grace et.,al: S ” när kommer AI att överträffa mänsklig prestation?”

    Katja Nåd, John Salvatier, Allan Dafoe, Baobao Zhang, och Owain Evans, forskare från Oxford, Yale, och AI Effekter, genomfört en undersökning av sina egna. Deras deltagare var 352 forskare som publicerade vid 2015 NIPS och ICML-konferenser för forskning inom maskininlärning. 82% av deltagarna var i den akademiska världen, medan 21% arbetade inom industrin.

    Grace et.al använd ”high-level machine intelligence” (HLMI) i sin undersökning, men till skillnad från Muller och Bostrom, Grace et.,al verkar definiera det som vi definierar singulariteten: ”överträffa människor i alla uppgifter.”Av denna anledning kommer vi att ersätta nåd och kollegers användning av HLMI för singulariteten för sammanhållning i den här artikeln.

    Grace och kollegors deltagare gav en genomsnittlig 10% Sannolikhet för att singulariteten skulle uppnås inom 9 år efter att undersökningen genomfördes 2016 (senast 2025). Deltagarna gav också en genomsnittlig 50% sannolikhet att singulariteten skulle inträffa inom 45 år efter undersökningen genomfördes (av 2061)., Detta sätter sina respondenter på sagans slut i vår största response group: de som tror att singulariteten kommer att hända mellan 2036 och 2060.

    konstigt, nåd et.al frågade också deltagarna ” för sannolikheten att AI skulle utföra mycket bättre än människor i alla uppgifter två år efter att HLMI uppnåtts.”Med tanke på deras definition av ”HLMI” som en maskin intelligens som var ”bättre” än människor på alla uppgifter, är det oklart vad exakt forskarna menar med ”väldigt.,”Vi är osäkra på om detta var en fråga som de ställde med hänvisning till singulariteten eller om deras definition av HLMI var med hänvisning till singulariteten som vi tolkade den.

    som sagt, är frågan mycket lik den som ställs av Muller och Bostrom, och så kan vi jämföra de två svaren. Intressant svarade Grace och kollegors deltagare med en median 10% sannolikhet att AI skulle vara ”väldigt” bättre på människor vid alla uppgifter två år efter hlmi: s uppfinning, vilket för denna fråga verkar referera AGI som det gör i Muller och Bostroms undersökning., Detta är samma sannolikhet att Muller och Bostroms deltagare rapporterade.

    även om det skulle ha varit intressant att se vilken chans nåd och kollegors deltagare gav för singulariteten som inträffade 30 år efter uppfinningen av AGI, inkluderade forskarna inte frågan om deras undersökning.

    så när kommer singulariteten sannolikt att inträffa?

    det verkar som om AI-forskare och tankeledare projicerar singulariteten att inträffa ungefär inom de närmaste fyra till fem decennierna. Muller och Bostroms deltagare projicerar ytterligare en tidslinje, men Grace et.,al, Kurzweil och Rosenberg alla projekt singulariteten att ske ungefär inom tidsramen för vår största respondent grupp: återigen, mellan 2036 och 2060.

    Lämna ett svar

    Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *