Mikor érjük el a szingularitást? – A Timeline konszenzus AI kutatók

posted in: Articles | 0

az Emerj-nél büszkék vagyunk arra, hogy objektív információkat nyújtunk a mesterséges intelligencia alkalmazásáról az iparban. Az AI számos területen alkalmazható—mindent a mezőgazdaságtól a kiberbiztonságig.

munkánk nagy része azonban az AI rövid távú üzleti hatására vonatkozott. De mi a helyzet a hosszú távú? Nem a következő negyedévről, vagy akár a jövő évről beszélünk, hanem az elkövetkező évtizedekben.,

mivel az AI erősebbé válik, elvárjuk, hogy nagyobb hatással legyen világunkra, beleértve a szervezetét is. Ezért úgy döntöttünk, hogy azt tesszük, amit a legjobban teszünk: az AI alkalmazások és a következmények mély elemzését. De ezúttal ezt az elemzést az AI hosszú távú jövőjére akartuk alkalmazni, hogy segíthessünk a kormányzati és üzleti vezetőknek megérteni azokat a távoli lehetőségeket, amelyeket ez a technológia megvalósíthat.,

megkérdezett 32 PhD kutatók AI mezőbe, majd rákérdezett a technológiai szingularitás: egy feltételezett, jövőbeni esemény, ahol számítógépes intelligencia felülmúlja majd haladhatja meg, hogy az emberi intelligencia, a mélyreható következményekkel jár a társadalom számára.

kutatásunk során hat fő kérdésre akartunk válaszolni:

  • mikor fordul elő a szingularitás, ha egyáltalán?
  • hogyan lehet a poszt-emberi intelligenciát valószínűleg elérni?,
  • will future artificial intelligence have a tendencia, hogy töredéke, vagy klaszter egy egyedülálló intelligencia?
  • milyen szerepet játszanak az emberek a szingularitás utáni világban?
  • az ENSZ-hez hasonló nemzetközi testületek szerepet játszanak az AI irányításában?
  • mit kell tenniük a vállalkozások és a kormányok most, hogy felkészüljenek az AI jövőjére?

mint ilyen, ez a sorozat összesen hat fejezetből áll:

  1. (Ön itt van) mikor érjük el a szingularitást?, – A Timeline konszenzus AI kutatók
  2. Hogyan fogjuk elérni a szingularitás-AI, Neurotechnológiák, és még több
  3. lesz mesterséges intelligencia alkotnak egy Singleton – vagy lesz sok AGI szerek? – Egy AI kutató konszenzus
  4. a szingularitás után az emberek számítanak? – AI kutató konszenzus
  5. Az Egyesült Nemzetek Szervezetének szerepet kell játszania a poszt-emberi mesterséges intelligencia irányításában?,
  6. az üzleti és kormányzati vezetők szerepe a poszt-emberi intelligencia irányításában-AI kutató konszenzus

a múltban a szingularitás inkább a tudományos fikció birodalma volt. Azonban sok AI szakértők, mint például Stuart Russell, Max Tegmark, Stuart Armstrong, hogy ezt nagyon komolyan. Célunk ezzel a felméréssel az volt, hogy megalapozott véleményt kapjunk több tucat AI szakértő szingularitásáról, valamint gondolataikról arról, hogy az emberiség hogyan készülhet fel az AI jövőjére.,

mielőtt folytatnánk, meg kell jegyeznünk, hogy ez nem a jövő végleges ábrázolása; csak lehetőségek. Szakértőink között sok nézeteltérés volt, beleértve azt is, hogy megtörténik-e a szingularitás. De függetlenül attól, hogy a lehetőségek megértése fontos lesz a kormány vagy az ipar számára, hogy a görbe előtt maradjon. Ahogy egyik válaszadónk mondta:

” a jövő valószínűleg idegen és kiszámíthatatlanabb lesz, mint gondolnánk.”- James J Hughes

mikor érjük el a szingularitást?,

Ha megkérnénk a Google Maps-et, hogy navigáljon minket a Szingularitáshoz, milyen útvonalon vezetne minket? És mikor érnénk el a célunkat? Szakértőink széles körű válaszokkal válaszoltak. Az alábbiakban a válaszok grafikus bontása látható:

az első kérdés, amelyet szakértőinknek feltettünk, az volt, amikor várták a szingularitás előfordulását., 2100

  • 17% – a válaszadók megjósolni, hogy egy randi után 2100
  • 21% – a válaszadók úgy vélik, hogy a Szingularitás nem valószínű, hogy valaha is fordulhat elő,
  • bontásban más módon:

    • 45% a válaszadók megjósolni, hogy egy randi előtt 2060
    • 34% – a válaszadók megjósolni, hogy egy randi után 2060
    • 21% – a válaszadók úgy vélik, hogy a Szingularitás nem valószínű, hogy valaha is fordulhat elő,

    A jóslatok elfordulás felé egy dátum hamarabb, mint 2100, vagy akár potenciálisan hamarabb, mint 2060., Ez meglehetősen jól illeszkedik az általunk végzett korábbi közvélemény-kutatásokhoz (lásd: a gépi tudatosság idővonala).

    érdekes megjegyezni, hogy első számú válaszunkat, a “2036-2060” – ot a “valószínűleg soha” követte a második legnépszerűbb válaszként. Muller és Bostrom a cikk későbbi részében megjegyezte saját felmérésükben, hogy sok olyan résztvevő, aki valószínűleg a “valószínűleg soha” kategóriába esik, egyszerűen nem válaszolt a felmérésre. A kutatók 2011-ben az “AI filozófiája és elmélete” konferencián egy vitaindító előadó, Hubert Dreyfus idézetét tartalmazták, hogy bemutassák ezt a pontot., Dreyfus azt mondta:

    nem hiszem, hogy válaszolnék egy ilyen elfogult kérdőívre … úgy gondolom, hogy a küszöbön álló szuperintelligencia bármilyen vitája téves. Ez nem mutatja meg az AI összes munkájának kudarcát. Még egy ilyen kérdőív megfogalmazása is elfogult és időpocsékolás.

    más szóval, felismerjük és megértjük, hogy a jelentésben tárgyalt többi felméréshez hasonlóan felmérésünk a kiválasztási elfogultság áldozatává válhat., Azok az emberek, akik válaszoltak nekünk, talán nagyobb valószínűséggel hiszik el, hogy a szingularitás nemcsak megtörténik, hanem előbb-utóbb megtörténik. Egyszerűen nem tudjuk megítélni, hogy ez a helyzet-e vagy sem.

    Ez azt jelenti, hogy miért választották ki a szakértők az általuk kiválasztott dátumokat (amelyek közül sok az életünkön belül van)? Bár a közvélemény-kutatásunk nem kért okot arra, hogy egy résztvevő miért választotta ki az általuk alkalmazott időkeretet, gyanítjuk, hogy számos fontos AI trend befolyásolhatja véleményüket.,

    sok nemzet felugrott a bandwagon, és kiadott nemzeti AI stratégiák előmozdítása hazai r&D és az új induló milliárd dolláros támogatást. Ágazatok pharma a banki egyre fogadó több tucat éves AI események, több száz vagy több ezer szektor-specifikus AI szállító cégek.

    az AI finanszírozásának, oktatásának és nemzeti stratégiájának egyértelmű lendülete minden bizonnyal jól mutatja az AI folyamatos fejlődését, és lehetséges, hogy ezek a tendenciák befolyásolták résztvevőink válaszait. Ez azt jelenti, hogy nem lehetünk biztosak benne.,

    a cikk következő három részében összehasonlítjuk eredményeinket az AI kutatóinak az elmúlt négy évben végzett két másik felmérésével, valamint két kiemelkedő futurista feltaláló és az AI gondolatvezetőjének véleményével. Müller és Bostrom felmérésével kezdjük.

    Muller és Bostrom “Future Progress in Artificial Intelligence”

    Vincent C., Muller, az Anatolia College filozófiaprofesszora, az Európai kognitív rendszerek Szövetségének elnöke, valamint Nick Bostrom, az Oxfordi neves filozófia, aki több mint 200 publikációt írt a szuperintelligenciáról, a mesterséges általános intelligenciáról (AGI) és más témákról, felmérést végzett az AI kutatóiról és a gondolatvezetőkről.

    az 550 résztvevőnek négy fő kérdést tettek fel, amelyek közül kettőt ebben a cikkben tárgyalunk:

    1. mikor valószínű az AGI?,
    2. milyen hamar AGI után, amelyet “magas szintű gépi intelligenciának” neveztek, az AGI jelentősen meghaladja az emberi képességeket (a szingularitás)?

    meg kell jegyezni, hogy Muller és Bostrom felmérésében a kérdéseket nem így fogalmazták meg; a kérdéseket átfogalmaztuk.,enyhén módon részt vesznek a szingularitás, valamint AGI vita:

    • PT-AI résztvevők többnyire nem voltak műszaki AI hittem vezetők
    • AGI résztvevők többnyire műszaki AI kutatók
    • EETN résztvevők álló egyetlen közzétett technikai AI kutatók
    • TOP100 résztvevők is voltak többnyire műszaki AI kutatók

    Mint korábban megjegyeztük, Müller pedig Bostrom kérte a résztvevőket arról, hogy mit neveznek a “Magas szintű gépi intelligencia”, vagy HLMI., Ezt azért tették, hogy enyhítsék a felmerült elfogultságot, ha felmérésük olyan szavakat tartalmazott, mint a” mesterséges általános intelligencia “vagy a “szingularitás”.”

    ennek tudatában úgy döntöttünk, hogy a “HLMI” – t az AGI-re helyettesítjük a kohézió céljából ebben a cikkben. Muller és Bostrom úgy definiálják a HLMI-t, mint olyan intelligenciát, amely “legalább a legtöbb emberi szakmát képes elvégezni, mint egy tipikus ember”, és úgy hivatkoznak rá, hogy “nagyon valószínű, hogy azt jelenti, hogy képes átadni egy klasszikus Turing tesztet.”Ennek eredményeként úgy gondoljuk, hogy retorikai helyettesítésünk indokolt.,

    Muller és Bostrom talált néhány érdekes eredményt:

    • a résztvevők 10% – os valószínűséget adtak neki, hogy 2022-re AGI lesz, 50% – os valószínűséggel, hogy 2040-re AGI lesz, és 90% – os a valószínűsége annak, hogy 2075-re AGI lesz. Ezek az évek mind medián válaszok voltak.
    • a résztvevők medián 10% – os valószínűséget adtak arra, hogy az AGI csak két évvel a találmány után jelentősen meghaladja az emberi intelligenciát., Bár lehet, hogy nem biztosak a találmány utáni kétéves pályán, úgy vélik, hogy 75% a valószínűsége annak, hogy egy szuperintelligencia, amely meghaladja az embereket, 30 évvel az AGI feltalálása után merül fel.
      • talán érdemes megjegyezni, hogy a résztvevők AGI csoportja, többnyire technikai AI kutatók, 5% – kal nagyobb valószínűséggel találta meg, mint a résztvevők teljes csoportja, hogy az AGI a találmány után két évvel (15%) meghaladja az embereket, és 15% – kal valószínűbb, hogy 30 év alatt meghaladja az embereket (90%).,
      • furcsa módon a műszaki kutatók másik két csoportja (EETN és TOP100) sokkal kevésbé valószínű, hogy az AGI csoport azt hitte, hogy az AGI a találmány után még 30 év alatt meghaladja az emberi intelligenciát (55%, illetve 50%).

    Muller és Bostrom közvetlenül nem kérdezték meg a résztvevőket, hogy mikor fordulhat elő a szingularitás, de úgy tűnik, hogy jelentős különbség van a résztvevők és a miénk között. A Muller és a Bostrom résztvevőinek fele azt válaszolta, hogy 90 százalék a valószínűsége annak, hogy 2075 után sikerül elérni az AGI-t. Az átlagos év 2081 volt.,

    Bár ott nem lehet közvetlenül összehasonlítani az eredményeket a felmérés eredményei Müller pedig Bostrom miatt eltérő módszerek, talán van valami, azt mondják, az a tény, hogy a 24% – át a résztvevők, a legnagyobb adatszolgáltató csoport, voltak benne, az egyedülállóság között történik, 2036, valamint 2060, mivel 50% – a, Müller pedig Bostrom résztvevői adta 90% – os annak a valószínűsége, hogy nem is lenne elérni, AGI, amíg 2075, nemhogy elérni, hogy a szingularitás.,

    Muller és Bostrom résztvevői általában úgy gondolták, hogy a szingularitásnak 75% – os esélye van arra, hogy 30 évvel az AGI elérése után bekövetkezzen, ami a szingularitás időkeretét több évtizeddel későbbre helyezi, mint azt a résztvevők hitték.

    Előrejelzések a Futuristák – Ray Kurzweil, majd Louis Rosenberg

    általánosságban úgy tűnik, hogy a résztvevők a projekt egy rövidebb időn elérte a szingularitás, mint Müller, valamint Bostrom van. Ez teszi őket sokkal inkább összhangban Ray Kurzweil, neves futurista, valamint a Google Igazgatója, Mérnöki., Kurzweil azt állítja, egy 86% – os pontossággal arány az előrejelzések vissza a 90-es években. A szingularitás idővonal, azt jósolja, hogy a szingularitás maga által elért 2045.

    hasonlóképpen, Louis Rosenberg, PhD, feltaláló, vezérigazgató és vezető tudós egyhangú AI, van ez mondani az időkeretet a szingularitás:

    vissza a korai 1990-es években, amikor elkezdtem gondolkodni erről a kérdésről, azt hittem, hogy az AI meghaladná az emberi képességek körül az év 2050. Jelenleg úgy gondolom, hogy ez hamarabb megtörténik, valószínűleg már 2030-ban., Ez nagyon meglepő számomra, mivel az ilyen típusú előrejelzések általában tovább csúsznak a jövőbe, amikor a technológia korlátai előtérbe kerülnek, de ez gyorsabban sikoltozik felénk, mint valaha.

    Kurzweil ismert a különböző előrejelzések feltörekvő technológia és a transzhumán átmenet, beleértve az agy-gép interfész, nanotechnológiák, AGI, stb ..

    Kurzweil előrejelzései – a szingularitás közel van (2005). Forrás: Wikipedia

    Grace et.,al ” mikor fogja az AI meghaladni az emberi teljesítményt?”

    Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang és Owain Evans, Oxford, Yale és AI Impact kutatói saját felmérést végeztek. Résztvevőik 352 kutató voltak, akik a 2015-ös NIPS és ICML konferenciákon publikáltak a gépi tanulás kutatására. Résztvevőik 82% – a volt az akadémián, míg 21% – uk az iparban dolgozott.

    Grace et.al a” High-level machine intelligence ” (HLMI) a felmérés, de ellentétben Muller és Bostrom, Grace et.,al úgy tűnik, hogy meghatározza azt, ahogyan meghatározzuk a szingularitást: “minden feladatban felülmúlja az embereket.”Ezért helyettesítjük Grace-t és kollégáinkat, hogy a HLMI-t a kohézió céljaira használják a szingularitásra ebben a cikkben.

    Grace és kollégái résztvevőinek átlagosan 10% – os valószínűsége volt annak, hogy a szingularitás a 2016-os felmérés után (2025-ig) 9 éven belül megvalósul. A résztvevők átlagosan 50% – os valószínűséggel számoltak be arról, hogy a szingularitás a felmérés elvégzését követő 45 éven belül (2061-ig) következik be., Ezzel a válaszadóik a legnagyobb válaszcsoportunk végére kerültek: azok, akik úgy vélik, hogy a szingularitás 2036 és 2060 között fog megtörténni.

    et.al azt is megkérdezték a résztvevőktől ,hogy ” annak a valószínűsége, hogy az AI lényegesen jobban teljesít, mint az emberek minden feladatban, két évvel a HLMI elérése után.”Tekintettel arra, hogy a “HLMI” olyan gépi intelligencia, amely minden feladatban “jobb” volt, mint az emberek, nem világos, hogy pontosan mit jelentenek a kutatók “mérhetetlenül”.,”Nem vagyunk biztosak abban, hogy ez egy olyan kérdés volt-e, amelyet a szingularitásra hivatkozva feltettek, vagy ha a HLMI meghatározása a szingularitásra vonatkozott, ahogy azt értelmeztük.

    Ez azt jelenti, hogy a kérdés nagyon hasonlít a Muller és a Bostrom által feltett kérdésre, így összehasonlíthatjuk a két választ. Érdekes módon a Grace és kollégái résztvevői medián 10% – os valószínűséggel válaszoltak arra, hogy az AI a HLMI feltalálása után két évvel” mérhetetlenül ” jobb lenne az embereknél, mint a Muller és a Bostrom felmérésében., Ugyanez a valószínűsége annak, hogy Muller és Bostrom résztvevői is beszámoltak.

    bár érdekes lett volna látni, hogy milyen esélyt adtak Grace és kollégái résztvevői az AGI feltalálása után 30 évvel bekövetkező szingularitásra, a kutatók nem vették fel a kérdést a felmérésükre.

    tehát mikor valószínű a szingularitás?

    úgy tűnik, mintha az AI kutatói és gondolati vezetői azt vetítenék előre, hogy a szingularitás nagyjából a következő négy-öt évtizedben fog bekövetkezni. Muller és Bostrom résztvevői további ütemtervet vetítenek előre, de Grace et.,al, Kurzweil és Rosenberg a szingularitást nagyjából a legnagyobb válaszadó csoportunk időkeretén belül vetítik előre: ismét 2036 és 2060 között.

    Vélemény, hozzászólás?

    Az email címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük