Quando raggiungeremo la singolarità? – A Timeline Consensus from AI Researchers

postato in: Articles | 0

In Emerj, siamo orgogliosi di presentare informazioni oggettive sulle applicazioni dell’intelligenza artificiale nell’industria. L’IA è applicabile in un’ampia varietà di settori, dall’agricoltura alla sicurezza informatica.

Tuttavia, la maggior parte del nostro lavoro è stato sull’impatto a breve termine dell’IA nel mondo degli affari. Ma per quanto riguarda il lungo termine? Non stiamo parlando del prossimo trimestre, o anche del prossimo anno, ma nei decenni a venire.,

Man mano che l’IA diventa più potente, ci aspettiamo che abbia un impatto maggiore sul nostro mondo, inclusa la tua organizzazione. Così, abbiamo deciso di fare quello che sappiamo fare meglio: una profonda analisi delle applicazioni AI e implicazioni. Ma, questa volta, abbiamo voluto applicare tale analisi per il futuro a lungo termine di AI in modo da poter aiutare il governo e gli imprenditori a capire le possibilità più distanti che questa tecnologia potrebbe portare a compimento.,

Abbiamo intervistato 32 ricercatori di dottorato nel campo dell’IA e chiesto loro della singolarità tecnologica: un ipotetico evento futuro in cui l’intelligenza informatica supererebbe e supererebbe quella dell’intelligenza umana con profonde conseguenze per la società.

Nel corso della nostra ricerca, abbiamo voluto rispondere a sei domande principali:

  • Quando si verificherà la singolarità, se non del tutto?
  • Come potrebbe essere probabilmente raggiunta l’intelligenza post-umana?,
  • L’intelligenza artificiale del futuro avrà la tendenza a frammentarsi o a raggrupparsi in un’intelligenza singolare?
  • Che ruolo avranno gli umani in un mondo post-singolarità?
  • Gli organismi internazionali come l’ONU dovrebbero svolgere un ruolo nella guida dell’IA?
  • Cosa dovrebbero fare ora le aziende e i governi per prepararsi al futuro dell’IA?

Come tale, questa serie ha un totale di sei capitoli:

  1. (Tu sei qui) Quando raggiungeremo la Singolarità?, – Un consenso timeline da ricercatori AI
  2. Come raggiungeremo la singolarità-AI, neurotecnologie, e altro ancora
  3. Sarà l’intelligenza artificiale formare un Singleton-o ci saranno molti agenti AGI? – Un consenso Ricercatore AI
  4. Dopo la singolarità, gli esseri umani contano? – Consenso Ricercatore AI
  5. Le Nazioni Unite dovrebbero svolgere un ruolo nel guidare l’intelligenza artificiale post-umana?,
  6. Il ruolo dei leader aziendali e governativi nel guidare l’Intelligenza post-umana – Consenso ricercatore AI

In passato, la singolarità è stata più il regno della fantascienza da esplorare. Tuttavia, molti esperti di IA, come Stuart Russell, Max Tegmark e Stuart Armstrong, lo prendono molto sul serio. Il nostro obiettivo con questo sondaggio era quello di raccogliere un’opinione fondata sulla singolarità da dozzine di esperti di IA, così come i loro pensieri su come l’umanità potrebbe prepararsi per il futuro dell’IA.,

Prima di continuare, dovremmo notare che questa non è una rappresentazione definitiva del futuro; solo possibilità. C’era molto disaccordo tra i nostri esperti, incluso se la singolarità si sarebbe verificata o meno. Ma indipendentemente da ciò, comprendere le possibilità sarà importante per chiunque nel governo o nell’industria per rimanere davanti alla curva. Come ha detto uno dei nostri intervistati:

” Il futuro sarà probabilmente più strano e imprevedibile di quanto immaginiamo.”- James J Hughes

Quando raggiungeremo la singolarità?,

Se dovessimo chiedere a Google Maps di navigare verso la singolarità, quale strada ci porterebbe? E quando arriveremmo a destinazione? I nostri esperti hanno risposto con una vasta gamma di risposte. Di seguito è riportata una ripartizione grafica delle loro risposte:

Le prime domande che abbiamo posto ai nostri esperti sono state quando si aspettavano che si verificasse la singolarità., 2100

  • il 17% degli intervistati prevedere una data dopo il 2100
  • 21% degli intervistati ritiene che la Singolarità è improbabile che si verifichi mai
  • abbattuto un altro modo:

    • 45% degli intervistati prevedere una data prima del 2060
    • 34% degli intervistati prevedere una data dopo il 2060
    • 21% degli intervistati ritiene che la Singolarità è improbabile che si verifichi mai

    Le previsioni inclinare verso una data prima di 2100 o anche solo potenzialmente, prima di 2060., Questo si allinea ragionevolmente bene con i sondaggi passati che abbiamo fatto (vedi: Timeline for Machine Consciousness).

    È interessante notare che la nostra risposta numero uno, “2036-2060”, è stata seguita da “probabilmente mai” come seconda risposta più popolare. Muller e Bostrom, discussi più avanti in questo articolo, hanno notato nella loro recensione del sondaggio che molti partecipanti che probabilmente cadrebbero nella categoria “probabilmente mai” semplicemente non hanno risposto al sondaggio. I ricercatori hanno incluso una citazione da un relatore principale, Hubert Dreyfus, alla conferenza” Filosofia e teoria dell’IA ” nel 2011 per illustrare questo punto., Dreyfus ha detto:

    Non penserei di rispondere a un questionario così distorto think penso che qualsiasi discussione sull’imminente super–intelligenza sia fuorviante. Non mostra alcuna comprensione del fallimento di tutto il lavoro in AI. Anche solo la formulazione di un tale questionario è parziale ed è una perdita di tempo.

    In altre parole, riconosciamo e comprendiamo che, come le altre indagini discusse in questo rapporto, la nostra indagine potrebbe cadere vittima di pregiudizi di selezione., Le persone che hanno risposto a noi sono forse più propensi a credere che la singolarità non solo si verificherà, ma si verificherà prima che poi. Semplicemente non possiamo esprimere un giudizio sul fatto che questo sia il caso.

    Detto questo, perché gli esperti hanno selezionato le date che hanno selezionato (molte delle quali sono all’interno delle nostre vite)? Mentre il nostro sondaggio non ha chiesto un motivo per cui un partecipante ha selezionato il periodo di tempo che ha fatto, sospettiamo che una serie di importanti tendenze AI possano aver influenzato le loro opinioni.,

    Molte nazioni hanno saltato sul carro e hanno rilasciato strategie nazionali AI per promuovere R & D e nuove start-up con miliardi di dollari di sostegno. I settori, dal farmaceutico al bancario, stanno ospitando decine di eventi annuali di IA e centinaia o migliaia di aziende vendor di IA specifiche del settore.

    Il chiaro slancio del finanziamento dell’IA, dell’istruzione e della strategia nazionale fa certamente ben sperare per i continui progressi dell’IA, ed è possibile che queste tendenze abbiano influenzato le risposte dei nostri partecipanti. Detto questo, non possiamo esserne sicuri.,

    Nelle prossime tre sezioni dell’articolo, confrontiamo i nostri risultati con quelli di altre due indagini su ricercatori di IA condotte negli ultimi quattro anni e le opinioni di due importanti inventori futuristi e leader del pensiero AI. Iniziamo con un sondaggio di Muller e Bostrom.

    Muller and Bostrom’s “Future Progress in Artificial Intelligence”

    Vincent C., Muller, professore di Filosofia presso l’Anatolia College e Presidente dell’Associazione Europea per i sistemi cognitivi, e Nick Bostrom, rinomato filosofia a Oxford che ha scritto oltre 200 pubblicazioni su superintelligenza, intelligenza artificiale generale (AGI), e altri argomenti, hanno condotto un sondaggio di ricercatori di intelligenza artificiale e leader di pensiero.

    Hanno chiesto ai 550 partecipanti quattro domande principali, due delle quali discuteremo in questo articolo:

    1. Quando è probabile che AGI accada?,
    2. Quanto tempo dopo AGI, che hanno chiamato “Intelligenza della macchina di alto livello”, AGI supererà notevolmente le capacità umane (la singolarità)?

    Va notato che le domande non sono state formulate in questo modo nel sondaggio di Muller e Bostrom; abbiamo parafrasato le domande.,leggermente in modo che la loro partecipazione al singolarità e AGI discussione:

    • PT-AI partecipanti erano per lo più non tecnica AI leader di pensiero,
    • AGI partecipanti erano per lo più tecnici AI ricercatori
    • EETN partecipanti era composto di soli tecnici pubblicati AI ricercatori
    • TOP100 i partecipanti sono stati anche più tecnica AI ricercatori

    Come notato in precedenza, Muller e Bostrom ha chiesto ai partecipanti su ciò che essi chiamano “l’Alto livello di intelligenza artificiale,” o HLMI., Lo hanno fatto per mitigare i pregiudizi che potrebbero essere sorti se il loro sondaggio includesse parole come” intelligenza generale artificiale “o ” singolarità”.”

    Sapendo questo, abbiamo deciso di sostituire “HLMI” per AGI ai fini della coesione in questo articolo. Muller e Bostrom definiscono l’HLMI come un’intelligenza ” che può svolgere la maggior parte delle professioni umane almeno così come un tipico umano” e si riferiscono ad esso come “molto probabilmente implica essere in grado di superare un classico test di Turing.”Di conseguenza, crediamo che la nostra sostituzione retorica sia giustificata.,

    Muller e Bostrom hanno trovato alcuni risultati interessanti:

    • I partecipanti hanno dato una probabilità del 10% che avremmo avuto AGI entro il 2022, una probabilità del 50% che avremmo avuto AGI entro il 2040 e una probabilità del 90% che avremmo avuto AGI entro il 2075. Questi anni sono stati tutti risposte mediane.
    • I partecipanti hanno dato una probabilità media del 10% che AGI supererà notevolmente l’intelligenza umana solo due anni dopo la sua invenzione., Anche se potrebbero non essere fiduciosi nella traiettoria post-invenzione di due anni, credono che ci sia il 75% di probabilità che una superintelligenza che supera gli umani sorgerà 30 anni dopo l’invenzione di AGI.
      • Forse degno di nota è che il gruppo di partecipanti AGI, per lo più ricercatori tecnici AI, ha trovato il 5% in più di probabilità rispetto al pool complessivo di partecipanti che AGI avrebbe superato gli esseri umani due anni (15%) dopo la sua invenzione e il 15% in più di probabilità che avrebbe superato gli esseri umani in 30 anni (90%).,
      • Stranamente, gli altri due gruppi di ricercatori tecnici (EETN e TOP100) erano molto meno propensi del gruppo AGI a credere che AGI avrebbe superato l’intelligenza umana anche 30 anni dopo la sua invenzione (55% e 50% rispettivamente).

    Muller e Bostrom non hanno chiesto direttamente ai partecipanti quando potrebbe verificarsi la singolarità, ma sembra esserci una differenza significativa tra i loro partecipanti e i nostri. La metà di tutti i partecipanti di Muller e Bostrom ha risposto che esiste una probabilità del 90% di raggiungere l’AGI dopo il 2075. L’anno medio era il 2081.,

    anche se non c’è modo di confrontare direttamente i risultati del nostro sondaggio con i risultati di Muller e Bostrom è a causa delle diverse metodologie, forse c’è qualcosa da dire circa il fatto che il 24% dei nostri partecipanti, il più grande gruppo di reporting, sono convinto che la singolarità potrebbe verificarsi tra il 2036 e il 2060, mentre il 50% di Muller e Bostrom partecipanti ha dato un 90% di probabilità che noi non avremmo nemmeno ottenere AGI fino a dopo 2075, figuriamoci raggiungere la singolarità.,

    I partecipanti di Muller e Bostrom in generale pensavano che la singolarità avesse una probabilità del 75% di verificarsi 30 anni dopo il raggiungimento dell’AGI, il che pone il lasso di tempo per la singolarità diversi decenni più tardi di quanto credevano i nostri partecipanti.

    Proiezioni da Futuristi – Ray Kurzweil e Louis Rosenberg

    In generale, sembra che i nostri partecipanti progettino un lasso di tempo più breve per raggiungere la singolarità rispetto a Muller e Bostrom. Questo li mette più in linea con Ray Kurzweil, famoso futurista e Direttore dell’ingegneria di Google., Kurzweil afferma un tasso di precisione dell ‘86% con le sue previsioni che risalgono agli anni’ 90. Nella sua linea temporale di singolarità, prevede che la singolarità stessa venga raggiunta entro il 2045.

    Allo stesso modo, Louis Rosenberg, PhD, inventore e CEO e Chief Scientist di AI unanime, ha questo da dire sul lasso di tempo della singolarità:

    Nei primi anni 1990, quando ho iniziato a pensare a questo problema, credevo che l’IA avrebbe superato le capacità umane intorno all’anno 2050. Attualmente, credo che accadrà prima di quello, forse già nel 2030., Questo è molto sorprendente per me, poiché questi tipi di previsioni di solito scivolano ulteriormente nel futuro man mano che i limiti della tecnologia vengono messi a fuoco, ma questo sta urlando verso di noi più velocemente che mai.

    Kurzweil è noto per una varietà di previsioni sulla tecnologia emergente e la transizione transumana, tra cui interfaccia cervello-macchina, nanotecnologie, AGI, ecc.

    Le previsioni di Kurzweil da – La singolarità è vicina (2005). Fonte: Wikipedia

    Grazia et.,al “Quando AI supererà le prestazioni umane?”

    Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang e Owain Evans, ricercatori di Oxford, Yale e AI Impacts, hanno condotto un sondaggio proprio. I loro partecipanti sono stati i ricercatori 352 che hanno pubblicato alle conferenze 2015 NIPS e ICML per la ricerca nell’apprendimento automatico. l ‘ 82% dei partecipanti era nel mondo accademico, mentre il 21% lavorava nell’industria.

    Grazia et.al utilizzare “High-level machine intelligence” (HLMI) nella loro indagine, ma a differenza di Muller e Bostrom, Grazia et.,al sembrano definirlo il modo in cui definiamo la singolarità: “sovraperformare gli esseri umani in tutti i compiti.” Per questo motivo, sostituiremo l’uso di HLMI di Grace e colleghi per la singolarità ai fini della coesione in questo articolo.

    I partecipanti di Grace e colleghi hanno dato una probabilità media del 10% che la singolarità sarebbe stata raggiunta entro 9 anni dopo che il sondaggio è stato condotto nel 2016 (entro il 2025). I partecipanti hanno anche dato una probabilità media del 50% che la singolarità si sarebbe verificata entro 45 anni dopo la conduzione del sondaggio (entro il 2061)., Questo mette i loro intervistati sulla fine racconto del nostro più grande gruppo di risposta: coloro che credono che la singolarità accadrà tra il 2036 e il 2060.

    Stranamente, Grazia et.al ha anche chiesto ai partecipanti ” la probabilità che l’IA si esibisca molto meglio degli umani in tutte le attività due anni dopo che l’HLMI è stato raggiunto.”Data la loro definizione di “HLMI” come intelligenza della macchina che era “migliore” degli umani in tutte le attività, non è chiaro cosa intendano esattamente i ricercatori con “enormemente.,”Non siamo sicuri se questa fosse una domanda che hanno chiesto in riferimento alla singolarità o se la loro definizione di HLMI fosse in riferimento alla singolarità come l’abbiamo interpretata.

    Detto questo, la domanda è molto simile a quella posta a Muller e Bostrom, e quindi possiamo confrontare le due risposte. È interessante notare che i partecipanti di Grace e colleghi hanno risposto con una probabilità mediana del 10% che l’IA sarebbe” enormemente ” migliore per gli esseri umani in tutti i compiti due anni dopo l’invenzione di HLMI, che per questa domanda sembra fare riferimento all’AGI come fa nel sondaggio di Muller e Bostrom., Questa è la stessa probabilità che i partecipanti di Muller e Bostrom hanno riferito.

    Anche se sarebbe stato interessante vedere quale possibilità hanno dato i partecipanti Grace e colleghi per la singolarità che si è verificata 30 anni dopo l’invenzione di AGI, i ricercatori non hanno incluso la domanda nel loro sondaggio.

    Quindi quando probabilmente si verificherà la singolarità?

    Sembra che i ricercatori di IA e i leader di pensiero proiettino la singolarità a verificarsi approssimativamente entro i prossimi quattro o cinque decenni. I partecipanti di Muller e Bostrom proiettano un’ulteriore linea temporale, ma Grace et.,al, Kurzweil e Rosenberg progettano tutti che la singolarità si verifichi approssimativamente entro i tempi del nostro più grande gruppo di rispondenti: ancora una volta, tra il 2036 e il 2060.

    Lascia un commento

    Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *