Quando chegaremos à singularidade? – A Timeline Consensus from AI Researchers

posted in: Articles | 0

At Emerj, we pride yourself on presenting objective information about the applications of artificial intelligence in industry. A AI é aplicável em uma grande variedade de áreas—tudo, desde a agricultura à segurança cibernética.no entanto, a maior parte do nosso trabalho tem sido sobre o impacto a curto prazo da IA nos negócios. Mas e a longo prazo? Não estamos a falar do próximo trimestre, ou mesmo do próximo ano, mas nas próximas décadas., à medida que a AI se torna mais poderosa, esperamos que tenha um impacto maior no nosso mundo, incluindo a sua organização. Então, decidimos fazer o que fazemos melhor: uma análise profunda das aplicações e implicações da IA. Mas, desta vez, quisemos aplicar essa análise ao futuro a longo prazo da IA para que pudéssemos ajudar os líderes governamentais e empresariais a compreender as possibilidades mais distantes que esta tecnologia poderia trazer à fruição.,entrevistamos 32 pesquisadores de doutorado no campo da IA e lhes perguntamos sobre a singularidade tecnológica: um evento futuro hipotético onde a inteligência computacional superaria e excederia a inteligência humana com profundas consequências para a sociedade. ao longo da nossa pesquisa, quisemos responder a seis perguntas Principais:

  • quando ocorrerá a singularidade, se de todo?
  • como poderia a inteligência pós-humana ser mais provavelmente alcançada?,id = “66b91560ea”> a futura inteligência artificial terá uma tendência para se fragmentar, ou para se agrupar em uma inteligência singular?
  • qual o papel que os humanos desempenharão num mundo pós-singularidade?ID = “66b91560ea” >devem organismos internacionais como a ONU desempenhar um papel na orientação da IA?
  • O que devem as empresas e os governos fazer agora para se preparar para o futuro da AI?como tal, esta série tem um total de seis capítulos:
    1. (Você está aqui) quando chegaremos à singularidade?, – A Timeline Consensus from AI Researchers
    2. How We Will Reach the Singularity-AI, Neurotechnologies, and More
    3. Will Artificial Intelligence Form a Singleton – or Will there are Many AGI Agents? – Um consenso de Investigador de IA após a singularidade, Será Que os humanos importam? – AI Researcher consenso deve as Nações Unidas desempenhar um papel na orientação da Inteligência Artificial pós-humana?,no passado, a singularidade tem sido mais o domínio da ficção científica a explorar. No entanto, muitos especialistas em IA, como Stuart Russell, Max Tegmark e Stuart Armstrong, levam isso muito a sério. Nosso objetivo com esta pesquisa foi obter uma opinião fundamentada sobre a singularidade de dezenas de especialistas em AI, bem como seus pensamentos sobre como a humanidade pode se preparar para o futuro da AI.,antes de continuarmos, devemos notar que esta não é uma representação definitiva do futuro; apenas possibilidades. Houve muita discordância entre os nossos especialistas, incluindo se a singularidade ocorreria ou não. Mas, seja como for, compreender as possibilidades será importante para qualquer pessoa no governo ou na indústria se manter à frente da curva. Como um de nossos entrevistados disse:

      ” é provável que o futuro seja mais estranho e mais imprevisível do que imaginamos.”- James J Hughes

      quando chegaremos à singularidade?,se pedíssemos ao Google Maps para nos navegar até à singularidade, que Rota nos levaria? E quando chegaríamos ao nosso destino? Nossos especialistas responderam com uma ampla gama de respostas. Abaixo está uma discriminação gráfica de suas respostas:

      As primeiras perguntas que fizemos aos nossos especialistas foi quando eles esperavam a singularidade para ocorrer., 2100

    4. 17% dos entrevistados prever uma data depois de 2100
    5. 21% dos entrevistados acreditam que a Singularidade é improvável de ocorrer

discriminados de uma forma diferente:

  • 45% dos entrevistados prever uma data antes de 2060
  • 34% dos entrevistados prever uma data depois de 2060
  • 21% dos entrevistados acreditam que a Singularidade é improvável de ocorrer

As previsões de inclinação para uma data mais cedo de 2100 ou mesmo potencialmente mais cedo do que 2060., Isso se alinha razoavelmente bem com as pesquisas passadas que fizemos (ver: linha do tempo para a consciência da máquina).

é interessante notar que a nossa resposta Número um, “2036-2060″, foi seguida por” provavelmente nunca ” como a segunda resposta mais popular. Muller e Bostrom, discutido mais adiante neste artigo, observou em seu próprio inquérito elaborado que muitos participantes que provavelmente seria cair no “provavelmente nunca categoria” simplesmente não responder ao inquérito. Os pesquisadores incluíram uma citação de um orador principal, Hubert Dreyfus, na conferência “Filosofia e Teoria da IA” em 2011 para ilustrar este ponto., Dreyfus said:

i wouldn’t think of response to such a viased questionnate…I think any discussion of imminent super–intelligence is misguided. Não mostra nenhuma compreensão do fracasso de todo o trabalho em AI. Mesmo a formulação de tal questionário é tendenciosa e é uma perda de tempo.

Em outras palavras, reconhecemos e compreendemos que, como as outras pesquisas discutidas neste relatório, nossa pesquisa pode ser vítima de viés de seleção., As pessoas que responderam a nós são talvez mais propensas a acreditar que a singularidade não só ocorrerá, mas ocorrerá mais cedo do que tarde. Não podemos julgar se é ou não o caso.dito isto, porque é que os peritos seleccionaram as datas que seleccionaram (muitas das quais estão dentro das nossas vidas)? Enquanto nossa pesquisa não perguntou por uma razão para que um participante selecionou o calendário que eles fizeram, suspeitamos que uma série de importantes tendências de IA podem ter influenciado suas opiniões.,

muitas nações saltaram para o bandwagon e lançaram estratégias nacionais de IA para promover R&D e novas start-ups com bilhões de dólares de suporte. Setores da indústria farmacêutica à Banca estão se tornando anfitriões de dezenas de eventos anuais de IA, e centenas ou milhares de empresas de fornecedores de AI específicas do setor. a clara dinâmica do financiamento da IA, da educação e da Estratégia Nacional certamente é um bom presságio para o progresso contínuo da AI, e é possível que essas tendências influenciaram as respostas dos nossos participantes. Dito isto, não temos a certeza.,nas três seções seguintes do artigo, comparamos nossas descobertas com as de duas outras pesquisas de pesquisadores de IA que foram realizadas nos últimos quatro anos e as opiniões de dois inventores Futuristas proeminentes e líderes de pensamento de IA. Começamos com uma pesquisa do Muller e do Bostrom.”Future Progress in Artificial Intelligence”de Muller e Bostrom, Muller, Professor de Filosofia no Anatolia College e Presidente da Associação Europeia para os sistemas cognitivos, e Nick Bostrom, renomado filosofia em Oxford, que escreveu mais de 200 publicações sobre superinteligência, inteligência artificial geral (AGI), e outros tópicos, realizou uma pesquisa de pesquisadores de IA e líderes de pensamento. fizeram aos 550 participantes quatro perguntas principais, duas das quais discutiremos neste artigo:

  1. quando é que a AGI pode acontecer?,
  2. How soon after AGI, which they called “High-level machine intelligence,” will AGI greatly surpass human capabilities (the singularity)?

deve-se notar que as perguntas não foram formuladas desta forma na pesquisa de Muller e Bostrom; nós parafraseamos as perguntas.,um pouco na forma como eles participam da singularidade e AGI de discussão:

  • PT-AI participantes eram, em sua maioria, não-técnicos AI líderes de pensamento
  • AGI participantes eram, em sua maioria técnicos AI investigadores
  • EETN participantes eram compostos por apenas técnicos publicados AI investigadores
  • TOP100 os participantes também foram principalmente técnicas de IA investigadores

Como observado anteriormente, Muller e Bostrom perguntou aos participantes sobre o que eles chamam de “Alto nível, a inteligência da máquina”, ou HLMI., Eles fizeram isso para mitigar preconceitos que poderiam ter surgido se sua pesquisa incluísse palavras como “inteligência artificial geral” ou “singularidade”. sabendo disso, decidimos substituir” HLMI ” pela AGI para fins de coesão neste artigo. Muller e Bostrom definem HLMI como uma inteligência “que pode realizar a maioria das profissões humanas, pelo menos, bem como um humano típico” e se referem a ele como “muito provável implica ser capaz de passar um teste de Turing clássico.”Como resultado, acreditamos que nossa substituição retórica é justificada.,

Muller e Bostrom encontrado alguns resultados interessantes:

  • Participantes deu-lhe um 10% de probabilidade de que teríamos AGI até 2022, 50% de probabilidade de que teríamos AGI até 2040, e uma probabilidade de 90% de que teríamos AGI por 2075. Estes anos foram todas respostas medianas.os participantes deram-lhe uma probabilidade mediana de 10% de que a AGI superará grandemente a inteligência humana apenas dois anos após a sua invenção., Embora possam não estar confiantes na trajetória de dois anos pós-invenção, eles acreditam que há 75% de probabilidade de que uma super inteligência que supera os humanos surja 30 anos após a invenção da AGI.talvez digno de nota é que o grupo de participantes da AGI, principalmente pesquisadores de IA técnica, achou 5% mais provável do que o grupo geral de participantes que a AGI superaria os seres humanos dois anos (15%) após sua invenção e 15% mais provável que ultrapassasse os seres humanos em 30 anos (90%).,estranhamente, os outros dois grupos de pesquisadores técnicos (EETN e TOP100) eram muito menos propensos do que o grupo AGI a acreditar que a AGI superaria a inteligência humana em até 30 anos após sua invenção (55% e 50%, respectivamente).

Muller e Bostrom não perguntaram diretamente aos participantes quando a singularidade poderia ocorrer, mas parece haver uma diferença significativa entre os seus participantes e os nossos. Metade de todos os participantes de Muller e Bostrom responderam que há 90% de probabilidade de alcançar a AGI após 2075. O ano mau foi 2081.,

Apesar de não é possível comparar diretamente os resultados de nossa pesquisa para os resultados de Muller e Bostrom é devido a diferentes metodologias, talvez haja algo a ser dito sobre o fato de que 24% dos nossos participantes, o maior de relatórios de grupo, estavam confiantes de que a singularidade poderia ocorrer entre 2036 e 2060, considerando que 50% de Muller e Bostrom participantes deu-lhe uma probabilidade de 90% de nós não iria mesmo conseguir AGI até depois 2075, muito menos chegar a singularidade.,

Muller e os participantes de Bostrom em geral pensaram que a singularidade tem 75% de chance de ocorrer 30 anos após a AGI ser alcançada, o que coloca o prazo para a singularidade várias décadas mais tarde do que os nossos participantes acreditavam.

projecções de Futuristas – Ray Kurzweil e Louis Rosenberg

Em geral, parece que os nossos participantes projectam um prazo mais curto para atingir a singularidade do que o de Muller e Bostrom. isto coloca-os mais em linha com Ray Kurzweil, renomado futurista e Director de Engenharia do Google., Kurzweil afirma uma taxa de 86% de precisão com suas previsões que remontam aos anos 90. em sua linha do tempo de singularidade, ele prevê que a singularidade em si é alcançada em 2045.da mesma forma, Louis Rosenberg, PhD, inventor e CEO e Cientista Chefe da IA unânime, tem isso a dizer sobre o calendário da singularidade:

no início dos anos 90, quando comecei a pensar sobre esta questão, eu acreditava que ia excederia as habilidades humanas em torno do ano 2050. Actualmente, penso que isso irá acontecer mais cedo do que isso, possivelmente já em 2030., Isso é muito surpreendente para mim, como estes tipos de previsões geralmente deslizam mais para o futuro à medida que os limites da tecnologia entram em foco, mas este está gritando para nós mais rápido do que nunca.

Kurzweil é conhecido por uma variedade de previsões sobre a tecnologia emergente e a transição transumana, incluindo interface cérebro-máquina, nanotecnologias, AGI, etc.

kurzweil’s predictions from – The Singularity is Near (2005). Fonte: Wikipedia

Grace et.,al’s ” When Will AI Exceed Human Performance?”

Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang, and Owain Evans, researchers from Oxford, Yale, and AI Impacts, conducted a survey of their own. Seus participantes foram 352 pesquisadores que publicaram em 2015 os Pin e as conferências ICML para pesquisa em aprendizagem de máquinas. 82% de seus participantes estavam no meio acadêmico, enquanto 21% estavam trabalhando na indústria.graça et.al use “High-level machine intelligence” (HLMI) in their survey, but unlike Muller and Bostrom, Grace et.,al parece defini-lo como definimos a singularidade: “superando os humanos em todas as tarefas.”Por esta razão, vamos substituir Grace e uso de colegas de HLMI para a singularidade para os propósitos de coesão neste artigo.Grace e os participantes dos colegas deram uma média de 10% de probabilidade de que a singularidade seria alcançada dentro de 9 anos após a Pesquisa ter sido realizada em 2016 (até 2025). Os participantes também deram uma média de 50% de probabilidade de que a singularidade ocorreria dentro de 45 anos após a Pesquisa ter sido realizada (em 2061)., Isso coloca os seus entrevistados no final da história do nosso maior grupo de resposta: aqueles que acreditam que a singularidade vai acontecer entre 2036 e 2060.estranhamente, graça. et.al também pediu aos participantes ” para a probabilidade de que ia iria executar muito melhor do que os seres humanos em todas as tarefas dois anos após HLMI é alcançado. Dada a sua definição de ” HLMI “como uma inteligência de máquina que era” melhor “do que os humanos em todas as tarefas, não é claro o que exatamente os pesquisadores querem dizer com” vastamente.,”Temos certeza se isso foi uma pergunta que perguntou, em referência à singularidade ou se a sua definição de HLMI foi em referência à singularidade como nós interpretado.

dito isto, a pergunta é muito semelhante à feita por Muller e Bostrom, e assim podemos comparar as duas respostas. Curiosamente, Grace e os participantes dos colegas responderam com uma probabilidade média de 10% de que ia seria “vastamente” melhor em humanos em todas as tarefas dois anos após a invenção da HLMI, que para esta pergunta parece referenciar AGI como faz na pesquisa de Muller e Bostrom., Esta é a mesma probabilidade que os participantes de Muller e Bostrom relataram.apesar de ter sido interessante ver a chance que Grace e os participantes dos colegas deram pela singularidade que ocorreu 30 anos após a invenção da AGI, os pesquisadores não incluíram a pergunta em sua pesquisa.então, quando é que a singularidade irá ocorrer?

parece que pesquisadores de IA e líderes de pensamento projetam a singularidade para ocorrer aproximadamente dentro das próximas quatro a cinco décadas. Muller and Bostrom’s participants project a further timeline, but Grace et.,al, Kurzweil e Rosenberg todos projetam a singularidade para ocorrer aproximadamente dentro do prazo do nosso maior grupo de respondentes: mais uma vez, entre 2036 e 2060.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *