¿Cuándo llegaremos a la singularidad? – Un consenso de línea de tiempo de los investigadores de IA

publicado en: Articles | 0

en Emerj, nos enorgullecemos de presentar información objetiva sobre las aplicaciones de la inteligencia artificial en la industria. La IA es aplicable en una amplia variedad de áreas, desde la agricultura hasta la ciberseguridad.

sin embargo, la mayor parte de nuestro trabajo se ha centrado en el impacto a corto plazo de la IA en los negocios. ¿Pero qué pasa con el largo plazo? No estamos hablando del próximo trimestre, ni siquiera del próximo año, sino de las décadas por venir.,

a medida que la IA se vuelve más poderosa, esperamos que tenga un mayor impacto en nuestro mundo, incluida su organización. Por lo tanto, decidimos hacer lo que mejor sabemos hacer: un análisis profundo de las aplicaciones e implicaciones de la IA. Pero, esta vez, queríamos aplicar ese análisis al futuro a largo plazo de la IA para que pudiéramos ayudar a los líderes gubernamentales y empresariales a comprender las posibilidades más distantes que esta tecnología podría llevar a buen término.,

entrevistamos a 32 investigadores de doctorado en el campo de la IA y les preguntamos sobre la singularidad tecnológica: un hipotético evento futuro donde la inteligencia informática superaría y superaría a la inteligencia humana con profundas consecuencias para la sociedad.

a lo largo de nuestra investigación, queríamos responder a seis preguntas principales:

  • ¿cuándo ocurrirá la singularidad, si es que ocurre?
  • ¿Cómo podría lograrse la inteligencia posthumana?,
  • ¿la inteligencia artificial del futuro tenderá a fragmentarse o agruparse en una inteligencia singular?
  • ¿qué papel jugarán los humanos en un mundo post-singularidad?
  • ¿deberían los organismos internacionales como la ONU desempeñar un papel en la orientación de la IA?
  • ¿qué deben hacer ahora las empresas y los gobiernos para prepararse para el futuro de la IA?

como tal, esta serie tiene un total de seis capítulos:

  1. (estás aquí) ¿cuándo llegaremos a la singularidad?, – Un consenso de línea de tiempo de los investigadores de IA
  2. cómo llegaremos a la singularidad-IA, Neurotecnologías y más
  3. ¿La Inteligencia Artificial formará un solo elemento-o habrá muchos agentes AGI? – Un consenso investigador AI
  4. Después de la singularidad, los seres humanos importan? – AI Researcher Consensus
  5. ¿deberían las Naciones Unidas desempeñar un papel en la orientación de la Inteligencia Artificial posthumana?,
  6. El papel de los líderes empresariales y gubernamentales en la orientación de la inteligencia Post-humana – consenso investigador de IA

en el pasado, la singularidad ha sido más el Reino de la ciencia ficción para explorar. Sin embargo, muchos expertos en IA, como Stuart Russell, Max Tegmark y Stuart Armstrong, se lo toman muy en serio. Nuestro objetivo con esta encuesta era obtener una opinión fundamentada sobre la singularidad de docenas de expertos en IA, así como sus pensamientos sobre cómo la humanidad podría prepararse para el futuro de la IA.,

antes de Continuar, debemos notar que esto no es una representación definitiva del futuro; solo posibilidades. Hubo mucho desacuerdo entre nuestros expertos, incluyendo si la singularidad ocurriría o no. Sin embargo, la comprensión de las posibilidades será importante para cualquier persona en el gobierno o la industria para mantenerse por delante de la curva. Como dijo uno de nuestros encuestados:

«es probable que el futuro sea más extraño e impredecible de lo que imaginamos.»- James J Hughes

¿cuándo llegaremos a la singularidad?,

si le pidiéramos a Google Maps que nos navegara hasta la singularidad, ¿qué ruta nos llevaría? ¿Y cuándo llegaremos a nuestro destino? Nuestros expertos respondieron con una amplia gama de respuestas. A continuación se muestra un desglose gráfico de sus respuestas:

las primeras preguntas que hicimos a nuestros expertos fue cuando esperaban que ocurriera la singularidad., 2100

  • el 17% de los encuestados predicen una fecha después de 2100
  • el 21% de los encuestados cree que es poco probable que la singularidad se produzca
  • desglosado de una manera diferente:

    • 45% de los encuestados predicen una fecha antes de 2060
    • 34% de los encuestados predicen una fecha después de 2060
    • 21% de los encuestados creen que la singularidad es poco probable que ocurra

    Las predicciones se inclinan hacia una fecha antes de 2100 o incluso potencialmente antes de 2060., Esto se alinea razonablemente bien con las encuestas pasadas que hemos hecho (ver: Línea de tiempo para la conciencia de máquina).

    es interesante notar que nuestra respuesta Número uno, «2036-2060», fue seguida por «probablemente nunca» como la segunda respuesta más popular. Muller y Bostrom, discutidos más adelante en este artículo, señalaron en su propia revisión de la encuesta que muchos participantes que probablemente caerían en la categoría «probablemente nunca» simplemente no respondieron a la encuesta. Los investigadores incluyeron una cita de un orador principal, Hubert Dreyfus, en la conferencia» Filosofía y Teoría de la IA » en 2011 para ilustrar este punto., Dreyfus dijo:

    no se me ocurriría responder a un cuestionario tan sesgado think creo que cualquier discusión sobre la inminente superinteligencia está equivocada. No muestra comprensión del fracaso de todo el trabajo en Ia. Incluso acaba de elaborar un cuestionario es parcial y es una pérdida de tiempo.

    En otras palabras, reconocemos y entendemos que, al igual que las otras encuestas discutidas en este informe, nuestra encuesta puede ser víctima de un sesgo de selección., Las personas que nos respondieron son quizás más propensas a creer que la singularidad no solo ocurrirá, sino que ocurrirá más pronto que tarde. Simplemente no podemos hacer un juicio sobre si este es el caso o no.

    dicho esto, ¿por qué los expertos seleccionaron las fechas que seleccionaron (muchas de las cuales están dentro de nuestras vidas)? Si bien nuestra encuesta no preguntó por qué un participante seleccionó el período de tiempo que lo hizo, sospechamos que una serie de tendencias importantes de IA pueden haber influido en sus opiniones.,

    muchas naciones se han subido al carro y han lanzado estrategias nacionales de IA para promover R&D y nuevas empresas emergentes con miles de millones de dólares de apoyo. Los sectores, desde la industria farmacéutica hasta la banca, se están convirtiendo en anfitriones de docenas de eventos anuales de IA y cientos o miles de compañías de proveedores de IA específicas para cada sector.

    el claro impulso de la financiación de la IA, la educación y la estrategia nacional ciertamente es un buen augurio para el progreso continuo de la IA, y es posible que estas tendencias influyan en las respuestas de nuestros participantes. Dicho esto, no podemos estar seguros.,

    en las siguientes tres secciones del artículo, comparamos nuestros hallazgos con los de otras dos encuestas de investigadores de IA que se llevaron a cabo en los últimos cuatro años y las opiniones de dos destacados inventores futuristas y líderes de pensamiento de IA. Comenzamos con una encuesta de Muller y Bostrom.

    El «Progreso futuro en Inteligencia Artificial»de Muller y Bostrom

    Vincent C., Muller, profesor de Filosofía en Anatolia College y Presidente de la Asociación Europea de sistemas cognitivos, y Nick Bostrom, reconocido filósofo en Oxford, que ha escrito más de 200 publicaciones sobre superinteligencia, inteligencia general artificial (AGI) y otros temas, llevaron a cabo una encuesta entre investigadores de IA y líderes de opinión.

    hicieron a los 550 participantes cuatro preguntas principales, Dos de las cuales discutiremos en este artículo:

    1. ¿cuándo es probable que ocurra AGI?,
    2. ¿qué tan pronto después de AGI, que llamaron» inteligencia de máquina de alto nivel», AGI superará en gran medida Las capacidades humanas (la singularidad)?

    cabe señalar que las preguntas no fueron formuladas de esta manera en la encuesta de Muller y Bostrom; hemos parafraseado las preguntas.,ligeramente en la forma en que participan en la singularidad y la discusión de AGI:

    • los participantes de PT-AI fueron en su mayoría líderes de pensamiento de AI no técnicos
    • los participantes de AGI fueron en su mayoría investigadores de AI técnicos
    • investigadores de Ia
    • los participantes Top100 también fueron en su mayoría investigadores técnicos de Ia

    como se señaló anteriormente, Muller y Bostrom preguntaron a los participantes sobre lo que llaman «inteligencia artificial de alto nivel» o hlmi., Hicieron esto para mitigar el sesgo que podría haber surgido si su encuesta incluyera palabras como «inteligencia general artificial» o «singularidad».»

    sabiendo esto, hemos decidido sustituir» HLMI » por AGI a efectos de cohesión en este artículo. Muller y Bostrom definen HLMI como una inteligencia «que puede llevar a cabo la mayoría de las profesiones humanas al menos tan bien como un humano típico» y se refieren a ella como «muy probablemente implica ser capaz de pasar una prueba de Turing clásica.»Como resultado, creemos que nuestra sustitución retórica está justificada.,

    Muller y Bostrom encontraron algunos resultados interesantes:

    • Los participantes le dieron una probabilidad del 10% de que tendríamos AGI para 2022, una probabilidad del 50% de que tendríamos AGI para 2040, y una probabilidad del 90% de que tendríamos AGI para 2075. Estos años fueron todas las respuestas Medianas.
    • Los participantes le dieron una mediana del 10% de probabilidad de que AGI supere en gran medida la inteligencia humana solo dos años después de su invención., Aunque pueden no estar seguros de la trayectoria de dos años después de la invención, creen que hay un 75% de probabilidad de que surja una superinteligencia que supere a los humanos 30 años después de la invención de AGI.
      • tal vez sea digno de mención que el grupo de participantes de AGI, en su mayoría investigadores técnicos de IA, encontró que era un 5% más probable que el grupo General de participantes que AGI superara a los humanos dos años (15%) después de su invención y un 15% más probable que superara a los humanos en 30 años (90%).,
      • extrañamente, los otros dos grupos de investigadores técnicos (EETN y TOP100) tenían muchas menos probabilidades que el grupo AGI de creer que AGI superaría la inteligencia humana incluso 30 años después de su invención (55% y 50% respectivamente).

    Muller y Bostrom no preguntaron directamente a los participantes cuándo podría ocurrir la singularidad, pero parece haber una diferencia significativa entre sus participantes y los nuestros. La mitad de todos los participantes de Muller y Bostrom respondieron que hay una probabilidad del 90% de lograr AGI después de 2075. El año medio fue 2081.,

    aunque no hay manera de comparar directamente los resultados de nuestra encuesta con los resultados de Muller y Bostrom debido a las diferentes metodologías, tal vez hay algo que decir sobre el hecho de que el 24% de nuestros participantes, el grupo de informes más grande, confiaban en que la singularidad ocurriría entre 2036 y 2060, mientras que el 50% de los participantes de Muller y Bostrom le dieron una probabilidad del 90% de que ni siquiera alcanzaríamos AGI hasta después de 2075, y mucho menos alcanzar la singularidad.,

    Los participantes de Muller y Bostrom en general pensaron que la singularidad tiene un 75% de probabilidad de ocurrir 30 años después de que se logre el AGI, lo que pone el plazo para la singularidad varias décadas más tarde de lo que creían nuestros participantes.

    proyecciones de Futuristas – Ray Kurzweil y Louis Rosenberg

    en general, parece que nuestros participantes proyectan un plazo más corto para alcanzar la singularidad que Muller y Bostrom, lo que los pone más en línea con Ray Kurzweil, reconocido futurista y Director de ingeniería de Google. , Kurzweil afirma una tasa de precisión del 86% con sus predicciones que se remontan a los años 90. en su línea de tiempo de singularidad, predice que la singularidad en sí se alcanza en 2045.

    del mismo modo, Louis Rosenberg, PhD, inventor y CEO y científico jefe de unanimous AI, tiene esto que decir sobre el marco temporal de la singularidad:

    a principios de la década de 1990, cuando empecé a pensar en este tema, creía que la IA superaría las capacidades humanas alrededor del año 2050. Actualmente, creo que sucederá antes que eso, posiblemente ya en 2030., Eso es muy sorprendente para mí, ya que este tipo de pronósticos generalmente se deslizan más hacia el futuro a medida que los límites de la tecnología se enfocan, pero este está gritando hacia nosotros más rápido que nunca.

    Kurzweil es conocido por una variedad de predicciones sobre la tecnología emergente y la transición transhumana, incluyendo la interfaz cerebro-máquina, nanotecnologías, AGI, etc.

    Kurzweil’s predictions from – the Singularity is Near (2005). Fuente: Wikipedia

    Grace et.,»When Will AI Exceed Human Performance?»

    Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang y Owain Evans, investigadores de Oxford, Yale y AI Impacts, realizaron una encuesta propia. Sus participantes fueron 352 investigadores que publicaron en las conferencias NIPS e ICML 2015 para la investigación en aprendizaje automático. El 82% de los participantes pertenecían al mundo académico, mientras que el 21% trabajaba en la industria.

    Grace et.al use «inteligencia de máquina de alto nivel» (HLMI)en su encuesta, pero a diferencia de Muller y Bostrom, Grace et.,al parece definirlo de la manera en que definimos la singularidad: «superando a los humanos en todas las tareas.»Por esta razón, vamos a sustituir el uso de Grace y sus colegas de HLMI por la singularidad a efectos de cohesión en este artículo.

    Los participantes de Grace y sus colegas dieron una probabilidad media del 10% de que la singularidad se lograría dentro de los 9 años posteriores a la realización de la encuesta en 2016 (para 2025). Los participantes también dieron una probabilidad media del 50% de que la singularidad ocurriría dentro de los 45 años posteriores a la realización de la encuesta (para 2061)., Esto pone a sus encuestados en el extremo de la historia de nuestro grupo de respuesta más grande: aquellos que creen que la singularidad ocurrirá entre 2036 y 2060.

    extrañamente, Grace et.al también preguntó a los participantes » por la probabilidad de que la IA se desempeñe mucho mejor que los humanos en todas las tareas dos años después de que se logre el HLMI.»Dada su definición de» HLMI «como una inteligencia artificial que era» mejor «que los humanos en todas las tareas, no está claro qué quieren decir exactamente los investigadores con «enormemente».,»No estamos seguros de si esta fue una pregunta que hicieron en referencia a la singularidad o si su definición de HLMI se refería a la singularidad como la interpretamos.

    dicho esto, la pregunta es muy similar a la de Muller y Bostrom, por lo que podemos comparar las dos respuestas. Curiosamente, los participantes de Grace y sus colegas respondieron con una probabilidad media del 10% de que la IA sería «enormemente» mejor en los humanos en todas las tareas dos años después de la invención del HLMI, que para esta pregunta parece hacer referencia al AGI como lo hace en la encuesta de Muller y Bostrom., Esta es la misma probabilidad que los participantes de Muller y Bostrom informaron.

    aunque hubiera sido interesante ver qué oportunidad dieron los participantes de Grace y sus colegas para la singularidad que ocurrió 30 años después de la invención de AGI, los investigadores no incluyeron la pregunta en su encuesta.

    entonces, ¿cuándo ocurrirá la singularidad?

    parece que los investigadores de IA y los líderes de pensamiento proyectan que la singularidad ocurrirá aproximadamente dentro de las próximas cuatro o cinco décadas. Los participantes de Muller y Bostrom proyectan una nueva línea de tiempo, pero Grace et.,al, Kurzweil y Rosenberg proyectan que la singularidad ocurrirá aproximadamente dentro del marco temporal de nuestro grupo de encuestados más grande: una vez más, entre 2036 y 2060.

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *