Quand atteindrons-nous la singularité? – Un consensus chronologique des chercheurs en IA

Classé dans : Articles | 0

chez Emerj, nous sommes fiers de présenter des informations objectives sur les applications de l’intelligence artificielle dans l’industrie. L’IA est applicable dans une grande variété de domaines, de l’agriculture à la cybersécurité.

cependant, la plupart de nos travaux ont porté sur l’impact à court terme de L’IA dans les entreprises. Mais ce qui sur le long terme? Nous ne parlons pas du prochain trimestre, ni même de l’année prochaine, mais des décennies à venir.,

à mesure que L’IA devient plus puissante, nous nous attendons à ce qu’elle ait un impact plus important sur notre monde, y compris votre organisation. Nous avons donc décidé de faire ce que nous faisons de mieux: une analyse approfondie des applications et des implications de L’IA. Mais, cette fois, nous voulions appliquer cette analyse à l’avenir à long terme de L’IA afin d’aider les gouvernements et les chefs d’entreprise à comprendre les possibilités plus lointaines que cette technologie pourrait concrétiser.,

Nous avons interrogé 32 chercheurs doctorants dans le domaine de L’IA et les avons interrogés sur la singularité technologique: un événement futur hypothétique où l’intelligence informatique dépasserait et dépasserait celle de l’intelligence humaine avec des conséquences profondes pour la société.

dans Tout le cours de notre recherche, nous avons voulu répondre à six questions principales:

  • Quand la singularité se produire, si?
  • comment l’intelligence post-humaine pourrait-elle être la plus probable?,
  • l’intelligence artificielle future aura-t-elle tendance à se fragmenter, ou à se regrouper en une intelligence singulière?
  • quel rôle les humains joueront-ils dans un monde post-singularité?
  • les organismes internationaux comme L’ONU devraient-ils jouer un rôle dans l’orientation de L’IA?
  • que doivent faire les entreprises et les gouvernements pour se préparer à L’avenir de L’IA?

en tant que telle, cette série compte un total de six chapitres:

  1. (Vous êtes ici) quand atteindrons-nous la singularité?, – Un consensus chronologique des chercheurs en IA
  2. Comment nous atteindrons la singularité – IA, Neurotechnologies, et plus encore
  3. L’Intelligence Artificielle formera – t-elle un Singleton-ou y aura-t-il beaucoup d’Agents AGI? – Un consensus de chercheur en IA
  4. après la singularité, les humains compteront-ils? – Consensus des chercheurs en IA
  5. Les Nations Unies devraient-elles jouer un rôle dans L’orientation de l’Intelligence Artificielle Post-humaine?,
  6. Le rôle des chefs d’entreprise et du gouvernement dans L’orientation du Consensus post-humain des chercheurs en Intelligence artificielle

dans le passé, la singularité était davantage le domaine de la science – fiction à explorer. Cependant, de nombreux experts en IA, tels que Stuart Russell, Max Tegmark et Stuart Armstrong, prennent cela très au sérieux. Notre objectif avec cette enquête était de recueillir une opinion fondée sur la singularité de dizaines d’experts en IA, ainsi que leurs réflexions sur la façon dont l’humanité pourrait se préparer à l’avenir de L’IA.,

avant de continuer, nous devrions noter que ce n’est pas une représentation définitive de l’avenir; seulement des possibilités. Il y avait beaucoup de désaccord parmi nos experts, y compris si la singularité se produirait ou non. Mais quoi qu’il en soit, comprendre les possibilités sera important pour quiconque au sein du gouvernement ou de l’industrie de rester en avance sur la courbe. Comme l’a dit l’un de nos répondants:

« l’avenir sera probablement plus étrange et plus imprévisible que nous ne l’imaginons. »- James J Hughes

quand atteindrons-nous la singularité?,

Si nous devions demander à Google Maps de nous diriger vers la singularité, quelle route cela nous prendrait-il? Et quand arriverons-nous à destination? Nos experts ont répondu avec un large éventail de réponses. Voici une ventilation graphique de leurs réponses:

Les premières questions que nous avons posées à nos experts étaient quand ils s’attendaient à ce que la singularité se produise., 2100

  • 17% des répondants de prédire une date après 2100
  • 21% des personnes interrogées estiment que la Singularité est peu susceptible de se produire
  • décompose d’une manière différente:

    • 45% des répondants de prédire une date avant 2060
    • 34% des répondants prédire une date après 2060
    • 21% des personnes interrogées estiment que la Singularité est peu susceptible de se produire

    Les prédictions incliner vers une date plus tôt que 2100 ou même potentiellement plus tôt que 2060., Cela correspond raisonnablement bien aux sondages passés que nous avons effectués (voir: chronologie de la conscience de la machine).

    il est intéressant de noter que notre réponse numéro un, « 2036-2060”, a été suivie de « probablement jamais” comme deuxième réponse la plus populaire. Muller et Bostrom, discutés plus loin dans cet article, ont noté dans leur propre étude que de nombreux participants qui tomberaient probablement dans la catégorie « probablement jamais” n’ont tout simplement pas répondu à l’enquête. Les chercheurs ont inclus Une citation d’un conférencier principal, Hubert Dreyfus, lors de la conférence” philosophie et théorie de L’IA  » en 2011 pour illustrer ce point., Dreyfus a déclaré:

    Je ne penserais pas à répondre à un questionnaire aussi biaisé…je pense que toute discussion sur la super–intelligence imminente est erronée. Il ne montre aucune compréhension de l’échec de tous les travaux en IA. Même la formulation d’un tel questionnaire est biaisée et représente une perte de temps.

    En d’autres termes, nous reconnaissons et comprenons que, comme les autres enquêtes dont il est question dans le présent rapport, notre enquête peut être victime de biais de sélection., Les personnes qui nous ont répondu sont peut-être plus susceptibles de croire que la singularité ne se produira pas seulement mais se produira plus tôt que tard. Nous ne peuvent tout simplement pas faire un jugement sur que ce soit ou non le cas.

    cela dit, pourquoi les experts ont-ils choisi les dates qu’ils ont sélectionnées (dont beaucoup sont dans notre vie)? Bien que notre sondage n’ait pas demandé de raison pour laquelle un participant a choisi le délai qu’il a choisi, nous soupçonnons qu’un certain nombre de tendances importantes en matière d’IA ont pu influencer leurs opinions.,

    de nombreux pays ont pris le train en marche et ont publié des stratégies nationales D’IA pour promouvoir la R&D et de nouvelles start-ups avec des milliards de dollars de soutien. Les secteurs de l’industrie pharmaceutique à la banque accueillent des dizaines d’événements annuels sur l’IA et des centaines ou des milliers de sociétés de fournisseurs D’IA spécifiques à chaque secteur.

    l’élan évident du financement de L’IA, de l’éducation et de la stratégie nationale est certainement de bon augure pour les progrès continus de L’IA, et il est possible que ces tendances aient influencé les réponses de nos participants. Cela dit, Nous ne pouvons pas être sûrs.,

    dans les trois sections suivantes de l’article, nous comparons nos résultats à ceux de deux autres enquêtes menées auprès de chercheurs en IA au cours des quatre dernières années et aux opinions de deux éminents Inventeurs futuristes et leaders d’opinion en IA. Nous commençons par une enquête de Muller et Bostrom.

    Muller et Bostrom « Future des Progrès en Intelligence Artificielle”

    Vincent C., Muller, professeur de philosophie à Anatolia College et président de L’Association Européenne pour les systèmes cognitifs, et Nick Bostrom, philosophie renommée à Oxford qui a écrit plus de 200 publications sur la superintelligence, l’intelligence artificielle générale (AGI) et d’autres sujets, ont mené une enquête auprès de chercheurs en IA et de leaders d’opinion.

    ils ont posé aux 550 participants quatre questions principales, dont deux seront abordées dans cet article:

    1. quand est-ce que L’AGI est susceptible de se produire?,
    2. combien de temps après AGI, qu’ils ont appelé « intelligence machine de haut niveau”, AGI dépassera-t-il considérablement les capacités humaines (la singularité)?

    il convient de noter que les questions n’ont pas été formulées de cette façon dans L’enquête de Muller et Bostrom; nous avons paraphrasé les questions.,un peu dans la façon dont ils participent à la discussion singularity et AGI:

    • les participants PT-AI étaient pour la plupart des leaders d’opinion de L’IA non techniques
    • les participants AGI étaient pour la plupart des chercheurs en IA techniques
    • les participants chercheurs en IA
    • les participants au Top100 étaient également principalement des chercheurs en ia techniques

    comme indiqué précédemment, Muller et Bostrom ont interrogé les participants sur ce qu’ils appellent « l’intelligence artificielle de haut niveau”, ou hlmi., Ils l’ont fait pour atténuer les préjugés qui auraient pu survenir si leur enquête incluait des mots comme « intelligence générale artificielle » ou  » singularité. »

    sachant cela, nous avons décidé de remplacer” HLMI  » par AGI aux fins de cohésion dans cet article. Muller et Bostrom définissent HLMI comme une intelligence  » qui peut exercer la plupart des professions humaines au moins aussi bien qu’un humain typique” et s’y réfèrent comme « implique très probablement de pouvoir passer un test de Turing classique.” En conséquence, nous pensons que notre substitution rhétorique est justifiée.,

    Muller et Bostrom ont trouvé des résultats intéressants:

    • Les Participants lui ont donné une probabilité de 10% que nous aurions AGI d’ici 2022, une probabilité de 50% que nous aurions AGI d’ici 2040 et une probabilité de 90% que nous aurions AGI d’ici 2075. Ces années étaient toutes des réponses médianes.
    • Les Participants lui ont donné une probabilité médiane de 10% que AGI surpassera considérablement l’intelligence humaine seulement deux ans après son invention., Bien qu’ils ne soient peut-être pas confiants dans la trajectoire post-invention de deux ans, ils croient qu’il y a 75% de probabilité qu’une superintelligence qui surpasse les humains survienne 30 ans après L’invention D’AGI.
      • Il convient peut-être de noter que le groupe de participants AGI, principalement des chercheurs en IA techniques, a constaté qu’il était 5% plus probable que le groupe global de participants QU’AGI surpasserait les humains deux ans (15%) après son invention et 15% plus probable qu’il surpasserait les humains dans 30 ans (90%).,
      • étrangement, les deux autres groupes de chercheurs techniques (EETN et TOP100) étaient beaucoup moins susceptibles que le groupe AGI de croire QU’AGI surpasserait L’intelligence humaine dans même 30 ans après son invention (55% et 50% respectivement).

    Muller et Bostrom n’ont pas demandé directement aux participants quand la singularité pourrait se produire, mais il semble y avoir une différence significative entre leurs participants et les nôtres. La moitié des participants de Muller et Bostrom ont répondu qu’il y a une probabilité de 90% d’atteindre L’IAG après 2075. L’année moyenne était 2081.,

    bien qu’il n’y ait aucun moyen de comparer directement les résultats de notre enquête aux résultats de Muller et Bostrom en raison de méthodologies différentes, il y a peut-être quelque chose à dire sur le fait que 24% de nos participants, le plus grand groupe déclarant, étaient convaincus que la singularité se produirait entre 2036 et 2060, alors que 50% des participants de Muller et Bostrom lui donnaient une probabilité de 90% que nous n’atteindrons même pas AGI avant 2075, et encore moins atteindre la singularité.,

    Les participants de Muller et Bostrom pensaient en général que la singularité avait 75% de chances de se produire 30 ans après la réalisation de L’AGI, ce qui place le délai pour la singularité plusieurs décennies plus tard que nos participants ne le croyaient.

    Projections des futuristes – Ray Kurzweil et Louis Rosenberg

    en général, il semble que nos participants projettent un délai plus court pour atteindre la singularité que celui de Muller et Bostrom. cela les met plus en ligne avec Ray Kurzweil, futuriste renommé et Directeur de L’ingénierie de Google., Kurzweil revendique un taux de précision de 86% avec ses prédictions remontant aux années 90. dans sa chronologie de la singularité, Il prédit que la singularité elle-même est atteinte d’ici 2045.

    de même, Louis Rosenberg, PhD, inventeur, PDG et Scientifique en chef d’unanimous AI, a ceci à dire sur le calendrier de la singularité:

    Au début des années 1990, lorsque j’ai commencé à réfléchir à cette question, je pensais que L’IA dépasserait les capacités humaines autour de l’année 2050. Actuellement, je crois que cela arrivera plus tôt que cela, peut-être dès 2030., C’est très surprenant pour moi, car ces types de prévisions glissent généralement plus loin dans l’avenir à mesure que les limites de la technologie se mettent au point, mais celle-ci nous crie plus vite que jamais.

    Kurzweil est connu pour une variété de prédictions sur les technologies émergentes et la transition transhumaine, y compris l’interface cerveau-machine, les nanotechnologies, AGI, etc.

    les prédictions de Kurzweil de – la singularité est proche (2005). Source: Wikipedia

    Grace et.,Al  » quand L’IA dépassera-t-elle les performances humaines? »

    Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang et Owain Evans, chercheurs D’Oxford, Yale et AI Impacts, ont mené leur propre enquête. Leurs participants étaient des chercheurs 352 qui ont publié lors des conférences 2015 NIPS et ICML pour la recherche en apprentissage automatique. 82% de leurs participants travaillaient dans le milieu universitaire, tandis que 21% travaillaient dans l’industrie.

    grâce et.al utilisez” high-level machine intelligence  » (HLMI) dans leur enquête, mais contrairement à Muller et Bostrom, Grace et.,al semble le Définir comme nous définissons la singularité: « surpasser les humains dans toutes les tâches.” Pour cette raison, nous allons substituer L’utilisation de HLMI par Grace et ses collègues à la singularité à des fins de cohésion dans cet article.

    Grace et ses collègues ont donné une probabilité moyenne de 10% que la singularité soit atteinte dans les 9 ans suivant la réalisation de l’enquête en 2016 (d’ici 2025). Les Participants ont également donné une probabilité moyenne de 50% que la singularité se produise dans les 45 ans suivant la réalisation de l’enquête (d’ici 2061)., Cela met leurs répondants sur la fin de conte de notre plus grand groupe de réponse: ceux qui croient que la singularité se produira entre 2036 et 2060.

    étrangement, grâce et.al a également demandé aux participants « pour la probabilité que L’IA serait beaucoup mieux que les humains dans toutes les tâches deux ans après HLMI est atteint. »Compte tenu de leur définition de « HLMI” comme une intelligence artificielle « meilleure” que les humains à toutes les tâches, on ne sait pas exactement ce que les chercheurs entendent par « énormément.,” Nous ne savons pas si c’était une question qu’ils ont posée en référence à la singularité ou si leur définition de HLMI faisait référence à la singularité comme nous l’avons interprétée.

    cela dit, la question est très similaire à celle posée à Muller et Bostrom, et nous pouvons donc comparer les deux réponses. Fait intéressant, les participants de Grace et de ses collègues ont répondu avec une probabilité médiane de 10% que L’IA serait « largement” meilleure chez les humains à toutes les tâches deux ans après l’invention de HLMI, qui pour cette question semble faire référence à AGI comme dans L’enquête de Muller et Bostrom., C’est la même probabilité que les participants de Muller et Bostrom ont rapportée.

    bien qu’il eût été intéressant de voir ce que les participants de chance Grace et ses collègues ont donné pour la singularité survenant 30 ans après l’invention D’AGI, les chercheurs n’ont pas inclus la question dans leur enquête.

    alors, quand la singularité se produira-t-elle probablement?

    Il semble que les chercheurs en IA et les leaders d’opinion projettent la singularité de se produire à peu près dans les quatre à cinq prochaines décennies. Les participants de Muller et Bostrom projettent une autre chronologie, mais Grace et.,al, Kurzweil et Rosenberg projettent tous que la singularité se produira à peu près dans le délai de notre plus grand groupe de répondants: encore une fois, entre 2036 et 2060.

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *