Bei Emerj sind wir stolz darauf, objektive Informationen über die Anwendungen künstlicher Intelligenz in der Industrie zu präsentieren. KI ist in einer Vielzahl von Bereichen anwendbar—von der Landwirtschaft bis zur Cybersicherheit.
Die meisten unserer Arbeiten konzentrierten sich jedoch auf die kurzfristigen Auswirkungen von KI im Geschäft. Aber was ist mit dem langfristigen? Wir sprechen nicht über das nächste Quartal oder sogar nächstes Jahr, sondern in den kommenden Jahrzehnten.,
Wenn KI leistungsfähiger wird, erwarten wir, dass sie einen größeren Einfluss auf unsere Welt, einschließlich Ihrer Organisation, hat. Daher haben wir uns entschlossen, das zu tun, was wir am besten können: eine gründliche Analyse der KI-Anwendungen und-Implikationen. Aber dieses Mal wollten wir diese Analyse auf die langfristige Zukunft der KI anwenden, damit wir Regierungs-und Geschäftsführern helfen können, die entfernteren Möglichkeiten zu verstehen, die diese Technologie bieten könnte.,
Wir interviewten 32 Doktoranden auf dem Gebiet der KI und fragten sie nach der technologischen Singularität: ein hypothetisches zukünftiges Ereignis, bei dem die Computerintelligenz die der menschlichen Intelligenz mit tiefgreifenden Folgen für die Gesellschaft übertreffen und übertreffen würde.
Im Laufe unserer Forschung wollten wir sechs Hauptfragen beantworten:
- Wann wird die Singularität auftreten, wenn überhaupt?
- Wie könnte post-menschliche Intelligenz höchstwahrscheinlich erreicht werden?,
- Wird zukünftige künstliche Intelligenz dazu neigen, zu fragmentieren oder sich zu einer singulären Intelligenz zu gruppieren?
- Welche Rolle werden Menschen in einer Welt nach der Singularität spielen?
- Sollten internationale Gremien wie die UNO eine Rolle bei der Führung der KI spielen?
- Was sollten Unternehmen und Regierungen jetzt tun, um sich auf die Zukunft der KI vorzubereiten?
Als solche hat diese Serie insgesamt sechs Kapitel:
- (Sie sind hier) Wann werden wir die Singularität erreichen?, – Ein Timeline-Konsens von KI-Forschern
- Wie wir die Singularität erreichen werden-KI, Neurotechnologien und mehr
- Wird künstliche Intelligenz einen Singleton bilden – oder wird es viele AGI-Agenten geben? – Ein KI-Forscher Konsens
- Nach der Singularität, Wird der Mensch wichtig? – Konsens der KI-Forscher
- Sollten die Vereinten Nationen eine Rolle bei der Führung der künstlichen Intelligenz nach dem Menschen spielen?,
- Die Rolle von Geschäfts – und Regierungsführern bei der Führung des Konsenses von Post-Human Intelligence – KI-Forschern
In der Vergangenheit war die Singularität eher der Bereich der Science-Fiction. Aber viele KI-Experten, wie Stuart Russell, Max Tegmark, und Stuart Armstrong, nehmen dies sehr ernst. Unser Ziel mit dieser Umfrage war es, eine fundierte Meinung über die Singularität von Dutzenden von KI-Experten sowie ihre Gedanken darüber zu sammeln, wie sich die Menschheit auf die Zukunft der KI vorbereiten könnte.,
Bevor wir fortfahren, sollten wir beachten, dass dies keine endgültige Darstellung der Zukunft ist; nur Möglichkeiten. Es gab viele Meinungsverschiedenheiten unter unseren Experten, einschließlich, ob die Singularität auftreten würde oder nicht. Aber unabhängig davon wird es für jeden in Regierung oder Industrie wichtig sein, die Möglichkeiten zu verstehen, um der Kurve voraus zu sein. Wie einer unserer Befragten sagte:
“ Die Zukunft wird wahrscheinlich fremder und unvorhersehbarer sein, als wir uns vorstellen.“– James J Hughes
Wann Erreichen Wir die Singularität?,
Wenn wir Fragen, Google Maps zu navigieren uns der Singularität, welche route würde es uns nehmen? Und wann würden wir unser Ziel erreichen? Unsere Experten antworteten mit einer breiten Palette von Antworten. Nachfolgend finden Sie eine grafische Aufschlüsselung ihrer Antworten:
Die ersten Fragen, die wir unseren Experten stellten, waren, als sie erwarteten, dass die Singularität auftreten würde., 2100
Auf andere Weise aufgeschlüsselt:
- 45% der Befragten sagen ein Datum vor 2060 voraus
- 34% der Befragten sagen ein Datum nach 2060 voraus
- 21% der Befragten glauben, dass es unwahrscheinlich ist, dass die Singularität jemals auftritt
Die Vorhersagen neigen zu einem Datum, das früher als 2100 oder möglicherweise sogar früher als 2060 liegt., Dies passt einigermaßen gut zu früheren Umfragen, die wir durchgeführt haben (siehe: Zeitleiste für Machine Consciousness).
Es ist interessant festzustellen, dass unsere Antwort Nummer eins, „2036-2060“, von „wahrscheinlich nie“ als zweitbeliebteste Antwort gefolgt wurde. Muller und Bostrom, die später in diesem Artikel diskutiert wurden, stellten in ihrer eigenen Umfrage fest, dass viele Teilnehmer, die wahrscheinlich in die Kategorie „wahrscheinlich nie“ fallen würden, einfach nicht auf die Umfrage geantwortet haben. Die Forscher nahmen ein Zitat eines Hauptredners, Hubert Dreyfus, auf der Konferenz „Philosophy and Theory of AI“ im Jahr 2011 auf, um diesen Punkt zu veranschaulichen., Dreyfus sagte:
ich würde nicht denken, dass die Reaktion auf eine solche tendenziösen Fragebogen…ich denke, dass jede Diskussion über bevorstehende super–Intelligenz ist falsch. Es zeigt kein Verständnis für das Scheitern aller Arbeiten in AI. Selbst die Formulierung eines solchen Fragebogens ist voreingenommen und Zeitverschwendung.
Mit anderen Worten, wir erkennen und verstehen, dass unsere Umfrage wie die anderen in diesem Bericht diskutierten Umfragen möglicherweise einer Selektionsverzerrung zum Opfer fällt., Die Leute, die auf uns geantwortet haben, glauben vielleicht eher, dass die Singularität nicht nur auftreten wird, sondern früher als später auftreten wird. Wir können einfach nicht beurteilen, ob dies der Fall ist oder nicht.
Warum haben die Experten die von ihnen ausgewählten Daten ausgewählt (von denen viele innerhalb unseres Lebens liegen)? Während unsere Umfrage nicht nach einem Grund gefragt hat, warum ein Teilnehmer den Zeitrahmen ausgewählt hat, vermuten wir, dass eine Reihe wichtiger KI-Trends ihre Meinung beeinflusst haben könnte.,
Viele Nationen sind auf den Zug aufgesprungen und haben nationale KI-Strategien veröffentlicht, um inländische R zu fördern&D und neue Start-ups mit Milliarden von Dollar Unterstützung. Sektoren von Pharma bis Bankwesen werden zu Dutzenden jährlicher KI-Events und Hunderten oder Tausenden branchenspezifischer KI-Anbieterunternehmen.
Die klare Dynamik von KI-Finanzierung, Bildung und nationaler Strategie ist sicherlich ein gutes Zeichen für den anhaltenden Fortschritt von KI, und es ist möglich, dass diese Trends die Reaktionen unserer Teilnehmer beeinflusst haben. Das heißt, wir können nicht sicher sein.,
In den nächsten drei Abschnitten des Artikels vergleichen wir unsere Ergebnisse mit denen von zwei anderen Umfragen von KI-Forschern, die in den letzten vier Jahren durchgeführt wurden, und den Meinungen von zwei prominenten futuristischen Erfindern und KI-Vordenkern. Wir beginnen mit einer Umfrage von Müller und Bostrom.
Muller und Bostrom ‚ s „Future Progress in Artificial Intelligence“
Vincent C., Muller, Professor für Philosophie am Anatolia College und Präsident der European Association for Cognitive Systems, und Nick Bostrom, renommierter Philosoph in Oxford, der über 200 Publikationen zu Superintelligenz, künstlicher allgemeiner Intelligenz (AGI) und anderen Themen verfasst hat, führten eine Umfrage unter KI-Forschern und Vordenkern durch.
Sie stellten den 550 Teilnehmern vier Hauptfragen, von denen wir zwei in diesem Artikel diskutieren werden:
- Wann ist AGI wahrscheinlich?,
- Wie bald nach AGI, das sie „High-Level Machine Intelligence“ nannten, wird AGI die menschlichen Fähigkeiten (die Singularität) stark übertreffen?
Es ist anzumerken, dass die Fragen in der Umfrage von Müller und Bostrom nicht so formuliert wurden; Wir haben die Fragen paraphrasiert.,leicht in der Art und Weise, wie sie an der Singularität und AGI-Diskussion teilnehmen:
- PT-AI-Teilnehmer waren meist nicht-technische KI-Vordenker
- AGI-Teilnehmer waren hauptsächlich technische KI-Forscher
- EETN-Teilnehmer bestanden hauptsächlich aus veröffentlichten technischen KI-Forschern
- TOP100-Teilnehmer waren auch hauptsächlich technische KI-Forscher
Wie bereits erwähnt, fragten Muller und Bostrom die Teilnehmer nach dem, was sie „High-Level Machine Intelligence“ oder HLMI nennen., Sie taten dies, um die möglicherweise auftretenden Verzerrungen zu mildern, wenn ihre Umfrage Wörter wie „künstliche allgemeine Intelligenz“ oder „Singularität“ enthielt.“
Da wir dies wissen, haben wir beschlossen, „HLMI“ für AGI zum Zwecke des Zusammenhalts in diesem Artikel zu ersetzen. Muller und Bostrom definieren HLMI als eine Intelligenz, „die die meisten menschlichen Berufe mindestens genauso gut ausüben kann wie ein typischer Mensch“ und bezeichnen sie als „sehr wahrscheinlich bedeutet, einen klassischen Turing-Test bestehen zu können.“Infolgedessen glauben wir, dass unsere rhetorische Substitution gerechtfertigt ist.,
Muller und Bostrom fanden einige interessante Ergebnisse:
- Die Teilnehmer gaben eine Wahrscheinlichkeit von 10% an, dass wir bis 2022 AGI haben würden, eine Wahrscheinlichkeit von 50%, dass wir bis 2040 AGI haben würden, und eine Wahrscheinlichkeit von 90%, dass wir bis 2075 AGI haben würden. Diese Jahre waren alle Medianantworten.
- Die Teilnehmer gaben ihm eine mittlere Wahrscheinlichkeit von 10%, dass AGI die menschliche Intelligenz nur zwei Jahre nach seiner Erfindung stark übertreffen wird., Obwohl sie in der zweijährigen Post-Invention-Trajektorie vielleicht nicht sicher sind, glauben sie, dass es 75% Wahrscheinlichkeit gibt, dass eine Superintelligenz, die Menschen übertrifft, 30 Jahre nach der Erfindung von AGI entstehen wird.
- Bemerkenswert ist vielleicht, dass die AGI-Gruppe von Teilnehmern, hauptsächlich technische KI-Forscher, fand es 5% wahrscheinlicher als der Gesamtpool von Teilnehmern, dass AGI Menschen zwei Jahre (15%) nach seiner Erfindung und 15% übertreffen würde wahrscheinlicher, dass es Menschen in 30 Jahren übertreffen würde (90%).,
- Seltsamerweise glaubten die beiden anderen Gruppen technischer Forscher (EETN und TOP100) viel seltener als die AGI-Gruppe, dass AGI die menschliche Intelligenz in 30 Jahren nach ihrer Erfindung übertreffen würde (55% bzw.
Muller und Bostrom haben die Teilnehmer nicht direkt gefragt, wann die Singularität auftreten könnte, aber es scheint einen signifikanten Unterschied zwischen ihren Teilnehmern und unseren zu geben. Die Hälfte aller Teilnehmer von Muller und Bostrom antwortete, dass eine Wahrscheinlichkeit von 90% besteht, dass nach 2075 ein AGI erreicht wird. Das mittlere Jahr war 2081.,
Obwohl es aufgrund unterschiedlicher Methoden keine Möglichkeit gibt, die Ergebnisse unserer Umfrage direkt mit den Ergebnissen von Muller und Bostrom zu vergleichen, gibt es vielleicht etwas zu sagen, dass 24% unserer Teilnehmer, die größte Berichtsgruppe, zuversichtlich waren, dass die Singularität zwischen 2036 und 2060 auftreten würde, während 50% der Teilnehmer von Muller und Bostrom eine 90% ige Wahrscheinlichkeit hatten, dass wir AGI erst nach 2075 erreichen würden, geschweige denn die Singularität erreichen würden.,
Die Teilnehmer von Muller und Bostrom dachten im Allgemeinen, dass die Singularität eine 75% ige Chance hat, 30 Jahre nach dem Erreichen von AGI aufzutreten, was den Zeitrahmen für die Singularität einige Jahrzehnte später setzt, als unsere Teilnehmer glaubten.
Projektionen von Futuristen Ray Kurzweil und Louis Rosenberg
Im Allgemeinen, es scheint, dass sich unsere Teilnehmer Projekt einen kürzeren Zeitrahmen für das erreichen der Singularität, als Muller und Bostrom ist. Dies versetzt Sie mehr in Linie mit Ray Kurzweil, der renommierte Zukunftsforscher und Google-Direktor von Engineering., Kurzweil behauptet eine Genauigkeitsrate von 86%, wobei seine Vorhersagen auf die 90er Jahre zurückgehen.In seiner Singularity Timeline prognostiziert er, dass die Singularität selbst von 2045 erreicht wird.
In ähnlicher Weise hat Louis Rosenberg, PhD, Erfinder und CEO und Chefwissenschaftler von einstimmiger KI, dies über den Zeitrahmen der Singularität zu sagen:
Als ich Anfang der 1990er Jahre anfing, über dieses Thema nachzudenken, glaubte ich, dass KI die menschlichen Fähigkeiten um das Jahr 2050 übertreffen würde. Derzeit glaube ich, dass es früher passieren wird, möglicherweise schon 2030., Das ist für mich sehr überraschend, da diese Art von Prognosen normalerweise weiter in die Zukunft rutschen, wenn die Grenzen der Technologie in den Fokus rücken, aber diese schreit uns schneller als je zuvor entgegen.
Kurzweil ist bekannt für eine Vielzahl von Vorhersagen über aufkommende Technologie und den transhumanen Übergang, einschließlich Gehirn-Maschine-Schnittstelle, Nanotechnologien, AGI usw.
Grace et.,al ‚ s “ Wann wird AI die menschliche Leistung übertreffen?“
Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang, und Owain Evans, Forscher von Oxford, Yale und AI Auswirkungen, die eine Umfrage von Ihre eigenen. Ihre Teilnehmer waren 352 Forscher, die auf den 2015 NIPS und ICML Konferenzen für Forschung im maschinellen Lernen veröffentlicht. 82% ihrer Teilnehmer waren in der Wissenschaft tätig, 21% in der Industrie.
Gnade et.al verwenden Sie“ High-Level Machine Intelligence “ (HLMI) in ihrer Umfrage, aber im Gegensatz zu Muller und Bostrom, Grace et.,wir scheinen es so zu definieren, wie wir die Singularität definieren: „Menschen in allen Aufgaben übertreffen.“Aus diesem Grund werden wir Grace und Kollegen die Verwendung von HLMI für die Singularität zum Zwecke des Zusammenhalts in diesem Artikel ersetzen.
die Gnade und Kollegen die Teilnehmer Gaben eine mittlere 10% Wahrscheinlichkeit, dass die Singularität erreicht würde, innerhalb von 9 Jahren, nachdem die Umfrage wurde im Jahr 2016 (bis 2025). Die Teilnehmer gaben auch eine mittlere Wahrscheinlichkeit von 50% an, dass die Singularität innerhalb von 45 Jahren nach der Umfrage auftreten würde (bis 2061)., Dies bringt ihre Befragten auf das andere Ende unserer größten Antwortgruppe: Diejenigen, die glauben, dass die Singularität zwischen 2036 und 2060 passieren wird.
Seltsam, Grace et.al außerdem fragten die Teilnehmer “ nach der Wahrscheinlichkeit, dass KI zwei Jahre nach dem Erreichen von HLMI bei allen Aufgaben erheblich besser abschneiden würde als Menschen.“Angesichts ihrer Definition von“ HLMI „als maschinelle Intelligenz, die bei allen Aufgaben“ besser „als der Mensch war, ist unklar, was genau die Forscher mit „erheblich“ meinen.,“Wir sind uns nicht sicher, ob dies eine Frage war, die sie in Bezug auf die Singularität gestellt haben oder ob ihre Definition von HLMI in Bezug auf die Singularität war, wie wir sie interpretiert haben.
Das heißt, die Frage ist der von Müller und Bostrom gestellten sehr ähnlich, und so können wir die beiden Antworten vergleichen. Interessanterweise antworteten die Teilnehmer von Grace und Kollegen mit einer mittleren Wahrscheinlichkeit von 10%, dass KI zwei Jahre nach der Erfindung von HLMI bei allen Aufgaben „erheblich“ besser für den Menschen wäre, was für diese Frage auf AGI zu verweisen scheint wie in Muller und Bostroms Umfrage., Dies ist die gleiche Wahrscheinlichkeit, die die Teilnehmer von Muller und Bostrom berichteten.
Obwohl es interessant gewesen wäre zu sehen, welche Chance Grace und die Teilnehmer von Kollegen 30 Jahre nach der Erfindung von AGI auf die Singularität hatten, nahmen die Forscher die Frage nicht in ihre Umfrage auf.
Wann Wird die Singularität Wahrscheinlich Auftreten?
Es scheint, als ob KI-Forscher und Vordenker-Projekt der Singularität auftreten, etwa innerhalb der nächsten vier bis fünf Jahrzehnten. Muller und Bostroms Teilnehmer projizieren einen weiteren Zeitplan, aber Grace et.,al, Kurzweil und Rosenberg projizieren die Singularität in etwa auf den Zeitraum unserer größten befragten Gruppe: erneut zwischen 2036 und 2060.
Schreibe einen Kommentar