bij Emerj zijn we trots op het presenteren van objectieve informatie over de toepassingen van kunstmatige intelligentie in de industrie. AI is toepasbaar in een breed scala van gebieden—alles van landbouw tot cybersecurity.
echter, het grootste deel van ons werk was gericht op de korte termijn impact van AI in het bedrijfsleven. Maar hoe zit het met de lange termijn? We hebben het niet over volgend kwartaal, of zelfs volgend jaar, maar over de komende decennia.,
naarmate AI krachtiger wordt, verwachten we dat het een grotere impact zal hebben op onze wereld, inclusief uw organisatie. Dus besloten we te doen waar we goed in zijn: een diepgaande analyse van AI-toepassingen en implicaties. Maar deze keer wilden we die analyse toepassen op de toekomst van AI op de lange termijn, zodat we overheid en bedrijfsleiders konden helpen de verder weg gelegen mogelijkheden te begrijpen die deze technologie tot bloei zou kunnen brengen.,we interviewden 32 promovendi op het gebied van AI en vroegen hen naar de technologische singulariteit: een hypothetische toekomstige gebeurtenis waarbij computerintelligentie die van menselijke intelligentie zou overtreffen en overtreffen met diepgaande gevolgen voor de samenleving.
in de loop van ons onderzoek wilden we zes belangrijke vragen beantwoorden:
- Wanneer zal de singulariteit optreden, als die er al is?
- Hoe kan post-menselijke intelligentie het meest waarschijnlijk worden bereikt?,
- zal toekomstige kunstmatige intelligentie de neiging hebben om te fragmenteren of te clusterenin een enkelvoudige intelligentie?
- welke rol zullen mensen spelen in een post-singulariteitswereld?
- moeten internationale instanties als de VN een rol spelen bij het sturen van AI?
- Wat moeten bedrijven en overheden nu doen om zich voor te bereiden op de toekomst van AI?
als zodanig heeft deze serie in totaal zes hoofdstukken:
- (u bent hier) Wanneer zullen we de singulariteit bereiken?, – Een tijdlijn Consensus van AI onderzoekers
- Hoe zullen we de singulariteit bereiken-AI, Neurotechnologieën en meer
- zal kunstmatige intelligentie een Singleton vormen-of zullen er veel Agi-agenten zijn? – Een AI onderzoeker Consensus
- na de singulariteit, zullen mensen ertoe doen? – AI onderzoeker Consensus
- zou de Verenigde Naties een rol moeten spelen bij het begeleiden van Post-menselijke kunstmatige intelligentie?,
- de rol van het bedrijfsleven en regeringsleiders in het begeleiden van Post-menselijke intelligentie – AI onderzoeker Consensus
in het verleden was de singulariteit meer het domein van sciencefiction om te verkennen. Veel AI-experts, zoals Stuart Russell, Max Tegmark en Stuart Armstrong, nemen dit echter zeer serieus. Ons doel met dit onderzoek was om een gefundeerde mening te vergaren over de singulariteit van tientallen AI-experts, evenals hun gedachten over hoe de mensheid zich zou kunnen voorbereiden op de toekomst van AI.,
voordat we verder gaan, moeten we opmerken dat dit geen definitieve weergave van de toekomst is; alleen mogelijkheden. Er was veel onenigheid tussen onze experts, met inbegrip van de vraag of de singulariteit zou optreden of niet. Maar hoe dan ook, het begrijpen van de mogelijkheden zal belangrijk zijn voor iedereen in de overheid of de industrie om de curve voor te blijven. Zoals een van onze respondenten zei:
“de toekomst is waarschijnlijk vreemder en onvoorspelbaarder dan we denken.”- James J Hughes
When Will We Reach the Singularity?,
als we Google Maps zouden vragen om ons naar de singulariteit te navigeren, welke route zou het ons dan brengen? En wanneer zouden we onze bestemming bereiken? Onze experts reageerden met een breed scala aan antwoorden. Hieronder volgt een grafische uitsplitsing van hun antwoorden:
de eerste vragen die we onze experts stelden waren wanneer ze verwachtten dat de singulariteit zou optreden., 2100
uitgesplitst een andere manier:
- 45% van de respondenten is het voorspellen van een datum voordat 2060
- 34% van de respondenten voorspellen een datum na 2060
- 21% van de respondenten van mening zijn dat de Singulariteit is onwaarschijnlijk dat optreden
De voorspellingen scheef in de richting van een datum eerder dan 2100 of zelfs potentieel sneller dan 2060., Dit sluit redelijk goed aan bij eerdere peilingen die we hebben gedaan (zie: tijdlijn voor Machinebewustzijn).
Het is interessant om op te merken dat onze Nummer één reactie, “2036-2060”, werd gevolgd door “waarschijnlijk nooit” als de tweede meest populaire reactie. Muller en Bostrom, later besproken in dit artikel, opgemerkt in hun eigen enquête writeup dat veel deelnemers die waarschijnlijk zou vallen in de categorie “waarschijnlijk nooit” gewoon niet reageren op de enquête. De onderzoekers opgenomen een citaat van een keynote spreker, Hubert Dreyfus, op de “filosofie en theorie van AI” conferentie in 2011 om dit punt te illustreren., Dreyfus zei:
Ik zou er niet aan denken om zo ‘ n bevooroordeelde vragenlijst te beantwoorden…Ik denk dat elke discussie over imminente superintelligentie verkeerd is. Het toont geen begrip van de mislukking van al het werk in AI. Zelfs het formuleren van zo ‘ n vragenlijst is bevooroordeeld en is tijdverspilling.
met andere woorden, We erkennen en begrijpen dat net als de andere onderzoeken die in dit rapport worden besproken, onze enquête het slachtoffer kan worden van selectievooroordeel., De mensen die op ons reageerden zullen misschien eerder geloven dat de singulariteit niet alleen zal plaatsvinden, maar eerder dan later zal plaatsvinden. We kunnen gewoon geen oordeel vellen over de vraag of dit wel of niet het geval is.
Dat gezegd hebbende, waarom hebben de experts de data geselecteerd die zij hebben geselecteerd (waarvan vele binnen onze levens liggen)? Hoewel onze peiling niet vroeg om een reden waarom een deelnemer het tijdsbestek koos dat ze deden, vermoeden we dat een aantal belangrijke AI-trends hun meningen kunnen hebben beïnvloed.,
veel landen hebben op de bandwagon gesprongen en hebben nationale AI-strategieën uitgebracht om Binnenlandse R&D en nieuwe start-ups met miljarden dollars steun te promoten. Sectoren van de farma tot het bankwezen worden gastheer voor tientallen jaarlijkse AI-evenementen, en honderden of duizenden sectorspecifieke ai-vendorbedrijven.
het duidelijke momentum van AI-financiering, onderwijs en nationale strategie belooft zeker veel goeds voor de verdere vooruitgang van AI, en het is mogelijk dat deze trends de reacties van onze deelnemers beà nvloedden. Dat gezegd hebbende, we weten het niet zeker.,in de volgende drie secties van het artikel vergelijken we onze bevindingen met die van twee andere onderzoeken onder AI-onderzoekers die de afgelopen vier jaar werden uitgevoerd en de meningen van twee vooraanstaande futuristische uitvinders en AI-thought leaders. We beginnen met een onderzoek van Muller en Bostrom.
Muller en Bostrom ‘ s “Future Progress in Artificial Intelligence”
Vincent C., Muller, hoogleraar filosofie aan het Anatolia College en voorzitter van de European Association for Cognitive Systems, en Nick Bostrom, gerenommeerde filosofie aan Oxford die meer dan 200 publicaties heeft geschreven over superintelligence, artificial general intelligence (AGI) en andere onderwerpen, voerden een enquête uit bij AI-onderzoekers en thought leaders.
zij stelden de 550 deelnemers vier hoofdvragen, waarvan er twee in dit artikel zullen worden besproken:
- wanneer is AGI waarschijnlijk?,
- hoe snel na AGI, die zij “machineintelligentie op hoog niveau” noemden, zal AGI de menselijke capaciteiten (de singulariteit) sterk overtreffen?Opgemerkt dient te worden dat de vragen niet op deze manier zijn geformuleerd in het overzicht van Muller en Bostrom; wij hebben de vragen geparafraseerd.,iets in de manier waarop zij participeren in de singulariteit en AGI discussie:
- PT-AI deelnemers waren vooral niet-technische AI leiders
- AGI deelnemers waren voornamelijk technische AI onderzoekers
- EETN deelnemers bestonden uit alleen gepubliceerde technische AI onderzoekers
- TOP100 deelnemers waren ook meestal technische AI onderzoekers
Zoals eerder opgemerkt, Muller en Bostrom aan de deelnemers werd gevraagd over wat zij noemen “Hoog-niveau machine-intelligentie,” of HLMI., Ze deden dit om vooroordelen te verzachten die zouden kunnen zijn ontstaan had hun onderzoek opgenomen woorden als “kunstmatige algemene intelligentie” of ” singulariteit.”
Dit wetende, hebben we besloten om “HLMI” te vervangen voor AGI voor cohesiedoeleinden in dit artikel. Muller en Bostrom definiëren HLMI als een intelligentie “die de meeste menselijke beroepen minstens zo goed kan uitvoeren als een typische mens” en verwijzen naar het als “zeer waarschijnlijk impliceert dat je in staat bent om een klassieke Turing-test te halen.”Daarom geloven we dat onze retorische vervanging gerechtvaardigd is.,
Muller en Bostrom vonden enkele interessante resultaten:
- deelnemers gaven een 10% waarschijnlijkheid dat we AGI zouden hebben in 2022, een 50% waarschijnlijkheid dat we AGI zouden hebben in 2040, en een 90% waarschijnlijkheid dat we AGI zouden hebben in 2075. Deze jaren waren allemaal mediane responsen.de deelnemers gaven een mediane kans van 10% dat AGI de menselijke intelligentie slechts twee jaar na de uitvinding sterk zal overtreffen., Hoewel ze misschien geen vertrouwen hebben in het traject van twee jaar na de uitvinding, geloven ze wel dat er 75% kans is dat er 30 jaar na de uitvinding van AGI een superintelligentie zal ontstaan die de mens overtreft.het is misschien vermeldenswaard dat de AGI-groep van deelnemers, voornamelijk technische AI-onderzoekers, het 5% waarschijnlijker vond dan de totale groep deelnemers dat AGI twee jaar (15%) na de uitvinding de mens zou overtreffen en 15% waarschijnlijker dat het over 30 jaar de mens zou overtreffen (90%).,vreemd genoeg waren de andere twee groepen technische onderzoekers (EETN en TOP100) veel minder waarschijnlijk dan de AGI-groep om te geloven dat AGI de menselijke intelligentie zelfs 30 jaar na de uitvinding zou overtreffen (respectievelijk 55% en 50%).
Muller en Bostrom vroegen de deelnemers niet direct wanneer de singulariteit zou kunnen optreden, maar er lijkt een significant verschil te zijn tussen hun deelnemers en de onze. De helft van alle deelnemers van Muller en Bostrom reageerde dat er een 90% kans is om AGI te bereiken na 2075. Het gemiddelde jaar was 2081.,
hoewel er geen manier is om de resultaten van onze enquête direct te vergelijken met de resultaten van Muller en Bostrom ‘ s vanwege verschillende methodologieën, is er misschien iets te zeggen over het feit dat 24% van onze deelnemers, de grootste rapportagegroep, ervan overtuigd was dat de singulariteit zou plaatsvinden tussen 2036 en 2060, terwijl 50% van de deelnemers van Muller en Bostrom 90% kans gaf dat we AGI pas na 2075 zouden bereiken, laat staan dat we de singulariteit zouden bereiken., de deelnemers van Muller en Bostrom waren over het algemeen van mening dat de singulariteit een 75% kans heeft 30 jaar na het bereiken van de AGI, wat de termijn voor de singulariteit enkele decennia later plaatst dan onze deelnemers dachten.projecties van futuristen-Ray Kurzweil en Louis Rosenberg
in het algemeen lijkt het erop dat onze deelnemers een kortere termijn voor het bereiken van de singulariteit hebben dan die van Muller en Bostrom. dit brengt ze meer in lijn met Ray Kurzweil, gerenommeerd futurist en Google ‘ s Directeur Engineering., Kurzweil claimt een nauwkeurigheid van 86% met zijn voorspellingen die teruggaan tot de jaren 90. in zijn singulariteitstijdlijn voorspelt hij dat de singulariteit zelf is bereikt in 2045.ook Louis Rosenberg, PhD, inventor, en CEO en Chief Scientist van unanimous AI, heeft het volgende te zeggen over het tijdsbestek van de singulariteit:
in de vroege jaren 1990, toen ik begon na te denken over dit probleem, geloofde ik dat AI de menselijke capaciteiten zou overtreffen rond het jaar 2050. Op dit moment denk ik dat het eerder zal gebeuren, misschien al in 2030., Dat is heel verrassend voor mij, omdat dit soort voorspellingen meestal verder in de toekomst glijden als de grenzen van de technologie in beeld komen, maar deze schreeuwt sneller dan ooit naar ons toe.Kurzweil staat bekend om een verscheidenheid aan voorspellingen over opkomende technologie en de transitie van transhuman, waaronder brain-machine interface, nanotechnologieën, AGI, enz.
Grace et.,Al ‘ s ” Wanneer zal AI de menselijke prestaties overtreffen?Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang en Owain Evans, onderzoekers van Oxford, Yale en AI Impacts, voerden een eigen enquête uit. Hun deelnemers waren 352 onderzoekers die gepubliceerd op de 2015 NIPS en ICML conferenties voor onderzoek in machine learning. 82% van de deelnemers zat in de academische wereld, terwijl 21% in de industrie werkte.
Grace et.al gebruik” High-level Machine intelligence ” (Hlmi) in hun onderzoek, maar in tegenstelling tot Muller en Bostrom, Grace et.,al lijkt het te definiëren zoals wij de singulariteit definiëren: “beter presteren dan mensen in alle taken.”Daarom gaan we het gebruik van Hlmi door Grace en collega’ s vervangen door de singulariteit ten behoeve van cohesie in dit artikel.
Grace en de deelnemers van collega’ s gaven een gemiddelde kans van 10% dat de singulariteit binnen 9 jaar na de enquête in 2016 (tegen 2025) zou worden bereikt. De deelnemers gaven ook een gemiddelde kans van 50% dat de singulariteit zou optreden binnen 45 jaar na de enquête (tegen 2061)., Dit zet hun respondenten op het einde van onze grootste reactiegroep: degenen die geloven dat de singulariteit zal gebeuren tussen 2036 en 2060.
vreemd genoeg, Grace et.al ook vroeg deelnemers ” voor de waarschijnlijkheid dat AI zou enorm beter dan mensen in alle taken twee jaar na hlmi is bereikt.”Gezien hun definitie van” HLMI “als een machine intelligentie die was” beter “dan mensen bij alle taken, het is onduidelijk wat precies de onderzoekers bedoelen met” enorm.,”We zijn er niet zeker van of dit een vraag was die ze stelden met betrekking tot de singulariteit of dat hun definitie van HLMI was met betrekking tot de singulariteit zoals we het interpreteerden.
Dat gezegd hebbende, de vraag is zeer vergelijkbaar met die van Muller en Bostrom, en dus kunnen we de twee antwoorden vergelijken. Interessant, Grace en collega’ s deelnemers reageerden met een mediaan 10% waarschijnlijkheid dat AI zou “enorm” beter op mensen bij alle taken twee jaar na de uitvinding van HLMI, die voor deze vraag lijkt te verwijzen naar AGI zoals het doet in Muller en Bostrom ‘ s onderzoek., Dit is dezelfde waarschijnlijkheid die de deelnemers van Muller en Bostrom meldden.hoewel het interessant zou zijn geweest om te zien welke kans Grace en de deelnemers van collega’ s gaven voor de singulariteit die 30 jaar na de uitvinding van AGI plaatsvond, namen de onderzoekers de vraag niet op in hun enquête.
dus Wanneer zal de singulariteit waarschijnlijk optreden?
Het lijkt alsof AI-onderzoekers en thought leaders projecteren dat de singulariteit ruwweg binnen de komende vier tot vijf decennia zal plaatsvinden. Muller en Bostrom ‘ s deelnemers projecteren een verdere tijdlijn, maar Grace et.,al, Kurzweil en Rosenberg projecteren allemaal dat de singulariteit ruwweg binnen het tijdsbestek van onze grootste respondentgroep zal plaatsvinden: opnieuw tussen 2036 en 2060.
Geef een reactie