På Emerj, vi er stolte af at præsentere objektive oplysninger om anvendelsen af kunstig intelligens i industrien. AI kan anvendes på en lang række områder—alt fra landbrug til cybersikkerhed.
det meste af vores arbejde har dog været på den kortsigtede virkning af AI i erhvervslivet. Men hvad med det langsigtede? Vi taler ikke om næste kvartal eller endda næste år, men i de kommende årtier., efterhånden som AI bliver mere kraftfuld, forventer vi, at det vil have større indflydelse på vores verden, herunder din organisation. Så vi besluttede at gøre det, vi gør bedst: en dyb analyse af AI-applikationer og implikationer. Men denne gang ønskede vi at anvende denne analyse på AI ‘ s langsigtede fremtid, så vi kunne hjælpe regerings-og erhvervsledere med at forstå de fjernere muligheder, som denne teknologi kunne bringe til udførelse.,
Vi intervie .ede 32 ph.d. – forskere på AI-området og spurgte dem om den teknologiske singularitet: en hypotetisk fremtidig begivenhed, hvor computerintelligens ville overgå og overstige den menneskelige intelligens med dybe konsekvenser for samfundet.
i løbet af vores forskning ønskede vi at besvare seks hovedspørgsmål:
- Hvornår vil singulariteten forekomme, hvis overhovedet?
- Hvordan kan post-menneskelig intelligens sandsynligvis opnås?,
- vil fremtidig kunstig intelligens have en tendens til at fragmentere eller klynge sig ind i en ental intelligens?
- hvilken rolle vil mennesker spille i en post-singularitetsverden?
- skal internationale organer som FN spille en rolle i at vejlede AI?
- Hvad skal virksomheder og regeringer gøre nu for at forberede sig på AI ‘ s fremtid?
som sådan har denne serie i alt seks kapitler:
- (du er her) Hvornår kommer vi til singulariteten?, – En Tidslinje Konsensus fra AI-Forskere
- Hvordan Vi Vil Nå Singulariteten – AI, Neurotechnologies, og Mere
- Vil Kunstig Intelligens Form af en Singleton – eller Vil Der Være Mange AGI Agenter? – En AI forsker konsensus
- efter singulariteten, vil Mennesker noget? – AI forsker konsensus
- bør FN spille en rolle i at vejlede Post-Human kunstig intelligens?,
- forretnings-og Regeringsledernes rolle i at vejlede Post – Human Intelligence-AI-forsker konsensus
tidligere har singulariteten været mere science fiction at udforske. Imidlertid tager mange AI-eksperter, såsom Stuart Russell, Ma.Tegmark og Stuart Armstrong, dette meget alvorligt. Vores mål med denne undersøgelse var at samle en velbegrundet mening om singulariteten fra snesevis af AI-eksperter, samt deres tanker om, hvordan menneskeheden kan forberede sig på fremtiden for AI.,
før vi fortsætter, skal vi bemærke, at dette ikke er en endelig skildring af fremtiden; kun muligheder. Der var stor uenighed blandt vores eksperter, herunder om singulariteten ville forekomme eller ej. Men uanset at forstå mulighederne vil være vigtigt for alle i regeringen eller industrien at holde sig foran kurven. Som en af vores respondenter sagde:
“fremtiden vil sandsynligvis være fremmed og mere uforudsigelig, end vi forestiller os.”- James J Hughes
Hvornår vil vi nå singulariteten?,
Hvis vi skulle bede Google maps om at navigere os til singulariteten, hvilken rute ville det tage os? Og hvornår ville vi nå vores destination? Vores eksperter svarede med en bred vifte af svar. Nedenfor er en grafisk oversigt over deres svar:
de første spørgsmål, vi stillede vores eksperter, var, da de forventede, at singulariteten skulle forekomme., 2100
opdelt på en anden måde:
- 45% af respondenterne forudser en dato, der ligger før 2060
- 34% af respondenterne forudser en dato efter 2060
- 21% af respondenterne mener, at Singulariteten er det usandsynligt, at der nogensinde opstår
forudsigelser skew mod en dato tidligere end 2100 eller endog potentielt hurtigere end 2060., Dette svarer rimeligt godt til tidligere afstemninger, vi har gjort (se: tidslinje for Maskinbevidsthed).
det er interessant at bemærke, at vores nummer et svar, “2036-2060”, blev efterfulgt af “sandsynligvis aldrig” som det næst mest populære svar. Muller og Bostrom, diskuteret senere i denne artikel, bemærkede i deres egen undersøgelsesskrivning, at mange deltagere, der sandsynligvis ville falde i kategorien “sandsynligvis aldrig”, simpelthen ikke svarede på undersøgelsen. Forskerne inkluderede et citat fra en hovedtaler, Hubert Dreyfus, på konferencen “filosofi og teori om AI” i 2011 for at illustrere dette punkt., Dreyfus sagde:
Jeg ville ikke tænke på at svare på et så partisk spørgeskema… Det viser ingen forståelse for svigt i alt arbejde i AI. Selv bare formulere et sådant spørgeskema er forudindtaget og er spild af tid.
med andre ord anerkender og forstår vi, at ligesom de andre undersøgelser, der diskuteres i denne rapport, kan vores undersøgelse blive offer for selektionsbias., De mennesker, der reagerede på os, er måske mere tilbøjelige til at tro, at singulariteten ikke kun vil forekomme, men vil forekomme før end senere. Vi kan simpelthen ikke gøre en dom om, hvorvidt dette er tilfældet.
når det er sagt, Hvorfor valgte eksperterne de datoer, de valgte (hvoraf mange er inden for vores levetid)? Selvom vores meningsmåling ikke bad om en grund til, hvorfor en deltager valgte den tidsramme, de gjorde, formoder vi, at en række vigtige AI-tendenser kan have påvirket deres meninger.,mange nationer har hoppet på båndvognen og har frigivet nationale AI-strategier til fremme af indenlandsk R&D og nye nystartede virksomheder med milliarder af dollars support. Sektorer fra pharma til bank bliver vært for snesevis af årlige AI-begivenheder og hundreder eller tusinder af sektorspecifikke AI-leverandørfirmaer.
klare fremdriften af AI, finansiering, uddannelse og national strategi bestemt lover godt for AI ‘ s fortsatte udvikling, og det er muligt, at disse tendenser har påvirket svarene fra vores deltagere. Når det er sagt, kan vi ikke være sikre.,
i de næste tre afsnit af artiklen sammenligner vi vores fund med dem fra to andre undersøgelser af AI-forskere, der blev udført i de sidste fire år, og udtalelser fra to fremtrædende futuristiske opfindere og AI-tankeledere. Vi starter med en undersøgelse fra Muller og Bostrom.
Muller og Bostroms “fremtidige fremskridt inden for kunstig intelligens”
Vincent C., Muller, Professor i Filosofi på Anatolia College og Formand for den Europæiske Sammenslutning for Kognitive Systemer, og Nick Bostrom, kendt filosofi ved Oxford, der har skrevet over 200 publikationer om superintelligens, kunstige generel intelligens (AGI), og andre emner, gennemført en undersøgelse af AI-forskere og førende tænkere.
de stillede de 550 deltagere fire hovedspørgsmål, hvoraf to vil vi diskutere i denne artikel:
- Hvornår vil AGI sandsynligvis ske?,
- hvor hurtigt efter AGI, som de kaldte “maskinintelligens på højt niveau”, vil AGI i høj grad overgå menneskelige evner (singulariteten)?
det skal bemærkes, at spørgsmålene ikke blev formuleret på denne måde i Muller og Bostroms undersøgelse; Vi har omskrevet spørgsmålene.,lidt i den måde, de deltager i singulariteten og AGI diskussion:
- PT-AI deltagerne var overvejende ikke-tekniske AI thought leaders
- AGI deltagerne var primært tekniske AI forskere
- EETN deltagere var der består af kun udgivet tekniske AI forskere
- TOP 100 deltagere var også for det meste tekniske AI forskere
Som tidligere bemærket, Muller og Bostrom spurgt deltagerne om, hvad de kalder “High-level maskine intelligens,” eller HLMI., De gjorde dette for at afbøde bias, der kunne være opstået, hvis deres undersøgelse inkluderede ord som “kunstig generel intelligens” eller “singularitet.”
Når vi kender dette, har vi besluttet at erstatte” HLMI ” med AGI med henblik på samhørighed i denne artikel. Muller og Bostrom definerer HLMI som en intelligens “der kan udføre de fleste menneskelige erhverv i det mindste såvel som et typisk menneske” og henvise til det som “meget sandsynligt indebærer at være i stand til at bestå en klassisk Turing-test.”Som et resultat mener vi, at vores retoriske substitution er berettiget.,
Muller og Bostrom fundet nogle interessante resultater:
- Deltagere gav det en 10% sandsynlighed for, at vi ville have AGI i 2022, en 50% sandsynlighed for, at vi ville have AGI i 2040, og en 90% sandsynlighed for, at vi ville have AGI af 2075. Disse år var alle mediansvar.
- deltagere gav det en median 10% Sandsynlighed for, at AGI i høj grad vil overgå menneskelig intelligens kun to år efter dens opfindelse., Selvom de måske ikke er sikre på den toårige post-opfindelsesbane, tror de, at der er 75% Sandsynlighed for, at en superintelligens, der overgår mennesker, vil opstå 30 år efter opfindelsen af AGI.
- Måske værd at bemærke, at AGI gruppe af deltagere, primært tekniske AI-forskere, findes det 5% mere tilbøjelige end den samlede pulje af deltagerne, at AGI ville overgå mennesker i to år (15%) efter sin opfindelse og 15% mere sandsynligt, at det ville overgå mennesker i 30 år (90%).,
- Mærkeligt, de to andre grupper af tekniske forskere (EETN og TOP100) var meget mindre tilbøjelige end AGI gruppe til at tro, AGI ville overgå den menneskelige intelligens i endnu 30 år efter dens opfindelse (55% og 50%, henholdsvis).
Muller og Bostrom spurgte ikke direkte deltagerne, hvornår singulariteten kunne forekomme, men der synes at være en betydelig forskel mellem deres deltagere og vores. Halvdelen af alle Muller og Bostroms deltagere svarede, at der er 90% sandsynlighed for at opnå AGI efter 2075. Det gennemsnitlige år var 2081.,
Selv om der ikke er nogen måde direkte at sammenligne resultaterne af vores undersøgelse, at resultaterne af Muller, og Bostrom er på grund af forskellige metoder, måske er der noget at sige om den kendsgerning, at 24% af vores deltagere, den største rapportering af gruppen, var overbevist om singulariteten vil opstå mellem 2036 og 2060, der henviser til, at 50% af Muller, og Bostrom deltagere gav det en 90% sandsynlighed for, at vi ville ikke engang nå AGI indtil efter 2075, endsige nå singularitet.,
Muller og Bostrom deltagere i almindelighed troede, at singulariteten er en 75% chance for at opstå 30 år efter AGI er opnået, som sætter tidsramme for singulariteten flere årtier senere, end vores deltagere troede.
fremskrivninger fra futurister – Ray kur. .eil og Louis Rosenberg
generelt ser det ud til, at vores deltagere projekterer en kortere tidsramme for at nå singulariteten end Muller og Bostroms.dette sætter dem mere på linje med Ray kur. .eil, den berømte futurist og Googles direktør for teknik., Kur. .eil hævder en 86% nøjagtighed sats med sine forudsigelser går tilbage til 90 ‘ erne.i sin singularitet tidslinje, forudsiger han, at singulariteten selv er nået i 2045.
på samme måde, Louis Rosenberg, Ph.d., opfinder, og administrerende DIREKTØR og Chief Scientist af enstemmige AI, har dette at sige om den tidsramme, der er af enestående karakter:
Tilbage i begyndelsen af 1990’erne, da jeg begyndte at tænke på dette problem, troede jeg, at AI vil overstige den menneskelige evner omkring år 2050. I øjeblikket tror jeg, det vil ske hurtigere end det, muligvis allerede i 2030., Det er meget overraskende for mig, da disse typer prognoser normalt glider længere ind i fremtiden, når teknologiens grænser kommer i fokus, men denne skriger mod os hurtigere end nogensinde.
Kurzweil er kendt for en række forudsigelser om nye teknologi og de transhuman overgangen, herunder hjerne-maskine-interface, nanoteknologi, AGI, osv.
Grace et.,al ” s ” Hvornår vil AI overstige menneskelig præstation?”
Katja Nåde, John Salvatier, Allan Dafoe, Baobao Zhang, og Owain Evans, forskere fra Oxford, Yale, og AI Virkninger, gennemført en undersøgelse af deres egne. Deres deltagere var 352 forskere, der offentliggjorde på 2015 NIPS og ICML konferencer for forskning i machine learning. 82% af deres deltagere var i den akademiske verden, mens 21% arbejdede i industrien.
Nåde et.al brug “Høj-niveau machine intelligence” (HLMI) i deres undersøgelse, men i modsætning til Muller og Bostrom, Grace et.,al synes at definere det på den måde, vi definerer singulariteten: “bedre end mennesker i alle opgaver.”Af denne grund vil vi erstatte Grace og kollegers brug af HLMI til singulariteten med henblik på samhørighed i denne artikel.Grace og kollegernes deltagere gav en gennemsnitlig 10% Sandsynlighed for, at singulariteten ville blive opnået inden for 9 år efter undersøgelsen blev gennemført i 2016 (i 2025). Deltagerne gav også en gennemsnitlig 50% sandsynlighed for, at singulariteten ville forekomme inden for 45 år efter undersøgelsen blev gennemført (i 2061)., Dette sætter deres respondenter på fortællingen af vores største Svargruppe: dem, der tror, at singulariteten vil ske mellem 2036 og 2060.
mærkeligt, nåde et.al spurgte også deltagerne ” for sandsynligheden for, at AI ville udføre langt bedre end mennesker i alle opgaver to år efter, at HLMI er opnået.”I betragtning af deres definition af “HLMI” som en maskinintelligens, der var “bedre” end mennesker på alle opgaver, er det uklart, hvad forskerne mener med “meget.,”Vi er usikre på, om dette var et spørgsmål, de stillede med henvisning til singulariteten, eller om deres definition af HLMI var med henvisning til singulariteten, som vi fortolkede det.
når det er sagt, er spørgsmålet meget lig det, der stilles til Muller og Bostrom, og så kan vi sammenligne de to svar. Det er interessant, Nåde og kollegers deltagerne svarede med en median 10% sandsynlighed for, at AI ville være “langt” bedre på mennesker på alle opgaver, to år efter opfindelsen af HLMI, som til dette spørgsmål synes at henvisning AGI, som det gør i Muller og Bostrom ‘ s undersøgelse., Dette er den samme sandsynlighed, som Muller og Bostroms deltagere rapporterede.
selvom det ville have været interessant at se, hvilken chance Grace og kollegers deltagere gav for singulariteten, der opstod 30 år efter opfindelsen af AGI, inkluderede forskerne ikke spørgsmålet om deres undersøgelse.
så Hvornår vil singulariteten sandsynligvis forekomme?
det ser ud til, at AI-forskere og tankeledere projicerer singulariteten til at forekomme omtrent inden for de næste fire til fem årtier. Muller og Bostroms deltagere projicerer endnu en tidslinje, men Grace et.,al, Kur..eil og Rosenberg projicerer alle singulariteten til at forekomme omtrent inden for tidsrammen for vores største respondentgruppe: igen mellem 2036 og 2060.
Skriv et svar