På Emerj, vi er stolte av å presentere objektiv informasjon om anvendelser av kunstig intelligens i bransjen. AI er anvendelig på en rekke områder—alt fra landbruk til cybersecurity.
Imidlertid er de fleste av vårt arbeid har vært på den kortsiktige virkningen av AI i virksomheten. Men hva om det på sikt? Vi snakker ikke om neste kvartal, eller til og med neste år, men i tiårene som kommer.,
Som AI blir mer kraftig, og vi forventer at det å ha en større påvirkning på vår verden, blant annet i organisasjonen. Så bestemte vi oss for å gjøre det vi gjør best: en dyp analyse av AI programmer og implikasjoner. Men, denne gangen ønsket vi å bruke analyse til den langsiktige fremtiden av AI, slik at vi kan hjelpe offentlig og næringsliv ledere å forstå de mer fjerne mulighetene som denne teknologien kunne komme til å realiseres.,
Vi intervjuet 32 PhD forskere i AI-feltet, og spurte dem om teknologisk singularitet: en hypotetisk fremtidig hendelse hvor datamaskinen intelligens ville overgå og overstiger det som er av menneskelig intelligens med dyptgripende konsekvenser for samfunnet.
i løpet av våre undersøkelser, som vi ønsket å svare på seks viktigste spørsmål:
- Når du vil egenheten oppstå, hvis i det hele tatt?
- Hvordan kan post-human intelligence være mest sannsynlig oppnådd?,
- Vil fremtiden kunstig intelligens har en tendens til å dele, eller å klynge i en enestående intelligens?
- Hvilken rolle vil mennesker spille i en post-singularity verden?
- Burde internasjonale organer som FN spille en rolle i å veilede AI?
- Hva bør bedrifter og regjeringer gjøre nå for å forberede seg for fremtiden av AI?
Som sådan, denne serien har en total av seks kapitler:
- (Du er her) Når Vil Vi Nå Singularitet?, – En Tidslinje Konsensus fra AI Forskere
- Hvordan Vi Vil Nå Singularitet – AI, Neurotechnologies, og Mer
- Vil Kunstig Intelligens Danner en Singleton – eller Vil Det Være Mange AGI Agenter? – En AI Forsker Konsensus
- Etter Singularitet, Vil Mennesker Uansett? AI – Forsker Konsensus
- Bør fn Spille en Rolle i å Veilede Post-Human Kunstig Intelligens?,
- Rollen Næringsliv og Offentlige Ledere i Styrende Post-Human Intelligence – AI-Forsker Konsensus
I det siste, singularitet har blitt mer riket av science fiction å utforske. Imidlertid, mange AI eksperter, for eksempel Stuart Russell, Maks Tegmark, og Stuart Armstrong, tar dette svært alvorlig. Vårt mål med denne undersøkelsen var å få opp en jordet mening om singularitet fra dusinvis av AI eksperter, samt deres tanker om hvordan menneskeheten kan forberede seg for fremtiden av AI.,
Før vi fortsetter, vi bør merke seg at dette ikke er en utfyllende beskrivelse av fremtiden, bare muligheter. Det var mye uenighet blant ekspertene våre, blant annet om eller ikke singularity ville skje. Men uansett, forstå mulighetene vil være viktig for alle i regjeringen eller industrien til å ligge i forkant av kurven. Som en av våre respondenter sa:
«fremtiden er sannsynlig å være fremmed og mer uforutsigbar enn vi tror.»– James J Hughes
Når Skal Vi Nå Singularitet?,
Hvis vi spør Google Maps til å navigere oss til singularitet, hvilken rute vil det ta oss? Og da ville vi nå våre mål? Våre eksperter svarte med et bredt spekter av svar. Nedenfor er en grafisk oversikt over sine svar:
Den første spørsmål vi spurte våre eksperter var da de forventet egenheten til å skje., 2100
Brutt ned en annen måte:
- 45% av respondentene forutsi en dato før 2060
- 34% av respondentene forutsi en dato etter 2060
- 21% av respondentene mener at Singularitet er lite sannsynlig å inntreffe
spådommer skew mot en dato før enn 2100 eller med potensielt raskere enn 2060., Denne linjer opp rimelig godt med tidligere meningsmålinger vi har gjort (se: Tidslinje for Maskinen Bevissthet).
Det er interessant å merke seg at vår nummer én svar, «2036-2060», og ble fulgt av «sannsynlig aldri» som den nest mest populære respons. Muller og Bostrom, som er beskrevet senere i denne artikkelen, bemerket i sin egen undersøkelse writeup at mange deltakere som ville sannsynligvis faller i «sannsynlig aldri» kategori rett og slett ikke svare på undersøkelsen. Forskerne følger et sitat fra en keynote speaker, Hubert Dreyfus, i «Filosofi og Teori av AI» – konferanse i 2011 for å illustrere dette poenget., Dreyfus sa:
jeg ville ikke tenke på å svare på en slik partisk spørreskjemaet…jeg tror noen diskusjon om forestående super–intelligens er misforstått. Det viser ingen forståelse av svikt i alt arbeid i AI. Selv bare det å formulere en slik dag er partisk, og er en sløsing med tid.
med andre ord, vi gjenkjenne og forstå det som de andre undersøkelsene er omtalt i denne rapporten, vår undersøkelse kan bli offer for utvalget bias., Folk som svarte til oss er kanskje mer sannsynlig å tro at singularitet vil ikke bare oppstå, men vil skje før enn senere. Vi kan ganske enkelt ikke gjøre en vurdering på om dette er tilfelle.
når Det er sagt, hvorfor gjorde de sakkyndige velg datoer de valgte (og mange av dem er innenfor vår levetid)? Mens vår meningsmåling ikke be om en begrunnelse for hvorfor en deltaker valgte den tidsrammen som de gjorde, vi mistenker at en rekke viktige AI trender kan ha påvirket deres meninger.,
Mange nasjoner har hoppet på bandwagon og har utgitt nasjonale AI strategier for å fremme innenlandske R&D og ny start-ups med milliarder av dollar i støtte. Sektorer fra pharma bank er i ferd med å bli vertskap for dusinvis av årlige AI hendelser, og hundrevis eller tusenvis av sektor-spesifikke AI leverandør selskaper.
Det klart moment av AI finansiering, utdanning og nasjonale strategi sikkert lover godt for AI er fortsatt framgang, og det er mulig at disse trendene påvirket svarene fra våre deltakere. Når det er sagt, kan vi ikke være sikker.,
I de neste tre deler av artikkelen, vi sammenligne våre funn med de to andre undersøkelser av AI forskere som ble gjennomført i de siste fire årene, og vurderingene av to fremtredende futuristisk oppfinnere og AI tenkte ledere. Vi starter med en undersøkelse fra Muller og Bostrom.
Muller og Bostrom er «Framtidige utvikling i Kunstig Intelligens»
Vincent C., Muller, Professor i Filosofi ved Anatolia College og President for den Europeiske Foreningen for Kognitiv Systemer, og Nick Bostrom, kjent filosofi ved Oxford som har skrevet over 200 publikasjoner på superintelligens, kunstig generell intelligens (AGI), og andre emner, gjennomført en undersøkelse av AI forskere og tenkte ledere.
De spurte 550 deltakere fire viktigste spørsmål, to som vi vil diskutere i denne artikkelen:
- Når er AGI sannsynlig til å skje?,
- Hvor snart etter AGI, som de kalles «High-nivå maskin intelligens,» vil AGI i stor grad overgår de menneskelige ressurser (i entall)?
Det bør bemerkes at spørsmålene ikke var formulert på denne måten i Müller og Bostrom undersøkelser; vi har omskrevet spørsmålene.,litt i måten de deltar i entall og AGI diskusjon:
- PT-AI deltakerne var stort sett ikke-teknisk AI tenkte ledere
- AGI deltakerne var for det meste tekniske AI forskere
- EETN deltakerne ble består av bare publisert tekniske AI forskere
- TOP100 deltakerne var også for det meste tekniske AI forskere
Som tidligere nevnt, Muller og Bostrom spurte deltakerne om hva de kaller «High-nivå maskin intelligens,» eller HLMI., Dette gjorde de for å bøte på skjevheter som kan ha oppstått hadde sin undersøkelse inkludert ord som «kunstig» generell intelligens» eller «singularitet.»
å Vite dette, har vi besluttet å erstatte «HLMI» for AGI for det formål å samhold i denne artikkelen. Muller og Bostrom definere HLMI som en intelligens «som kan utføre de fleste menneskelige yrker minst like godt som et vanlig menneske» og referere til det som «svært sannsynlig innebærer å være i stand til å passere en klassisk Turing test.»Som et resultat, tror vi vår retoriske substitusjon er berettiget.,
Muller og Bostrom funnet noen interessante resultater:
- Deltakere ga det en 10% sannsynlighet for at vi ville ha AGI av 2022, en 50% sannsynlighet for at vi vil ha AGI i 2040, og en 90% sannsynlighet for at vi vil ha AGI av 2075. Disse årene var alle median svar.
- Deltakere ga det en median 10% sannsynlighet for at AGI vil i stor grad overgår menneskelig intelligens bare to år etter oppfinnelsen sin., Selv om de kanskje ikke være trygg i to år etter oppfinnelsen banen, de tror at det er 75% sannsynlighet for at en superintelligens som overgår mennesker vil fremkomme 30 år etter oppfinnelsen av AGI.
- Kanskje verdt å merke er at AGI gruppe av deltakere, for det meste tekniske AI forskere, finnes det 5% mer sannsynlig enn den samlede beholdningen av deltakere som AGI ville overgå mennesker to år (15%) etter sin oppfinnelse, og 15% mer sannsynlig at det ville overgå mennesker i 30 år (90%).,
- Merkelig, de to andre grupper av tekniske forskere (EETN og TOP100) var mye mindre sannsynlig enn AGI gruppe til å tro AGI ville overgå menneskelig intelligens, selv 30 år etter sin oppfinnelse (55% og 50%, henholdsvis).
Muller og Bostrom ikke direkte spør deltakerne når singularitet kan oppstå, men det synes å være en betydelig forskjell mellom deltakere og vår. Halvparten av alle Muller og Bostrom er deltakerne svarte at det er en 90% sannsynlighet for å oppnå AGI etter 2075. Det betyr året var 2081.,
Men det er ikke mulig å direkte sammenligne resultater fra vår undersøkelse resultatene av Muller og Bostrom er på grunn av ulik metodikk, kanskje det er noe å si om det faktum at 24% av våre deltakere, den største rapportering gruppe, var sikker på at det singulære ville oppstå mellom 2036 og 2060, mens 50% av Muller og Bostrom deltakere ga det en 90% sannsynlighet for at vi selv ikke ville oppnå AGI før etter 2075, la alene nå singularitet.,
Muller og Bostrom deltakere generelt antatt at singularitet har en 75% sjanse for å forekommende 30 år etter AGI er oppnådd, som setter tidsrammen for singularitet flere tiår senere enn våre deltakere trodde.
Anslagene fra Futurists – Ray Kurzweil og Louis Rosenberg
generelt, det synes våre deltakere i prosjektet en kortere tidsramme for å nå singularitet enn Muller og Bostrom er. Dette setter dem mer i tråd med Ray Kurzweil, kjent futurist og Googles Direktør for Engineering., Kurzweil krav til en 86% nøyaktighet rate med hans spådommer går tilbake til 90-tallet. I hans singularitet tidslinjen, han spår at singularitet i seg selv er nådd i 2045.
på samme måte, Louis Rosenberg, PhD, oppfinner, og administrerende DIREKTØR og Chief Scientist av en enstemmig AI, har dette å si om den tidsrammen av singularitet:
Tilbake i begynnelsen av 1990-tallet, da begynte jeg å tenke på dette problemet, trodde jeg at AI ville overstige menneskelige evner rundt år 2050. I dag, jeg tror det vil skje raskere enn det, kanskje så tidlig som i 2030., Det er veldig overraskende for meg, som disse typer prognoser vanligvis glir videre inn i fremtiden som grenser of technology komme i fokus, men dette skriker mot oss raskere enn noensinne.
Kurzweil er kjent for en rekke forslag om ny teknologi og transhuman overgang, inkludert hjerne-maskin-grensesnitt, nanoteknologi, AGI, etc.
Nåde et.,al ‘ s «Når Vil AI Overstiger Menneskelig Ytelse?»
Katja Nåde, John Salvatier, Allan Dafoe, Baobao Zhang, og Owain Evans, forskere fra Oxford, Yale, og AI Virkninger, gjennomført en undersøkelse av sine egne. Deltagerne var 352 forskere som er publisert i 2015 NYPER og ICML konferanse for forskning innen maskinlæring. 82% av deltakerne var i akademia, mens 21% var som jobber i bransjen.
Nåde et.al bruke «High-nivå maskin intelligens» (HLMI) i sin undersøkelse, men i motsetning til Muller og Bostrom, Nåde og.,al synes å definere det slik vi definerer singularitet: «outperforming mennesker i alle oppgaver.»Dette er årsaken til at vi kommer til å erstatte Nåde og kolleger bruk av HLMI for singularitet for det formål å samhold i denne artikkelen.
Nåde og kollegaer » deltakerne ga en gjennomsnittlig 10% sannsynlighet for at singularitet ville være oppnådd innen 9 år etter at undersøkelsen ble gjennomført i 2016 (innen 2025). Deltakerne ga også en gjennomsnittlig 50% sannsynlighet for at singularitet ville skje i løpet av 45 år etter at undersøkelsen ble gjennomført (av 2061)., Dette setter sine respondentene på fortellingen utgangen av våre største svar gruppe: de som tror singularitet vil skje mellom 2036 og 2060.
Merkelig, Nåde og.al spurte også deltakerne «for sannsynligheten for at AI ville gi vesentlig bedre enn mennesker i alle oppgaver, to år etter HLMI er oppnådd.»Gitt sin definisjon av «HLMI» som en maskin intelligens som var «bedre» enn mennesker på alle oppgaver, det er uklart hva forskerne mener med «vesentlig.,»Vi er usikker på om dette var et spørsmål de spurte i referanse til singularitet, eller hvis deres definisjon av HLMI var i referanse til singularitet som vi tolket det.
Som sagt, spørsmålet er svært lik den spurt av Muller og Bostrom, og slik at vi kan sammenligne de to svar. Interessant, Nåde og kolleger deltakerne svarte med en median 10% sannsynlighet for at AI ville være «vesentlig» bedre på mennesker på alle oppgaver, to år etter oppfinnelsen av HLMI, som for dette spørsmålet synes å referere til AGI som det gjør i Müller og Bostrom ‘ s undersøkelse., Dette er den samme sannsynligheten for at Müller og Bostrom er deltakerne rapporterte.
Selv om det ville ha vært interessant å se hva sjanse Nåde og kollegaer » deltakerne ga for singularitet forekommende 30 år etter oppfinnelsen av AGI, forskerne ikke inkluderer spørsmålet om deres undersøkelse.
Så Da Vil Egenheten Sannsynlig Skje?
Det virker som om AI forskere og tenkte ledere prosjektet singularitet til å skje omtrent i løpet av de neste fire til fem tiår. Muller og Bostrom er deltakere i prosjektet ytterligere tidslinjen, men Nåde et.,al, Kurzweil, og Rosenberg alle prosjekt egenheten til å skje omtrent innenfor tidsrammen av våre største ankemotparten gruppe: igjen, mellom 2036 og 2060.
Legg igjen en kommentar