Hva er den teknologiske Singularity?

January 24  by Eliza

Teknologisk singularitet, eller rett og slett «Singularity», er et mangesidig begrep i ​​futurisme med flere overlappende og noen ganger motstridende definisjoner. Den mest riktig og fremtredende definisjon av Singularity ble gitt av Vernor Vinge i sitt essay, The Coming Technological Singularity. Det refererer til det punktet hvor overmenneskelig intelligens er opprettet teknologisk. Disse overmenneskelige intelligenser kan deretter bruke sin hjernekraft og kompetanse til oppgaven med å skape ytterligere eller kraftigere overmenneskelige intelligenser, noe som resulterer i en snøballeffekt med konsekvenser utover vår nåværende evne til å forestille seg.

Begrepet "Technological Singularity" ble skapt av analogi til singularitet i sentrum av et sort hull, der naturkreftene blitt så intens og uforutsigbar at vår evne til å beregne oppførselen til saken i disse forholdene faller til null. Ofte nevnt i forbindelse med ideen om overmenneskelig intelligens i Singularity dialoger er oppfatningen av akselererende teknologisk endring. Noen har hevdet at som hellingen på den teknologiske utviklingen øker, vil det kulminere i en asymptote, ligner visuelt til en matematisk singularitet.

Imidlertid er denne oppfatningen av singularitet ikke det samme som Vinge ment; henvise til fremveksten av overmenneskelig intelligens, sammen med overnaturlige tenkning hastigheter. (Inkludert smartness, evne til å forstå og skape konsepter, slår data i teorier, lage analogier, være kreativ, og så videre.) Selv om overmenneskelige intelligenser skaper ytterligere menneskelige intelligenser vil faktisk føre til akselerasjon av den teknologiske utviklingen, vil fremgangen ikke blir uendelig, i den forstand at en matematisk singularitet skulle tilsi.

Fordi overmenneskelige intelligenser vil per definisjon være smartere enn noe menneske, til vår evne til å forutsi hva de ville være i stand til med en gitt mengde tid, er usannsynlig å være nøyaktig saken, eller energi. En overmenneskelig intelligens kan være i stand til å utforme en fungerende superdatamaskin ut av billige og lett tilgjengelige komponenter, eller utvikle fullverdige nanoteknologi med noe annet enn en atommikroskop. Fordi muligheten for en overmenneskelig intelligens å designe og produsere teknologiske dingser raskt ville overgå de beste innsats av menneskelige ingeniører, kunne en overmenneskelig intelligens meget vel være den siste oppfinnelse som menneskeheten noen gang behov for å gjøre. På grunn av deres overmenneskelig geni og teknologier de kan raskt utvikle, handlingene til intelligenser som kommer ut av en teknologisk singularitet kan resultere i enten utryddelse eller frigjøringen av hele vår art, avhengig av holdningene til de mektigste menneskelige intelligenser mot mennesker.

Oxford filosofen Nick Bostrom, direktør i Oxford Future of Humanity Institute og Verdens transhumanist Organization, hevder at måten overmenneskelige intelligenser behandle mennesker vil avhenge av deres opprinnelige motivasjon i øyeblikket av deres skapelse. En slags overmenneskelig intelligens ville, i ønsket om å bevare sin godhet, avle slag (eller snillere) versjoner av seg selv som selvforbedring spiral fortsatt. Resultatet kan bli et paradis der menneskelige intelligenser løse verdens problemer og tilby samtykkende intelligens ekstrautstyr til mennesker. På den annen side ville en skadelig eller likegyldig overnaturlig intelligens være sannsynlig å produsere mer av det samme, noe som resulterer i vårt utilsiktet eller tilsiktet ødeleggelse. Av disse grunner, kan den teknologiske Singularity være den viktigste milepælen vår art noensinne vil møte.

Flere veier til overmenneskelig intelligens har blitt foreslått av Singularity analytikere og talsmenn. Den første er IA, eller Intelligence Amplification, tar en eksisterende menneskelige og trans henne inn i en ikke-menneskelig vesen gjennom nevrokirurgi, hjerne-datamaskin-grensesnitt, eller kanskje til og med hjerne-hjerne grensesnitt. Den andre er AI, eller kunstig intelligens, etablering av et dynamisk kognitiv system overgår mennesker i sin evne til å danne teorier og manipulere virkeligheten. Når en av disse teknologiene vil nå terskelen nivå av raffinement nødvendig for å produsere overmenneskelig intelligens er usikkert, men en rekke eksperter, inkludert Bostrom, sitere datoer innenfor 2010-2030 utvalg som sannsynlig.

Fordi Singularity kan være nærmere enn mange ville anta, og fordi de innledende motivasjon av den første overmenneskelig intelligens kan avgjøre skjebnen til våre menneskelige arter, noen filosof-aktivister ("Singularitarians") vise Singularity ikke bare som et emne for spekulasjon og diskusjon, men som en praktisk ingeniør mål som meningsfull fremgang kan gjøres mot i dag. Dermed i 2000 Singularity Institute for Artificial Intelligence ble grunnlagt av Eliezer Yudkowsky å jobbe utelukkende mot dette målet.

  • Begrepet "Technological Singularity" ble skapt av analogi til singularitet i sentrum av et sort hull.