Tím Cambridskej univerzity posúdiť riziko, ktoré pre ľudstvo predstavuje umelecká inteligencia

Anonim

Tím Cambridskej univerzity posúdiť riziko, ktoré pre ľudstvo predstavuje umelecká inteligencia

veda

Chris Wood

28. novembra 2012

Tím Cambridge bude pracovať na hodnotení rizík súvisiacich s technológiou pre ľudstvo (Image: Shutterstock)

Tím nového vedcov, filozofov a inžinierov vytvorí nové Centrum pre štúdium existenčného rizika (CSER) na Univerzite v Cambridge v Spojenom kráľovstve. Tím bude študovať kľúčový vývoj v oblasti technológií a posúdiť hrozby pre "ľudstvo na záchranu". Najdôležitejšou z nich je možnosť vytvoriť umelú všeobecnú inteligenciu, udalosť, ktorá má teoretický potenciál opustiť ľudstvo navždy.

Stroj, ktorý prevyšuje ľudskú inteligenciu a je schopný vytvárať vlastné počítačové programy a technológie, sa označuje ako umelá všeobecná inteligencia (AGI). Je to pojem, ktorý bol pôvodne prijatý v roku 1965 matematikom, kryptografom a počítačovým vedcom Irvingom Johnom "Jackom" Good, a ten, ktorý často našiel domov v sci-fi. Popísaný Huw Price ako okamih, kedy "inteligencia unikne biologickým obmedzeniam", príchod AGI by znamenal bod, v ktorom ľudstvo prestane byť najinteligentnejšou entitou na planéte, a preto by (potenciálne) už byť primárnou "budúcou definujúcou" silami.

Jaan Tallinn, spoluzakladateľ komunikačného základného kameňa Skype, hovorí o dôležitosti tohto problému a konštatuje, že prostredníctvom pochopenia a manipulácie s technológiami ľudstvo "chytilo opraty zo 4 miliárd rokov prirodzenej evolúcie ... [a má] a veľký a nahradený vývoj ako dominantná, budúca formujúca sila. "Stačí sa pozrieť na náš vlastný vplyv na planétu, aby sme získali nejakú predstavu o tom, čo by sa mohlo stať, ak by sme už neboli dominantnými globálnymi silami.

Navyše, hrozba zo strany AGI nie je predpokladom existencie nepriateľstva. Cena uvádza príklad zostupujúcej populácie goríl. Hrozba vyhynutia nie je znášaná v ľudskej nepriateľstve, ale existuje prostredníctvom našej manipulácie s prostredím spôsobom, ktorý nám vyhovuje najlepšie. Toto aktívne, hoci neúmyselne, pôsobí na úkor ich prežitia. Ako inteligentnejšia sila AGI má potenciál vytvoriť podobnú paradigmu medzi sebou a ľudstvom.

Hoci je pravdepodobné, že sme ešte stále nejaký spôsob, ako vymyslieť tento super-inteligentný stroj, nedávny výskum priniesol nejaké svetlo o tom, ako to bude možné. V minulom roku uskutočnil MIT experiment na posúdenie schopnosti počítačov naučiť sa jazyky. V teste boli dva počítače požiadané, aby vykonali dve neznáme úlohy len s pomocou návodu na obsluhu. Vybavený len súborom možných akcií a bez predchádzajúceho pochopenia jazyka pokynov alebo samotných úloh, jedno z týchto strojov dokázalo dokončiť svoju úlohu inštalovať softvér s 80% úrovňou presnosti. Druhý bol schopný naučiť sa hrať strategickú hru, Sid Meier 's Civilization II, vyhrať impozantný 79 percent z hier, ktoré hral.

Je to len jeden príklad mnohých štúdií týkajúcich sa umelej inteligencie, pričom univerzity ako Stanford vykonávajú súvisiace výskumné programy. Vo svete, kde sa kapacita výpočtových čipov zdvojnásobuje každé dva roky a prakticky všetko je riadené technológiou, pravdepodobne budeme vidieť výskumné programy, ako sú tieto výrazne zrýchlili.

Dokonca aj s týmito dôkazmi sa pojem AGI môže stále javiť ako príliš sci-fi - treba ho brať vážne. Tím v spoločnosti CSER sa domnieva, že toto je súčasťou tohto bodu: "V rozsahu, v súčasnosti zle pochopenom, že existujú značné riziká, je to dodatočné nebezpečenstvo, ak zostane z týchto sociologických dôvodov mimo rozsah" závažné "vyšetrovanie."

Výskumníci sa nebudú sústrediť len na prevenciu katastrofy Skynet, ale budú sa tiež zaoberať mnohými ďalšími prípadmi, ktoré predstavujú hrozby pre ľudstvo, vrátane vývoja v bio- a nanotechnológiách a následkov extrémnej zmeny klímy.

Nemusia byť The Avengers, ale možno budúcnosť bude mať pocit, že je trochu bezpečnejšia, keď nás CSER dostal späť.

Zdroj: Univerzita v Cambridge

Tím Cambridge bude pracovať na hodnotení rizík súvisiacich s technológiou pre ľudstvo (Image: Shutterstock)