Gépi Intelligencia Kutatóintézet | |
---|---|
Közigazgatási központ |
|
Szervezet típusa | Nonprofit szervezet |
Bázis | |
Az alapítás dátuma | 2000 |
Weboldal | intelligence.org _ |
A Machine Intelligence Research Institute (MIRI; korábban Singularity Institute és Singularity Institute for Artificial Intelligence ) egy non-profit szervezet , amelynek fő célja a biztonságos mesterséges intelligencia létrehozása , valamint a mesterséges intelligencia létrehozása során felmerülő lehetséges veszélyek és lehetőségek tanulmányozása. A szervezet támogatja Irving Goode és Vernor Vinge eredeti elképzeléseit az "intellektuális robbanásról" vagy szingularitásról , valamint Eliezer Yudkowsky gondolatait a barátságos mesterséges intelligencia létrehozásáról. Yudkowsky az egyesült államokbeli Singularity Institute-ban kutatja azokat a globális kockázati problémákat, amelyeket egy jövőbeli emberfeletti mesterséges intelligencia teremthet meg, ha nincs programozva emberbarátra [ 1] .
2007 és 2010 között Ray Kurzweil feltaláló és futurista volt a szervezet egyik igazgatója . A szervezet tanácsadó állományába tartozik Nick Bostrom oxfordi filozófus, Aubrey de Gray gerontológus , Peter Thiel , a PayPal társalapítója és Christina Paterson , a Foresight Nanotech Institute társalapítója.
A szervezetnek az Egyesült Államokban és Kanadában van irodája.
A SIAI (Singularity Institute for Artificial Intelligence) első projektje az "annotatív programozási nyelv" (annotative programing language) Flare [2] volt, melynek fejlesztése 2001 júliusában kezdődött. A nyelvet úgy tervezték, hogy létrehozza vele az AI magját. A projekt kevesebb mint egy év alatt lezárult.
2002-ben a SIAI honlapján megjelent egy előnyomat a Real AI: New Approaches to Artificial General Intelligence ( Ben Herzel és Cassio Pennachin szerkesztette) című könyv "Az általános intelligencia szervezettségi szintjei" [3] című fejezete. Még ugyanabban az évben a SIAI két nagy bevezető fejezetet adott ki: "Mi a szingularitás" [4] és "Miért kell dolgozni a szingularitás közelítésén" [5] .
2003-ban a szervezet képviselője Michael Anissimov előadást tartott a Transvision 2003 nemzetközi konferencián a Yale Egyetemen .
2004-ben a SIAI létrehozta az AsimovLaws.com webhelyet [6] , hogy megvitassa az AI etikáját a mindössze két nappal később bemutatott I, Robot című filmben felvetett kérdések összefüggésében . A jövő év elején az Intézet központja Atlantából a Szilícium-völgybe költözik .
2006 februárjában az intézet 200 ezer dollár összegű alapot képez [7] . Az alap nagy része (100 000 dollár) a Paypal társalapítójától, Peter Thieltől származott. 2006 májusában, a Stanford Singularity Summit-on döntés született az intézet létszámának bővítéséről.
Az Intézet, a KurzweilAI.net és a Center for Language and Information Studies mellett támogatja a Stanford Singularity Summit rendezvényt. Az intézet igazgatója, Peter Thiel a csúcstalálkozó moderátora [8] . A csúcson mintegy 1300 szakember gyűlt össze. A csúcstalálkozón többek között Ray Kurzweil , Nick Bostrom , Corey Doctorow , Eric Drexler , Douglas Hofstadter , Steve BillMax , Sebastian Thrun és Eliezer Yudkowsky vettek részt
2007-ben a San Franciscó-i Palace of the Arts Theatre-ben tartottak hasonló csúcstalálkozót. A harmadik szingularitási csúcstalálkozóra 2008. október 5-én került sor San Joséban.
Az Intézet finanszírozza az Open Cognition Framework ( OpenCog ) projektet, amelynek célja, hogy "a szoftverkutatók és fejlesztők számára közös platformot biztosítson az AI-programok építéséhez".
2013-ban a szervezet nevét Gépi Intelligencia Kutatóintézetre változtatta [9] .
A Gépi Intelligencia Kutatóintézet az MI-vel kapcsolatos stratégiai kérdéseket vizsgálja, mint például: Mit tudunk (és mit nem) jósolhatunk az AI-technológia jövőjével kapcsolatban? Hogyan fejleszthetjük előrejelzési képességeinket? Milyen keveset tudunk ma, mely beavatkozások tűnnek a leghasznosabbnak? [tíz]
2014 óta a MIRI az AI Impacts független projekten keresztül finanszírozza az előrejelzési munkát. Az AI Impacts a nem folyamatos technológiai változások történelmi példáit tanulmányozza, és új méréseket dolgozott ki az emberek és a számítógépes hardver relatív feldolgozási teljesítményére vonatkozóan. [11] [12]
A MIRI kutatóinak érdeklődése a nem folytonos mesterséges intelligencia iránt I. J. Good azon érveléséből fakad, hogy a kellően fejlett AI-rendszerek végül felülmúlják az embereket a szoftverfejlesztési feladatokban, ami az egyre jobban teljesítő AI-rendszerek visszacsatolási köréhez vezet:
Legyen egy ultraintelligens gép olyan gép, amely a lehetőségekhez mérten messze felülmúlja bármely ember összes intellektuális tevékenységét. Mivel a géptervezés az egyik ilyen intelligens feladat, egy ultraintelligens gép még jobb gépeket is tervezhet; Akkor kétségtelenül történt volna egy „ intelligenciarobbanás ” (orig: „intelligenciarobbanás”), és az emberi elme messze elmaradt volna. Így az első ultraintelligens gép az utolsó találmány, amelyet az embernek valaha is meg kellene alkotnia, feltéve, hogy a gép elég engedelmes ahhoz, hogy megmondja, hogyan tartsuk ellenőrzés alatt. [13]
Az olyan írók, mint Bostrom , a szuperintelligencia kifejezést használják Goode ultraintellektuálisa helyett. Vernor Vinge nyomán Goode intelligenciarobbanás ötlete összekapcsolódott a „technológiai szingularitás” gondolatával. Bostrom és a MIRI kutatói szkepticizmusukat fejezték ki a szingularitás híveinek, például Ray Kurzweilnek a nézeteivel kapcsolatban , miszerint a szuperintelligencia „a sarkon van”. A MIRI kutatói elővigyázatosságként támogatják a korai biztonsági munkát, azzal érvelve, hogy a mesterséges intelligencia fejlődésére vonatkozó korábbi előrejelzések nem voltak megbízhatóak. [tizennégy]
A Future of Life Institute (FLI) kutatási prioritási dokumentuma kimondja:
Az olyan matematikai eszközök, mint a formális logika, a valószínűségszámítás és a döntéselmélet, jelentős betekintést nyújtottak az érvelés és a döntéshozatal alapjaiba. Az érvelés és a döntések középpontjában azonban még mindig sok nyitott probléma áll. E problémák megoldása sokkal megbízhatóbbá és kiszámíthatóbbá teheti a nagy teljesítményű rendszerek viselkedését. Az ezen a területen végzett kutatások példái közé tartozik a Horvitz és Russell által korlátozott számítási erőforrásokon belüli érvelés és döntés arról, hogyan lehet figyelembe venni az AI-rendszerek viselkedése és környezetük viselkedése közötti összefüggéseket, az ágensek, mint a környezetükbe beépített ágensek, vagy más determinisztikus. számításokat. Ezeket a témákat hasznos lehet, ha együtt vizsgáljuk őket, mivel úgy tűnik, hogy szorosan összefüggnek egymással.
A standard döntési eljárások nincsenek jól definiálva (például az ellentétes tények tekintetében), hogy algoritmusként formalizálhassák őket. A Gépi Intelligencia Kutatóintézet kutatója, Benja Pallenstein és az akkori kutató Nate Soares azt írják, hogy az oksági döntéselmélet „reflexiósan instabil” abban az értelemben, hogy az ok-okozati döntéselméletet követő racionális ágens „helyesen azonosítja, hogy az ágensnek meg kell változnia ahhoz, hogy felhagyjon az okok elméletével. és befolyásolja a döntéseket a döntéshozatalhoz.” A kutatók a "logikai döntési elméleteket" olyan alternatívákként azonosítják, amelyek jobban teljesítenek az általános döntéshozatali feladatokban.
Ha egy AI-rendszer azokat a műveleteket választja ki, amelyek a legjobban lehetővé teszik egy feladat elvégzését, akkor természetes részcél az olyan feltételek elkerülése, amelyek megakadályozzák a rendszert a feladat végrehajtásában (és fordítva, a feltétel nélküli helyzetek megtalálása néha hasznos heurisztika). Ez azonban problémássá válhat, ha szeretnénk a rendszert újra felosztani, deaktiválni, vagy a döntési folyamatot jelentősen megváltoztatni; Egy ilyen rendszer racionálisan elkerülné ezeket a változásokat. Azokat a rendszereket, amelyek nem mutatnak ilyen viselkedést, korrekciós rendszereknek nevezik, és az ezen a területen végzett elméleti és gyakorlati munka elfogadhatónak és hasznosnak tűnik.
A Gépi Intelligencia Kutatóintézet prioritásait ezeken a területeken a 2015-ös műszaki program foglalja össze .
![]() |
---|
transzhumanizmus | ||
---|---|---|
Alapok | ||
áramlatok | ||
Szervezetek | ||
Emberek |