Gépi Intelligencia Kutatóintézet

Gépi Intelligencia Kutatóintézet
Közigazgatási központ
Szervezet típusa Nonprofit szervezet
Bázis
Az alapítás dátuma 2000
Weboldal intelligence.org

A Machine Intelligence Research Institute (MIRI; korábban Singularity Institute és Singularity Institute for Artificial Intelligence ) egy non-profit szervezet , amelynek fő célja a biztonságos mesterséges intelligencia létrehozása , valamint a mesterséges intelligencia létrehozása során felmerülő lehetséges veszélyek és lehetőségek tanulmányozása. A szervezet támogatja Irving Goode és Vernor Vinge eredeti elképzeléseit az "intellektuális robbanásról" vagy szingularitásról , valamint Eliezer Yudkowsky gondolatait a barátságos mesterséges intelligencia létrehozásáról. Yudkowsky az egyesült államokbeli Singularity Institute-ban kutatja azokat a globális kockázati problémákat, amelyeket egy jövőbeli emberfeletti mesterséges intelligencia teremthet meg, ha nincs programozva emberbarátra [ 1] .

2007 és 2010 között Ray Kurzweil feltaláló és futurista volt a szervezet egyik igazgatója . A szervezet tanácsadó állományába tartozik Nick Bostrom oxfordi filozófus, Aubrey de Gray gerontológus , Peter Thiel , a PayPal társalapítója és Christina Paterson , a Foresight Nanotech Institute társalapítója.

A szervezetnek az Egyesült Államokban és Kanadában van irodája.

Történelem

A SIAI (Singularity Institute for Artificial Intelligence) első projektje az "annotatív programozási nyelv" (annotative programing language) Flare [2] volt, melynek fejlesztése 2001 júliusában kezdődött. A nyelvet úgy tervezték, hogy létrehozza vele az AI magját. A projekt kevesebb mint egy év alatt lezárult.

2002-ben a SIAI honlapján megjelent egy előnyomat a Real AI: New Approaches to Artificial General Intelligence ( Ben Herzel és Cassio Pennachin szerkesztette) című könyv "Az általános intelligencia szervezettségi szintjei" [3] című fejezete. Még ugyanabban az évben a SIAI két nagy bevezető fejezetet adott ki: "Mi a szingularitás" [4] és "Miért kell dolgozni a szingularitás közelítésén" [5] .

2003-ban a szervezet képviselője Michael Anissimov előadást tartott a Transvision 2003 nemzetközi konferencián a Yale Egyetemen .

2004-ben a SIAI létrehozta az AsimovLaws.com webhelyet [6] , hogy megvitassa az AI etikáját a mindössze két nappal később bemutatott I, Robot című filmben felvetett kérdések összefüggésében . A jövő év elején az Intézet központja Atlantából a Szilícium-völgybe költözik .

2006 februárjában az intézet 200 ezer dollár összegű alapot képez [7] . Az alap nagy része (100 000 dollár) a Paypal társalapítójától, Peter Thieltől származott. 2006 májusában, a Stanford Singularity Summit-on döntés született az intézet létszámának bővítéséről.

Az Intézet, a KurzweilAI.net és a Center for Language and Information Studies mellett támogatja a Stanford Singularity Summit rendezvényt. Az intézet igazgatója, Peter Thiel a csúcstalálkozó moderátora [8] . A csúcson mintegy 1300 szakember gyűlt össze. A csúcstalálkozón többek között Ray Kurzweil , Nick Bostrom , Corey Doctorow , Eric Drexler , Douglas Hofstadter , Steve BillMax , Sebastian Thrun és Eliezer Yudkowsky vettek részt

2007-ben a San Franciscó-i Palace of the Arts Theatre-ben tartottak hasonló csúcstalálkozót. A harmadik szingularitási csúcstalálkozóra 2008. október 5-én került sor San Joséban.

Az Intézet finanszírozza az Open Cognition Framework ( OpenCog ) projektet, amelynek célja, hogy "a szoftverkutatók és fejlesztők számára közös platformot biztosítson az AI-programok építéséhez".

2013-ban a szervezet nevét Gépi Intelligencia Kutatóintézetre változtatta [9] .

Kutatás

Előrejelzések

A Gépi Intelligencia Kutatóintézet az MI-vel kapcsolatos stratégiai kérdéseket vizsgálja, mint például: Mit tudunk (és mit nem) jósolhatunk az AI-technológia jövőjével kapcsolatban? Hogyan fejleszthetjük előrejelzési képességeinket? Milyen keveset tudunk ma, mely beavatkozások tűnnek a leghasznosabbnak? [tíz]

2014 óta a MIRI az AI Impacts független projekten keresztül finanszírozza az előrejelzési munkát. Az AI Impacts a nem folyamatos technológiai változások történelmi példáit tanulmányozza, és új méréseket dolgozott ki az emberek és a számítógépes hardver relatív feldolgozási teljesítményére vonatkozóan. [11] [12]

A MIRI kutatóinak érdeklődése a nem folytonos mesterséges intelligencia iránt I. J. Good azon érveléséből fakad, hogy a kellően fejlett AI-rendszerek végül felülmúlják az embereket a szoftverfejlesztési feladatokban, ami az egyre jobban teljesítő AI-rendszerek visszacsatolási köréhez vezet:

Legyen egy ultraintelligens gép olyan gép, amely a lehetőségekhez mérten messze felülmúlja bármely ember összes intellektuális tevékenységét. Mivel a géptervezés az egyik ilyen intelligens feladat, egy ultraintelligens gép még jobb gépeket is tervezhet; Akkor kétségtelenül történt volna egy „ intelligenciarobbanás ” (orig: „intelligenciarobbanás”), és az emberi elme messze elmaradt volna. Így az első ultraintelligens gép az utolsó találmány, amelyet az embernek valaha is meg kellene alkotnia, feltéve, hogy a gép elég engedelmes ahhoz, hogy megmondja, hogyan tartsuk ellenőrzés alatt. [13]

Az olyan írók, mint Bostrom , a szuperintelligencia kifejezést használják Goode ultraintellektuálisa helyett. Vernor Vinge nyomán Goode intelligenciarobbanás ötlete összekapcsolódott a „technológiai szingularitás” gondolatával. Bostrom és a MIRI kutatói szkepticizmusukat fejezték ki a szingularitás híveinek, például Ray Kurzweilnek a nézeteivel kapcsolatban , miszerint a szuperintelligencia „a sarkon van”. A MIRI kutatói elővigyázatosságként támogatják a korai biztonsági munkát, azzal érvelve, hogy a mesterséges intelligencia fejlődésére vonatkozó korábbi előrejelzések nem voltak megbízhatóak. [tizennégy]

Megbízhatóság és hibatűrés az AI-ban

A Future of Life Institute (FLI) kutatási prioritási dokumentuma kimondja:

Az olyan matematikai eszközök, mint a formális logika, a valószínűségszámítás és a döntéselmélet, jelentős betekintést nyújtottak az érvelés és a döntéshozatal alapjaiba. Az érvelés és a döntések középpontjában azonban még mindig sok nyitott probléma áll. E problémák megoldása sokkal megbízhatóbbá és kiszámíthatóbbá teheti a nagy teljesítményű rendszerek viselkedését. Az ezen a területen végzett kutatások példái közé tartozik a Horvitz és Russell által korlátozott számítási erőforrásokon belüli érvelés és döntés arról, hogyan lehet figyelembe venni az AI-rendszerek viselkedése és környezetük viselkedése közötti összefüggéseket, az ágensek, mint a környezetükbe beépített ágensek, vagy más determinisztikus. számításokat. Ezeket a témákat hasznos lehet, ha együtt vizsgáljuk őket, mivel úgy tűnik, hogy szorosan összefüggnek egymással.

A standard döntési eljárások nincsenek jól definiálva (például az ellentétes tények tekintetében), hogy algoritmusként formalizálhassák őket. A Gépi Intelligencia Kutatóintézet kutatója, Benja Pallenstein és az akkori kutató Nate Soares azt írják, hogy az oksági döntéselmélet „reflexiósan instabil” abban az értelemben, hogy az ok-okozati döntéselméletet követő racionális ágens „helyesen azonosítja, hogy az ágensnek meg kell változnia ahhoz, hogy felhagyjon az okok elméletével. és befolyásolja a döntéseket a döntéshozatalhoz.” A kutatók a "logikai döntési elméleteket" olyan alternatívákként azonosítják, amelyek jobban teljesítenek az általános döntéshozatali feladatokban.

Ha egy AI-rendszer azokat a műveleteket választja ki, amelyek a legjobban lehetővé teszik egy feladat elvégzését, akkor természetes részcél az olyan feltételek elkerülése, amelyek megakadályozzák a rendszert a feladat végrehajtásában (és fordítva, a feltétel nélküli helyzetek megtalálása néha hasznos heurisztika). Ez azonban problémássá válhat, ha szeretnénk a rendszert újra felosztani, deaktiválni, vagy a döntési folyamatot jelentősen megváltoztatni; Egy ilyen rendszer racionálisan elkerülné ezeket a változásokat. Azokat a rendszereket, amelyek nem mutatnak ilyen viselkedést, korrekciós rendszereknek nevezik, és az ezen a területen végzett elméleti és gyakorlati munka elfogadhatónak és hasznosnak tűnik.

A Gépi Intelligencia Kutatóintézet prioritásait ezeken a területeken a 2015-ös műszaki program foglalja össze .

Jegyzetek

  1. A mesterséges intelligencia, mint globális kockázati tényező
  2. A flarelang projekt a SourceForge.net oldalon
  3. Az általános intelligencia szervezettségi szintjei (a hivatkozás nem elérhető) . Letöltve: 2009. május 14. Az eredetiből archiválva : 2006. október 4.. 
  4. Mi az a szingularitás? | Szingularitás Mesterséges Intelligencia Intézet (hivatkozás nem érhető el) . Letöltve: 2009. május 14. Az eredetiből archiválva : 2008. május 16.. 
  5. Miért dolgozzunk a szingularitásért? | Szingularitás Mesterséges Intelligencia Intézet (hivatkozás nem érhető el) . Letöltve: 2009. május 14. Az eredetiből archiválva : 2006. október 4.. 
  6. 3 nem biztonságos törvény – Asimov három robotika és én, robot
  7. Szingularitás Mesterséges Intelligencia Intézet | AI
  8. Okosabb nálad? San Francisco Chronicle, 2006. május 12
  9. Mostantól a „Gépi Intelligencia Kutatóintézet” (MIRI) vagyunk (2013. január 30.).
  10. Bostrom, Nick ; Yudkowsky, Eliezer . A mesterséges intelligencia etikája // The Cambridge Handbook of Artificial Intelligence  (angol) / Frankish, Keith; Ramsey, William. - New York: Cambridge University Press , 2014. - ISBN 978-0-521-87142-6 .
  11. Hsu, Jeremy . Győződjön meg róla, hogy a mesterséges intelligencia gyors növekedése nem okoz meglepetést  (2015). Letöltve: 2015. október 12.
  12. De Looper, Christian . Kutatások szerint az emberi agy 30-szor olyan erős, mint a legjobb szuperszámítógépek  (2015). Letöltve: 2015. október 12.
  13. IJ Jó . Speculations Concerning the First Ultraintelligent Machine  (angol)  // Advances in Computers: Journal. - 1965. - 1. évf. 6 .
  14. Bensinger, Rob Brooks és Searle az AGI akaratáról és idővonalairól . MIRI Blog (2015). Letöltve: 2015. október 12.

Linkek