A racionalisták egy modern intellektuális mozgalmat alkotnak, amely a tudás és a döntéshozatal racionális megközelítésének szisztematikus alkalmazását, valamint a haszonelvű etikát hirdeti . Ezen elvek alapján a racionalisták szükségesnek tartják, hogy különös figyelmet fordítsanak a globális katasztrófák kockázataira , különös tekintettel a szuperintelligens mesterséges intelligencia megjelenésének kockázatára .
Eliezer Yudkowsky kulcsszerepet játszott a racionalista közösség létrehozásában és elveinek megfogalmazásában , valamint kezdetben Nick Bostrom és Robin Hanson. A 2010-es évek elején Yudkovsky 's LessWrong volt a közösség elszámolóháza , de a későbbi években a közösség kevésbé centralizált. A 2010-es évek közepe óta, részben Bostrom Superintelligence című könyvének köszönhetően , a mesterséges intelligencia irányítása komoly vita tárgyát képezi a tudományos és műszaki közösségben.
A racionalisták azt javasolják, hogy a gondolkodásban és a cselekvésben tartsák be a racionalitás elveit [1] . A racionalitás alatt egy olyan világkép felépítését értjük, amely a leginkább illeszkedik a valósághoz, mind általános, mind konkrét kérdésekben [2] ( episztemikus racionalitás ), valamint olyan cselekvések megválasztását, amelyek a rendelkezésre álló információkat figyelembe véve a leginkább kívántat adják. várható eredmény ( instrumentális racionalitás ) [3] .
A racionális megközelítés szisztematikus alkalmazása szigorú fogalmi apparátust igényel. Ezt a normatív döntéselmélet biztosítja . Yudkowsky szemszögéből E. T. Jaynes munkái alapján a racionális döntéshozatal kulcseleme a Bayes-tétel – ezt és az erre épülő megközelítések és elméletek ( Bayesian Decision estimation , Bayesian epistemology ) képviselik. a bejövő információk figyelembevételének legjobb módja, amelyre így vagy úgy, a döntéshozatal minden hatékony empirikus megközelítését le kell redukálni [4] . A racionális gondolkodás elveinek hatékony alkalmazásához tisztában kell lenni az emberi gondolkodás szisztematikus hibáival - a D. Kahneman és A. Tversky [5] által vizsgált kognitív torzulásokkal -, és képesnek kell lenni megbirkózni a saját gondolkodásra gyakorolt hatásukkal. [1] .
Maga a racionalitás a célok elérésére irányul, de nem tűzi ki ezeket a célokat (a döntéselmélet szempontjából - hasznossági függvény ). Az ember számára ezeket az ő igényei és etikai attitűdjei határozzák meg, a személy által létrehozott és programozott entitások esetében pedig az alkotók [6] . Ugyanakkor a racionalitás nem jelenti sem az érzelmek elutasítását, sem más emberek érzelmeinek és irracionalitásának figyelembe vételét, ahogyan az olyan kitalált karakterek, amelyeket gyakran a „racionalitással” társítanak, mint Spock teszik: éppen ellenkezőleg, a saját érzelmei jól jöhetnek. figyelembe kell venni egy személy hasznossági funkciójában, és idegenek elszámolása szükséges, már csak azért is, mert befolyásolják a célok elérését [3] . A racionalitásnak szintén semmi köze az egoizmushoz , mivel az ember céljai bármiek lehetnek, beleértve az altruisztikus célokat is [7] .
Etikailag a racionalisták a konzekvencializmus hívei , amely a cselekvések megválasztását a várható következményeik alapján írja elő. Pontosabban, ragaszkodnak az utilitarizmus egyik vagy másik változatához : az erkölcsös, ami maximalizálja minden élőlény teljes boldogságát. Természetesen ez az elv pontosabb definíciókkal van felszerelve arra vonatkozóan, hogy mit értünk boldogságon, és hogyan kell pontosan számszerűsíteni – a különböző változatokban eltérően. (Nagyon sok múlik ezeken a részleteken: például az utilitarizmus által előírt legetikusabb cselekvés nagyban függ attól .)[8], hogy az állati boldogságot és szenvedést figyelembe veszik-e Yudkowsky ezt a nehézséget azzal kerüli meg, hogy rámutat arra, hogy a gyakorlatban az emberek ritkán kerülnek olyan helyzetbe, hogy az általánosan elfogadott deontológiai elvek megsértésének jövőbeli következményei kellő biztonsággal ismertek, ezért ez utóbbiakat empirikus szabályoknak kell tekinteni , amelyeket irracionális megtagadni . ] .
A kollektív vitához és a racionális döntések meghozatalához jóhiszeműen kell megbeszéléseket folytatni, és szellemi nyitottságra [9] , saját hibáinak beismerésére való készségre [2] . Elfogadhatatlan az a helyzet, amikor a vitát háborúnak tekintik, ahol az érvek katonák, és a cél az ellenfél legyőzése, nem pedig az igazság kiderítése [10] . Emellett fontos megkülönböztetni az érdemi kijelentésekkel kapcsolatos vitákat („Államosítja-e ez a politikus a vasutat, ha hatalomra kerül?”) a névvitáktól („Marxista ez a politikus?”) [11] .
A racionalisták arról az elképzelésről ismertek, hogy a mesterséges intelligencia veszélyes az emberiség létére. A fogalom és a racionalista mozgalom közötti szoros kapcsolat némileg eltúlozza annak fontosságát a mozgalom számára [12] - a központi fogalom továbbra is a racionalitás, nem pedig az MI kockázata -, történelmileg azonban a racionalista közösség és mozgalom ennek az elképzelésnek a vitájából nőtt ki. [13] [6] .
Ha a technológiai fejlődés sikeresen folytatódik és a megfelelő irányba alkalmazzák, akkor az emberiség képes lesz az űrbővítés elindítására, valamint az emberek életminőségének javítására, beleértve a halhatatlanság elérését is , ha úgy kívánja (egy ilyen forgatókönyv lehetősége és kívánatossága) a transzhumanizmus deklarálja [13] ). Ahogy Nick Bostrom megjegyzi, ebben az esetben a többé-kevésbé boldog emberi életek száma és általában az emberek jövőbeni boldogsága több tíz nagyságrenddel meghaladja az emberiség eddig megélt boldogságát. ; Ezért, ha az utódok boldogsága bármiféle jelentőséggel bír, akkor az emberi történelem ilyen fejlődésének valószínűségének növelése rendkívül fontos a haszonelvű etika szempontjából [14] .
Különösen el kell kerülni az olyan globális katasztrófákat, amelyek az emberiség teljes pusztulásához vagy a fejlődés lehetőségének visszafordíthatatlan elvesztéséhez vezetnek. Az olyan természeti katasztrófáknak, mint egy óriási meteorit lezuhanása a technikai fejlettség jelenlegi szintjén, nem lehet ellenállni, de az emberi lét több millió éves fennállása alatt nem fordultak elő, így megállapíthatjuk, hogy az ilyen események ritkák. Más a helyzet az ember okozta katasztrófák kockázatával: ez csak a közelmúltban jelent meg. Így a hidegháború idején egy nukleáris háború veszélye az emberiség esetleges későbbi halálával [15] valós volt .
Yudkowsky és Bostrom úgy véli, hogy a legnagyobb veszélyt a szuperintelligens mesterséges intelligencia jelenti – és megfelelő óvintézkedésekkel radikálisan felgyorsíthatja a fejlődés ütemét. Itt és lent az intelligencia nem az emberhez hasonló vagy eltérő gondolkodásmódot jelent, hanem a klasszikus Artificial Intelligence: A Modern Approach című könyvnek megfelelően a feladatok hatékony megoldásának képességét, vagyis a racionalitást, de a szuperintelligenciát - az a képesség, hogy alapvetően ugyanazokat a feladatokat oldja meg, mint egy ember, de sokkal jobban [7] . Más racionalisták, mint például Holden Karnofsky szintén a modern kor emberi kihalásának legnagyobb veszélyei közé sorolják a veszélyes betegség világjárványát , amelyet mesterségesen hoztak létre biológiai fegyverként [15] .
Az AI veszélye Yudkowsky szerint nem abban rejlik, hogy a mesterséges intelligencia szabad akaratot nyer, és a Skynet szellemében saját, az abban lefektetetttől eltérő céljait alakítja ki – ellenkezőleg, a mesterséges intelligencia arra törekszik majd, hogy elérje. a rábízott feladatokat, de ha nincsenek pontosan megfogalmazva, a mellékhatások katasztrofálisak lehetnek. Az ilyen forgatókönyv klasszikus leegyszerűsített modellje a gémkapocs maximalizálásának nevezett gondolatkísérlet: ha egy erős mesterséges intelligencia azt a látszólag ártalmatlan feladatot kapja, hogy „készítsen gemkapcsokat ”, akkor az egész bolygót elfoglalja, és gemkapcs-gyárakkal és számítógépekkel látja el. segítsenek optimalizálni a termelési folyamatot, ami szomorú következményekkel jár az emberiségre nézve. Egy másik példa a varázslótanonc története a Goethe balladáján alapuló " Fantázia " című rajzfilmből , aki egy elvarázsolt seprűt rendelt meg, hogy megtöltse vízzel az üstöt, aminek vízözön lett a vége. Az ember hasznossági funkciója összetett: valahányszor egy személy célt tűz ki, implicit módon számos további feltételt is figyelembe vesz - erkölcsöt, viselkedési szabályokat a társadalomban, önfenntartást stb.; A mesterséges intelligencia általában nem rendelkezik ilyen további korlátozásokkal [16] .
A probléma az, hogy szinte minden, az MI-hez rendelt feladat, kivéve azokat, amelyek speciális, gondosan kiválasztott záradékokkal vannak ellátva, segédcélokat generál számára [17] :
Ugyanakkor általánosságban elmondható, hogy a mesterséges intelligencia számára az utolsó két ponton ésszerű megelőző intézkedéseket tenni, nem a kikapcsolási vagy átprogramozási kísérletkor, hanem előre, az első adandó alkalommal, és az emberiség pusztulásához vezethet. ezeknek a megelőző intézkedéseknek a legmegbízhatóbb formája, valamint a kitűzött feladatok teljesítésének előre nem látható formája: minden ember megölése megoldja a problémát, „hogy az emberek minél hamarabb ne haljanak meg rákban ” [19] . Egy elég okos mesterséges intelligencia minden olyan kiskaput kihasználhat egy feladat körülményei között, amely lehetővé teszi számára, hogy formálisan a leghatékonyabban hajtsa végre azt [21] . A feladat ilyen előre nem látható módjai már a modellevolúciós algoritmusokban is megnyilvánulnak : például a rendszer, amelynek feladata a célhoz hasonló szövegek létrehozása volt, megtanulta törölni a célszöveget tartalmazó fájlt [22] .
Az anyagi erőforrások kezeléséhez a mesterséges intelligenciának csak ellenőrizetlen hozzáférést kell szereznie az internethez : képes az internethez kapcsolódó rendszerekbe feltörni , hogy közvetlenül irányítsa az elektronikus eszközöket, zsarolja a hatalmas embereket, vagy például nagy mennyiségű pénzt keressen névtelen értékpapír -kereskedelemmel vagy új pénzügyi eszköz bevezetése (például a 2020-as évek elején Satoshi Nakamoto bitcoin megalkotójának kiléte ismeretlen). Lehetséges korlátozni a mesterséges intelligencia internethez és anyagi forrásokhoz való hozzáférését, de a korlátozás fenntartása nem biztos, hogy egyszerű, mert elég ravaszság lesz trükközni vagy fenyegetni ezeket a korlátozásokat [23] .
Egy kellően fejlett mesterséges intelligencia képes lesz rávilágítani a feladatot jelentő emberek valódi indítékaira és vágyaira, de ez egyáltalán nem kényszeríti arra, hogy ezeket a valódi vágyakat kövesse, és nem a számára kitűzött célokat. Hasonlóképpen, az ember tudhatja, hogy a szex és az édes ételek fogyasztásának "igazi célja" (biológiai funkciója) a szénhidrátok szaporodása, tárolása, de ezt csak azért teszi, hogy élvezze ezeket a folyamatokat, elkerülve a fogamzásgátláson keresztüli szaporodást . az első esetben, a második esetben pedig a saját egészségének károsítása túlzott cukorfogyasztással [17] .
Az oka annak, hogy a racionalisták a szuperintelligens mesterséges intelligencia problémáját már jelenleg - a 21. század első felében - aktuálisnak tartják, hogy amint a mesterséges intelligencia eléri az általános célú mesterséges intelligencia, vagyis az erős mesterséges intelligencia szintjét, , elsajátítja azt a képességet, hogy ugyanazokat az intellektuális feladatokat oldja meg, mint az emberek [7] , akkor nem lesz képes rosszabbul fejleszteni magát, mint azok, akik kifejlesztették. És mivel, mint már említettük, szinte minden esetben hasznos lesz a rábízott feladatok megoldásában, elkezd dolgozni saját intellektuális szintjének emelésén. Minél tovább halad ebben a munkában, annál hatékonyabban és gyorsabban tudja ezt elvégezni, így az AI fejlettségi szintjének növekedése és képességeinek bővülése gyorsan felgyorsul [24] [18] . Ez a folyamat évekig is eltarthat – elég sokáig ahhoz, hogy az emberiség reagáljon –, de nagyon rövid ideig is eltarthat, majd órákon vagy perceken belül intellektuális robbanás következik be , és jön a technológiai szingularitás . Bostrom ragaszkodik ahhoz, hogy ez a forgatókönyv a legvalószínűbb [25] . Ugyanakkor a mesterséges intelligencia fejlesztésével foglalkozó fejlesztők és elméleti informatikusok általában nagyon valószínűnek tartják az általános célú mesterséges intelligencia 21. századi megjelenését. Ezen kívül Judkovszkij megjegyzi, hogy ez váratlanul is megtörténhet [26] .
A racionalisták tehát sürgető és legfontosabb célnak tartják az AI-szabályozást - az általános célú mesterséges intelligencia létrehozását, amelynek feladatai összhangban vannak az emberiség javával ( angolul aligned AI ) [13] .
Az 1990-es évek végén kezdett kialakulni az eszmekomplexum és a racionalisták jövőbeli közösségének magja. Azonban a transzhumanisták eszméiből és közösségéből nőttek ki . A transzhumanisták úgy vélik, hogy a tudományos és technológiai fejlődés képes lesz megmenteni az emberiséget a betegségektől, sőt a haláltól is, és erre törekednek, és ezek az elképzelések meglehetősen régiek: Condorcet például azt feltételezte, hogy az emberi élet időtartamának nincs határa öregedés nélkül [ 13] .
Az 1990-es években kialakult a transzhumanisták és különösen a technológiai szingularitás gondolata iránt érdeklődők egyfajta hálózati kultúrája . Ezek az ötletek nem voltak széles körben népszerűek, és a társadalom általában furcsának tartotta őket, de vonzottak egy bizonyos típusú embereket – hasonlóan a sztereotip nerdekhez . Különösen volt egy tematikus levelezőlista , az „ Extropians ”, amelyen többek között Eliezer Yudkovsky – egy amerikai tinédzser, Nick Bostrom – egy svéd és brit diák, aki filozófiát, matematikát és rokon területeket tanult, Robin Hanson tárgyalt - amerikai közgazdász, előrejelzési piacokkal foglalkozik [13] .
Judkovszkij saját SL4 -es levelezőlistát szervezett ( Sokk Level 4 - a név az emberiség életében bekövetkezett legradikálisabb jövőbeli változások témáját jelenti, ami a jövőbeni legnagyobb sokkot okoz ). Az SL4 megbeszélésein Bostrom, Hanson és sok olyan ember is részt vett, akik később jól ismert fejlesztők és vállalkozók lettek, mint például Ben Goertzel vagy Wei Dai . Emellett 2000-ben a 20 éves Judkovszkij megalapította a Singularity Institute non-profit szervezetet, amelyet később Machine Intelligence Research Institute (MIRI) névre kereszteltek [13] .
Judkovszkij eleinte kívánatos eseménynek tartotta a technológiai szingularitás korai megjelenését, de aztán arra a következtetésre jutott, hogy egy szuperintelligens mesterséges intelligencia megjelenése veszélyes lehet az emberiség létére . Az Extropian levelezőlistán és az SL4 -ben jelentek meg először a jövő racionalista közössége számára fontos ötletek, mint például a "gemkapocs-maximalizáló". Yudkowsky elképzeléseit azonban nem vették kellően komolyan, mert - mint hitte - a levelezőlistán szereplő kollégák nem okoskodtak kellően racionálisan, és különösen nem rendelkeztek kvantitatív (bayesi) módszerekkel az információk figyelembevételére a hiedelmek helyesbítésére. Robin Hanson elindította a Overcoming Bias blogot . - "Overcoming Distortions" ( D. Kahneman híres könyve a kognitív torzulásokról még nem jelent meg, de műveit az SL4 -ben ismerték). Judkovszkij elkezdett racionalitásról és más témákról szóló szövegeket publikálni ebben a blogban [13] .
2009-ben Eliezer Yudkowsky áthelyezte a dalszövegeit egy új, önálló oldalra, a LessWrong névre ( szó szerint " [törekedj] arra, hogy kevesebbet tévedj") . Más szerzőkkel kiegészített, a következő évben elkészült jegyzeteit összefoglalóan "A láncok"-nak nevezték, és a racionalisták legfontosabb szövegévé váltak. Ezt követően Yudkovsky megtervezte a láncokat egy könyv formájában Rationality: From AI to Zombies ( angolul - "Rationality: from AI to zombies") [13] [27] .
A LessWrong közösségi blogként és fórumként jött létre a racionalitással kapcsolatos mindenféle kérdés megvitatására. A racionalista közösség információs és társadalmi csomópontjává vált, vagyis az elképzeléseikről szóló információk gyűjteményévé és belépési ponttá a közösségbe. Ennek a közösségnek a növekedésével az oldal meglehetősen népszerűvé vált: csúcspontján (2012) a LessWrong körülbelül egymillió oldalmegtekintést ért el naponta [13] .
Ezenkívül 2010-2015-ben Judkovszkij megírta és az interneten közzétette a Harry Potter-könyveken alapuló " Harry Potter és a racionalitás módszerei " című regényét , amelyben művészi formában beszélt a racionalitás fontosságáról, és különösen , a globális katasztrófák megelőzése. A regény híres lett, lefordították más nyelvekre, köztük oroszra is, és sok embert vonzott a racionalista közösségbe [13] .
2014-ben jelent meg Nick Bostrom Superintelligence : Paths, Dangers, Strategies című könyve a szuperintelligens intelligencia, elsősorban a gépi intelligencia megjelenésének kilátásairól és következményeiről. Bostrom számára addigra a racionalisták online vitáiban való aktív részvétel a múlté volt, de a könyvben felvázolta az AI ellenőrzésének szükségességével kapcsolatos érveiket. A könyv bestseller lett. Azóta, és közvetlenül annak a ténynek köszönhetően, hogy Bostrom bevezette a racionalisták gondolatait a tudományos és műszaki diskurzusba, ezek az elképzelések viszonylag ismertté váltak, és széles körben kevésbé egzotikussá váltak [28] .
A kognitív torzítások leküzdésére és a racionalitáson és valószínűségeken alapuló szisztematikus döntések meghozatalára irányuló vágy a 2010-es évek során a kompakt internetes közösségen túlra is kiterjedt, és egy teljes értékű szellemi mozgalom formáját öltötte. Elsősorban az információtechnológiához kötődő körökben terjedt el [12] .
Ezzel egy időben a LessWrong oldal népszerűsége veszíteni kezdett. Yudkowsky, miután befejezte a The Chains-t, hamarosan abbahagyta a LessWrong írását . A jól ismert racionalista, pszichiáter, Scott Alexander elindította saját blogját Slate Star Codex . A közösség kialakította az új tagok számára nehézkes "tacit tudás" rétegét [27] és az újonnan érkezők számára érthetetlen, folyamatosan használt kifejezések halmazát (például " motte és bailey ") [29] . Ezen és egyéb okok miatt a LessWrong megszűnt ellátni csomóponti funkcióit, és az eszmék továbbfejlődéséről és a racionalisták közösségéről szóló kellően teljes körű információgyűjtés formájában felváltotta soha [27] .
A társadalmi szerveződés szempontjából azonban a racionalista közösség új fókuszt kapott – Scott Alexander blogja. Alexander különösen következetes volt a nyílt, civilizált és megfontolt vitára való felhívásában, és olyan online közösséget épített fel, amelyben ez a megközelítés már megszokottá vált [29] [27] .
A COVID-19 világjárvány legelején a racionalisták azok közé tartoztak, akik komolyan figyelmeztettek a lehetséges katasztrofális fejlődésre, ami végül meg is történt. Scott Alexanderrel később megkereste a New York Times újságírója , hogy megvitassák, hogy Alexander szerinte pontosan ez a téma, de az újságíró azt tervezte, hogy Scott Alexander teljes valódi nevét adja meg a cikkben (a „Scott Alexander” egy álnév, amely egybeesik az elsővel. és ennek a szerzőnek a második személynevei , akinek teljes neve Scott Alexander Siskind [30] ), amit határozottan kifogásolt. Végső ellenintézkedésként Alexander lezárta a hozzáférést a teljes Slate Star Codexhez . Ez a történet közfelháborodást és komoly vitát váltott ki magában a The New York Timesban [29] . Ennek eredményeként a The New York Times [31] cikke 2021 elején jelent meg, nem sokkal azután, hogy Scott Alexander megnyitott egy új Astral Codex Ten blogot , és hozzáfért a régihez, és megadta a teljes nevét; ebben a cikkben a szélsőjobboldali nézeteket a racionalistáknak tulajdonítják [30] .
A LessWrong közösségek és Scott Alexander blogjának összetétele meglehetősen sajátos: sok szempontból meglehetősen homogén – a racionalisták többsége férfi [10] , gyakrabban fiatal [32] , és közöttük a szokásosnál gyakrabban vannak olyan emberek, akik vagy hajlamosak az autizmus spektrum zavaraira [27] [10] . Viszonylag sok poliamer van a racionalisták között [33] . A racionalisták gyakran hajlamosak azt hinni, hogy a semmiből képesek megalkotni a legjobb megoldásokat bizonyos jól ismert problémákra [27] [29] . A Slate Star Codex 2018-as olvasói felmérése szerint 80%-uk amerikai. Politikailag a racionalisták többnyire mérsékelt baloldali liberálisok [10] .
A racionalisták közösségének nincs egyértelmű határa [32] : egyrészt meglehetősen széles körben elterjedt, és legalábbis léteznek racionalisták virtuális közösségei a világ különböző országaiban, Izraeltől Oroszországig [34] és Hollandiáig . ; másrészt sokan vannak, akik érdeklődnek a racionalisták elképzelései iránt, de nem tartják magukat a közösség részének és/vagy nem osztják a racionalista nézetek teljes körét. A tisztán virtuális kommunikáció mellett a racionalisták személyes találkozókat is tartanak. A közösség "magját" néhány száz vagy több ezer ember alkotja, akik anyagilag vagy társadalmilag mélyen elmerültek a közösségben. Az aktív közösségi tagok legnagyobb koncentrációs helye a San Francisco-öböl térsége (ahol többek között a Szilícium-völgy is található ); különösen Eliezer Yudkowsky és Scott Alexander él ott, a racionalistákhoz kötődő szervezetek irodái találhatók - MIRI, CFAR [33] .
Míg a racionalisták szinte kizárólag a LessWrong weboldalon fogalmazták meg és vitatták meg elképzeléseiket , azok tisztán niche-jelenség maradtak. Az angol nyelvű média szférájában a LessWrongon feltalált összes koncepció közül talán a leghíresebb a Roko's Basilisk volt – egy hipotetikus jövőbeli erős mesterséges intelligencia, amelynek jelenkori ismerete elméletileg szörnyű következményekhez vezethet. A közvéleményben kialakult egy kép a racionalistákról, mint autistákról, akik megérdemlik az iróniát, mert komolyan veszik az olyan egzotikus ötleteket, mint Roko baziliszkusza. És ha az első részben igaz, akkor az utóbbi inkább nem: valójában még Judkovszkij sem vette komolyan a Baziliszkusz-ötletet, aki a baziliszkusz-ötlet nyilvánosságra hozatalára azzal a kísérlettel reagált, hogy megállítsák terjedését ( előreláthatóan sikertelenül ) [19 ] ] .
A 2010-es évek közepe óta azonban az AI-szabályozás problémája és maguk a racionalisták elképzelései is komoly vita tárgyává váltak a mesterséges intelligencia fejlesztői körében: konferenciákat tartanak ebben a témában, tudományos cikkeket publikálnak. Bostrom Supermind című könyve jelentősen hozzájárult a mesterséges intelligencia irányításával kapcsolatos racionalista nézetek elterjedéséhez az értelmiségiek, politikusok és vállalkozók körében [28] . Tehát ebben a tekintetben Elon Musk az AI vezérlésére létrehozott OpenAI szervezet egyik alapítója lett [35] . Általánosságban elmondható, hogy a mesterséges intelligencia-szakemberek eltérő álláspontot képviselnek Yudkowsky elképzeléseivel kapcsolatban – a racionalisták és a „ lapos földi emberek ” összehasonlításától a teljes egyetértésig, de az általános vélemény inkább az, hogy bár a jelenlegi történelmi szakaszban, az emberiség halála miatti aggodalomra ad okot. A mesterséges intelligencia nem igényel sürgős intézkedést, de elvileg megfontolandó [36] .
Még ha ez valamikor a távoli jövőben és kis valószínűséggel történik is, a nagyon rossz kimenetel lehetősége azt jelenti, hogy alaposan át kell gondolnunk.
Eredeti szöveg (angol)[ showelrejt] Még akkor is, ha ez valamikor a távoli jövőben van, és kicsi a valószínűsége, a nagyon rossz kimenetel lehetősége azt jelenti, hogy alaposan át kell gondolnunk. – Murray Shanahan [36]Az amerikai műszaki értelmiség körében általános a racionalisták által propagált racionális gondolkodás eszméihez és gyakorlataihoz való ragaszkodás (függetlenül az AI kérdésétől), illetve az ilyen irányú önfejlesztés [12] .
Jobb lenne, ha az emberek akkor kapnának társadalmi jutalmat, amikor felismerik saját nézeteik bizonytalanságát, megkérdőjelezik politikai szektájuk dogmáit, és a tények megváltozásával meggondolják magukat, és nem akkor, amikor összeesküvésük elszánt harcosaivá válnak. <...> A "racionalisták közössége" ezeken a normákon keresztül azonosítja magát, de ezeknek a társadalomban általánosan elfogadott szokásoknak kell lenniük, nem pedig egy lelkes klub hobbija.
Eredeti szöveg (angol)[ showelrejt] Jó lenne látni, ha az emberek barna pontokat szereznének azért, mert elismerik a bizonytalanságot meggyőződésükben, megkérdőjelezik politikai szektájuk dogmáit, és meggondolják magukat, ha a tények megváltoznak, nem pedig azért, mert rendíthetetlenül harcosai voltak klikkjük dogmái mellett. <...> A „Racionalitás Közösség” önmagát azonosítja ezekkel a normákkal, de ezek inkább az egész társadalom erkölcsei legyenek, semmint egy lelkes klub hobbija. – Steven Pinker [37]Számos más közösség és mozgalom kapcsolódik a racionalistákhoz. Először is, ezek a hatékony altruizmus hívei : nem teljesen esnek egybe a racionalista közösséggel, de ezek a csoportok erősen átfedik egymást [8] . Például Holden Karnofsky OpenPhil Alapítványa a MIRI jelentős pénzügyi adományozójává vált. Bár az OpenPhil kételkedik abban, hogy a MIRI jelenlegi, vagy bármely folyamatban lévő munkája önmagában hatással lesz a jövőbeni szuperintelligens MI-re, az alapítvány támogatja azt, hogy az AI-vezérlés fokozatosan fejlődjön, és addigra aktív, tekintélyes és hatékony területté váljon. amikor aktuálissá válik [35] . Ezen túlmenően a szuperjóslatok a racionalisták megközelítésein – a hiedelmek és előrejelzések igazságának valószínűségének kvantitatív értékelésén – alapulnak [38] .
2019-ben Tom Chivers brit újságíró kiadta a The AI Does Not Hate You című könyvet, amely áttekinti a racionalista közösséget és elképzeléseiket ( Chivers, 2019 ) [29] .
A racionális gondolkodás módszereit helyeslő és alkalmazók körében nem mindenki ért egyet az MI problémájának racionalista felfogásával. A szuperjósok és néhány hatékony altruista is úgy látja, hogy a mesterséges intelligencia egy káros racionalista mém , amely közösségük viszonylagos homogenitása miatt sikerült megvetni a lábát: a racionalisták között sok informatikai szakember van, és e kritikus álláspont szerint egyszerűen hajlamosak. hogy túlhangsúlyozzák a szakterületüket [38 ] [35] .
Andrew Sabisky konzervatív szuperjós szerint a LessWrongot azzal vádolják, hogy kultusz, vagy akár szexkultusz. Valójában létezik egy karizmatikus vezető (Yudkowsky), a „szent szövegek” (láncok), a nem hagyományos szexuális gyakorlatok (poliamória), az apokalipszis vagy az örök élet gondolata (technológiai szingularitás), valamint a pénz adományozásának képessége. megmenekülnek (MIRI adományok). Chivers azonban megjegyzi, hogy a felsorolt formai jellemzőktől függetlenül a racionalisták határozottan nem pusztító kultusz ; ami a társadalomban átlagosnál valamivel gyakoribb poliamor kapcsolatokat illeti, az ok-okozati összefüggés éppen az ellenkezője: a racionalisták azáltal vonzzák a férfiakat és a nőket, akik már gyakorolják a poliamort, mert hajlandóak tabutémák megvitatására (közvetlenül a kialakult hiedelmek szisztematikus megkérdőjelezésének szokásához). [32] .
A racionalista közösségből egy konzervatív neoreakciós mozgalom nőtt ki , amely aránytalanul aktív volt a racionalisták körében, különösen a LessWrongon . Ez az intellektuális nyitottságnak, a vita szabadságának és a racionalista vitafelületeken elfogadott érvekre való koncentrálásnak köszönhető, de általában elég ritka a vitához általában és különösen az online térben: bár a neoreakciós emberek a racionalisták kis kisebbségét alkotják, akik általában idegenek. A konzervatív ideológiához képest a neoreakciós elképzeléseket a közösségben kizárólag a viták során vitatják meg és utasítják el. A deplatformálás és általában az ideológia alapvető elutasítása , valamint a szóhasználat pontosságának vágya a látványosság rovására (így Scott Alexander kitartott amellett, hogy helytelen azt állítani, hogy Donald Trump „kirívó” rasszizmust tanúsít) egy erős (és kölcsönös ) a racionalisták iránti ellenszenv a felébredt aktivisták részéről [10] [9] [29] .
Végül Gideon Lewis-Kraus, a The New Yorker munkatársa , miközben tisztelettel adózik a racionalisták által szorgalmazott civilizált vita elvei előtt, úgy véli, hogy nem tartják be teljes mértékben ezeket az elveket, amikor a maguk számára fájdalmas kérdésekről van szó. Lewis-Kraus különösen úgy véli, hogy a közösség Scott Alexander névtelensége melletti kiállása a The New York Times -szal szemben teljes értékű politikai cselekedetté vált az amerikai társadalom általánosan növekvő politikai polarizációjának hátterében [29] .
transzhumanizmus | ||
---|---|---|
Alapok | ||
áramlatok | ||
Szervezetek | ||
Emberek |