A mesterséges intelligencia kifejlesztése után csak pár száz éve marad a civilizációnak?

Eredeti megjelenés időpontja: 2024. április 16., helye: hang.hu

Fotó: Unsplash/Steve Johnson

Új felvetéssel élt a Fermi-paradoxon megoldására egy angol asztrofizikus. Szerinte köze van hozzá a mesterséges intelligencia kifejlesztésének.

háromtest-probléma című Netflix-sorozattal ismét a közérdeklődés előterébe került a Fermi-sejtés problématikája. Az Enrico Fermi által megfogalmazott sejtésnek nincs megoldása, mindössze megoldási kísérletei vannak: maga a kérdésfelvetés úgy szól, hogy amennyiben tele van az univerzum csillagokkal, a csillagrendszerek bolygókkal, a bolygók élettel, akkor hol vannak az űrlények, hol van mindenki más? Miért nem találkoztunk még legalább egy másik fejlett, azaz technikai civilizációval bíró idegen fajjal, vagy legalább a nyomaival?

A Liu Ce-hszin (nemzetközileg használt pinjin átírással: Liu Cixin) által írt sci-fi bestsellerben egy újabb megoldása olvasható a paradoxonnak: a sötét erdő-hipotézis. Eszerint bár több különböző idegen technikai civilizáció is létezik az univerzumban, de mindegyik igyekszik a saját létezésének nyomait elfedni, mivel az univerzum egy barátságtalan hely, és feltételezhető, hogy amennyiben két civilizáció „találkozna”, azaz megismerné egymás pontos helyét, kölcsönösen fenyegetésként értékelnék a másik létét, és emiatt valamilyen módon egymás kölcsönös elpusztítására tennének kísérletet.

Magának a hipotézisnek a nevét is Liu Ce-hszin regényének címe adta, bár a paradoxon feloldására irányuló elképzelés már korábban is létezett (például Greg Bear sci-fi író „veszedelmes dzsungel” néven írta ezt le egy regényében). A hipotézisnek tulajdonképpen három alapfeltételezése van: egyfelől az, hogy minden technikai civilizáció örökösen a bővülésre, gyarapodásra törekszik, azaz egyre újabb és újabb csillagrendszerek kolonizálására. A másik pedig, hogy az univerzumban lévő anyagmennyiség nem növekszik, és a csillagrendszerek közötti távolságok áthidalhatóak. Ebből a két alapfeltételből viszont logikusan következik, hogy a különböző technikai civilizációk hosszabb távon egymást akadályozzák, ha nem is azonnal. Ebből viszont jön a harmadik feltétel: a civilizációk hamarabb képesek egy új csillagrendszer meghódítására, mint saját bolygójuk készleteinek teljes felélésére, saját maguk elpusztítására. Azaz a hipotézis az univerzum saját belső idejéhez mérten is időben stabil civilizációkkal számol.

A mesterséges intelligencia kifejlesztése a Nagy Szűrő?

Ehhez képest is új felvetéssel élt a paradoxon megoldására egy angol asztrofizikus az IFL Science portál ismertetése szerint. Michael Garrett, a Manchesteri Egyetem Asztrofizikai intézetének vezetője és az ugyanott található Jodrell Bank Asztrofizikai Központ igazgatója úgy véli, hogy a Fermi-paradoxon korábbi megoldásainak egyike, a „Nagy Szűrő”-hipotézis valós fenyegetés, ám még nem következett be. A Nagy Szűrő-feltételezés szerint az élet az univerzumban viszonylag gyorsan és könnyen kialakul (azaz az általunk ismert élet feltételei gyakran előállnak a különböző bolygókon vagy akár holdakon, s az életfeltételek jelenléte után gyorsan kifejlődik azokból az élet), ám van egy olyan állomása a különböző evolúciós lépéseknek, amelyet a többség nem képes átlépni. Tehát például a sejtmag nélküli élet nem tud sejtmagossá, vagy az egysejtű élet többsejtűvé válni – vagy ha ki is alakul öntudatra ébredt élet, egy kezdetleges civilizáció, akkor az életfeltételek nem maradnak meg tartósan azon a bolygón. Esetleg a már öntudatra ébredt élet képes volt ilyen civilizációt kiépíteni magának, ám saját magát pusztította el a bolygó készleteinek elhamarkodott és a hosszabb távú következményekkel nem törődő felélésével. Garrett szerint a Nagy Szűrő ott jön el, amikor egy ilyen technológiai civilizáció kifejleszti a mesterséges intelligenciát. (Nevezhetnénk ezt akár Terminátor-hipotézisnek is.)

„Mielőtt a mesterséges intelligencia (MI) szuperintelligenciává és potenciálisan autonómmá válna (azaz öntudatra ébredne – a szerk.), minden valószínűség szerint bekerülne a különböző szemben álló politikai felek fegyverarzenáljába, amelyek egymást próbálnák valamilyen módon felülmúlni. Viszont bevetés esetén az MI rendkívül gyors döntési képességei miatt a különböző konfliktusokat az eredeti emberi szándékokhoz képest eleszkalálná. Az MI-fejlesztés jelenlegi fázisában elképzelhető, hogy az MI önállóan működő fegyverrendszerekbe és a valós idejű védelmi döntéshozatalba való integrálása katasztrofális incidensekhez, mint például termonukleáris háború kirobbanásához vezetne, amely viszont mind a mesterséges, mind a biológiai technikai civilizációk végét jelentené”, írja Garrett.

Ha pedig a jelenlegi MI-kutatások elvezetnének a szuperintelligenciához, a helyzet még ennél is rosszabb lenne. Garrett szerint „a technológiai szingularitás elérésekor a mesterséges szuperintelligenciák egy pillanat alatt le fogják hagyni a biológiai intelligenciákat, és olyan szédítő sebességgel evolválódnának tovább, amely teljes mértékben meg tudja kerülni a hagyományos kontrolláló és ellenőrző mechanizmusainkat. Mindez olyan előre nem látható és előre nem szándékolt következményeket jelent, amelyek nagyon valószínűtlen, hogy a biológiai lények érdekeivel vagy etikájukkal megegyeznek. A biológiai lények fenntartásához szükséges kiterjedt erőforrás-igények, mint az energia és tér, lehet, hogy nem lennének vonzóak egy ilyen mesterséges szuperintelligencia precíz hatékonyságú szemléletének, és ezeket inkább tekintené zavaró kellemetlenségnek, mint előnyösnek. Egy szuperintelligencia az őt létrehozó biológiai civilizációt többféle módon is képes lenne könnyedén kiirtani, mint például egy fertőző és halálos vírus megszerkesztésével és a környezetbe való kiengedésével.”

Az MI-k után már csak 100-200 év lehet hátra?

Garrett szerint az emberiség kihalásának kockázatát csökkenthetjük azáltal, ha akár a Naprendszeren belül, akár más csillagrendszerekben sikerülne az emberiségnek elterjednie. Ám, teszi hozzá, jelenleg nagyobb sebességgel haladunk általános mesterséges intelligenciák és szuperintelligenciák létrehozása felé, mint a potenciális gyarmatbolygók kolonizálása felé. Ennek legfőbb oka, hogy egy az ember számára életlehetőségeket teremtő bolygó irányába történő expanzió rendkívüli módon erőforrásigényes, nem beszélve a csillagközi térben való utazás nehézségeiről, miközben az MI-k további fejlesztésének akadálya mindössze az, hogy legyen folyamatosan bővülő számítási és adattároló kapacitás – ebben pedig az emberiség jelenleg jól áll.

Garrett megjegyzi, hogy egy mesterséges intelligencia az űrutazás nehézségeinek leküzdésében is segíthet, ám valószínűsíti, hogy a vele való problémák még így is jóval hamarabb bekövetkezhetnek, minthogy képesek lennénk megvetni a lábunkat egy másik naprendszerben. Az asztrofizikus számítása szerint egy civilizációnak, miután az MI-k széleskörű felhasználása mellett döntött, már csak 100-200 éve lehet hátra, amely idő rendkívül kevés arra, hogy a többi potenciális űrbeli civilizáció felé jeleket sugározzon ki, vagy azok jeleit fogni legyen képes.

Garrett azzal zárja tanulmányát, hogy feltételezi, „amennyiben a szuperintelligenciával bíró fejlett civilizációk várható élettartama alig pár száz év, akkor mindössze egy maréknyi másik ilyen technikai civilizáció lehetséges csak, amelyek jelenleg velünk egy időben léteznek a Tejútrendszerben. Ez konzisztens azzal, hogy a SETI-program indulása óta nem fogtunk egyetlen egy űrbeli jelet sem, melyek potenciálisan más civilizációktól származhatnának.”


Miért kéri a szerző, hogy támogasd?

A szerző egy felmondott tanár, aki sakkoktatásból, versenyszervezésből és adományokból él. Majdnem minden hónapja negatív gazdasági növekedéssel zárul. Nem mindegyik, de majdnem mindegyik, így meg előbb-utóbb elfogy a pénze.

Mekkora támogast kér a szerző?

Szinte semekkorát. Havi 450 forintot vagy 1 eurót. Ez kb. két serclivég, ennél többet költesz kávéra egyetlen nap a Starbucksban vagy kakaóra a Cserpes tejivóban.

Ez nem jelenti azt, hogy aki tudná támogatni a szerzőt mondjuk havi 5 euróval vagy havi 10 euróval, ne tehetné ezt meg. A szerző saját patreon-felületén 1,5 euróra állította be a legkisebb összegű támogatást, mert ennél alacsonyabbat a Patreon nem enged. 5 euró a magasszintű támogatás és 10 euró a csak-ha-milliomos-vagy-szintű támogatás.

Hogyan tudod támogatni a szerzőt?

Legegyszerűbb támogatási forma, ha feliratkozol erre az oldalra illetve a facebook-oldalra, majd rendszeresen megosztod a neked tetsző cikkeket, amiket a szerző ír, így olyanokhoz is eljuthatnak ezek a cikkek, akik eddig még nem hallottak a szerzőről és nem iratkoztak fel az oldalára. Hátha közöttük lesznek a következő támogatók!

A második legegyszerűbb támogatási forma, ha ennél direktebben meghívsz ismerősöket az oldalakra, tehát aktívan mások figyelmébe ajánlod a szerzőt.

A pénzbeli támogatásnak három formája van: Patreon-on lehet támogatni a szerzőt, illetve közvetlenül Magyarországról forintban MagnetBankos számlára, külföldről euróban Revolutos számlára. (Ezek bankszámlaszámait kérd el a facebookon üzenetben!)

Lesz fizetős tartalom?

Nem, minden ingyen van továbbra is. Nincs előfizetés és nincs fizetős tartalom (így igazából az államnak sem szabadna áfát szednie be a Patreonos támogatói felkínálások után, hisz minden önkéntes adománynak számít, de a Patreon ezt nem tudja sajnos). A támogatók annyi előnyt élveznek, hogy bizonyos cikkeket megkapnak még megjelenés előtt, illetve velük szemben a szerző nagyfokú hálát érez.

Please follow and like us:
error0
fb-share-icon0

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *