Imagine: pixabay.com (Commons Creative – free)
Paradoxul Fermi atrage atenția asupra contradicției dintre probabilitatea mare de existență a civilizațiilor avansate și lipsa unor dovezi solide care să susțină existența lor. Au fost propuse numeroase explicații pentru a aborda acest paradox, iar una dintre ele este conceptul „Marelui Filtru”. Pe scurt, Marele Filtru se referă la un eveniment sau un scenariu teoretic care împiedică progresul vieții inteligente în a deveni interplanetară și interstelară, ducând în cele din urmă la dispariția acesteia.
Planeta noastră și predecesorii noștri s-au confruntat deja cu diverse provocări sub forma evenimentelor de extincție în masă. În urmă cu un sfert de miliard de ani, de exemplu, „Marea Moarte”, cunoscută și sub numele de Extincția Permian-Triasic, a șters marea majoritate a speciilor marine și terestre. Totuşi, aceste evenimente de extincție au fost evenimente naturale care au apărut din evoluția planetei noastre și a sistemului solar. Erupțiile vulcanice, meteoriţii și asteroizi nu sunt provocate de om.
Acum, însă, lucrurile se schimbă – și rapid. Se pare că omenirea se poate confrunta cu o provocare semnificativă creată de noi, cu armele nucleare și progresele biomedicale care sunt de rău augur. Și, desigur, nu trebuie să uităm de Inteligența Artificială (AI). Potrivit unui studiu recent publicat în „Acta Astronautica”, ideea că AI ar putea evolua în Super Inteligență Artificială (SAI), servind drept o altă caracteristică a Marelui Filtru, ar trebui luată foarte în serios.
Cercetarea, scrisă de Michael Garrett, cercetător la Departamentul de Fizică și Astronomie de la Universitatea din Manchester (Marea Britanie), explorează posibilitatea ca AI să devină SAI. Garrett subliniază importanța reglementării eficiente a IA, pentru a preveni ca aceasta să devină o amenințare la adresa civilizației noastre și a altor civilizații tehnologice.
Potrivit lui Garrett, conceptul de Marele Filtru poate împiedica civilizațiile tehnologice, precum a noastră, să colonizeze alte planete, lăsându-le (și pe noi) vulnerabile la dispariție sau stagnare fără un plan de rezervă. Urgența abordării acestei probleme este subliniată de Garrett, care susține că progresul SAI ar putea servi ca un punct critic pentru societatea umană, ce ar putea duce la dispariția ei într-un interval de 200 de ani, dacă totul nu este reglementat corespunzător.
În esență, deși este posibil ca multe civilizații să nu progreseze dincolo de viața unicelulară și am depășit deja acest obstacol, este, de asemenea, posibil să fim în pragul autodistrugerii. Și forțele autodistructive ar putea lovi cu mult înainte ca noi să avem capacitatea de a ne aventura dincolo de Pământ. Forțele distructive ar putea apărea dintr-o varietate de locuri – de la războaie, epuizarea resurselor, pandemii sau AI.
În ceea ce privește AI, mai mulţi cercetători au subliniat importanța luării de măsuri proactive pentru a preveni ca aceasta să devină „filtrul” nostru suprem și să ducă la dispariția omenirii. Stephen Hawking spunea odată că AI „fie va fi cel mai bun lucru care ni s-a întâmplat vreodată, fie va fi cel mai rău lucru. Dacă nu suntem atenți, s-ar putea să fie ultimul lucru”.
Sursa: articolul ştiinţific „Is artificial intelligence the great filter that makes advanced technical civilisations rare in the universe?” / sciencedirect.com