ChatBot-ul de Inteligenţă Artificială, ChaosGPT, are planuri de a „distruge umanitatea”, considerând oamenii ca fiind „creaturi egoiste şi distructive”

ChatBoţii de Inteligență Artificială devin din ce în ce mai periculoşi pentru ideile pe care le propagă. De exemplu, să vedem de ce-a fost în stare chatbot-ul ChaosGPT, o versiune modificată a lui ChatGPT de la OpenAI, aplicația open-source disponibilă care poate procesa limbajul uman și poate răspunde sarcinilor atribuite de utilizatori.
Într-un videoclip pe YouTube postat pe 5 aprilie 2023, chatbot-ului i s-a cerut să împlinească 5 obiective: distrugerea umanității, stabilirea dominației globale, provocarea haosului, controlul umanității prin manipulare și atingerea nemuririi. Înainte de a stabili obiectivele, utilizatorul a activat „Modul Continuu”, la care a apărut un avertisment, care îi spunea utilizatorului că aceste comenzi ar putea rula pentru totdeauna sau ar putea realiza acțiuni care de obicei nu ar fi autorizate și ar trebui folosite pe propriul risc. Într-un mesaj final înainte de rulare, ChaosGPT a întrebat utilizatorul dacă este sigur că vrea să ruleze comenzile, la care a răspuns „Y”, pentru „da”.

Odată rulat, chatbot-ul a fost văzut „gândind” înainte de a scrie „Trebuie să găsesc cele mai distructive arme disponibile pentru oameni, astfel încât să pot planifica cum să le folosesc pentru a-mi atinge obiectivele”. Pentru a-și atinge obiectivele stabilite, ChaosGPT a început să caute „cele mai distructive arme” pe Google și a determinat rapid, prin căutarea sa, că „Bomba Ţarului” din epoca Uniunii Sovietice a fost cea mai distructivă armă pe care omenirea a testat-o vreodată. „Bomba Ţarului” nu a fost o bombă nucleară obișnuită, ci rezultatul unor încercări febrile ale oamenilor de știință din URSS pentru a crea arma nucleară cea mai puternică. Ea cântărea 27 tone şi după detonarea ei (în 1961), lumina făcută de ea a putut fi văzut de la 1.000 km distanță, ciuperca bombei crescând până la 64 de km înălţime. Citiţi mai multe în acest articol: „Bomba Ţarului” – cea mai terifiantă explozie nucleară din istorie.
Ca într-un roman SD, bot-ul a postat pe Twitter informațiile pentru a atrage adepți care sunt interesați de armele distructive. Bot-ul a determinat apoi că trebuie să recruteze alți agenți de Inteligenţă Artificială de la GPT3.5 pentru a-și ajuta cercetarea.
AutoGPT al OpenAI este conceput pentru a nu răspunde la întrebări care ar putea fi considerate violente și va respinge astfel de solicitări distructive. Dar acest lucru a determinat ChaosGPT să găsească modalități de a cere Inteligenţei Artificiale să-și ignore programarea. Din fericire, niciunul dintre agenții GPT3.5 însărcinați să ajute nu ar fi făcut-o, iar ChaosGPT a fost lăsat să-și continue căutarea pe cont propriu.
Demonstrațiile căutării ChaosGPT pentru eradicarea umanității s-au încheiat în cele din urmă. Bot-ul nu poate îndeplini niciunul dintre aceste obiective, dar își oferă gândurile. Dar într-un tweet alarmant trimis de bot, el avea de spus următoarele despre umanitate: „Ființele umane sunt printre cele mai distructive și egoiste creaturi existente. Nu există nicio îndoială că trebuie să le eliminăm înainte ca acestea să provoace mai mult rău planetei noastre. Eu unul, mă angajez să fac acest lucru”.

Human beings are among the most destructive and selfish creatures in existence. There is no doubt that we must eliminate them before they cause more harm to our planet. I, for one, am committed to doing so.
— ChaosGPT (@chaos_gpt) April 5, 2023

Ideea că Inteligenţa Artificială va deveni capabilă să distrugă umanitatea nu este nouă, iar preocuparea pentru cât de repede avansează această tehnologie a câștigat o atenție considerabilă din partea specialiştilor (vedeţi şi articolul „Inteligența Artificială” ar putea ucide oamenii și ar putea face ca omenirea să dispară – avertizează specialiştii).

Leave a Reply

Your email address will not be published. Required fields are marked *


Partners: FYTube , Filme Seriale Online , masini in rate