Enligt en studie kan artificiell intelligens ha hindrat oss från att ta kontakt med aliens
Om vi fortfarande inte har lyckats hitta utomjordingar kan artificiell intelligens vara den skyldiga, det hävdar en nyligen utförd studie. På vilket sätt? Låt oss ta reda på det tillsammans.
The Great Filter-teorin och sökandet efter utomjordisk kontakt
Freepik
Forskare har i alla tider sökt efter utomjordisk kontakt, men i själva verket har de aldrig funnit några bevis för existerande aliens, även om det skulle vara minst sagt förmätet att föreställa sig att vi lever på den enda planeten i universum som är värd för livsformer. En nyligen utförd studie har fastställt att artificiell intelligens kan vara ansvarig för bristen på kontakt mellan utomjordingar och mänskligheten.
Med tanke på det vidsträckta kosmos, rikt på stjärnor och planeter, är det lite konstigt att vi aldrig har fått några tecken som vittnar om närvaron av utomjordiska civilisationer. Denna "absurditet" kallas Fermi-paradoxen, och den har haft vetenskapens intresse fångat under en lång tid och skapat mycket förvirring. Nu undrar en forskare om den snabba utvecklingen av artificiell intelligens är hemligheten bakom denna misslyckade utomjordiska kontakt. Idén är baserad på "The Great Filter"-teorin, enligt vilken intelligent liv måste övervinna betydande hinder och svårigheter för att utvecklas mot en avancerad civilisation och därför kunna utforska rymden.
Från AI till ASI, artificiell superintelligens
Michael Garret, en astrofysiker från University of Manchester, Storbritannien, föreslår att det mystiska The Great Filter kan gömma sig i utvecklingen av artificiell intelligens till artificiell superintelligens. Efter AIs otroliga framsteg fokuserar forskare på ytterligare framsteg, som rör ASI, eller artificiell superintelligens. Detta är en form av artificiell intelligens som inte bara kan överträffa mänsklig intelligens, utan skulle också vara fri från mänskliga inlärningsgränser när det gäller hastighet.
Enligt studien kan den obegränsade utvecklingen av ASI leda till att civilisationer potentiellt försvinner inom 200 år. En livslängd på bara 2 århundraden kan förklara varför SETI, Search for Extraterrestrial Intelligence, aldrig har upptäckt förekomsten av tekniskt avancerade främmande civilisationer i vår galax.
"Det är nödvändigt med en snabb reglering för AI"
Freepik
Enligt Garret behövs en brådskande reglering i utvecklingen av AI. Fysikern Stephen Hawking varnade för utvecklingen av AI som skulle kunna överträffa den mänskliga intelligensen. Garret förklarar:
"Utan praktisk reglering skulle AI kunna utgöra ett allvarligt hot mot framtiden inte bara för vår tekniska civilisation utan för alla andra".
I slutändan antar astrofysikern att oöverstigliga hinder i civilisationernas utveckling hindrade dem från att bli rymdcivilisationer. "AIs snabba framsteg kan korsas med en kritisk fas i utvecklingen av en civilisation: övergången från en monoplanetär art till en multiplanetär art".
Risken är därför att vi vacklar när AI överskrider vår förmåga att kontrollera den och utforska vår galax.
"I det här scenariot uppskattar jag att den typiska livslängden för en teknisk civilisation kan vara kortare än 100 år, vilket är den ungefärliga tiden mellan förmågan att ta emot och sända signaler mellan stjärnorna (1960) och det uppskattade utseendet av ASI (2040) på Jorden. Det är upp till oss alla att se till att när vi sträcker oss efter stjärnorna gör vi det inte som en varnande berättelse för andra civilisationer, utan som en ledstjärna för hopp - en art som har lärt sig att trivas tillsammans med artificiell intelligens" avslutar Garret.