Pavel Kroupka 04.01.2019

Program SETI – detekcja międzygwiezdnych sygnałów

Program SETI – detekcja międzygwiezdnych sygnałów

W swej książce (Kontakt) Carl Sagan spekuluje na temat możliwości nawiązania łączności z obcą cywilizacją. Astronom i popularyzator nauki ukazuje romantyczną wersję ewentualnego scenariusza. Sygnał zostaje przechwycony, wyodrębniony i odczytany. Kontakt nawiązany. Choć książka należy do nurty science fiction, przy sporej dozie szczęścia detekcja obcego sygnału jest możliwa. Do tej pory jednak nawiązanie tego rodzaju łączności nie powiodło się. Dlaczego? Odpowiedź została już udzielona – ze względu na towarzyszące poszukiwaniom trudności, o których za chwilę, trzeba mieć po prostu szczęście (oczywiście przy założeniu, że sygnały takie w istocie skądś płyną).

SETI

Search for Extraterrestrial Intelligence (SETI) jest projektem naukowym opracowanym i realizowanym w ramach poszukiwania inteligentnych cywilizacji w przestrzeni kosmicznej w oparciu o analizę sztucznych sygnałów radiowych płynących z Kosmosu.

Możliwości współczesnych technologii są obecnie wystarczające do stworzenia odpowiednio czułych układów odbiorczych. Kwestią najważniejszą, od samego początku funkcjonowania programu, było jednak stworzenie właściwych systemów selekcji. Przeszukiwanie całej galaktyki pod kątem odpowiednich sygnałów może zająć setki lat – sama Droga Mleczna liczy sobie bowiem od 100 do 400 (wg różnych szacunków) miliardów gwiazd.

01

Założenia programu

Wstępnie poczynione założenia obejmowały analizę gwiazd wielkością zbliżonych do Słońca. Życie bardzo dużej gwiazdy trwa bowiem zbyt krótko aby wytworzył się wokół niej trwały system planetarny, zaś zbyt małe gwiazdy generują niewystarczającą ilość energii aby wokół nich mogło powstać życie oparte na chemii węgla – założono bowiem istnienie cywilizacji biologicznie opartej na węglu, który jest w stanie wytworzyć wystarczająco złożone związki chemiczne.

Analizowane miały być jedynie sygnały komunikacyjne sprawiające wrażenie intencjonalnych, szum elektromagnetyczny wytwarzany przez hipotetyczną cywilizację nie miał być brany pod uwagę. Jeden z postulatów zakładał, iż przyjęte założenia mogą być jednak częściowo błędne, stąd zasadne było podjęcie decyzji dotyczącej wyrywkowej analizy także innych, nie spełniających wymienionych warunków, obiektów w Kosmosie.

Trudności

Oprócz ogromnego obszaru poszukiwań źródeł sygnałów istnieją także trudności natury technicznej. Niezwykle istotne są pasma częstotliwości, które mogą być wykorzystywane przez potencjalnego nadawcę. Antycypacja ewentualnych częstotliwości jest niezwykle trudna. Emisja silnych sygnałów w szerokim zakresie byłaby energochłonna – stąd przypuszczenie, iż sygnały o takim przeznaczeniu byłyby emitowane raczej w wąskich zakresach. Oznacza to żmudna analizę całego zakresu częstotliwości dla każdego potencjalnie istotnego układu gwiazd.

Kolejną trudność niesie ze sobą wykorzystany system modulacji i kodowania. Należy spodziewać się, iż zastosowana przez nadawcę technologia telekomunikacyjna może być zasadniczo odmienna od ziemskiej. Pozostają zatem poszukiwania „w ciemno” regularnych i silnych sygnałów z wąskiego przedziału częstotliwości.

Istotną kwestią jest także kierunkowość ewentualnego sygnału. Wydaje się, iż ze względu na ogromne wydatek energetyczny jest mało prawdopodobne aby nadawca zdecydował się wysłać silny sygnał we wszystkich kierunkach. Jest bardziej prawdopodobne, iż kierunki sygnału zostałyby ściśle określone, np. z wykorzystaniem założeń zbliżonych do tych z projektu SETI.

Detekcja tak ukierunkowanych sygnałów i tak jest niezwykle trudna ze względu na zakłócenia, w postaci szumu elektromagnetycznego generowanego przez gwiazdy, który interferować może z właściwym sygnałem, zniekształcając go i w ten sposób maskując.

Od momentu zapoczątkowania w roku 1959 w ramach SETI powstawały liczne programy, które wiodły krótszy lub dłuższy żywot. Niektóre z nich są doskonałym przykładem różnej natury trudności z jakimi muszą borykać się astronomowie i astrofizycy pracujący w ramach tych projektów.

W roku 1959 Philip Morrison i Giuseppe Cocconi opublikowali artykuł dotyczący komunikacji w przestrzeni kosmicznej z wykorzystaniem fal radiowych o częstotliwości 1420 MHz (długość fali 21 cm). Postulowana wartość poparta była wieloma argumentami, jednak naukowcom nie dane było sprawdzić swojej teorii w praktyce – nie dostali zgody na wykorzystanie największego w owym czasie radioteleskopu Mark IA.

W 1960 roku Frank Drake z Cornell University prowadził prace badawcze pod nazwą Projekt Ozma. Astronom za pomocą radioteleskopu o średnicy 26 m badał szum radiowy z okolic gwiazd średniej wielkości Tau Ceti i Epsilon Eridani: 200 godzin nasłuchu i obserwacja 7200 kanałów o szerokości 100 Hz przebiegających wokół częstotliwości 1420 MHz. Szum nagrywany był na taśmy. Ich żmudna i czasochłonna analiza niczego jednak nie przyniosła – rozczarowanie było spore i projekt został zarzucony.

W 1971 NASA podjęła się finansowania programu o nazwie Projekt Cyclops opracowanego przez Drake'a i Olivier’a z firmy Hewlett-Packard. Cyclopis miał być instalacją 1500 radioteleskopów, a jego kosz szacowano na ponad 10 miliardów dolarów. Krytyka polityki NASA zaowocowała relokacją środków w kierunku programu podboju Księżyca i projekt został zamknięty.

W roku 1973 Uniwersytet Stanowy Ohio podjął decyzję włączenia się do programu SETI z własnym radioteleskopem „The Big Ear” (Wielkie Ucho), wykorzystywanym wcześniej w badaniach astronomicznych, które z powodu odcięcia funduszy i zamknięcia obserwatorium zostały zarzucone. Wykorzystanie radioteleskopu w programie SETI trwało do roku 1995, kiedy to nowy właściciel gruntów, stanowiących lokalizacją radioteleskopu, zażądał jego zdemontowania. Powodem była chęć powiększenia znajdującego się po sąsiedzku pola golfowego.

W 1992 roku NASA uruchomiła własny projekt MOP (Microwave Observing Program) – badania szumu radiowego wokół 800. położonych najbliżej Ziemi gwiazd oraz wyrywkowe badania innych obszarów przestrzeni kosmicznej. Realizacja programu przebiegała dzięki sieci radioteleskopów o nazwie Deep Space Network należących do Agencji, a także anten odbiorczych w Green Bank i Arecibo. Przekaz były badany przez specjalnie zaprojektowane analizatory, obsługujące ponad 15 milionów kanałów jednocześnie. W roku 1993 Kongres USA zablokował środki, uczestnicy projektu pożegnali NASA, tworząc własny instytut badawczy, a pozyskane fundusze przeznaczyli na kontynuacje projektu pod zmienioną nazwą Phoenix. Nasłuch prowadzony jest dzięki prywatnemu radioteleskopowi Parkes w Australii.

Niektóre programy realizowane współcześnie

Projekty realizowane w ramach SETI nie są tylko pasmem administracyjnych bądź finansowych porażek. Choć sukcesów w postaci zarejestrowania odpowiedniego przekazu brak, istnieje obecnie szereg aktywnych programów, powstają plany wdrożenia nowych, wciąż działają grupy ambitnych naukowców i wizjonerów wierzących w ich sens, pomimo, iż krytyków stawiających ów sens pod znakiem zapytania i jawnie go kontestujących nie brakuje. Nie milkną głosy oskarżające o marnowanie pieniędzy, choć budżet SETI to zaledwie kilka procent National Science Foundation, amerykańskiej agencji rządowej do finansowania badań naukowych.

W 1979 na Uniwersytecie Kalifornijskim uruchomiono projekt w ramach SETI. SERENDIP (Search for Extraterrestrial Radio from Nearby Developed Populations) nieprzerwanie działa po dziś dzień, a polega na analizie danych radiowych zbieranych podczas zwykłych obserwacji prowadzonych z wykorzystaniem największych radioteleskopów świata. Specjaliści są zdania, że tego rodzaju sygnały mogą być „w tle” regularnych badań astronomicznych gwiazd. Program analizuje w tym przypadku częstotliwości z odpowiednich zakresów. Od 1986 realizowany jest także przez Uniwersytet Berkeley projekt SERENDIP II.

Niemal w tym samym czasie Carl Sagan, Bruce Murray i Louis Friedman powołali do życia prywatne stowarzyszenie Planetary Society, którego jednym z zadań ma być wspieranie i popularyzacja projektów SETI.

Specjalnie w celu wykorzystania przez projekty SETI powstał także na początku lat 80. cyfrowy analizator widma radiowego. Jego twórca Paul Horowitz, zaadaptował dla potrzeb tego urządzenia układy cyfrowej analizy sygnały wykorzystywane do zastosowań militarnych. Stosowane wcześniej analizatory posiadały filtry analogowe, które mogły obcinać potencjalnie interesujące sygnały.

„Suitcase SETI” mógł analizować równolegle 131 000 wąskich kanałów radiowych. W roku 1983 podłączony został do 25. metrowego radioteleskopu, którego właścicielami były Uniwersytet Harvarda i Smithsonian Institute. Projekt nosił nazwę „Sentinel” i był kontynuowany do 1985, kiedy to został zastąpiony projektem „META” (Megachannel Extra-Terrestrial Array). Sponsorami tego przedsięwzięcia byli Planetary Society oraz Steven Spielberg. Analizator wykorzystany w ramach tego projektu został rozbudowany i miał możliwość badania 8. milionów kanałów w tym samym czasie. Kontynuacją tego projektu i jego rozwinięciem stał się w roku 1990 „META II”, wykorzystujący radioteleskop położony w Argentynie, dzięki któremu można było badać część nieba widoczną z południowej półkuli. Projekt jest nadal realizowany.

W 2004 roku Planetary Society rozpoczął zbiórkę funduszy na rzecz nowego projektu. „BETA” (Billion-Channel Extraterrestrial Array) w założeniach miał posiadać analizator zdolny do równoległej obsługi miliarda kanałów. Zebrane środki pozwoliły na uruchomienie aparatury zbudowanej z 200 procesorów, zdolnej do równoczesnego śledzenia 250 milionów kanałów radiowych.

Kolejnym projektem jest wspólne przedsięwzięcie Uniwersytetu Berkeley oraz Instytutu SETI w ramach budowy sieci niewielkich, wyspecjalizowanych radioteleskopów. W założeniach sieci tego rodzaju anten mają stać się konstrukcjami o niezwykle wysokich możliwościach, przewyższających nawet najbardziej zaawansowane projekty typu „Cyclops”.

Jeden z takich programów, ATA (Allen Telescope Array), przewiduje uruchomienie kompleksu ponad 350 anten o średnicy około 6,1 metra, zgrupowanych na obszarze hektara. Sieci radioteleskopów towarzyszyć ma nowatorski analizator umożliwiający odbiór i analizę odseparowanych sygnałów odbieranych przez każdą z anten. Pierwsza część projektu, składająca się z 42 talerzy, oddana została do użytku w 2007 roku. Za realizacją tego typu przedsięwzięć mają przemawiać stosunkowo niskie koszty szacowane na 50 milionów dolarów.

Ciekawym pomysłem jest projekt SETI@home, który wszedł do realizacji w roku 1999, a polega na wykorzystaniu wolnych mocy obliczeniowych komputerów należących do wolontariuszy. Ochotnicy posiadają na swych urządzeniach zainstalowany specjalny program działający w tle, który pobiera i odsyła do Berkeley wyniki przeanalizowanych porcji szumu pochodzącego z przestrzeni kosmicznej. W 2005 roku projekt ten został przeniesiony na platformę Berkeley Open Infrastructure for Network Computing, która umożliwia równoległe uczestnictwo w wielu tego typu przedsięwzięciach.

Technologie i metody statystyczne

Aby radioastronomia mogła się rozwijać konieczny jest rozwój technologiczny, który determinuje możliwości instrumentów, przekładając się na ewentualne odkrycia. Powstają projekty nowych radioteleskopów, jak SKA - Square Kilometre Array, kompleks anten charakteryzujący się 50 razy większą czułością niż dotychczasowe instrumenty odbiorcze. Projekt przewiduje, zagospodarowanie olbrzymiego terenu – na obszarze o średnicy do 1 km ma znajdować się ok. 20% powierzchni zbierającej, 50% ma się znajdować w obszarze 5 km, a 75% w obszarze 150 km. Plany zakładają, iż centrum kompleksu otoczone będzie stacjami anten odległymi aż do 3000 km. SKA prowadzić będzie nasłuch w bardzo szerokim widmie: od 70 MHz aż do 35 GHz.

Optymalizuje się aplikacje wykorzystywane w projektach typu SETI@home, przystosowując je do zwiększających się możliwości urządzeń obliczeniowych.

Powstaje oprogramowanie komputerowe, które jednocześnie odbiera dane przechwytywane przez anteny radiowe – w miejsce analizy sygnału jednej gwiazdy, można badać przekaz z setek a nawet tysiące gwiazd jednocześnie i przetwarzać je wykorzystując odpowiednią moc obliczeniową urządzeń.

Planuje się wykorzystanie Sztucznej Inteligencji – zdolności maszyn do uczenia się podczas poszukiwania sygnałów. Jeden wzorzec sygnału, którym programowane są obecnie komputery zastąpiony zostanie umiejętnością znacznie lepszego rozpoznawania odpowiednich sygnałów radiowych.

Niektóre nowatorskie rozwiązania stosowane w radioastronomii zostają nagradzane, jak w przypadku syntezy apertury (Nobel), techniki, która dała możliwość określania położenie i uzyskiwania obrazów radioźródeł z dużą kątową rozdzielczością podczas obserwacji z użyciem radioteleskopów o małej średnicy, pozwalając w ten sposób na zbiorcze działanie wielu anten w charakterze jednego, wielkiego radioteleskopu (np. SKA).

Rozwój technologii nie jest jedynym warunkiem przyspieszenia poszukiwań. Pomocne może być także zastosowanie odpowiednich modeli statystycznych, jak w przypadku modelu Grimaldiego, wykorzystującego twierdzenie Bayesa do obliczenia prawdopodobieństwa warunkowego wykrycia sygnału w zadanym wokół naszej planety promieniu.

I tak, jeśli sygnał nie zostałby wykryty w promieniu 1000 lat świetlnych, to i tak istnieje ponad 10% prawdopodobieństwo, że Ziemia znajduje się w zasięgu wielu sygnałów, tylko nie ma możliwości ich odbioru. Jeśli zaś wykryty zostałby choćby jeden sygnał, prawdopodobieństwo istnienia innej cywilizacji wzrasta prawie do 100% - w tym przypadku istnieje niemal pewność, że Galaktyka pełna jest innych form życia.

Claudio Grimaldi szacuje, że po uwzględnieniu różnych parametrów, jak rozmiar galaktyki oraz gęstość rozmieszczenia gwiazd, prawdopodobieństwo wykrycia sygnału staje się znikome w promieniu 40 000 lat świetlnych od Ziemi. Jeżeli zatem nie wykryje się żadnych sygnałów na obszarze o takim promieniu, model Grimaldiego pozwala stwierdzić, iż żadna cywilizacja na podobnym poziomie rozwoju technologicznego, co nasza, nie jest wykrywalna w całej Galaktyce.

Sygnał Wow

02

Jak już wspomniano, żaden z projektów nie zakończył się powodzeniem. Choć kilkakrotnie odebrano sygnały, których weryfikacja przebiegała w gorącej atmosferze.

W roku 1977 przez moment wydawało się, że wysiłki zostały nagrodzone. Zarejestrowany został sygnał trwający 72 sekundy, który nie powtórzył się, a jego charakterystyka pasowała do typu sztucznie wytworzonego sygnału. Czas odbioru sygnału związany był z konstrukcją radioteleskopu, który penetrował kolejne obszary przestrzeni wraz z obracającą się Ziemią. Każdy fragment nieba mógł obserwować przez 72 sekundy. Nazwa „Wow” wzięła się od ręcznej notatki sporządzonej na wydruku sygnału, będącej reakcją na analizę otrzymanych wyników.

W 1987 i 1989 podjęto próby ponownej rejestracji sygnału za pomocą radioteleskopów META, w 1995 i 1996 za pomocą o wiele silniejszych Very Large Array, a w 1999 roku wykorzystując radioteleskop Uniwersytetu Tasmańskiego. Żadna z prób nie zakończyła się powodzeniem.

Nie udało się także ustalić wiarygodnego wyjaśnienia emisji tego sygnału. Sygnał został odebrany na częstotliwości bliskiej linii wodoru (21 cm), dlatego w 2016 roku prof. Antonio Paris oraz dr Evan Davies z uczeni z St. Petersburg College podali do wiadomości, iż sygnał mógł pochodzić z chmur wodoru otaczających komety 266P/Christensen lub P/2008 Y2 (Gibbs 8), które nie były znane w 1977 roku, a w tamtym czasie znajdowały się w rejonie skąd docierał sygnał. Jednak rok później Jerry R. Ehman oraz naukowcy z Ohio State University Radio Observatory stwierdzili, iż jest jednak wysoce nieprawdopodobne, aby komety mogły być źródłem sygnału.

Mimo niepowodzeń radioteleskopy ciągle zwrócone są w Kosmos. Nasłuch Nieba trwa.

Napisz komentarz (bez rejestracji)

sklep

Najnowsze wpisy

kontakt