Return to main page

 

Łódź, marzec 2011

Po skopiowaniu tej strony będziesz mógł łatwo sprawdzać, czy moje przewidywania stają się prawdziwe.

Z. A. Nowacki

 Fizyka ponadświetlna 

 Zbigniew Andrzej Nowacki

Do trzech razy sztuka

Moje foto

 

Rozważmy konsekwencje implikowane przez istnienie ponadświetlnych (tj. przesyłanych z prędkością większą niż c, prędkość światła w próżni) sygnałów w fizyce. Na pierwszy rzut oka może się wydawać, że Einsteina szczególna teoria względności jest w stanie to przetrwać, skoro zasada enkapsulacji (hermetyzacji) sygnałów pozwala przekształceniom Lorentza normalnie działać. W rzeczywistości sprawa nie jest tak prosta. Jeśli mamy dwie teorie takie, że pewne zjawisko fizyczne prowadzi do sprzeczności w dokładnie jednej z nich, to wiemy na pewno, że:

(a) Te teorie są różne.

(b) Teoria ze sprzecznościami jest błędna.

Zauważmy, że obecnie istnieją nawet trzy teorie oparte na przekształceniach Lorentza. Pierwsza z nich była opracowana przez samego Lorentza, który aż do swojej śmierci w 1928 r. nie zaakceptował szczególnej względności. W jego teorii przekształcenia te były traktowane wyłącznie jako narzędzie matematyczne. Z tego powodu Lorentz mógł wyjaśnić zaledwie jeden efekt relatywistyczny: skrócenie długości, podczas gdy teoria Einsteina przewidziała również dylatację czasu. Zaś teoria naszkicowana w Quantum Nonlocality... (a po polsku w O możliwości transmisji... oraz  Ponadświetlna transmisja...) jest najbardziej kompletna, gdyż zostały w niej uwzględnione trzy główne efekty relatywistyczne: skrócenie Lorentza-Fitzgeralda, dylatacja czasu i enkapsulacja sygnałów . Wszystkie trzy teorie spełniają zasadę względności sformułowaną wiele lat temu przez Poincare'a: We dowolnych układach odniesienia prawa fizyki mają tę samą postać. 

Można powiedzieć, że szczególna teoria względności zbudowana jest z dwóch części: przekształceń Lorentza i czasoprzestrzeni Minkowskiego. Ta pierwsza została bardzo dobrze potwierdzona eksperymentalnie, podczas gdy druga odzwierciedla arbitralne założenie, że nic nie może poruszać się szybciej niż światło. Ponadto istnienie sygnałów  ponadświetlnych prowadzi do sprzeczności. Natomiast teoria zarysowana w Quantum Nonlocality...  zachowuje przekształcenia Lorentza, odrzuca fizyczne istnienie czasoprzestrzeni Minkowskiego i rozpoznaje enkapsulację sygnałów chroniącą nas przed anomaliami implikowanymi przez ponadświetlny transfer informacji.

Uwolnienie informacji

To by było na tyle, jeśli chodzi o teoretyczne i praktyczne różnice między teoriami opartymi na przekształceniach Lorentza. Zajmijmy się teraz drugą teorią Einsteina, tj. względnością ogólną. Jej istota może być zwięźle opisana w następujący sposób: 

(1) Nic nie może poruszać się szybciej niż światło w próżni, również w obecności pola grawitacyjnego.

(2) Stąd ruch światła wyznacza geometrię czasoprzestrzeni z grawitacją.

(3) Ale ruch światła zależy od grawitacji. 

(4) Stąd grawitacja wyznacza geometrię czasoprzestrzeni.

(5) Ale grawitacja zależy od  rozkładu materii i promieniowania. 

(6) Stąd rozkład materii i promieniowania wyznacza geometrię (zakrzywienie) czasoprzestrzeni.

Zauważmy, że (1) może być porównane z faktem, że górski strumień płynie najkrótszą drogą, co jest ściśle związane z geometrią terenu (w czasoprzestrzeni rolę wody gra światło, podczas gdy najkrótszą ścieżkę zastępuje największa prędkość i w ten sposób otrzymujemy (2)). A jeśli (1) jest fałszywe, całe powyższe rozumowanie zawodzi.

Możemy omówić to bardziej dokładnie. W podręcznikach ogólnej teorii względności znajduje się dowód twierdzenia, że nie istnieje metoda synchronizacji zegarów w obecności niejednorodnego pola grawitacyjnego. Jednak ten dowód jest fałszywy, bowiem Einstein i inni zakładali, że synchronizacja wymaga przesyłania energii, co w rzeczywistości jest niepotrzebne. W rzeczy samej, ta czynność może być przeprowadzona (por. Quantum Nonlocality..., Section 10. ) z wykorzystaniem sygnałów przenoszących jedynie informację, która została, po raz pierwszy w historii ludzkości, uwolniona od połączenia z energią. I właśnie ta oswobodzona informacja niszczy ogólną względność.

Przypomnijmy, że Einstein otrzymał (3) przewidując odchylenie promieni świetlnych emitowanych w polu grawitacyjnym. Stąd wyprowadził poprawny wniosek, że jego szczególna teoria względności może być prawdziwa tylko pod nieobecność grawitacji. Fizyka Einsteina musi składać się  z dwóch teorii, z grawitacją oraz bez, i właśnie to jest niedobre. (3) przestaje być natomiast prawdziwe jeśli światło zastąpimy przez informację. Widać stąd, że fizyka ponadświetlna jest w stanie, właśnie dzięki ponadświetlnym sygnałom i zasadzie enkapsulacji , wchłonąć grawitację. Tym sposobem pole grawitacyjne staje się normalnym polem podobnym np. do pola elektromagnetycznego.

Na miejscu jest tutaj ważna uwaga przeznaczona nie tylko dla ekspertów. Wiadomo, że liczne wysiłki zmierzające do sformułowania teorii kwantowej grawitacji łączącej fizykę kwantową z ogólną teorią względności natrafiły na zasadniczą przeszkodę: teoria Einsteina jest, dzięki (6), niezależna od tła (tzn. struktura geometryczna czasoprzestrzeni nie jest określona z góry),  podczas gdy kwantowa teoria pola opisuje dynamikę cząstek w płaskiej czasoprzestrzeni Minkowskiego, przez co automatycznie zależy od tła. W fizyce ponadświetlnej ten problem znika całkowicie; grawitacja i znane do tej pory zjawiska kwantowe mogą być rozważane na tym samym poziomie.

Geometria czasoprzestrzeni

Internauta czytający ten tekst mógłby powiedzieć: Zgadzam się, że sygnały ponadświetlne dają więcej możliwości, ale zastanawiam się, czy wszystkie one są wykorzystywane przez naturę. Czy moglibyśmy przesyłać informację z prędkością większą niż c, a jednocześnie rozwijać ogólną teorię względności? 

Przykro mi, ale to jest niemożliwe. Istnieje wiele przyczyn takiego stanu rzeczy; tutaj omówimy tylko jedną: teoria Einsteina prowadzi do niewłaściwej geometrii czasoprzestrzeni. Chociaż na podstawie (6) jest ona określona a posteriori, istnieje własność, która jest zakładana a priori. Mianowicie, musi być ona nieeuklidesowa, ponieważ lokalnie ma być zgodna z geometrią czasoprzestrzeni Minkowskiego. Ta ostatnia nie może jednak istnieć fizycznie, nawet gdybyśmy ograniczyli się do niewielkiego otoczenia pewnego zdarzenia. Istotnie, eksperymenty z Quantum Nonlocality... mogą być wykonane również w małym laboratorium z prawie jednorodnym polem grawitacyjnym.

Można jeszcze rozważać, czy ogólna teoria względności mogłaby być uratowana dzięki temu, że nasze sygnały ponadświetlne nie przenoszą energii, a równania Einsteina nie zawierają żadnego 'tensora informacji'. To jednak nic nie zmienia, ponieważ najbardziej charakterystyczną cechą czasoprzestrzeni Minkowskiego jest własność każdego  zdarzenia punktowego polegająca na  posiadaniu świetlnego stożka przyszłości i przeszłości. Obecnie przestają one istnieć, gdyż wykorzystując urządzenia z Quantum Nonlocality... człowiek lub komputer jest w stanie podjąć pewne działanie po otrzymaniu komunikatu przesyłanego z prędkością większą niż c. Tym samym związek przyczynowy między dowolnymi dwoma zdarzeniami jest fizycznie możliwy, co w efekcie daje czasoprzestrzeń euklidesową. 

W końcu ktoś mógłby zapytać: A co z wieloma sukcesami ogólnej teorii względności? Otóż prawa Newtona miały na pewno niemniejszą liczbę sukcesów, ale obecnie nikt nie twierdzi, że są one całkowicie prawdziwe. Rzecz w tym, że nawet jeden kontrprzykład jest w stanie obalić każdą teorię. Z drugiej strony nigdy nie możemy jej ostatecznie potwierdzić, bowiem zawsze istnieje nieskończenie wiele teorii, które wyjaśniają dane otrzymane w skończonej liczbie eksperymentów.

Ogólna teoria względności może być (podobnie jak prawa Newtona) nadal stosowana w pewnych obszarach. Jednakże powinniśmy zacząć sobie zdawać sprawę z faktu, że to nie jest prawdziwa teoria przyrody. To wiemy teraz na pewno.

Ponad 300 lat temu Newton przyjął, że sygnał może być zawsze przesłany ze zdarzenia wcześniejszego do późniejszego. Ponad 200 lat później Einstein postulował, że istnieje maksymalna skończona prędkość sygnałów. Musieliśmy czekać następne 100 lat, aby sformułować zasadę enkapsulacji sygnałów . Każde z tych trzech podejść dostarcza inną geometrię czasoprzestrzeni. 

Zauważmy, że czasoprzestrzeń newtonowska różni się od euklidesowej, aczkolwiek są one bardzo podobne.  W tej pierwszej dwa jednoczesne zdarzenia nie mogą być połączone przyczynowo, ponieważ w przeciwnym przypadku otrzymalibyśmy sprzeczność. (Rolę 'metryki' w czasoprzestrzeni newtonowskiej może grać prędkość sygnału między zdarzeniami; związek przyczynowy wymaga skończonej wartości.) Dopiero fizyka ponadświetlna implementuje dokładnie czasoprzestrzeń euklidesową (symetryczna metryka może być zwykłą odległością), ponieważ absolutna jednoczesność, dzięki przekształceniom Lorentza, nie istnieje. A zasada hermetyzacji sygnałów zapewnia niesprzeczność.

Ktoś mógłby być zaskoczony, że przekształcenia Lorentza grają główną rolę w budowie czasoprzestrzeni euklidesowej.  Niemniej jednak to jest fakt. Oznacza on, że w pewnym sensie czas staje się równoważny z wymiarami przestrzennymi.

Mały Wybuch

W połowie dziewiętnastego wieku matematycy znali tylko kilka geometrii nieeuklidesowych i byli naprawdę zafascynowani tymi nowymi obiektami. Fascynacja skończyła się na przełomie dziewiętnastego i dwudziestego wieku, kiedy to powstawał nowy dział matematyki nazwany topologią. Matematycy zdali sobie sprawę, że istnieje nieskończenie wiele przestrzeni topologicznych, które mogą być tworzone praktycznie na żądanie. (Jednym z ojców topologii był matematyk i fizyk Poincare, co może wyjaśnić, dlaczego był on tak sceptyczny wobec teorii Einsteina.) Przestrzenie euklidesowe przestały być jedyne, ale zyskały następną bardzo ważną własność: uniwersalność. To znaczy, że inne przestrzenie mogą być zazwyczaj zanurzone w euklidesowych. W fizyce odpowiada to faktowi, że istnieje nieskończenie wiele wszechświatów, które są zanurzone w czasoprzestrzeni euklidesowej całej natury. 

Każdy wszechświat jest zapoczątkowany przez zdarzenie pokrewne do eksplozji. Jest ono nazywane 'Wielkim Wybuchem' przez ludzi żyjących w tym wszechświecie (zwłaszcza zanim jeden z nich odkryje sygnały ponadświetlne). Jednakże, kiedy wiedzą już oni o innych wszechświatach, nazwa 'Mały (lub Niewielki) Wybuch' staje się bardziej stosowna. Zaiste, w skali całej przyrody to było bardzo błahe wydarzenie.

Mówiąc dokładnie, teorie Wielkiego i Małego Wybuchu różnią się tylko jednym parametrem: stopniem izolacji. W tej pierwszej musi on być stale równy 1 (co oznacza izolację doskonałą), podczas gdy w drugiej jest zdolny do ewoluowania w czasie: rośnie startując od zera, ale zawsze pozostaje mniejszy od jedności. To jest spowodowane faktem, że żaden fizyczny system nie jest w stanie być całkowicie odizolowany od reszty świata (i to może być najważniejsze prawo fizyki).

Pojęcie Wybuchu jest niezależne od ogólnej teorii względności; Einstein nie przewidział żadnego Wybuchu. Jednakże jest to fakt doświadczalny, i gdyby ogólna względność była prawdziwa, bylibyśmy skazani na  teorię Wielkiego Wybuchu. (To wynika z występowania tensora energii-pędu w równaniach Einsteina.) Zatem dopiero obecnie możemy zacząć rozwijać teorię Małego Wybuchu. 

Problemy stworzenia

Zgodnie z kosmologią Wielkiego Wybuchu, cała materia wszechświata została stworzona dokładnie w jednym momencie. Należy wyraźnie podkreślić, że to mogło się zdarzyć. Nie możemy nawet mówić o pogwałceniu prawa zachowania energii, ponieważ przed kreacją nie było żadnych wszechświatów, obserwatorów, ani też praw fizyki. Wszystko pojawiło się nagle w chwili t = 0. Jest też możliwe - jak to się robi w ogólnej teorii względności - usunięcie tego czasu początkowego ze zbioru dobrze określonych chwil fizycznych.

O wiele bardziej interesujący jest opis, jak wszechświat wyglądał natychmiast po stworzeniu. Jedna rzecz jest pewna: Po t = 0 również nie mogło być żadnego naruszenia prawa zachowania energii. To implikuje, że energia Ziemi, Słońca i miliardów galaktyk była kiedyś skoncentrowana w bardzo małej objętości. Nikt nie wie jak to mogłoby wyglądać. Nikt nie udowodnił, że to jest w ogóle możliwe.

Zauważmy również, że dokładny odpowiednik Wielkiego Wybuchu nie może być tworzony ani badany wewnątrz jakiegokolwiek akceleratora. Istotnie, w przeciwnym przypadku następująca nierówność

energia_akceleratora  +  energia_Słońca  <  energia_akceleratora

powinna być spełniona (bo akcelerator także należy do wszechświata), a to jest oczywiście niemożliwe.

W teorii Małego Wybuchu rozwiązanie tych problemów jest proste. Ponieważ nasz wszechświat nie jest układem izolowanym, prawo zachowania energii musi być stosowane ostrożnie. W rzeczywistości nasz wszechświat mógł przechwycić mnóstwo materii, z całymi galaktykami włącznie, z innych wszechświatów. (Nie możemy omawiać tutaj szczegółowego mechanizmu tego procesu.) Sam Mały Wybuch miał stosunkowo niedużą energię, która będzie mogła być dokładnie zmierzona. Bardzo podobne zdarzenia będą mogły być syntetyzowane w naszych akceleratorach. Co więcej, skoro w fizyce ponadświetlnej wszystkie ujemne chwile czasu są dobrze określone, będziemy w stanie wyśledzić jaka była przyczyna stworzenia naszego wszechświata.

Porady dla graczy

Ostatnio stało się popularne zawieranie zakładów dot. kwestii naukowych. Fizycy postawili już niezłe pieniądze na pozytywne wyniki doświadczeń, zwłaszcza wykonywanych przez nich lub mających potwierdzić ich teorie. Niestety, jak dotąd żaden z nich nic nie wygrał, podczas gdy bukmacherzy zbili majątek. 

Można zapytać jak to jest, że bukmacherzy mają intuicję naukową lepszą niż fizycy. Rzecz jasna, tak musi być, ponieważ właśnie w ten sposób te firmy są w stanie utrzymać się w biznesie. Rekrutują one  ekspertów w danej dziedzinie w celu wygenerowania początkowych szans, ale przede wszystkim obserwują życie uważnie i wyciągają wnioski. 

Rozważmy np. przypadek fal grawitacyjnych. W latach sześćdziesiątych  próby odkrycia ich były zainicjowane przez pewnego człowieka, który utrzymywał nawet, że udało mu się to zrobić. Jednakże takie same doświadczenia powtórzone przez kilka niezależnych zespołów badawczych nie potwierdziły jego  dokonań. Wtedy fizycy oświadczyli, że czułość ich detektorów jest zbyt niska, ale w następnej dekadzie na pewno odkryją fale grawitacyjne. Od tego czasu piszą to samo w każdej dekadzie. Niektórzy naukowcy poświęcili całe swoje życie na bezowocne poszukiwanie tych fal. I cały czas zdarzają się triumfalne doniesienia odwoływane po pewnym czasie z powodu braku potwierdzenia przez inne niezależne ośrodki.

Obecnie na Ziemi pracuje kilka dużych i drogich detektorów kosmicznego promieniowania grawitacyjnego. Szkoda mi młodych ludzi tam zatrudnionych. Moja rada dla nich jest następująca: Zwolnijcie się i uciekajcie stamtąd.  Przykro mi, ale wasze wysiłki nie mogą skończyć się powodzeniem (jeśli tylko kierownicy waszych projektów są uczciwymi naukowcami i nikt nie zrobi im kawału, bowiem fale grawitacyjne Einsteina można bardzo łatwo symulować przy pomocy odpowiednich źródeł fal dźwiękowych ustawionych dostatecznie blisko detektorów). To jest proste: sygnały ponadświetlne implikują, że zakrzywiona czasoprzestrzeń nie istnieje, a tym bardziej nie może ona falować. Może to ewentualnie robić jakiś grawitacyjny eter (mający nieskończone naprężenia pewnego rodzaju), ale nie czasoprzestrzeń.

To nie znaczy, że w przyrodzie nie ma fal grawitacyjnych. W rzeczywistości miliardy grawitonów (kwantowych składników promieniowania grawitacyjnego) docierają do Ziemi w każdej milisekundzie. Jednakże ich własności są całkowicie różne od przewidywanych przez (należącą do fizyki klasycznej) teorię Einsteina. Pierwszy detektor rejestrujący grawitony nie będzie bardzo czuły, ale będzie zbudowany inaczej niż GEO 600, LIGO, LISA, VIRGO, TAMA 300, itd.

Pod koniec 2009 r. fizyków ogarnął entuzjazm, ponieważ LHC (potężny akcelerator zainstalowany w CERN, europejskim ośrodku fizyki cząstek pod Genewą) został ponownie uruchomiony po długotrwałej przerwie spowodowanej awarią magnesów. Paddy Power (bukmacher osiadły w Dublinie) skwapliwie przyjmował zakłady na to, co LHC odkryje w 2010 r. Firma miała zakłady na ciemną materię, ciemną energię, miniaturowe czarne dziury oraz jeszcze jedną rzecz. Faworytem była ciemna materia z wypłatami w stosunku 11/10, co pokazuje, że eksperci i obstawiający byli prawie pewni jej odkrycia. Niestety, rok 2010 minął i LHC nic nie wykrył, więc Paddy Power nie wypłacił ani centa.

Kosmiczna ciemność 

Historia poszukiwań ciemnej materii jest nawet dłuższa niż dotycząca fal grawitacyjnych. Nie możemy tej materii zobaczyć, ale stosując metody pośrednie jesteśmy w stanie wykryć jej obecność. Nasza aktualna teoria grawitacji tj. ogólna teoria względności (w tym przypadku równoważna z prawami Newtona) umożliwia wyznaczenie masy obiektu na podstawie ruchu jego satelitów. W ten sposób już w latach trzydziestych obliczono, że masa Drogi Mlecznej jest o wiele większa niż połączona masa wchodzących w jej skład gwiazd oraz gazu międzygwiezdnego. Później analogiczne wyniki otrzymano dla innych galaktyk. W końcu astronomowie przekonali się, że masa każdej gromady galaktyk jest o wiele większa niż masa jej widzialnych składników. I cała ta brakująca masa została ostatnio nazwana ciemną materią.

Jeśli ona rzeczywiście istnieje, musimy zastanowić się jaka jest jej postać. Dobrymi kandydatami wydają się być nowe cząstki elementarne, i właśnie ich wykrycie jest jednym z głównych celów LHC. Jednakże tak się składa, że wiem dokładnie, czym jest ciemna materia. I mogę powiedzieć, że z pewnego powodu LHC nie będzie nigdy zdolny do jej odkrycia.

Inne eksperymenty zmierzające do zarejestrowania cząstek ciemnej materii są umiejscowione w głębokich kopalniach. To ma pewien sens, ponieważ Ziemia jest nieustannie bombardowana przez cząstki należące do promieniowania kosmicznego. Stąd na powierzchni nie bylibyśmy w stanie odróżnić tworzonych przez nie zdarzeń od tych, które są powodowane przez ciemną materię. W tym obszarze mogą zdarzyć się sporadyczne pozytywne doniesienia. Niemniej jednak ich autorzy nie będą nawet w stanie rozpoznać własności rejestrowanych cząstek. Mogę potwierdzić, że to nie jest przypadkowe, ale nie ma nic wspólnego z brakującą masą. Po prostu przyroda bawi się z fizykami w kotka i myszkę. Będą oni siedzieć w tych kopalniach tak długo, dopóki nie powiem im, czym jest ciemna materia.

Obserwacja, że ekspansja naszego wszechświata przyśpiesza zamiast zwalniać z powodu wzajemnego grawitacyjnego przyciągania materii wskazuje, iż wszechświat jest wypełniony przez coś, co antygrawituje. Ten nieznany czynnik został ochrzczony ciemną energią (skąd przez analogię ukuty został termin 'ciemna  materia').

Na gruncie ogólnej teorii względności najprostszą kandydatką na ciemną energię wydaje się być stała kosmologiczna. Einstein wprowadził ją do swoich równań metodą ad hoc, ponieważ myślał, że bez niej wszechświat nie może być statyczny i będzie ściśnięty przez grawitację. Po tym jak Hubble odkrył kosmiczną ekspansję, a Friedman znalazł swoje rozwiązanie tych równań, Einstein wyrzucił stałą kosmologiczną i później określał ją mianem największej gafy swego życia. 

Zdaniem autora, w nauce nie powinny być stosowane metody ad hoc. Stała Einsteina może być używana w kosmologii tylko wtedy, gdy zostanie wyprowadzona z innej bardziej podstawowej dziedziny. Próba zmierzająca w tym kierunku została podjęta w kwantowej teorii pola, gdzie kandydatką na tę stałą mogłaby być gęstość energii próżni. Jednakże otrzymana wartość jest 10120 razy większa niż wymagana obserwacyjnie. Ktoś powiedział nawet, że ta rozbieżność jest najgorszym teoretycznym przewidywaniem w historii fizyki. Uczciwie mówiąc, specjaliści od kwantowej teorii pola oświadczyli, że najbardziej prawdopodobną wartością gęstości energii próżni jest zero, ale jeśli kosmolodzy desperacko potrzebują czegoś nieznikającego, mogą wziąć tę olbrzymią liczbę. I nie ma żadnej możliwości, aby ją zmniejszyć.

Dokładne obserwacje pokazały, że jeszcze sześć miliardów lat temu wszechświat nie rozszerzał się z przyśpieszeniem, tj. domniemana stała kosmologiczna była równa zero. Wynika stąd, że prawa fizyczne pozwalające interpretować ją jako własność próżni musiały być wtedy inne niż obecnie. Nie wydaje się, aby to było możliwe.

W tej sytuacji, w celu uratowania Einsteina teorii grawitacji, przyczyna kosmicznego przyśpieszenia jest najczęściej przypisywana (zob. np. artykuł w "Nature" z kwietnia 2009) do płynów lub gazów o ujemnym ciśnieniu. Bowiem zgodnie z równaniami Einsteina ciśnienia wywierane przez cieplne ruchy molekularne są źródłem pola grawitacyjnego. Oddziaływanie grawitacyjne między normalną materią a płynem o dostatecznie niskim ujemnym ciśnieniu ma być odpychające. Jak dotąd nikt nie widział takiego płynu ani gazu, ale fizycy spekulują, że pewne nowe cząstki elementarne odkryte, być może, przez LHC mogłyby dostarczyć ujemne ciśnienie wymagane do przyśpieszenia kosmicznej ekspansji.

Przykro mi, ale nawet ten nieznany stan materii nie może ocalić ogólnej teorii względności. Bowiem jej kamieniem węgielnym jest Einsteina zasada równoważności stwierdzająca, że lokalnie efekty grawitacji są równoważne z efektami przyśpieszenia. A istnienie cząstek ciemnej energii generujących odpychanie grawitacyjne stoi w sprzeczności z tą zasadą. Poniższy dowód tego faktu jest przeznaczony głównie dla specjalistów w ogólnej teorii względności.

Załóżmy, że mamy dwa pojemniki odpowiednio z dodatnim i ujemnym ciśnieniem. Jeśli spadają one swobodnie w pobliżu powierzchni Ziemi, muszą mieć przeciwne przyśpieszenia (ponieważ ten pierwszy przyciąga Ziemię, a drugi odpycha). Stąd w układzie odniesienia jednego z nich przyśpieszenie drugiego nie znika. Zatem obserwator zamknięty w windzie lub rakiecie spadającej w polu grawitacyjnym Ziemi (lub innego gwiezdnego obiektu) jest w stanie zmierzyć, wykonując pomiar lokalny, przyśpieszenie kabiny. W szczególności pasażer w środku może odróżnić stan nieważkości daleko w przestrzeni kosmicznej od swobodnego spadku w polu grawitacyjnym. 

Widzimy, że odpychanie grawitacyjne jest zabójcze dla ogólnej teorii względności. To nie ma jednak większego znaczenia, ponieważ wiadomo już, że teoria Einsteina nie może być prawdziwa z powodu eksperymentów podanych w Quantum Nonlocality... Istnieje inne proste rozwiązanie problemu ciemnej energii, więc ujemne ciśnienie jest niepotrzebne. Zatem moim zdaniem LHC nie odkryje również cząstek ciemnej energii. 

Lek na czarne dziury

Zgodnie z ogólną teorii względności w kosmosie istnieją obiekty posiadające tak potężne pola grawitacyjne, że kiedy gwiazda, planeta, rakieta, czy nawet wiązka światła przekroczy ich powierzchnię (zwaną horyzontem zdarzeń), nie ma żadnego sposobu, aby mogła kiedykolwiek powrócić. Te obiekty zostały nazwane czarnymi dziurami. 

Załóżmy, że rakieta wysłana z Ziemi została wyposażona w pojemniki z ciemną energią. Początkowo ich obecność daje mały wkład do ciężaru, więc statek może przejść przez horyzont zdarzeń czarnej dziury. Po zwolnieniu balastu ciemna energia zaczyna dominować, i wtedy rakieta odpychana przez czarną dziurę jest w stanie wrócić na Ziemię. Ale to znaczy oczywiście, że nie ma żadnych horyzontów zdarzeń i  żadnych czarnych dziur.

Dodajmy, że obiekty traktowane przez astronomów jako czarne dziury mogą nieustannie emitować ciemną energię (przez co m.in. jej ilość we wszechświecie rośnie). Faktycznie, skoro to jest ciemne, oni nie mogą tego obserwować. Widzimy, że ciemna energia (nawet w - tak oczekiwanej przez wielu fizyków - postaci ujemnego ciśnienia) niszczy czarne dziury. Zatem przykro mi, ale LHC tym bardziej nie odkryje miniaturowych czarnych dziur.

Anioły nad miastem

Pojemniki z ciemną energią będą kiedyś naprawdę produkowane. Znajdą zastosowanie m.in. w lotach osobistych (skrzydła podobne do anielskich będą używane zamiast rowerów) i umożliwią samolotom łatwe wykonywanie pionowego startu i lądowania. To radykalnie zmniejszy liczbę katastrof w pasażerskim ruchu lotniczym (np. żadna mgła nie będzie przeszkadzać, a co najwyżej prędkość zniżania zostanie zmniejszona). Ponadto, niewielkie ilości konwencjonalnego paliwa (lub baterie słoneczne) będą potrzebne tylko do ruchu poziomego. Dodajmy, że ciemna energia wymaga mało miejsca i jest bardzo bezpieczna, ponieważ nie może wybuchać, anihilować, promieniować, zanieczyszczać, itd. 

Boskie cząstki

Bukmacherzy przyjmowali zakłady na jeszcze jedną rzecz związaną z nieznanymi cząstkami elementarnymi. To nie było bardzo zaawansowane; rzecznik firmy Paddy Power zachęcał do obstawiania, tak na wszelki wypadek, każdego niebędącego jeszcze tego pewnym.  Ale powróćmy do nauki. 

Na podstawie teorii Wielkiego Wybuchu, wszechświat był stworzony z niczego. Niemniej jednak trudno byłoby zakładać, że natychmiast po chwili 0 własności cząstek były takie same jak obecnie. W szczególności fizycy wierzą, że w tamtych warunkach cząstki takie jak te które tworzą nasze ciała były bezmasowe. Aby wyjaśnić, w jaki sposób otrzymały one masę, powstała teoria tzw. cząstek Higgsa czyli inaczej higgsonów. Zgodnie z nią cząstka bezmasowa absorbuje ('zjada') higgsona i zyskuje masę, a ten drugi staje się 'duchem'. 

Po raz pierwszy cząstka Higgsa była wyobrażona w roku 1962. Od tego czasu fizycy, podobnie jak w przypadku fal grawitacyjnych, zawsze twierdzili, że ona jest na skraju wykrywalności i będzie znaleziona w ciągu najbliższych kilku lat. Nie obyło się oczywiście bez fałszywych pozytywnych doniesień, a niepowodzenie w odkryciu jakiejkolwiek cząstki podobnej do higgsona było tak frustrujące, że pewien badacz napisał o tym książkę. Zamierzał nazwać ją "Cząstka przeklęta przez Boga", ale jego wydawca skrócił tytuł. Tym sposobem higgsony zostały ochrzczone boskimi cząstkami. Bukmacherzy potraktowali tę nazwę dosłownie i dlatego są w stanie przyjmować zakłady na istnienie Boga.

Zbadajmy teraz, jak sytuacja przedstawia się w świetle teorii Małego Wybuchu. Skoro nasz wszechświat nie jest układem izolowanym, nawet tuż po czasie 0 mogły przedostawać się do niego elektrony z innych starszych wszechświatów. Cząstki te miały, rzecz jasna, masę i byłoby bardzo dziwne, gdyby mogły one współistnieć z naszymi bezmasowymi elektronami. Stąd musimy przyjąć, że nasze elektrony (protony, bozony W i Z, itp.) również zawsze posiadały masę. Właśnie dlatego w fizyce ponadświetlnej higgsony nie są do niczego potrzebne. I znów jest mi bardzo przykro, ale odkrycie przez LHC jakiejkolwiek cząstki Boga jest niemożliwe.

Powstaje pytanie, czy LHC będzie w stanie w ogóle wykryć cokolwiek. Odpowiedź jest ciągle pozytywna. Ja również, na przykład, chciałem coś obstawić, ale okazało się, że zakłady na moją cząstkę nie są przyjmowane. To może być poniekąd zrozumiałe, ponieważ jej odkrycie rozwali Model Standardowy (aktualną teorię cząstek elementarnych). Dodajmy, że w grę wchodzi nawet cała rodzina nowych cząstek i niektórzy jej członkowie mogą być mylnie brani za higgsony. Te fałszywe pozytywne doniesienia o ich odkryciu powstają właśnie dlatego, że niektóre moje cząstki rozpadają się identycznie jak cząstki Boga. (Uwaga dla ekspertów: Nie każdy elektrycznie obojętny i posiadający masę bozon o zerowym spinie i liczbie barionowej równej zero jest higgsonem. Aby się o tym przekonać, wystarczy znaleźć analogiczną cząstkę o spinie 1.) 

Jednak należy podkreślić, że istnieją pewne reguły konstrukcji olbrzymich akceleratorów. Jest bardzo wątpliwe, czy inżynierowie LHC mogą je znać. (Z tym samym prawdopodobieństwem małpa wie, jak działa zegarek.) Jedyna nadzieja w tym, że te reguły stosują się dopiero do akceleratorów znacznie bardziej potężnych niż LHC.

 

Testament Maxa Plancka

Ten tekst nie powinien być zaskoczeniem dla nikogo, kto zna historię fizyki. W tej dziedzinie zawsze zdarzały się radykalne przełomy. A korzyści uzyskane w nowych obszarach były o wiele większe niż straty spowodowane przez nieudane eksperymenty.

Od czasów Newtona fizyka była skoncentrowana wokół pojęcia energii. Tutaj proponuję oparcie jej na pojęciu informacji. Starsi badacze mogą obawiać się tej zmiany, ale młodsi nie powinni mieć z tym żadnego problemu. W konsekwencji fizycy przyszłości będą doskonale znać fizykę, informatykę oraz - co niemniej ważne - logikę. To jest chyba korzystne, ponieważ w naszym społeczeństwie informacyjnym będą oni wysoko cenionymi profesjonalistami. 

Oparcie fizyki na pojęciu informacji nie oznacza zaniedbania spraw związanych z energią. Tak naprawdę efekty powinny być dokładnie odwrotne. Przykładowo za 75 lat na każdym kontynencie będzie tylko jedna lub dwie duże elektrownie pracujące  na podstawie pewnego fizycznego zjawiska zwanego AGA (ten skrót nie może być tutaj rozszyfrowany). AGA była do tej pory nieznana, chociaż pewne jej symptomy (np. burze z piorunami, huragany,  okresowe globalne ocieplenia i ochłodzenia, powstanie życia na Ziemi) są odczuwane przez wszystkich lub (nadmiar antyelektronów w przestrzeni kosmicznej) przez fizyków w najnowszych eksperymentach. AGA jest niezmiernie silna, a jednocześnie łagodna (dla ludzi którzy ją znają). AGA nie będzie mogła być użyta do produkcji nowych bomb, ale może rozwiązać wszystkie nasze problemy związane z brakiem energii, zanieczyszczeniem środowiska, itp. A w przypadku awarii nie będzie żadnego promieniowania. 

Internauta może się zastanawiać, jak ja obliczyłem liczbę 75. Otóż gdybym pisał ten tekst pięć lat temu (tj. w marcu 2006), oceniałbym ten czas na 50 lat. A każdy rok stracony teraz przekłada się na pięć lat opóźnienia w przyszłości.

Chciałbym nadmienić, że to opóźnienie nie zostało spowodowane przeze mnie, ale przez ludzi (mam nadzieję, że ich nazwiska będą kiedyś ujawnione),  którzy zdecydowali o niepublikowaniu moich prac. Artykuły te uwzględniają wszystkie standardy wymagane od prac naukowych, podczas gdy recenzje roiły się od błędów. Przyjrzyjmy się najważniejszemu z nich.

W roku 1980 trzech włoskich teoretyków, zazwyczaj oznaczanych skrótem GRW, dało 'ogólny' dowód niemożności przeprowadzenia ponadświetlnej transmisji sygnałów przy zastosowaniu pomiaru kwantowego. Od tego czasu wynik ten był często cytowany, właśnie w powyższej lub równoważnej postaci. Ponieważ praca GRW jest dostępna w Internecie, przeanalizowałem ją i znalazłem, że w istocie udowodnili oni następującą tezę:

Żaden sygnał nie może być przesłany z jakąkolwiek prędkością przy użyciu dwóch detektorów kwantowych.

Ale to stwierdzenie jest w zasadzie banalne, ponieważ w celu nadawania i odbierania sygnałów odbiornik musi różnić się jakoś od nadajnika. Tak jest w przypadku ucha i krtani, oka i latarki, radioodbiornika i radionadajnika, itd. Dlatego Natura chciała od nas, abyśmy zamiast dowodzenia oczywistych twierdzeń znaleźli sposób na zróżnicowanie roli Alice i Boba (te imiona są często używane w literaturze dot. twierdzenia Bella i pokrewnych zagadnień) podczas transmisji kwantowej. Właśnie to zostało zrobione w Quantum Nonlocality... i innych moich pracach.

Podczas testowania nierówności Bella sytuacja Alice i Boba jest symetryczna. Każde z nich ma detektor kwantowy i wykonuje pomiary.  Oba te podsystemy zależą jeden od drugiego, ale korelacje między wynikami mogą być potwierdzone tylko statystycznie. To oznacza, że dane są zbierane od obu uczestników eksperymentu i przesyłane kablami do wspólnego komputera, który dopiero jest w stanie odkryć koincydencje. 

W naszym modelu sytuacja Alice i Boba jest całkiem odmienna. Ten drugi ma ciągle detektor kwantowy który jest bardzo dobrze przystosowany do odbierania sygnałów, podczas gdy Alice ma migawkę (podobną do znajdujących się w aparacie fotograficznym) która jest przystosowana tylko do nadawania sygnałów. Zaiste, Bob może zrobić wszystko ze swoim detektorem, ale nie spowoduje to żadnych zmian stanu migawki będącej z tego powodu niezależnym podsystemem. Jednakże z najbardziej podstawowych praw fizyki kwantowej wynika, że stan migawki wpływa na wyniki otrzymywane przez Boba. Na tej podstawie może on wnioskować, czy migawka była zwolniona czy też nie. Stąd Alice jest w stanie wysłać ponadświetlny sygnał do Boba.

Z drugiej strony, w naszym ujęciu Alice i Bob nie mogą testować twierdzenia Bella, ponieważ jego liczne wersje zostały udowodnione przy odmiennych założeniach. Ograniczenia co do zakresu stosowalności występują we wszystkich znanych teoriach fizycznych, więc nie powinniśmy być zaskoczeni, że twierdzenia GRW i Bella zawodzą lub tracą sens w eksperymentach z jednym niezależnym podsystemem. Niestety, ta uwaga nie stosuje się do recenzenta, chociaż musiał on być międzynarodowym ekspertem mającym tytuł profesora fizyki.

Quantum Nonlocality... nie zawiera błędów logicznych, jest oparta na tylko jednym nowym założeniu, odwołuje się do prac innych autorów, i spełnia najważniejszy warunek wymagany od prac naukowych w fizyce: jest sprawdzalna doświadczalnie. Rezultaty byłyby wartościowe nawet gdyby były negatywne. Faktycznie, w tym przypadku otrzymalibyśmy nowe wspaniałe potwierdzenie teorii względności Einsteina. (Ale wtedy mechanika kwantowa musiałaby być diametralnie zmieniona.) Stąd  wyniki eksperymentów powinny być opublikowane jak najszybciej, co umożliwi ich weryfikację przez niezależne zespoły badawcze.

Można być oczywiście pewnym, że fizyka kwantowa wyjdzie nietknięta z tej konfrontacji, a nawet stanie się bardziej ważna dzięki nowym doniosłym zastosowaniom (Ponadświetlna transmisja...). Należy sądzić, że Max Planck byłby zadowolony z tego obrotu spraw. Wymienienie jego nazwiska jest tutaj na miejscu, ponieważ istnieje tajemnicze połączenie między autorem tego tekstu a twórcą teorii kwantów. To wygląda jak gdyby ktoś zrobił to celowo. Szczegóły podane są na innej stronie tej witryny.