Choose fontsize:
Witamy, Gość. Zaloguj się lub zarejestruj.
 
  Pokaż wiadomości
Strony: « 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 »
271  ŚWIĘTA GEOMETRIA / W TEORII / Fraktalna rzeczywistość : Kwiecień 20, 2010, 23:28:34
Fraktalna rzeczywistość

Poznanie geometryczne dotyczy tego, co wieczne - stwierdził Platon ponad dwa tysiące lat temu. Świadomość tego towarzyszyła człowiekowi od zarania dziejów. Najpierw przez wieki próbowano określić geometryczny kształt Ziemi, potem kształt orbit ciał niebieskich, by w czasach nowożytnych - dzięki geniuszowi Einsteina - opisać kształt czasoprzestrzeni.
Wszystkie te wielkie akty poznania mogły nastąpić w wyniku rozwoju geometrii, która wyznaczała drogi opisu świata rzeczywistego, złożonego z nieogarniętej liczby obiektów o przeróżnych kształtach i formach przestrzennych. Jednak ani klasyczna geometria Euklidesa, ani geometria eliptyczna i hiperboliczna nie wystarczały do opisu całej złożoności Natury. Przede wszystkim dlatego, iż geometrie te badały własności figur wyidealizowanych, doskonałych w swym kształcie okręgów, elips, trójkątów, kul itp., w kontekście odwzorowań izometrycznych. Dopiero nowa geometria rozwijająca się od końca ubiegłego stulecia - topologia - stworzyła podstawy do rozważań nad holistycznymi własnościami obiektów, nad homomorfizmami (tj. bijekcjami w obie strony ciągłymi). Przedmiotem jej badań jest między innymi kształt i położenie, rozpatrywane w sensie własności figur, które zachowują się nawet wówczas, gdy zdeformowane figury tracą wszelkie własności metryczne i rzutowe. Stąd topologia rozumiana jest również jako geometria jakościowa, z której wywodzi się wszelkie inne poznanie geometryczne.
W ostatnich latach zanotowano niezwykłe osiągnięcia w dziedzinie topologii związane z tzw. geometrią fraktalną. Fraktale - niedawno odkryte figury geometryczne - otwierają nowe, nieosiągalne dotąd możliwości w zakresie badania struktury świata rzeczywistego, a także jego dynamiki. W dziedzinie modelowania złożoności Natury pojawił się więc nowy język geometrii eksperymentalnej. To nowe podejście zostało zapoczątkowane pod koniec lat siedemdziesiątych pracami matematyka Benoit'a Mandelbrota, a następnie zostało podjęte przez wielu badaczy.
"Chmury nie są kulami, góry stożkami, linie brzegowe kołami, kora nie jest płaska, ani też błyskawica nie porusza się po linii prostej" - napisał w The Fractal Geometry of Nature Mandelbrot (1982: 1). Wnikając głębiej w ten problem, dla uchwycenia nieregularności obiektów spotykanych w rzeczywistości, Mandelbrot odkrył nowe formy geometryczne, które od łacińskiego słowa fractus ("złamany") nazwał fraktalami. Wstępnie można stwierdzić, iż fraktale są obiektami geometrycznymi o łamanym lub nieregularnym kształcie, które wykazują samopodobną strukturę podczas zmierzającego do nieskończoności procesu redukcji ich rozmiarów.
Fraktale cechują następujące własności geometryczne i algebraiczne:
(1) nie posiadają unikalnej, charakterystycznej dla nich skali długości, gdyż powiększone lub pomniejszone nie zmieniają swych kształtów,
(2) są samopodobne na każdym poziomie obserwacji (pomiaru) w tym sensie, że po wycięciu z nich dowolnej małej części i jej powiększeniu powstanie obiekt wiernie naśladujący całość,
(3) przedstawione w sposób analityczny, opisywane są zależnościami rekurencyjnymi, a nie wzorami matematycznymi.
Tradycyjne figury geometryczne takie jak koła, trójkąty czy kwadraty, nie spełniają tych własności. Wycięty fragment kwadratu nie przypomina całego kwadratu. Jednocześnie jednak niektóre z tych figur, np. koło, poddają się procedurze renormalizacji opartej na pojęciu samopodobieństwa, czyli tendencji do wielopoziomowego powtarzania identycznych struktur geometrycznych. W czystej matematyce takie obiekty zostały zdefiniowane znacznie wcześniej (oczywiście nie nazywano ich fraktalami), były one traktowane jako swego rodzaju przypadki szczególne, "monstra", które w pewnym sensie potwierdzały ograniczoną zdolność poznania klasycznej geometrii. W dzisiejszej terminologii nazywane są one fraktalami deterministycznymi. Natomiast fraktale spotykane w rzeczywistości (nie sztuczne) określa się
jako losowe.
Mandelbrot (1982) stwierdził, że własnościami analogicznymi do fraktali deterministycznych cechują się obiekty spotykane w rzeczywistości. Znanym przykładem potwierdzającym jego tezę jest tzw. eksperyment W.F. Richardsona (1881-1953), który analizował długość wybrzeży Wielkiej Brytanii, Portugalii, Niemiec oraz Południowej Afryki. Richardson zauważył, że wyniki pomiaru długości linii wybrzeża zależą w dużym stopniu od skali mapy oraz odcinka pomiarowego. Im jednostka miary krótsza, tym linia wybrzeża dłuższa.
Eksperyment Richardsona potwierdził rzecz mało oczekiwaną: długość linii wybrzeża, podobnie jak krzywa von Kocha, zmierza do nieskończoności, jeśli długość odcinka miary zmierza w kierunku wartości infinitezymalnych (tj. nieskończenie małych), a prawdziwą długością wybrzeża jest nieskończoność, niezależnie od rozmiarów samego wybrzeża.
Czy jednak linia wybrzeża ma strukturę samopodobną, tzn. czy powiększenie fragmentu linii wybrzeża daje podobne efekty, jak powiększenie fragmentu linii von Kocha? Okazuje się, że w przybliżeniu zarówno fraktal matematyczny jak i fraktal naturalny mają we wszystkich skalach3 taką samą strukturę.
Ponieważ fraktale obrazują złożoność tak struktur matematycznych jak i świata rzeczywistego, powstaje pytanie, jak mierzyć stopień skomplikowania ich kształtu? Wiadomo, że długość linii brzegowych fraktali dąży do nieskończoności, przeto długość linii brzegowych nie jest dobrą miarą złożoności kształtu tych obiektów. Lepszą miarę zaproponował Mandelbrot w postaci pojęcia "wymiaru fraktalnego", który określa stopień meandrowania krzywej i jest w pewnym sensie miarą wypełnienia przestrzeni, w której ta krzywa jest zanurzona. W matematyce o takiej krzywej mówi się, że "czuje" przestrzeń (por. Schroeder 1991: 10). Pojęcie wymiaru fraktalnego prowadzi do zaskakujących spostrzeżeń i narusza powszechnie utrwalone w świadomości ludzkiej wyobrażenia o wymiarowaniu obiektów liniowych, powierzchniowych i objętościowych.
Mimo iż wydaje się zupełnie oczywiste, że punkt ma wymiar 0, linia wymiar 1, płaszczyzna wymiar 2, a przestrzeń jest trójwymiarowa, to jednak pojęcie wymiaru w matematyce ma długą i niezupełnie jeszcze zakończoną historię.
Na potrzebę głębszej analizy i bardziej precyzyjnego definiowania pojęcia wymiaru pierwszy zwrócił uwagę Poincaré w 1912 r. Stwierdził, że "prosta jest jednowymiarowa, ponieważ można rozdzielić dowolne dwa punkty na niej przecinając ją w jednym punkcie (który ma wymiar 0), natomiast płaszczyzna jest dwuwymiarowa, ponieważ dla rozdzielenia dowolnych dwóch punktów na płaszczyźnie musimy wyciąć całą krzywą zamkniętą (mającą wymiar 1). Nasuwa to myśl indukcyjnej natury wymiarowości: dana przestrzeń jest n-wymiarowa, jeżeli można rozdzielić dwa dowolne jej punkty usuwając podzbiór (n-1)-wymiarowy, i jeżeli podzbiór mniejszego wymiaru nie zawsze do tego wystarcza" (Courant, Robbins 1961: 323).
Powyższe stwierdzenia wykazują, że towarzyszące człowiekowi odczucie natury wymiarowości nawiązuje właśnie do topologicznego wymiaru obiektów, tak matematycznych jak i naturalnych.
Niektórzy matematycy, a wśród nich F. Hausdorff (1886-1942), L.E.J. Brouwer (1882-1966), A.S. Besicovich (1891-1970) i A.N. Kołmogorow (1903-1987), definiowali wymiar w inny sposób. Przy czym ich definicje charakteryzują tylko własności geometryczne obiektów, a naturę wymiarowości niekoniecznie opisują liczbami całkowitymi. Wymiar wyrażony liczbą
niecałkowitą - wydaje się to niemożliwe, ale taka właśnie sytuacja zachodzi w przypadku obiektów fraktalnych.
Wreszcie znane są takie obiekty fraktalne, których wymiar nie został dotąd określony, jak np. niektóre zbiory G. Julii (1893-1978). Natomiast wymiar Hausdorffa brzegu najsłynniejszego fraktala - zbioru Mandelbrota, którego fantazyjne kształty uchodzą za jedne z najbardziej skomplikowanych jakie wymyślono w matematyce (por. Peitgen, Richter 1986) - został określony dopiero w 1991 r. przez Shishikurę (1991) i wynosi 2,0. Urzekające piękno długo ukrywało tajemnicę swego wymiaru.


<a href="http://www.youtube.com/v/zSvgIyecoHE&amp;hl=pl_PL&amp;fs=1&amp;&quot;&gt;&lt;/param&gt;&lt;param name=&quot;allowFullScreen&quot; value=&quot;true&quot;&gt;&lt;/param&gt;&lt;param name=&quot;allowscriptaccess&quot; value=&quot;always&quot;&gt;&lt;/param&gt;&lt;embed src=&quot;http://www.youtube.com/v/zSvgIyecoHE&amp;hl=pl_PL&amp;fs=1&amp;&quot; type=&quot;application/x-shockwave-flash&quot; allowscriptaccess=&quot;always&quot; allowfullscreen=&quot;true&quot; width=&quot;480&quot; height=&quot;385&quot;&gt;&lt;/embed&gt;&lt;/object&gt;" target="_blank">http://www.youtube.com/v/zSvgIyecoHE&amp;hl=pl_PL&amp;fs=1&amp;&quot;&gt;&lt;/param&gt;&lt;param name=&quot;allowFullScreen&quot; value=&quot;true&quot;&gt;&lt;/param&gt;&lt;param name=&quot;allowscriptaccess&quot; value=&quot;always&quot;&gt;&lt;/param&gt;&lt;embed src=&quot;http://www.youtube.com/v/zSvgIyecoHE&amp;hl=pl_PL&amp;fs=1&amp;&quot; type=&quot;application/x-shockwave-flash&quot; allowscriptaccess=&quot;always&quot; allowfullscreen=&quot;true&quot; width=&quot;480&quot; height=&quot;385&quot;&gt;&lt;/embed&gt;&lt;/object&gt;</a>
Fragmenty zbioru Mandelbrota.
Film przedstawia dobrze znaną dekompozycję zbioru Mandelbrota. Przy kolejnych powiększeniach jego fragmentów pojawiają się coraz to nowe kompozycje kształtów. Uderzające jest również to, iż wewnątrz ukryte są identyczne struktury - coraz mniejsze zbiory Mandelbrota. Jego odkrywca - Mandelbrot - w pracy Peitgen i in. (1995: 471) wypowiedział się o tym zbiorze następująco: "Pod postacią zbioru Mandelbrota przyroda (a może matematyka?) daje nam wizualny odpowiednik tego, co w muzyce można by nazwać "tematem przewodnim i
jego wariacjami": wszędzie powtarzają się te same kształty, ale za każdym razem powtórzenie jest trochę inne. [...] zbiór ten stale oferuje nam nowości, nie jest on tak naprawdę fraktalem w myśl większości definicji: moglibyśmy nazwać go fraktalem brzegowym, granicznym fraktalem zawierającym wiele fraktali. W porównaniu z prawdziwymi fraktalami jego struktury są znacznie liczniejsze, jego harmonie bogatsze, a jego nieoczekiwaność jest bardziej nieoczekiwana" (Paitgen i in. 1995: 471).
Na ogół jednak nie ma problemów z określeniem wymiarów fraktali matematycznych. Natomiast rozróżnienie pomiędzy ich wymiarem topologicznym oraz wymiarem fraktalnym posłużyło do sformułowania następującej definicji fraktala: fraktal to figura, której wymiar fraktalny jest różny od topologicznego (por. Ciesielski, Pogoda 1995: 184). Powyższa definicja wraz z podanymi wcześniej własnościami fraktali pozwala na ścisły opis tych obiektów.

<a href="http://www.youtube.com/v/uas_HJNAzfw&amp;hl=pl_PL&amp;fs=1&amp;&quot;&gt;&lt;/param&gt;&lt;param name=&quot;allowFullScreen&quot; value=&quot;true&quot;&gt;&lt;/param&gt;&lt;param name=&quot;allowscriptaccess&quot; value=&quot;always&quot;&gt;&lt;/param&gt;&lt;embed src=&quot;http://www.youtube.com/v/uas_HJNAzfw&amp;hl=pl_PL&amp;fs=1&amp;&quot; type=&quot;application/x-shockwave-flash&quot; allowscriptaccess=&quot;always&quot; allowfullscreen=&quot;true&quot; width=&quot;480&quot; height=&quot;385&quot;&gt;&lt;/embed&gt;&lt;/object&gt;" target="_blank">http://www.youtube.com/v/uas_HJNAzfw&amp;hl=pl_PL&amp;fs=1&amp;&quot;&gt;&lt;/param&gt;&lt;param name=&quot;allowFullScreen&quot; value=&quot;true&quot;&gt;&lt;/param&gt;&lt;param name=&quot;allowscriptaccess&quot; value=&quot;always&quot;&gt;&lt;/param&gt;&lt;embed src=&quot;http://www.youtube.com/v/uas_HJNAzfw&amp;hl=pl_PL&amp;fs=1&amp;&quot; type=&quot;application/x-shockwave-flash&quot; allowscriptaccess=&quot;always&quot; allowfullscreen=&quot;true&quot; width=&quot;480&quot; height=&quot;385&quot;&gt;&lt;/embed&gt;&lt;/object&gt;</a>

http://www.zep.amu.edu.pl/pl/wp-content/Fraktale.pdf

Aby wyjść poza standard wszczepiony wyobraźni, porzucić przyswojoną raz na zawsze wizualizację, należy odwołać się do... nieskończoności. Brzmi groźnie, lecz jest proste: wystarczy, w nieskończoność, poszukiwać ukrytych dla oka analogii oraz, w nieskończoność, śledzić rozwijające się wątki, czyli nowe, coraz szersze konteksty, korzystając konsekwentnie z relacji zwrotnej pomiędzy nimi. I, jeśli w ten sposób spojrzeć na to samo drzewo, okaże się, że na jego temat napisać można powieść, co więcej – w miejsce drzewa podstawić da się właściwie dowolny obiekt, a sens powieści nie ulegnie zmianie.
Świat, który oglądamy na co dzień, świat, który wydaje się znany, może, bardzo łatwo, stać się zupełnie nie znanym terenem fascynujących odkryć. Wystarczy tylko odpowiednio zmienić (wzbogacić? rozszerzyć?) sposób jego postrzegania.
Nie wiemy, że efekty postrzegania są zawsze względne i zależą w znacznej mierze od układu odniesienia oraz pozycji obserwatora wobec tego układu. Że „pokawałkowane postrzeganie” generuje tylko niespójne mozaiki, zamiast kompletnego filmu. Że świat kreujemy poprzez interpretację. I jeśli  kreujemy go, interpretując całość poprzez pojedyncze, wyrwane z kontekstu fragmenty, to co warta jest nasza interpretacja?  Tak postrzegany świat wydaje się pozbawiony logiki, rządzony przez przypadek, nieprzewidywalny. Nie może być inaczej, bo brak nam klucza do jego rozumienia.

E = mc2. Wiadomo, kto to wymyślił i co znaczą symbole. Wyobraźnia podsuwa obraz Einsteina, może nawet ten z plakatów, z wysuniętym językiem. Jakieś skojarzenie ze szkołą, miłe lub nie. I na tym wizja się kończy. Czy coś nam to daje, czy wpływa na sposób analizowania zdarzeń, zmienia nasze rozumienie świata? Czy może mieć związek z czymś tak pozornie odległym, jak cykl rozwojowy roślin? Albo z erozją w dolinach rzecznych? A może ma, lecz o tym nie wiemy? A jeśli ma, to jak wpływa na powstający „w nas” obraz świata?
http://ciekawnik.pl/swiat-wokol-nas/315-fraktalny-swiat-czyli-filozofia-natury

Tutaj znajdziecie ciekawe fraktale jaki programy do ich tworzenia.
http://www.eugeniuszm.scholaris.pl/
272  Kluczem do zrozumienia jest wiedza / Fizyka / Odp: Czas i przestrzeń - wykraczając poza teorię Einsteina : Kwiecień 20, 2010, 22:56:22

 Równoważność energii i masy - najpopularniejszy wzór fizyki, określający tożsamość pomiędzy masą i energią.

E = mc2

W Wielkim Wybuchu powstały tylko wodór  i hel czyli dwa najprostsze pierwiastki.


"Na początku istnienia Wszechświata (w czasie tzw. epoki inflacyjnej) rozszerzał się on z prędkością większą od szybkości światła (Wszechświat podwajał swoją wielkość 50 do 100 razy, przy czym takie podwojenia trwały około 10-33 sekundy). Po 50 podwojeniach swojej wielkości Wszechświat powiększył się tysiąc bilionów razy (1015), po stu - aż o ponad milion bilionów bilionów razy (10300). Ktoś mógłby powiedzieć: jak to, przecież nic nie może się poruszając z prędkością większą od światła, przecież to coś miałoby nieskończenie wielką masę. Odpowiadam: poruszać się w przestrzeni nic nie może się z prędkością większą od światła, gdyż zgodnie ze wzorem E = mc2  masa przedmiotów rośnie z jego prędkością
obiekt, który miałby prędkość większą od światła miałby nieskończenie wielką masę, a energia potrzebna do jego poruszenia wynosiłaby... ∞, ale w przypadku epoki Inflacyjnej nie zwiększała się odległość między materią, ale "rozciągała" się przestrzeń! - nic nie może się poruszać z prędkością większą od światła względem przestrzeni, jednak rozszerzanie się przestrzeni "unosi" ze sobą materię. (Można też dojść do jeszcze głębszego wniosku: Wszechświat nie narodził się w jakimś miejscu w przestrzeni, przestrzeń znajdowała się tylko w młodym Wszechświecie."
http://www.astrofizyka.info/eseje/wszechswiat.htm
Wniosek

Wszechświat  powstał w wyniku gwałtownego rozprzestrzeniania się  energii a nie materii
273  Kluczem do zrozumienia jest wiedza / Fizyka / Na tropie antygrawitacji : Kwiecień 19, 2010, 22:34:13
Naukowcy finansowani przez ESA (European Space Agency) twierdzą, że udało im się zarejestrować w laboratorium grawitacyjny odpowiednik pola magnetycznego. Ten efekt jest dużo większy niż przewidywany w Ogólnej Teorii Względności Einsteina. Wydaje się, że to znaczący krok w kierunku długo poszukiwanej kwantowej teorii grawitacji.
Podobnie jak poruszające się ładunki elektryczne wytwarzają pole magnetyczne, tak samo poruszająca się masa wytwarza pole grawitomagnetyczne. Według Ogólnej Teorii Względności Einsteina efekt ten jest praktycznie niemierzalny, jednakże Martin Tajmar, Clovis de Matos wraz ze współpracownikami twierdzą stanowczo, że zmierzyli ten efekt w laboratorium.
W ich eksperymencie użyto pierścienia zbudowanego z nadprzewodzącego materiału obracającego się z prędkościami dochodzącymi do 6 500 razy na minutę. Nadprzewodniki są to specjalne materiały, które tracą całkowicie rezystancję elektryczną w niskich temperaturach. Nowy eksperyment sprawdza przypuszczenie Tajmana i de Matosa, które wyjaśnia różnicę pomiędzy pomiarami wysokiej precyzji mas par Coopera (nośników ładunku
w nadprzewodnikach) oraz wyników obliczeń bazowanych na kwantowej teorii. Odkryli oni, że ta anomalia może być wyjaśniona pojawieniem się pola grawitomagnetycznego w wirującym nadprzewodniku (ten efekt został nazwany Londyńskim Momentem Grawitacyjnym (Gravitomagnetic London Moment) poprzez analogię do jego magnetycznego odpowiednika).

Małe czujniki przyspieszenia umieszczono w różnych miejscach blisko wirującego nadprzewodnika, który był przyspieszany w ruchu obrotowym, aby efekt był zauważalny. Czujniki zarejestrowały pole przyspieszenia na zewnątrz nadprzewodnika, które najwyraźniej zostało wytworzone przez grawitomagnetyzm. "Ten eksperyment jest grawitacyjnym odpowienikiem eksperymentu Faraday'a indukcji magnetycznej przeprowadzonej w 1831 r. Demonstruje on, że nadprzewodnikowy masywny pierścień jest zdolny do wytworzenia potężniego grawitomagnetycznego pola - jest więc grawitacyjnym odpowiednikiem cewki magnetycznej”.
Zależnie od późniejszych potwierdzeń, ten efekt może tworzyć podstawy dla nowych urządzeń technicznych. Zmierzone przyspieszenie grawitacyjne stanowi jedynie 1/10000 przyspieszenia ziemskiego pola i jest ono zaskakująco większe, bo aż milion bilionów razy, niż przewiduje Ogólna Teoria Względności.
Źródło: http://www.esa.int/SPECIALS/GSP/SEM0L6OVGJE_0.html
274  Kluczem do zrozumienia jest wiedza / Fizyka / Odp: Elektryczny wszechświat : Kwiecień 19, 2010, 22:29:53
Energia próżni


Jeżeli zabierze się z pewnego obszaru przestrzeni wszystkie atomy i cząsteczki oraz nie dopuści się do niej promieniowania elektromagnetycznego, to otrzyma się część przestrzeni podobnej do kosmicznej, gdzie temperatura równa jest zeru bezwzględnemu (-273,3). Zdawałoby się, że taka pustka jest idealna, jednakże bliższe spojrzenie na nią zmienia nasze złudne wyobrażenia o idealności. Próżnia w istocie dalej wypełniona jest niewyobrażalną liczbą różnorodnych cząsteczek i promieniowania elektromagnetycznego, które z natury swojej są nieekranowalne i dla większości przyrządów technicznych nieuchwytne lub innymi słowy przeźroczyste. I choć przestrzeń ta jest przez nie widziana jako pusta i zimna, to jednak stanowi ona wrzątek i ruch jakiego nie jesteśmy w stanie objąć nawet naszą wyobraźnią. Bo przestrzeń w której żyjemy ma strukturę złożoną ze specyficznej formy energii - energii kwantów - która wraz z materią ją współtworzy. Teoria kwantowej próżni i kwantowej przestrzeni pojawiła się wraz z odkryciem w 1911r przez Maxa Plancka kwantów energii, czyli najmniejszych, niepodzielnych części energii - fotonów, które mogą istnieć nieskończenie długo w przestrzeni oraz określać atomy tworzące materię. Ciągła w czasie
i przestrzeni energia została przez Plancka i Einsteina rozdrobniona na podstawowe kwantowe składniki i żeby nie zatraciła swoich falowych własności fizycy każdej drobinie przypisali swoistą częstotliwość fali n, a jej jednostkową energię wyliczali mnożąc częstotliwość dodatkowo przez stałą h: tj.

Wyznaczona eksperymentalnie stała h nazwana została później stałą Plancka i stała się podstawą nowoczesnej fizyki kwantowej zajmującej się aspektami wymiany energii
i oddziaływań pomiędzy cząstkami elementarnymi i atomami na poziomie mikroświata. Opis próżni uzyskał podstawowy fundament - kwant energii. Szybko pojawiły się prace Einsteina-Sterna w których przypuszczali istnienie kosmicznego źródła elektromagnetycznego promieniowania energii. Brakowało jednak praktycznych potwierdzeń. Pierwsze pojawiło się w 1925r. gdy amerykański chemik i eksperymentator Robert Mulliken analizując długość fal spektralnych tlenku boru odkrył drobne przesunięcia ich długości względem teoretycznie obliczonych pozycji, które jak się później okazało wynikały z oddziaływania energii próżni na elektrony przeskakujące orbity w tych atomach. Skąd brała się ta dodatkowa energia? Odpowiedź pozostawała jeszcze w sferze spekulacji teoretycznych i jak wnioskował Nernst ta energia musi pochodzić z domniemanego kosmicznego źródła. Do 1916r teoria kwantowej próżni została rozbudowana przez Walthera Nernsta. Niebawem źródło miało się pojawić.

W 1927 roku Heisenberg odkrył zasadę, nazywaną potem zasadą nieoznaczoności. Stwierdza ona, że w przypadku cząstek o rozmiarach porównywalnych lub mniejszych od średnicy atomu, niemożliwe jest jednoczesne, dokładne ustalenie ich położenia i pędu, przy czym iloczyn błędu (a dokładniej nieokreśloności) pomiarów położenia oraz pędu nie może być mniejszy niż stała Plancka. Istnieje też zależność dla energii i czasu – ilość energii jaką może pożyczyć wirtualna cząsteczka jest odwrotnie proporcjonalna do czasu jej życia. Im więcej jej otrzyma z próżni podczas powstawania, tym krócej żyje a w przeciwnym wypadku im mniej jej otrzyma tym dłużej żyje. Po dokonaniu odkrycia Heisenberg miał wypowiedzieć następującą myśl: „Miałem uczucie, że patrzę przez powierzchnię zjawisk atomowych na leżące pod nią podłoże o zadziwiającej wewnętrznej urodzie... „.

Z równań kwantowych szybko uzyskano informację, że dowolny oscylator kwantowy, czyli elektromagnetyczny układ drgający na poziomie atomowym musi mieć minimalną energię. Dotyczy to również każdego oscylatora zawartego w fizycznej przestrzeni, również w próżni. Co miałoby tworzyć te oscylatory? Odpowiedź przyszła szybko. W 1928r Paul Dirac wywnioskował ze swoich równań falowych opisujących elektron, że musi istnieć jeszcze cząstka podobna do elektronu ale o znaku przeciwnym. I już w 1932r Carl Anderson podczas badań nad promieniowaniem kosmicznym zauważył w komorze mgłowej ślady nieznanych dotychczas cząstek elementarnych. Anderson prawidłowo zinterpretował je jako ślady cząsteczek o takiej samej masie jak elektron ale o odwrotnym ładunku elektrycznym.
W dalszych eksperymentach uzyskał bezpośredni dowód na istnienie pozytronów bombardując różne materiały promieniowaniem gamma otrzymanym z rozpadu ThC  Duży uśmiech. Były już dwie cząstki, które można było użyć do budowy oscylatora próżni. To były kolejne przełomowe lata. Statycznej próżni, tej odwiecznej nicości nadano ruch. Wypełniona została nieustannie powstającymi na krótki interwał czasu i znikającymi parami cząstek-antycząstek: elektron-pozytron a także innymi rodzajami energii. Taki stan próżni utożsamiany jest
z wrzeniem przestrzeni, w której podobnie jak bańki wrzątku w wodzie, pojawiają się i znikają wirtualne cząsteczki i antycząsteczki elektron-pozytron. Takie wrzenie próżni nazywane jest fluktuacją pola próżni. Ponieważ w każdej chwili stale istnieje w dowolnie wybranym obszarze przestrzeni pewna stała ilość wirtualnych cząsteczek, to oznacza, że próżnia ma pewną niezerową gęstość energii. Podobnie jak fale na morzu posiadają energię, która może wywrócić statek lub napędzić elektrownię również fale wrzątku próżni posiadają energię. Zerowy Punkt Pola (ZPF) takie określenie przyjęto dla energii powstającej w każdym punkcie naszej fizycznej przestrzeni - istnieje nawet w temperaturze zera bezwzględnego. Wyjaśnienie tego czym jest ZPF można przedstawić także sięgając do analogii oscylatora, jakim jest np. wahadło matematyczne. Raz poruszone waha się i dopóki nie dostarczasz mu dalej energii wahanie powoli ustaje w wyniku tarcia. Inaczej rzecz się ma w rzeczywistych kwantowych warunkach - relacja niepewności Heisenberga zakazuje kwantowemu wahadłu całkowicie się zatrzymać. Zgodnie z kwantowymi prawami istnieje minimalna energia, której nie można zabrać. Podobnie jak to wahadło, światło i inne formy promieniowania elektromagnetycznego składają się z oscylacji - w tym przypadku z oscylacji elektrycznego
i magnetycznego pola. Każdy kierunek, każda częstotliwość i każda polaryzacja określają istniejące w przestrzeni pole elektromagnetyczne, toteż zgodnie z relacją niepewności Heisenberga musi ono posiadać minimum energii. Dodając teraz te wszystkie „mody pola” (fale stojące) o „niezerowym” stanie energii uzyskuje się Elektromagnetyczny Zerowy Punkt Pola (ZPF) lub w skrócie Elektromagnetyczną Próżnię. ZPF jest więc niczym innym jak falą elektromagnetyczną lub swego rodzaju formą światła istniejącą stale w próżni w postaci krótkich błysków. Dlatego ZPF jest niczym innym jak dziewiętnastowieczną koncepcją eteru w nowym, kwantowym ujęciu.

Rzeczywiste przejawy energii próżni zostały bezpośrednio zaobserwowane i opisane
przez Willisa Lamba i Roberta Retheforda dopiero w 1947r po przeprowadzeniu słynnych eksperymentów z wodorem. Analiza linii spektralnych wodoru przy użyciu nowoczesnych na owe czasy mikrofalowych technik radarowych pozwoliła zaobserwować przesunięcia linii widma. Wynik tego przesunięcia był oczywisty - elektrony w wyniku zewnętrznego oddziaływania uzyskują lub tracą energię w ich ruchu orbitalnym. Lamb stwierdził, że posiada teraz dowód na to że obecna w naszym rozumieniu próżnia nie istnieje i powinna raczej nazywać się pełną przestrzenią. Rok później bo w 1948r zaobserwowany przez holenderskiego fizyka B.G. Casimira efekt oddziaływania energii próżni na materię wzmocnił fizyków w przekonaniu o słuszności nowego poglądu na próżnię. Efekt Casimira oprócz teorii dostarczył fizycznych danych o sile i energii występującej pomiędzy dwoma przyciągającymi się neutralnymi elektrycznie płytkami, znajdującymi się w izolowanej od otoczenia komorze próżniowej z której wypompowano wszystkie atomy i cząsteczki. Stało się to jednak dopiero w 1998r. po precyzyjnie przeprowadzonych pomiarach.

Od momentu odkrycia efektu Casimira dalsze badania energii próżni nabrały rozmachu na wszystkich frontach nauki.


Doniesienie prasowe z 2007r.

Fizycy z Laboratoriów Bella Lucent Technologies zajmującymi się systemami mikroelektromechanicznymi (MEMS), czyli miniaturowymi układami, skonstruowali mikroskopijną huśtawkę poruszającą się pod wpływem sił kwantowych Casimira. Mikroskopijna huśtawka bazuje na wiedzy o systemach mikroelektromechanicznych
i zjawiskach kwantowych. Naukowcy wykazali, że siła Casimira może zostać wykorzystana do wychylania elektromechanicznej mikrohuśtawki zbudowanej
z metalizowanej płytki zawieszonej na zawiasach równolegle do powierzchni krzemowego chipu. Tuż nad huśtawkę opuścili wiszącą na drucie pozłacaną kulę. Układ taki uzyskał cechy zbliżone do układu dwóch równoległych płytek
i zgodnie z przewidywaniami teorii Casimira huśtawka wykonuje pracę. Eksperyment dowiódł, że energia próżni może zostać wykorzystana w urządzeniach technicznych do poprawy ich parametrów pracy. Można zatem konstruować urządzenia mikroelektromechaniczne czulsze niż obecnie znane, bazując na oddziaływaniu energii próżni. Zjawiska mechaniki kwantowej odgrywają istotną rolę w systemach mikroelektromechanicznych, w których odległość między poszczególnymi elementami mierzy się w nanometrach.

Obserwacje sił w Naturze prowadzą do wniosku, że natura próżni wykazuje daleko idącą symetrię i domyślamy się, że w rzeczywistości nie powinny istnieć cztery podstawowe oddziaływania: słabe, elektromagnetyczne, silne i grawitacyjne ale tylko jedno. Zaawansowane standardowe modele fizyczne mówią o sprzężeniu trzech pierwszych w jedno oddziaływanie. Oddziaływanie grawitacyjne nie jest jeszcze włączone do tych modeli dlatego, że nie dostarczono dostatecznych danych doświadczalnych o rzeczywistych przejawach działania jej mechanizmów w Naturze. Istnieje za to gamma prostszych modeli sprzęgających tylko oddziaływanie elektromagnetyczne z grawitacyjnym. Mają one jednak wadę, ponieważ są trudne do sprzężenia ze wspomnianymi modelami standardowymi
a niejednokrotnie je burzą. Do ich zalet można zaliczyć pewne szczególne ich przewidywania, które są potwierdzane doświadczalnie.

Cząstki elementarne komunikują się ze sobą poprzez próżnię i swoją masę nabywają przez oddziaływanie z nią. Masa nie jest ich fundamentalną własnością. Natura próżni przenosi oddziaływania silne, słabe, elektromagnetyczne i grawitacyjne. „Silnie” oddziałują kwarki,
a dokładnie bariony, zaś przemianami β rządzi oddziaływanie „słabe”. Nośnikami oddziaływania „silnego” są gluon-y a „słabego” – bozon-y W+, W–, Z0. Oddziaływanie elektromagnetyczne występuje pomiędzy ładunkami elektrycznymi a ich nośnikami są jak wiemy fotony. Dla tajemniczego oddziaływania grawitacyjnego przewiduje się, że jej nośnikiem są „grawitony.

Dlaczego mamy z grawitacją 4 oddziaływania, różniące się „siłą”? Istnieją eksperymentalne dane z których wnioskuje się, że różnica mocy oddziaływań silnych, słabych
i elektromagnetycznych zmniejsza się, gdy przechodzimy do coraz wyższych energii. Badania teoretyczne sugerują, że można oczekiwać unifikacji tych trzech oddziaływań dopiero dla bardzo wysokich energii, tj. powyżej 2·1016 GeV. Tak duża energia odpowiada temperaturze równowagi termicznej około 1029 K. Unifikacji wszystkich 4 oddziaływań uczeni spodziewają się dopiero przy energii Plancka 1019 GeV. Wspomniana na początku zunifikowana siła rozpadła się w miarę oziębiania się próżni wszechświata po Wielkim Wybuchu na 3
(a z grawitacją na 4) oddziaływania. Przy niższej temperaturze (tj niższej energii) nastąpiło spontaniczne złamanie symetrii w tzw. zespole pól Higgsa. Załamanie to nadało właśnie masy i bezwładność wszystkim znanym dzisiaj cząstkom elementarnym i nośnikom oddziaływań: silnego, elektromagnetycznego i słabego. Pole Higgsa pierwotnie wprowadzono do powiązania oddziaływań elektro-słabych i pochodzi od nazwiska brytyjskiego fizyka Petera W. Higgsa. Pole Higgsa składa się z cząstek Higgsa. Cząstki te przenoszą oddziaływanie
z polem, a to oznacza, że są kwantem tego pola. Cząstki elementarne uzyskują masę poprzez oddziaływanie z polem Higgsa, niezależnie od położenia i kierunku ich ruchu.

Wydaje się więc, że Natura odrzuca idealną symetrię praw przyrody poprzez odrzucenie istnienia idealnej, symetrycznej i niczym nie wypełnionej próżni. Hipoteza ta została potwierdzona doświadczalnie przez fizyków w wielu precyzyjnych eksperymentach.

Efekt Cashimira to jedna z kilku realnych możliwości zmiany prędkości światła.
W przyszłości możliwe stanie się wykonanie układu komór czasowych do kreacji bąbla czasoprzestrzennego. W bąblu fluktuacje pola próżni mają wartość mniejszą niż w otaczającej nas przestrzeni. Mówimy w takim przypadku o tzw. ujemnej energii. Ujemna energia sprawia, że pomniejszone interakcje energii pola próżni na materię umożliwiają osiągnięcie dylatacji czasu w komorze, a dokładnie przyspieszenie jego biegu. Zauważcie co pisałem o próżni na początku tego artykułu - w idealnej próżni nie ma żadnych bytów - jest symetryczna pod każdym względem, dlatego wszelkie oddziaływania przebiegałyby w niej bez udziału masy
i bezwładności.

W jaki sposób możemy oddziaływać na grawitację? Przyjrzyjmy się następującym wywodom:
1.Jak wiemy, siła grawitacji dana jest wzorem Newtona i zależna jest od stałej grawitacji G i od wielkości poszczególnych mas M i m biorących udział w oddziaływaniu.
2.Stała grawitacji G wraz z prędkością światła c zależą od własności geometrycznych pola energii próżni i jej gęstości energii U, tj od parametru tzw. a-węzła:
3.W warunkach normalnych wartość ta wynosi ok. a=7.070723
Można za jej pomocą wyliczyć stałą grawitacji G oraz prędkość światła c, korzystając
z poniższych wzorów:

 Gęste fluktuacje próżni powiększają bezwładność ciał. Siła grawitacji rośnie proporcjonalnie do przyrostu stałej grawitacji G a to sprawia, że ciała przyciągają się silniej. Światło napotyka na swojej drodze więcej przeszkód w postaci wirtualnych par elektron-pozytron i jego prędkość maleje. Podobne rozważnie można przeprowadzić na podstawie innej zależności na siłę
oddziaływania Newtonowskiego.
Zastosowanie opisywanych technik manipulacji parametrami pola energii próżni umożliwia budowanie niezwykle ciekawych urządzeń tj. np. samonapędzające się silniki, ekstraktory energii próżni i komory z wewnętrznym lub zewnętrznym bąblem czasoprzestrzennym, które pozwalają zmniejszać fluktuacje energii próżni i dokonywać prawie dowolnego rozciągnięcia czasu. Nazywane będą ekspanderami czasu lub maszynami czasu. Nie można ich mylić
z hipotetycznymi wehikułami czasu, które - jak wiemy z filmów s-f - umożliwiają dowolne podróże w czasie do przodu i do tyłu. Ekspander czasu działa odwrotnie niż rakieta ze znanej historii o dwóch braciach bliźniakach. W rakiecie kosmicznej poruszającą się z prędkością bliską prędkości światła następuje spowolnienie biegu czasu w stosunku do czasu ziemskiego.
W ekspanderze czasu, czyli w komorze z bąblem czasoprzestrzennym czas ulega przyspieszeniu. Takie właśnie zjawisko obserwuje się pomiędzy płytkami Cashimira.

Prace nad bąblem czasoprzestrzennym są prowadzone we wszystkich poważnych laboratoriach na świecie - szczególnie wojskowych. Obecnie testowane komory
z wewnętrznym bąblem czasoprzestrzennym umożliwiają budowę rakiet bliskiego i dalekiego zasięgu do przenoszenia ładunków miotających, które mogą poruszać się w przestrzeni kilkukrotnie szybciej w stosunku do znanych konwencjonalnych rozwiązań. Technologia ta została niedawno zastosowana przez Rosjan – jak stwierdził jeden z generałów - do wzmocnienia Rosyjskiej siły obrony. W 2005 r. podczas publicznego pokazu nowoczesnej superszybkiej rakiety, Putin stwierdził, że Rosja powinna być teraz spokojna - ta technologia zapewni nam pokój na najbliższe 30 lat. Na odpowiedź NATO długo nie trzeba było czekać. Przybliżenie tarczy antyrakietowej do granic Rosji, tj. zainstalowanie jej w Polsce i Czechach rozwiązałoby po części problem ich niebezpiecznej przewagi technologicznej i zapewniłoby również ochronę Europy przed atakami z Bliskiego Wschodu. Warto tu nadmienić, że zastosowanie tej technologii będzie oszałamiające w technice obliczeniowej. Przyspieszenie obliczeń procesorów i systemów komputerowych proporcjonalne do osiągniętej dylatacji czasu, która teoretycznie może być nieskończona, będzie umożliwiało realizowanie super skomplikowanych obliczeń w bardzo krótkim czasie, dziś uważanych za niemożliwe.

Cały text tutaj
http://www.tesla.pl/modules.php?name=News&file=article&sid=2

Aktualności fizyczne
Aktualności ze świata Fizyki

 
Efekt Casimira - czy to jeszcze fizyka, czy już magia?...

Czy próżnia to kompletna pustka, nic? Ale dlaczego takie "nic" trzeba przebywać w określonym czasie? Gdyby w próżni nie było żadnej struktury, to zupełnie nieodróżnialny byłby jeden jej punkt od innego. Fizyka kwantowa pozwala wyciągnąć na temat próżni dalej idące wnioski. Okazuje się, że nie ma tak naprawdę pustki zupełnie absolutnej. Nawet najbardziej pusty obszar wszechświata jest w rzeczywistości areną nieustannego tworzenia się i zanikania rozmaitych okruchów materii. Zjawisko to nosi miano kreacji - anihilacji materii. Co prawda czas życia tych drobin wyłaniających się z pustki jest niewyobrażalnie krótki, jednak określony. I nawet daje się wykryć siłę, która powstaje w wyniku tej aktywności próżni. Nazywana jest ona ona siłą Casimira.

Co ciekawe, mimo że istnienie tej siły zostało przewidziane już ponad pół wieku temu (właśnie przez holenderskiego fizyka o nazwisku Casimir), to dopiero niedawno udało się zaobserwować tę siłę w laboratorium. Problemem jest to, że owa siła jest bardzo mała i daje się zarejestrować dopiero dla obiektów mikroskopijnych, znajdujących się określonych warunkach.
http://www.daktik.rubikon.pl/aktualnosci/aktualnosci_fizyczne_efekt_Casimira.htm



 Siła z pustej przestrzeni: efekt Casimira
Credit & Copyright: Umar Mohideen (U. California at Riverside)

Opis: Ta maleńka kulka dostarcza dowodów na nieskończoną ekspansję wszechświata. Mierząca odrobinę ponad jedną dziesiatą milmetra kula porusza się w kierunku gładkiej płyty reagując na fluktuacje energii próżni pustej przestrzeni. To przyciąganie znane jest jako efekt Casimira, nazwany imieniem odkrywcy, który 50 lat temu próbował zrozumieć, dlaczego ciecze takie jak majonez poruszają się tak powoli. Dziś gromadzą się dowody świadczące, iż większa część gęstości energii we wszechświecie ma nieznaną formę nazwaną ciemną energią. Postać i geneza ciemnej energii są prawie zupełnie nieznane. Postuluje się jednak, że jest ona związana z fluktuacjami próżni podobnymi do efektu Casimira, lecz generowanymi jakoś przez samą przestrzeń. Ogromna i tajemnicza ciemna energia wydaje się grawitacyjnie odpychać wszelką materię i dlatego spowoduje przypuszczalnie wieczną ekspansję wszechświata. Zrozumienie fluktuacji próżni jest na czele badań nie tylko dla lepszego pojmowania wszechświata, ale także dla powstrzymania części mikromechanicznych maszyn przed wzajemnym uderzaniem.
http://apod.oa.uj.edu.pl/apod/ap061217.html
275  Kluczem do zrozumienia jest wiedza / Fizyka / Odp: Elektryczny wszechświat Pole i eter : Kwiecień 19, 2010, 20:56:42
Pole i eter
 
Fala elektromagnetyczna jest falą poprzeczną i rozchodzi się w próżni z prędkością światła. Okoliczność, że ich prędkości są takie same, każe się domyślać bliskiego związku między zjawiskami optycznymi i elektromagnetycznymi.
       Kiedy musieliśmy wybierać między teorią korpuskularną a falową, rozstrzygnęliśmy na korzyść teorii falowej. Argumentem, który najsilniej wpłynął na naszą decyzję, było uginanie się światła. Nie popadniemy jednak w sprzeczność z żadnym wyjaśnieniem faktów optycznych, jeśli założymy również, że fala świetlna jest falą elektromagnetyczną. Przeciwnie, założenie takie pozwoli nam wyciągnąć jeszcze nowe wnioski. Jeśli istotnie tak jest, to między optycznymi i elektrycznymi właściwościami materii musi istnieć pewien związek, który można wyprowadzić z teorii. Fakt, że takie wnioski można rzeczywiście wyciągnąć i że zostają potwierdzone doświadczalnie, jest zasadniczym argumentem na korzyść elektromagnetycznej teorii światła.
       Ten doniosły wynik zawdzięczamy teorii pola. Ta sama teoria obejmuje dwie, na pozór nie związane z sobą, dziedziny wiedzy. Te same równania Maxwella opisują zarówno indukcję elektryczną, jak i załamanie się światła. Jeśli dążymy do opisania wszystkiego, co się kiedykolwiek zdarzyło lub może zdarzyć, za pomocą jednej teorii, to takie połączenie optyki i elektryczności jest niewątpliwie wielkim krokiem naprzód. Z fizycznego punktu widzenia jedyną różnicą pomiędzy zwykłą falą elektromagnetyczną a falą świetlną jest długość fali – bardzo mała dla wykrywanych ludzkim okiem fal świetlnych, a duża dla wykrywanych przez odbiornik radiowy zwykłych fal elektromagnetycznych.
       Stary pogląd mechanistyczny usiłował sprowadzić wszystkie zjawiska przyrody do sił działających między cząstkami materialnymi. Na tym naiwnym poglądzie opierała się pierwsza teoria płynów elektrycznych. Dla fizyka początku dziewiętnastego wieku pole nie istniało. Rzeczywista była dla niego tylko substancja oraz jej zmiany. Działanie na siebie dwóch ładunków elektrycznych próbował opisać, używając pojęć odnoszących się bezpośrednio do obu ładunków.
       Pojęcie pola było z początku jedynie sposobem ułatwiającym zrozumienie zjawisk z mechanistycznego punktu widzenia. W nowym języku pola istotne znaczenie w zrozumieniu działania na siebie dwóch ładunków mają nie same ładunki, lecz opis pola między nimi. Znaczenie nowych pojęć stale wzrastało, aż wreszcie pole usunęło w cień substancję. Uświadomiono sobie, że w fizyce zdarzyło się coś bardzo ważnego. Powstał nowy byt, nowe pojęcie, dla którego nie było miejsca w opisie mechanistycznym. Powoli i z oporami pojęcie pola wywalczyło sobie czołowe miejsce w fizyce i pozostało jednym z podstawowych pojęć fizycznych.
       Niesprawiedliwością byłoby jednak uważać, że nowa teoria polowa uwolniła naukę od błędów starej teorii płynów elektrycznych, albo że nowa teoria burzy osiągnięcia starej. Nowa teoria podkreśla zarówno zasługi, jak i ograniczenia starej i pozwala spojrzeć na stare pojęcia z nowego, wyższego punktu widzenia. Dotyczy to nie tylko teorii płynów elektrycznych i teorii pola, ale wszystkich, nawet najbardziej rewolucyjnych zmian teorii fizycznych. Na przykład w naszym przypadku wciąż jeszcze odnajdujemy w teorii Maxwella pojęcia ładunku elektrycznego, choć ładunek rozumiemy teraz tylko jako źródło pola elektrycznego. Prawo Coulomba w dalszym ciągu obowiązuje i jest zawarte w równaniach Maxwella, z których można je wyprowadzić jako jeden z licznych wniosków. Starą teorię możemy nadal stosować wszędzie tam, gdzie badamy fakty z zakresu jej ważności, ale równie dobrze możemy używać i nową teorię, gdyż obejmuje ona wszystkie znane fakty.
       Używając porównania, moglibyśmy powiedzieć, że stworzenie nowej teorii nie jest czymś w rodzaju zburzenia stodoły i wzniesienia na jej miejscu drapacza chmur. Przypomina to raczej wspinanie się na górę, uzyskiwanie nowych, bardziej rozległych widoków, odkrywanie nieoczekiwanych związków między punktem, z którego wyszliśmy, a jego bogatym otoczeniem. Ale punkt, z którego wyruszyliśmy, wciąż istnieje i można go dostrzec, choć wydaje się teraz mniejszy i tworzy maleńką cząstkę rozległego widoku, który uzyskiwaliśmy, stopniowo pokonując przeszkody w naszej śmiałej wspinaczce.
       Wiele czasu upłynęło, nim zdano sobie sprawę z całej treści teorii Maxwella. Zrazu uważano pole za coś, co będzie można później zinterpretować mechanistycznie za pomocą eteru. Gdy zorientowano się, że program ten jest nie do przeprowadzenia, osiągnięcia teorii pola stały się już zbyt poważne, aby można było powrócić do mechanistycznego dogmatu. Z drugiej strony zagadnienie skonstruowania mechanistycznego modelu eteru robiło się coraz mniej ciekawe, a wynik, wobec narzuconych i sztucznych założeń, coraz mniej zachęcający.
       Wydaje się, że jedynym dla nas wyjściem jest pogodzić się z faktem, iż przestrzeń ma fizyczną własność przenoszenia fal elektromagnetycznych, i nie przejmować się zbytnio sensem tego stwierdzenia. Nadal możemy używać słowa „eter”, ale tylko do wyrażania pewnej fizycznej własności przestrzeni. Słowo to wiele razy w dziejach nauki zmieniało swe znaczenie. Dziś nie oznacza już ono ośrodka zbudowanego z cząsteczek. Dalszą jego historię, bynajmniej nie zakończoną, znajdujemy w teorii względności.
http://www.wiw.pl/fizyka
276  "Tajne" stowarzyszenia i "teorie spiskowe" / "Teorie spiskowe" / Odp: Depopulacja ludzkości fakt czy mit : Kwiecień 19, 2010, 18:29:04

Pod lufą karabinu – zapomniane konflikty
Opublikowano: 19.04.2010

Wiele kilometrów od naszych granic trwają wojny, w niejasnych okolicznościach znikają przeciwnicy rządu, a lokalnymi drogami suną sznury uchodźców. O wielu z tych wydarzeń nigdy nie usłyszysz.

Tysiące dzieci, kobiet i mężczyzn giną w trakcie konfliktów, które zwykło się określać jako “zapomniane”. Ich dramat rozgrywa się z dala od kamer światowych mediów. Te, zaprzątnięte “modnymi” tematami nie chcą lub nie mogą przybliżać dramatów peryferyjnych regionów, małych państw i odległych ludów.

TAK DALEKO STĄD

Istotą “zapomnianych” konfliktów jest nie tyle nawet ich “geograficzne”, co “geopolityczne” i “ekonomiczne” oddalenie. Z reguły toczą się bowiem z dala od granic najbogatszych państw świata, a jednocześnie dotyczą najbiedniejszych. Los tych krain i ludów ma minimalny wpływ na interesy głównych graczy naszego globu. Stąd też i zainteresowanie opinii publicznej (przynajmniej zdaniem medialnych decydentów) tą tematyką pozostaje minimalne.

Granica między “zapomnianym” a “nagłośnionym” konfliktem jest zresztą płynna. Podobnie rozmyta jest granica między tym, co już jest wojną, a tym co można scharakteryzować przez eufemizm “napięta sytuacja”.

“Zapomniane konflikty” rzadko są regularnymi wojnami prowadzonymi przez wrogie sobie państwa. Najczęściej stronami jest władza centralna i występujące przeciwko niej ugrupowania rebelianckie.

AFRYKA SPŁYWA KRWIĄ

Wśród regionów szczególnie często nawiedzanych wojnami złowrogie pierwsze miejsce należy z pewnością do Afryki, gdzie w ostatnich latach toczyło się bądź nadal toczy szereg mniej lub bardziej “zapomnianych” konfliktów. Wojenny walec przetoczył się przez takie państwa jak Liberia, Wybrzeże Kości Słoniowej, Demokratyczną Republikę Konga, Angolę, Burundi, Somalię, Sudan (m.in. dramat Darfuru) i Ugandę. Ale tak naprawdę, w ostatnich dekadach niewiele państw kontynentu długo cieszyło się pokojem i spokojem.


Dziecko-żołnierz podczas szkolenia wojskowego. Demokratyczna Republika Konga, 13.12.2003.

Polityka na Czarnym Lądzie latami budowana była na braku pozytywnych wzorców legalnego przejmowania władzy i tradycji społeczeństwa obywatelskiego – za co często znaczną winę ponoszą też kraje europejskie, w tym dawni kolonizatorzy. Zamiast demokracji i dobrobytu była bieda, analfabetyzm, powszechna korupcja i … całkiem sporo broni, o którą to dbali sponsorzy lokalnych satrapów – sponsorzy ze Wschodu i Zachodu, liczący na lojalność bez oglądania się na detale takie jak, “demokracja” i “prawa człowieka”.

Gdy skończyła się zimna wojna, dawne reżimy pozbawiane zewnętrznego wsparcia zaczęły się chwiać. Część upadła, oddając władzę tym, którzy z dużą trudnością budują dziś demokrację, ale spora część odchodząc, pogrążyła swe dawne włości w politycznym niebycie. Przez kontynent przetoczyła się fala wojen sukcesyjnych, w której stronami najczęściej były plemiona i klany.

Z czasem wojna stawała się dopuszczalnym i praktycznie jedynym znanym narzędziem zdobywania władzy w szeregu państw afrykańskich. Dziś z dużym trudem wychodzi ten kontynent z dekad naznaczonych przemocą.

Ale przecież na Afryce nie kończy się historia “zapomnianych konfliktów”.

RADYKALIZM I PRZEMOC

Jednym z czynników, które powodują zaostrzenie sytuacji w skali globalnej jest radykalizacja ruchów religijnych podszytych nacjonalizmem. Odnosi się to m.in. do integrystów islamskich, którzy na swój przewrotny sposób interpretują zasadę “świętej wojny”.

Tak jest w Azji Południowo-Wschodniej, a przykładem punktu zapalnego może być Mindanao na Filipinach, gdzie mniejszość Moro walczy o utworzenie niezależnego państwa islamskiego. Podobnie wygląda sytuacja w indyjskiej części Kaszmiru czy południowych rejonach Tajlandii. Z terrorem islamistów mierzy się Afganistan, o którym ostatnio ciszej, a w którym radykałowie wszelkimi metodami zwalczają “zachodnie” wpływy.

Południowe rejony Azji są też terenem starć pomiędzy małymi grupami etnicznymi a władzą centralną. Często konflikty te trwają od dziesięcioleci. Tak jest choćby w Birmie, gdzie z wojskami rządowymi walczą separatyści z ludów Karen, Szan i Kaczin. Niewiele lepiej sytuacja wygląda w Wietnamie i Laosie, gdzie mniejszościowe grupy etniczne pozostają w sporze z władzą centralną.

O własne państwa zbrojnie występują partyzanci z dwóch indonezyjskich prowincji: Aceh oraz Irian Jaya (Papua Zachodnia). Obie “zapomniane wojny” wiążą się z licznymi naruszeniami praw człowieka, głównie przez stronę rządową.

BARONOWIE NARKOTYKOWI I SZWADRONY ŚMIERCI

Wraz z zakończeniem zimnej wojny spadły na znaczeniu partyzantki lewicowe, w których “specjalizowała” się Ameryka Łacińska. Powody ich powstania nie znikły: rozpaczliwa bieda większości, bogactwo nielicznych. Jednak demokratyzacja państw regionu, jak też rozpad ZSRR, który wspierał finansowo wiele z tych ruchów spowodowały, że większość z nich przeszła od aktów przemocy do pokojowej walki wyborczej. Niemniej są takie kraje, gdzie mnogość formacji zbrojnych i nakładających się interesów nadal paraliżują działania na rzecz pokoju. Szczególne miejsce zajmuje tu Kolumbia, gdzie w różnych konfiguracjach występują (i z reguły zwalczają się) wojska rządowe, lewacka partyzantka, antypartyzanckie podziemne siły prawicowe i baronowie narkotykowi. Przy czym niełatwo zorientować się, gdzie kończy się polityka, a zaczyna narkobiznes.

Ameryka Łacińska naznaczona jest też niechlubnym dziedzictwem “szwadronów śmierci”, które bynajmniej nie zakończyły swego żywota wraz z zimną wojną. Formacje powiązane z policją, wojskiem czy latyfundystami nadal dokonują samosądów na ludności indiańskiej, rolnikach walczących o swą ziemię, miejskiej biedocie, działaczach na rzecz praw człowieka i ekologach. I jakkolwiek skala tego zjawiska jest różna, to z całą pewnością wiadomości, które o tych masakrach docierają do przeciętnego Europejczyka są nikłe, jeśli nie żadne.

Lista “zapomnianych konfliktów” jest oczywiście znacznie dłuższa. Są na niej też m.in. Nepal (krwawa wojna rządu z maoistowską partyzantką), Haiti (starcia przeciwników i zwolenników obalonego prezydenta Aristide’a), Czeczenia (temat, który często znika na długie miesiące mimo ogromu zbrodni popełnianych przez wojska Federacji Rosyjskiej) i szereg innych.

WIEDZA BOLESNA, ALE POTRZEBNA

Często podnoszą się głosy, że to nie nasz (czyli Europy, Stanów Zjednoczonych, cywilizacji zachodniej itp.) problem. “Jeśli chcą się mordować, niech to robią”.

To ciekawe, bo przecież historia pełna jest wydarzeń, które w dwuznacznym świetle stawiają nasz humanitaryzm i “cywilizacyjną wyższość”. W końcu to nasi przodkowie mordowali się w wojnach sukcesyjnych, religijnych i etnicznych. To w centrum Europy rozgrywał się koszmar Nocy Świętego Bartłomieja, na stosach płonęły tysiące “czarownic”, dymiły kominy hitlerowskich obozów śmierci, a komunistyczne represje pochłaniały miliony ludzkich istnień. A było jeszcze Kosowo, Srebenica, Naddniestrze, Irlandia Północna…




Gdy jest konflikt, są i jego ofiary, a w “zapomnianych konfliktach” duży ich odsetek stanowią najbardziej bezbronni i często najmniej lub wcale nie zaangażowani w walkę, w tym kobiety i dzieci. Są zatem ranni, są uchodźcy, są ofiary głodu będącego następstwem napiętej sytuacji, chorzy, pozbawieni domostw zniszczonych na skutek działań zbrojnych i represji. Są wreszcie dzieci wcielane do formacji militarnych wbrew swej woli. Jest więc problem, a w zasadzie cała masa problemów, które czekają na rozwiązanie. Przypomnijmy: kraje, które objęte są “zapomnianymi konfliktami” należą z reguły do najbiedniejszych, o słabym aparacie państwowym i systemie zabezpieczeń socjalnych. Nawet, gdy już zapanuje względna stabilizacja, same nie są w stanie poradzić sobie z ogromem problemów. A tu stawką jest człowiek i jego życie.

Dlatego właśnie “zapomniane konflikty” nie powinny być “zapomniane”.

Ale wiedza potrzebna jest i dlatego, by do takich konfliktów nie dopuszczać lub przynajmniej wpływać na ich ograniczenie. I tu jest najtrudniejsze zadanie. Niektórzy sądzą, że niewykonalne. Jednak lata pracy mediatorów, działaczy ruchów pokojowych i obrońców praw człowieka pokazały, że wszystko jest możliwe. Tak stało się choćby w Indonezji, gdzie nadal w prowincjach Aceh i Irian Jaya giną ludzie. Ale w tej samej Indonezji jeszcze niewiele lat temu trwał inny “zapomniany konflikt” – w Timorze Wschodnim. I mimo, że referendum w sprawie losów tego terytorium poprzedziły krwawe wydarzenia prowokowane przez stronę rządową, to jednak w efekcie politycznego rozwiązania zapanował pokój.

Na przemoc rozgrywającą się z dala od “spokojnej” Europy czy Ameryki Północnej można oczywiście zamknąć oczy. Ale można też je szeroko otworzyć by zobaczyć aż nazbyt wyraźnie , że pokój (podobnie jak dobrobyt) jest wartością będącą udziałem tylko części mieszkańców naszego globu. Zapominanie o reszcie może na dłuższą metę okazać się zawodne. Bo pożar, choć rodzi się daleko i od małej iskierki, to w końcu dociera jako niszcząca siła w najmniej oczekiwanym czasie i miejscu.

Choć może lepszym doradcą niż strach o siebie, powinna jednak być empatia? Ale to takie idealistyczne podejście.

Autor: Artur Sałaszewski
Zdjęcia: Eliana Aponte, Finbarr O’Reilly, Antony Njuguna i Carlos Barria
Źródło: Pomagamy
http://wolne.media.pl/
277  Powitania, Kawiarenka i Hyde Park / Hyde Park - inne / Odp: PRZENIESIONY : SKUTKI WYBUCHU WULKANU W ISLANDII : Kwiecień 18, 2010, 22:19:31
A może jest w tym drugie dno?
278  Powitania, Kawiarenka i Hyde Park / Hyde Park - inne / Odp: Kartka z kalendarza, dzień 10 kwietnia, roku 2010 : Kwiecień 18, 2010, 22:16:52
A ja nie wiem czym się tu podniecać politycy to ludzie wyrachowani którzy dbają tylko o swoje partykularne interesy i swoich partyjek, zgineli ludzie  to przykre ale giną ich tysiące co dzień , i nikt nie robi z tego dramatu .W tym wypadku ich śmierć  poza oczywistym dramatem ludzkim spowodowała ośmieszenie Polski jak i klasy rządzącej  naszym krajem.
279  ŚWIĘTA GEOMETRIA / Artykuły, książki, filmy, LINKI / Odp: Sygnał z kosmosu. : Kwiecień 17, 2010, 12:16:13
Ogólna teoria względności - tłumacząca zjawiska grawitacyjne własnościami geometrycznymi zakrzywionej czasoprzestrzeni, sformułowana przez Einsteina w 1916 roku. W myśl tej teorii promień światła porusza się od punktu do punktu wzdłuż najkrótszej drogi, jednak ze względu na własności czasoprzestrzeni nie jest to prosta, lecz krzywa związana z "zanurzoną" w czasoprzestrzeni masą. Teoria ta przewiduje istnienie fal grawitacyjnych i czarnych dziur. Została potwierdzona eksperymentalnie przez obserwacje astronomiczne - m.in. zjawisko soczewkowania grawitacyjnego.
http://www.swietageometria.darmowefora.pl/index.php?topic=514.0
Mówiąc o soczewkowaniu grawitacyjnym należy oczywiście rozpocząć od sformułowanej w 1915 roku przez Alberta Einsteina ogólnej teorii względności (OTW), gdyż to ona właśnie stworzyła podstawy do teorii ugięcia światła w polu grawitacyjnym. Oczywiście można doszukiwać się początków soczewkowania grawitacyjnego w XVIII - wiecznych pracach Newtona, Michella, Cavendisha, Laplace'a, czy też w pochodzących z początku XIX wieku obliczeniach Soldnera, jednak wszystkie te rozważania zakładały, że światło porusza się w płaskiej czasoprzestrzeni (czy też raczej przestrzeni, gdyż pojęcie czasoprzestrzeni wówczas nie istniało, a sama przestrzeń traktowana była jako scena, na której rozgrywają się w czasie zjawiska fizyczne). Tymczasem, zgodnie z OTW ciała obdarzone masą zakrzywiają czasoprzestrzeń, tak jak jest to schematycznie pokazane na rysunku 1. Fotony, których tory zaznaczone są czerwonymi liniami, poruszają się po najprostszych drogach, co sprawia wrażenie jakby działała na nie siła przyciągająca.



Powyższa rozprawka ukazująca schematycznie i w dużym skrócie teorię, obserwacje i zastosowania soczewkowania grawitacyjnego miała na celu przede wszystkim pokazanie w jak dużym stopniu nowa dziedzina astrofizyki może przyczynić się do poszerzenia wiedzy nie tylko o podstawowych dla astrofizyki zagadnieniach, takich jak ciemna materia, badanie dalekich, a więc zarazem młodych rejonów Wszechświata, wyznaczanie stałej Hubble'a, stałej kosmologicznej, czy też średniej gęstości Wszechświata, ale również posłużyć do testowania ogólnej teorii względności i badania rządzącego kosmosem oddziaływania, czyli grawitacji. Po raz kolejny okazuje się, że Wszechświat jest ogromnym, naturalnym laboratorium fizycznym, które z pewnością pozwoli na testowanie wielu jeszcze teorii fizycznych i udzielanie odpowiedzi na najważniejsze pytania tej dziedziny nauki.

    Autor: Grzegorz Nowak
http://orion.pta.edu.pl/art/soczewki/index.html
280  Powitania, Kawiarenka i Hyde Park / Hyde Park - inne / Odp: Kartka z kalendarza, dzień 10 kwietnia, roku 2010 : Kwiecień 16, 2010, 21:58:44
I trochę faktów o samolotach prezydenckich


Jest żałoba narodowa, zginęli dwaj Prezydenci Rzeczypospolitej, wielu ważnych polityków, oficerów i zwykłych ludzi zaproszonych na pokład prezydenckiego Tupolewa. Nie będę się więc tutaj rozpisywał, choć różne rzeczy cisną się na usta oglądając i czytając relacje mediów z tego tragicznego wydarzenia. Będzie więc bardzo krótko - suche fakty - oceńcie sami jak zachowywały się nasze media od kilku lat, i jak zachowują się obecnie w pogoni za tanią sensacją.


Boeing VC-25 (Air Force One prezydenta Baracka Obamy)
Obrazek użytkownika
#Link

Rok produkcji: 1986.

Planowane uziemienie: 2017


Airbus A310 "Konrad Adenauer" (samolot rządowy Niemiec, wykorzystywany przez kanclerz Angelę Merkel)
Obrazek użytkownika
#Link

Rok produkcji: 1985 (na zlecenie NRD)

Planowane uziemienie: 2010-2011


Tupolev 154M Lux (Kancelarii Prezydenta RP)
Obrazek użytkownika
#Link

Rok produkcji: 1990

Planowane uziemienie: 2011-2012

Katastrofa: 2010


Oceńcie sami trafność ocen naszych wszystkowiedzących mediów, które od kilku lat z jednej strony krytykują rządy za utrzymywanie tak "starych maszyn", a z drugiej strony podsycają nagonkę, gdy ktoś zaczyna mówić o wymianie. Zdecydujcie się do jasnej cholery!

Producent określił, że Tu-154M Prezydenta może wylatać ponad 30.000 godzin, wylatał nieco ponad 5.000 godzin. W połowie grudnia przeszedł planowany remont i przegląd generalny. Był w idealnym stanie technicznym, każda najdrobniejsza usterka (nawet przepalona żaróweczka) musi zostać wyeliminowana przez startem - takie są procedury przelotu tzw. VIP-ów. Stąd informacje o stosunkowo dużej liczbie "awarii" - podobnie jak w przypadku F-16.

Oceńcie również jak zachowują się nasze media - mówię nie tylko o błędach w sztuce dziennikarskiej (było na wykopie o nieautentycznym nagraniu zaprezentowanym przez TVN), ale o ogromnej hipokryzji. Pomijanie pewnych faktów w życiorysach pewnych osób i zwyczajne kłamanie na ich temat mające na celu wybielenie "bo tak wypada" wywołuje tylko dużą frustrację wśród ludzi inteligentnych i interesujących się polityką. O zmarłych powinno się mówić dobrze, zwłaszcza w czasie trwania żałoby narodowej, ale nie wypada używać przy tym kłamstw.
http://www.wykop.pl/ramka/346309/barack-obama-lata-starszym-samolotem-niz-nasze-tu-154/
Strony: « 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 »
Powered by SMF 1.1.11 | SMF © 2006-2008, Simple Machines LLC | Sitemap
BlueSkies design by Bloc | XHTML | CSS

Polityka cookies
Darmowe Fora | Darmowe Forum

foside knieja pet-city grafikaztelenowel krwawawataha