Nauka To Lubię

Oficjalna strona Tomasza Rożka

Miesiąc: Listopad 2015

TworzyMy atmosferę

To my tworzymy atmosferę, którą później oddychamy. Albo – trzeba niestety to przyznać – atmosferę, którą się podtruwamy. Na przełomie jesieni i zimy jakość powietrza w Polsce jest dramatyczna!  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Jakość powietrza na przełomie jesieni i zimy jest najgorsza, bo wtedy powietrze jest wilgotne a szkodliwe cząsteczki mają się o co „zawiesić”. Gdy przychodzi sroga zima zanieczyszczenia są mniej szkodliwe, bo są szybko rozwiewane. W czasie mrozu powietrze jest suche (woda osiada jako szron albo śnieg) a to znaczy, że czystsze.

Kraków – brudne miasto

Dowodów na to, że zatrute powietrze powoduje wiele groźnych chorób jest tak wiele, że aż trudno zrozumieć dlaczego wciąż tak mało energii poświęcamy jego ochronie. Z badań ankietowych wynika, że aż 81 proc. pytanych nie uważa zanieczyszczenia powietrza za problem miejsca w którym mieszka. Fakty są jednak takie, że poziom zanieczyszczenia powietrza w Polsce jest jednym z najwyższych w Unii Europejskiej. Pod względem stężenia pyłu zawieszonego PM10 wywołującego m.in. astmę, alergię i niewydolność układu oddechowego w całej Europie gorsza sytuacja niż w Polsce jest tylko w niektórych częściach Bułgarii. W przypadku pyłu PM2,5 stężenie w polskim powietrzu jest najwyższe spośród wszystkich krajów w Europie, które dostarczyły dane. Podobnie jest ze stężeniem rakotwórczego benzopirenu. Gdy Polskę podzielono na 46 stref w których badano jakość powietrza, okazało się, że aż w 42 poziom benzopirenu był przekroczony. Wczytywanie się w statystyki, liczby, tabelki i wykresy może przyprawić o ból głowy. Okazuje się bowiem, że wśród 10 europejskich miast z najwyższym stężeniem pyłów zawieszonych, aż 6 to miasta polskie; Kraków, Nowy Sącz, Gliwice, Zabrze, Sosnowiec i Katowice. Bezsprzecznym liderem na liście miast z największym zanieczyszczeniem jest od lat Kraków. Tam liczba dni w roku w których normy jakości powietrza są przekroczone wynosi 151. Kraków jest trzecim najbardziej zanieczyszczonym miastem europejskim. Brudne powietrze to nie tylko takie w którym przekroczone są normy stężania pyłów zawieszonych czy wielopierścieniowych węglowodorów aromatycznych (WWA), w tym benzopirenu (te powstają w wyniku niecałkowitego spalania np. drewna, śmieci czy paliw samochodowych). My i nasze dzieci (także te, które jeszcze się nie urodziły) oddychamy tlenkami azotu (główne źródło to spaliny samochodowe), tlenkami siarki (spalanie paliw kopalnych), przynajmniej kilkoma metalami ciężkimi np. kadmem, rtęcią, ołowiem, a także tlenkiem węgla.

Piece i samochody

Źródła poszczególnych zanieczyszczeń występujących w atmosferze są różne, ale w brew pozorom nie są one związane z przemysłem. Głównym ich źródłem jesteśmy my sami, a konkretnie indywidualne ogrzewanie domów i mieszkań oraz transport drogowy. Ponad 49 proc. gospodarstw domowych ma własne piece centralnego ogrzewania. Samo to nie byłoby problemem gdyby nie fakt, że przeważająca większość tych pieców to proste konstrukcje, które można scharakteryzować dwoma określeniami: są wszystkopalne i bardzo mało wydajne. Duża ilość paliwa, którą trzeba zużyć oraz fakt, że często używane jest w nich paliwo niskiej jakości powodują, że duże miasta w Polsce w okresie jesienno – zimowym praktycznie są cały czas zasnute mgłą. Swoje dokładają także samochody. Liczba samochodów osobowych zarejestrowanych w Polsce wynosi 520 pojazdów na 1000 mieszkańców a to więcej niż średnia europejska. Nie jest to bynajmniej powód do dumy. Spory odsetek samochodów na naszych drogach nie zostałby zarejestrowany w innych unijnych krajach. Także ze względu na toksyczność spalin.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

O szkodliwości zanieczyszczonego powietrza można by pisać długie elaboraty. W zasadzie nie ma organu, nie ma układu w naszym ciele, który nie byłby uszkadzany przez związki chemiczne zawarte w zanieczyszczeniach. Przyjmuje się, że z powodu zanieczyszczenia powietrza umiera w Polsce ponad 40 tys. osób rocznie. To ponad 12 razy więcej osób niż ginie wskutek wypadków drogowych! Grupami szczególnie narażonymi są dzieci i osoby starsze. Zanieczyszczenia bardzo negatywnie wpływają na rozwój dziecka przed urodzeniem. Prowadzone także w Polsce badania jednoznacznie wskazywały, że dzieci, których matki w okresie ciąży przebywały na terenach o dużym zanieczyszczeniu powietrza, miały mniejszą masę urodzeniową, były bardziej podatne na zapalenia dolnych i górnych dróg oddechowych i nawracające zapalenie płuc w okresie niemowlęcym i późniejszym, a nawet wykazywały gorszy rozwój umysłowy.

To problem każdego!

W sondażu przeprowadzonym na zlecenie Ministerstwa Środowiska w sierpniu 2015 r. czystość powietrza była wymieniana jako jedna z trzech – obok bezpieczeństwa na drogach i poziomu przestępczości – najważniejszych kwestii, od których zależy komfort życia w danej miejscowości. Problem z tym, że większość pytanych nie widzi tego problemu w miejscowości w której mieszka. Temat dla nich istnieje, ale jest abstrakcyjny, mają go inni. Prawda jest inna. Nawet w wypoczynkowych miejscowościach jak Zakopane czy Sopot jakość powietrza jest koszmarna. Tymczasem problem w dużej części można rozwiązać bez dodatkowych inwestycji czy zwiększania rachunki np. za ogrzewanie. Wystarczy zmienić własne nawyki. Kupno węgla o odpowiednich parametrach to pozornie wyższy wydatek. Lepszy węgiel ma jednak wyższą wartość opałową, czyli trzeba go zużyć mniej by wyprodukować podobna ilość ciepła. Nic nie kosztuje dbanie o sprawność domowego pieca przez regularne czyszczenie go. Nic nie kosztuje (można dzięki temu nawet zaoszczędzić), zamiana w mieście samochodu na komunikacje miejską albo rower.

A miejsce śmieci… jest w śmietniku. Inaczej pozostałości z ich spalania, będę kumulowały się w naszych płucach. Polacy w domowych piecach spalają rocznie do 2 mln ton odpadów. W konsekwencji do atmosfery i do naszych płuc trafiają m.in. toksyczne dioksyny, furany, cyjanowodór.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

 

Tekst został opublikowany w tygodniku Gość Niedzielny.
2 komentarze do TworzyMy atmosferę

Tajemnica mgiełki

Mgłę tworzą miliardy maleńkich kropelek. Niby wszystko jasne, ale skąd one się wzięły w powietrzu? I dlaczego mgły najczęściej występują jesienią?

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

„Dymek”, który w chłodny dzień wylatuje w czasie oddychania z ust, to nie żadna para wodna tylko płynna woda. Jak jest różnica? Para wodna to woda w stanie gazowym. A gazu nie widać. Ten „dymek” to miliony kropelek płynnej wody. Tak samo jak z kropelek płynnej wody składa się „dymek” jaki wydostaje się z czajnika czy garnka w którym gotuje się woda. A teraz uwaga! „Widoczny” oddech zimą, czy „dymek” z czajnika lub garnka to dokładnie to samo co mgła.

100 na milimetrze!

Gdy para wodna wylatuje przez dziubek czajnika, trafia do dużo chłodniejszego powietrza. Dokładnie w tym momencie następuje skraplanie. Woda ze stanu gazowego przechodzi w stan płynny, a maleńkie kropelki wody jakie wtedy powstają tworzą charakterystyczną mgiełkę. W zimniejszym powietrzu „mieści” się mniej pary wodnej niż w gorącym. Gdy więc gorące powietrze „wypchane” parą wodną zacznie się ochładzać, nadmiar pary wodnej „wytrąca się”, czyli skrapla. Kropelki o których mowa mają średnicę około 0,01 mm, a to znaczy, że na jednym milimetrze zmieściłoby się ich aż 100!. Dla porównania, krople deszczu mają około 3-4 mm średnicy.

Mgła która utrudnia jazdę samochodom i lądowanie samolotom powstaje dokładnie tak samo jak mgiełka przy wylocie z czajnika, czyli wtedy gdy w przepełnionym wilgocią powietrzu, w czasie ochładzania, zaczynają się tworzyć mikroskopijne kropelki wody. Niby wszystko jasne, ale w praktyce…

Mgły występują szczególnie często jesienią bo wtedy właśnie różnice temperatur pomiędzy dniem i nocą są największe. Żeby powstała mgła musi być spełnionych wiele różnych warunków. Odpowiednia różnica temperatur, odpowiednia wilgotność, niewielkie ruchy powietrza,… Mgły rzadko występują na obszarach gdzie nie ma zbiorników wodnych. Mocno świecące w ciągu dnia Słońce powoduje, że woda z rzek, jezior czy podmokłych łąk paruje. Po zachodzie, gdy temperatura otoczenia spada, w wilgotnym i stygnącym powietrzu zaczynają pojawiać się miniaturowe kropelki wody.

W kotlinie tak, w mieście nie

Satelity, radary pogodowe i cała masa innych urządzeń meteorologicznych. I wszystko na nic. Dlaczego przewidywanie miejsca pojawienia się i intensywności mgieł jest tak skomplikowane? Mgłę bardzo trudno przewidzieć, bo zwykle występuje lokalnie i jest zjawiskiem bardzo zmiennym. Powstaje w wyniku lokalnej zmiany temperatury i zależy zwykle od lokalnej wilgotności powietrza. Czasami obszar mgieł wynosi zaledwie kilkaset metrów kwadratowych. Tak szczegółowo warunków pogodowych nie rejestrują żadne urządzenia. Zresztą nie chodzi tylko o dane meteorologiczne, ale także o rzeźbę terenu czy informacje o zalezieniu. Częściej mgły występują w kotlinach i dolinach, bo tam szybciej ochładza się  grunt. Poza tym tam rzadziej wieją wiatry, które mgły rozwiewają. W miastach i dużych aglomeracjach mgły występują rzadko, bo zwykle jest tam cieplej i bardziej sucho. Poza tym budynki i czarny asfalt nagrzewają się, więc różnice temperatur pomiędzy dniem i nocą nie są aż tak duże jak poza miastem.

Dlaczego mgła jest biała?

Skoro mgła to zbiór miliardów przezroczystych kropelek wody, a woda jest przezroczysta… mgła też powinna taka być. A tymczasem ogranicza widoczność. Dlaczego?

Każda kropelka mgły na którą padnie promień światła działa jak pryzmat i rozprasza go. Promienie światła we mgle poruszają się nie po liniach prostych tylko w sposób chaotyczny. Część promieni światła z reflektora samochodowego jest odbijana z powrotem, jak od powierzchni lustra. Zaburzenia w rozchodzeniu się fal świetlnych powodują, że spada odległość na jakiej ludzkie oko jest w stanie dostrzegać przedmioty. Gdy mgła jest gęsta, widoczność może spaść nawet do kilkunastu centymetrów. Można wtedy odnieść wrażenie, że gęsta chmura spadła na ziemię. I sporo w tym będzie prawdy. Chmura, to przecież także mgła.

I jeszcze jedno. Dlaczego światła przeciwmgielne montuje się w samochodach poniżej świateł „normalnych”? Dlatego, że przy samym gruncie mgła zwykle nie występuje. A dzieje się tak dlatego, że ogrzany w ciągu dnia asfalt ochładza się znacznie wolniej niż powietrze. W efekcie przy samej jezdni panuje wyższa temperatura niż np. pół metra nad nią. W wyższej temperaturze woda występuje w stanie gazowym, a więc jest przezroczysta. Mgła bardzo rzadko występuje przy samej powierzchni gruntu, zwykle zaczyna się kilkanaście centymetrów powyżej. Stąd nisko montowane światła są widoczne z większej odległości.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Zobacz mój filmik na temat chmur i mgły. Mgłę możesz sam zrobić… w butelce 🙂 Powodzenia

4 komentarze do Tajemnica mgiełki

Technologia demencji z pomocą

To, że nasz świat się starzeje wiedzą wszyscy. Ale niewiele osób zdaje sobie sprawę z konsekwencji z jakimi się to wiąże. Przed ogromnymi wyzwaniami stoją służba zdrowia i publiczne usługi.  Ale także system ubezpieczeń społecznych i… architektura.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Każdy chyba intuicyjnie czuje, czym jest tzw. inteligentny dom (mieszkanie). To miejsce – w największym skrócie – które dostosowuje się do człowieka. I to na każdym z możliwych poziomów. Do człowieka i dla człowieka. Inteligentne domy wiążą się z tzw. internetem rzeczy i w przyszłości będą czymś oczywistym nie tylko dla osób starszych. Tyle tylko, że tak jak osoba w pełni sił obejdzie się bez udogodnień w swoim mieszkaniu, tak osoba starsza, z ograniczeniami fizycznymi a czasami także psychicznymi, może mieć z tym problem.

Kilka lat temu pracujący w brytyjskim Uniwersytecie Bath uczeni zabrali się za urządzanie wnętrz. Tym razem zamiast architektów czy dekoratorów pierwsze skrzypce grali jednak inżynierowie i informatycy. I tak powstało być może pierwsze mieszkanie nafaszerowane nowoczesnymi technologiami, które zostało zaprojektowane specjalnie dla osób, które z powodu demencji czy urazów cierpią na zaniki pamięci.

Osoba cierpiąca na zaburzenia pamięci czy ograniczoną zdolność do zapamiętywania informacji jest uzależniona od innych. Ktoś musi przypilnować czy podopieczny sam nie wychodzi z domu (często nie zdając sobie sprawy dokąd się wybiera), sprawdzić czy zamknął okna (szczególnie, gdy na zewnątrz jest zimno) lub czy zgasił światła, gdy idzie spać. Ktoś musi także skontrolować czy wyłączył kuchenkę po podgrzaniu obiadu albo zobaczyć czy nie odkręcił wody nad umywalką w łazience, a potem o tym zapomniał. Te, czy też inne czynności nie są zwykle uciążliwe, ale wymagają przez cały czas obecności innych. Nie zawsze jest to jednak możliwe. Często w takich przypadkach – dla własnego bezpieczeństwa – osoby z zaburzeniami pamięci wysyłane są do domów opieki lub domów spokojnej starości. Tam całodobową opiekę zapewnia im profesjonalna kadra. Ale czy jest ona rzeczywiście zawsze potrzebna ? Na miejsca w tego typu ośrodkach trzeba czasami długo czekać, a biorąc pod uwagę tempo starzenia się społeczeństw, w przyszłości czas oczekiwania może być jeszcze dłuższy. Jest jeszcze coś. Nie ulega wątpliwości, że zmiana miejsca zamieszkania, a przez to także środowiska, czy kręgu znajomych wpływa bardzo niekorzystnie na osoby starsze.

Dlatego powstało pierwsze na świecie mieszkanie przyjazne i bezpieczne dla osób z zaburzeniami pamięci. Zainstalowany w nim system składa się z sensorów, które połączone są w sieć z urządzeniami najczęściej używanymi w gospodarstwie domowym. Do sieci podłączone są także wszystkie włączniki światła oraz urządzenia „mówiące” i wyświetlające komunikaty. Poza tym czujniki umieszczone są w drzwiach wyjściowych i wszystkich oknach. Sercem systemu jest komputer, który analizuje wszystkie dostarczane mu dane. To on decyduje, czy zwrócić się do właściciela mieszkania, czy – szczególnie wtedy gdy kolejne komunikaty nie przynosiły skutku – zadzwonić po pomoc.

Konstruktorzy systemu podkreślają, że dla osób starszych czy z różnego typu urazami równie ważne jak rzeczywista opieka jest poczucie bezpieczeństwa. Pewność, że w razie wypadku odpowiednie służby zostaną automatycznie powiadomione i przyjdą z pomocą. Wielką zaletą zaprojektowanego systemu jest to, że w przyszłości będzie go można zamontować w całości lub w częściach w już istniejących mieszkaniach. Dotychczasowe próby stworzenia „inteligentnych”, naszpikowanych elektroniką domów wiązały się z koniecznością budowy ich od samych niemalże fundamentów. Teraz jest inaczej. Osoba mająca coraz większe problemy z koncentracją będzie mogła zainstalować sobie komponenty systemu w swoim własnym mieszkaniu. Nie będzie się także musiała obawiać generalnego remontu ścian czy okien. Wszystkie urządzenia działają w technologii bezprzewodowej i przekuwanie się przez mury w czasie ich instalacji nie jest konieczne.

Co w takim razie potrafi inteligentne mieszkanie dla osób starszych ? Jednym z największych zagrożeń dla kogoś kto ma kłopoty z koncentracją jest zostawienie włączonej kuchenki elektrycznej lub gazowej. Jeżeli czujniki wykryją taką sytuację zasygnalizują głosowo, że powinna ona zostać wyłączona. Jeżeli pierwsze ostrzeżenie nic nie pomoże, system je powtórzy. Jeżeli nawet to nie da odpowiedniego rezultatu, kuchenka zostanie automatycznie wyłączona. To samo stanie się, gdy włączą się czujniki dymu zainstalowane nad kuchenką. W tym przypadku komputer natychmiast zadzwoni do odpowiednich służb i powiadomi je o zdarzeniu. Cały czas – nawet po wyłączeniu kuchenki – system sprawdza jaka jest temperatura grzejników. Tak długo jak są one gorące, na zainstalowanym nad kuchenką ekranie wyświetlane będzie ostrzeżenie o ryzyku oparzenia. Komputer główny cały czas „wie”, w którym pokoju przebywa właściciel mieszkania. Jeżeli w środku nocy wyjdzie z łóżka i będzie zmierzał w kierunku łazienki, automatycznie zapali się w niej światło. Jeżeli po skorzystaniu z toalety osoba wróci do łóżka, a zapomni zgasić światło – to, po kilku minutach wyłączy się ono samo. Podobnie jak samoczynnie zakręci się kurek z wodą, gdy umywalka czy wanna zostanie w całości napełniona. Gdy w nocy właściciel postanowi pospacerować po swoim mieszkaniu, w pokojach, do których wejdzie, automatycznie będą się włączały światła, a w  tych, z których wyjdzie wyłączały. Oczywiście światła będą też mogły być włączane i wyłączane „ręcznie”. Jeżeli „nocne zwiedzanie” będzie trwało zbyt długo, system przez zamontowane w mieszkaniu głośniki zwróci właścicielowi uwagę, że czas iść już spać. Jeżeli ani ten, ani powtórzony po kilku chwilach komunikat nie odniesie skutku, komputer skontaktuje się telefonicznie z opiekunem. Tak samo zresztą zareaguje, gdy podopieczny o nietypowych (zadanych wcześniej) godzinach otworzy drzwi wejściowe do swojego mieszkania i będzie miał zamiar wyjść na zewnątrz. System poprosi o wejście z powrotem, a jeżeli to nie pomoże, skontaktuje się  z opiekunem.

System można rozbudowywać według potrzeb osoby z niego korzystającej. Komputer będzie przypominał o zażyciu lekarstw zalecanych przez lekarza. O inteligentnym domu możemy mówić wtedy, gdy wszystko co automatyczne, połączone jest w zintegrowany system zarządzania i nadzoru. Gdy właściciel słucha jakiejś muzyki szczególnie często, system wie, że to jego ulubiona. Oczywiście ulubioną (nawet w zależności od pory dnia) można zdefiniować samemu. System też wie, że właściciel lubi kawę rano, ale po południu herbatę. To można także zaprogramować, albo poczekać, aż odpowiedni program sam się tego nauczy. Wiele pomysłów zaprojektowanych z myślą o osobach starszych – nie mam co do tego żadnych wątpliwości – znajdzie powszechne zastosowanie. Jak chociażby system, który z chwilą wyjścia domownika, automatycznie zamknie główny zawód wody i gazu, wyłączy wszystkie zbędne obwody elektryczne i uzbroi alarm. To wszystko może stać się wtedy gdy system czujników sam wykryje, że w domu już nikogo nie ma, albo wtedy gdy domownik na progu zawoła „wychodzę !”. W inteligentnym domu, głosem będzie można załatwić wszystko. Choć to wydaje się być udogodnienie dla wszystkich, dla starszych będzie to szczególnie istotne. Seniorzy często mają kłopoty ze wzrokiem i mniej precyzyjne palce niż osoby młode. Włączanie opcji na panelu czy klawiaturze może być dla nich kłopotliwe.

Co ciekawe, inteligentne domy są nie tylko bardziej przyjazne i bezpieczniejsze, ale także dużo oszczędniejsze w utrzymaniu. Oszczędzają wodę, energię elektryczną, gaz, ale przede wszystkim czas właścicieli. A to znaczy, że są odpowiedzią nie tylko na wyzwanie związane z średnim wiekiem społeczeństw uprzemysłowionych, ale także na wyzwanie związane z ochroną środowiska i oszczędzaniem energii.  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.
1 komentarz do Technologia demencji z pomocą

100 lat abstrakcji

Czas jest względny, a masa zakrzywia czasoprzestrzeń. To jedno zdanie jednych przyprawia o ból głowy, dla innych jest źródłem nieograniczonej fascynacji. Fascynacji, która trwa dokładnie 100 lat.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Pióra i ołówki na teorii grawitacji połamało już wielu badaczy. To co wiemy, to prosty wzór, którego dzieci uczą się w szkole. Że siła grawitacji zależy od masy obiektów, które są jej źródłami (im obiekt cięższy, tym większa siła), oraz że słabnie wraz z zwiększającą się odległością pomiędzy tymi obiektami. Dzięki tej prostej zależności, udaje się doskonale przewidywać ruchy planet, satelitów, także zachowanie sporej części gwiazd w galaktyce. Sporej, ale nie wszystkich.

Tymi, których wytłumaczyć się nie da są np. kolizje gwiazd neutronowych, pulsary, czarne dziury czy wybuchy supernowych. Grawitacji nie sposób także „dopasować” do wielkiego wybuchu. A skoro od niego swój początek wziął czas i przestrzeń, nasze braki w rozumieniu grawitacji stają się kłopotliwe.

Dokładnie 100 lat temu Albert Einstein ogłosił (a konkretnie odczytał) Ogólną Teorię Względności. Jej manuskrypt (ma 46 stron) można dzisiaj zobaczyć w Bibliotece Narodowej Izraela. Dla postronnego obserwatora, niespecjalisty , notatki Einsteina mogą sprawiać wrażenie niewyraźnych bazgrołów zrobionych na pożółkłych kartkach. Są napisane bardzo drobnym maczkiem, często poprawiane, miejscami podkreślone, w innych miejscach przekreślone. Sporo w nich matematycznych wzorów. Niesamowite, jak wiele w fizyce czy w ogóle w postrzeganiu świata (wszechświata) zmieniło to, co 100 lat temu zostało zaprezentowane światu.

Ogólna Teoria Względności została ogłoszona w 1915 roku, gdy Albert Einstein przebywał w Niemczech. Już wtedy Einstein był znanym człowiekiem, a jego prace – choć przez bardzo nielicznych rozumiane – były w pewnym sensie kultowe. Stworzenie OTW nie było olśnieniem, jak wielu innych teorii fizycznych. Einstein pracował nad nią 9 lat. Czasami błądził, czasami się mylił. To była żmudna praca. OTW jest – jak sama nazwa wskazuje – uogólnieniem Szczególnej Teorii Względności Einsteina. Choć teoria Ogólna i Szczególna są dwoma najbardziej znanymi jego pracami, Einstein największe naukowe zaszczyty (Nagrodę Nobla) odebrał za prace nad zupełnie innym problem (konkretnie nad efektem fotoelektrycznym).

Ogólna Teoria Względności (OTW) jest w zasadzie teorią opisującą najbardziej namacalne dla nas oddziaływanie – grawitację. Z nią wiążą się takie wielkości jak masa, przestrzeń i czas. OTW jest bardzo skomplikowana. Nie sposób jej zrozumieć bez ogromnej wiedzy czysto matematycznej. Wynika z niej, że każda masa jest źródłem zakrzywienia otaczającej ją przestrzeni. Czym większa masa, tym większa siła grawitacji, czyli większe zakrzywienie przestrzeni. Jak to rozumieć? Gdy dwie osoby trzymają za rogi obrus jego powierzchnia jest płaska. Ale gdy na sam środek obrusu wrzucimy piłkę, obrus w miejscu w którym się ona znajduje lekko się „naciągnie” czy inaczej „zakrzywi”. Czym większa piłka, tym większe zakrzywienie. Gdy położymy na skraju obrusu mniejsza piłeczka, stoczy się do tego zakrzywienia, tak jak przyciągana grawitacyjnie asteroida „stoczy” się w kierunku Słońca. Tyle tylko, że obrus ma dwa wymiary, a przestrzeń wokół nas ma ich trzy. Ta nieintuicyjność (nie mylić z nielogicznością) to jeden z powodów dla których dwie teorie względności tak trudno zrozumieć. Drugim jest bardzo zaawansowana matematyka, której Einstein musiał użyć do rozwiązania swoich równań.

Gdy Einstein referował swoje pomysły na względność, był znany z zupełnie innych badań teoretycznych. Słuchano go więc z zaciekawianiem. Ale to zaciekawienie wynikało z szacunku do znanego fizyka a nie ze zrozumienia tego o czym mówił. W pewnym sensie tak jest do dzisiaj. Albert Einstein jest postacią kultową. Ale nie dlatego, że tak wielu ludzi rozumie Szczególną czy Ogólną Teorię Względności.  Tak naprawdę zaledwie garstka fizyków wie o co w niej chodzi. Nieco większa grupa rozumie co wynika z teorii Einsteina. Całkiem sporo fizyków na codzień wykorzystuje w swojej pracy naukowej zjawiska, które udało się dzięki teoriom Einsteina zrozumieć. Jednym z takich zjawisk są soczewki grawitacyjne. W zakrzywionej przestrzeni światło nie porusza się po liniach prostych, tylko krzywych. To dlatego światło dalekich galaktyk biegnące w okolicach dużych mas (czarnych dziur czy innych galaktyk) jest zakrzywione, tak samo jak światło przechodzące przez szklane soczewki. Dla astrofizyków i astronomów soczewki grawitacyjne to coś w rodzaju naturalnego teleskopu dzięki któremu mogą obserwować obiekty i zjawiska których inaczej nie udałoby się zaobserwować. Zakrzywiane światło to jednak dopiero początek wchodzenia w świat abstrakcji. Z równań Einsteina wynika także, że czas jest pojęciem względnym, że nie płynie dla nas wszystkich tak samo. Jego bieg jest zależny bowiem od siły grawitacji i od prędkości z jakim porusza się ciało. To z kolei wykorzystuje się w systemach globalnej lokalizacji (np. GPS).

Einstein był teoretykiem. Nie sprawdzał eksperymentalnie tego co wyliczył na drodze matematyki. Zresztą wtedy kiedy dokonywał swoich odkryć, nie było możliwości sprawdzenia ich poprawności. Urządzenia pomiarowe nie były dość czułe, a człowiek jeszcze nie latał w kosmos. To właśnie w przestrzeni pozaziemskiej wielokrotnie testowano wyliczenia Alberta Einsteina. Wszystkie dokładnie się zgadzają. No może za wyjątkiem jednej. Przewidywanych w Teorii Względności fal grawitacyjnych. Ale o nich napiszę innym razem 🙂 Tak samo jak o największej naukowej pomyłce Einsteina.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do 100 lat abstrakcji

Myśląca maszyna

Na samą myśl o tym, że komputer mógłby myśleć, myślącemu człowiekowi włosy stają dęba. A może wystarczy nauczyć maszynę korzystania z naszych myśli?

Myślenie maszyn to temat, który wywołuje sporo emocji. Czy zbudujemy kiedykolwiek sztuczny mózg? Czy maszyny (komputery, programy) mają świadomość? A może w przyszłości nas zastąpią? Cóż, zastępują już dzisiaj. I dobrze, że zastępują, w końcu po to je budujemy. Czy myślą? Nie da się odpowiedzieć na to pytanie, zanim nie sprecyzujemy dokładnie co to znaczy „myśleć”. Jeżeli oznacza „podejmować decyzje”, to tak, komputery potrafią to robić. Potrafią też się uczyć i wyciągać wnioski z przeszłości. Nie potrafią robić rzeczy abstrakcyjnych. I przede wszystkim nie mają poczucia osobowości, nie mają poczucia swojej odrębności i swoich własnych celów. Owszem maszyny robią wiele rzeczy celowych, ale realizują nie swoje cele, tylko cele konstruktora czy programisty.

Deep brain stimulator.

(credit:  Asylum Entertainment)

Deep brain stimulator.

(credit: Asylum Entertainment)

Łowienie sygnałów

Samoświadomość czy kreatywność wydają się być barierą, która jeszcze długo nie zostanie złamana. To czy powinna być złamana, to zupełnie inny temat. Ale być może nie ma potrzeby na siłę nadawać maszynom cech ludzkich mózgów, może wystarczy w jakiś sposób je z naszymi mózgami zintegrować? Różnice pomiędzy tym, jak działa nasz mózg i „mózg” maszyny są spore. Może warto się zastanowić nad tym, czy maszyna nie mogłaby w pewnym sensie skorzystać z tego co MY mamy w głowie. Ten sam problem można postawić inaczej. Czy nasz mózg jest w stanie dogadać się bezpośrednio z maszyną? Czy jest bezpośrednio w stanie przekazywać jej informacje albo nią sterować?

Słowo „bezpośrednio” ma tutaj kluczowe znaczenie. Nasze mózgi dogadują się z komputerem, ale pomiędzy umysłem a procesorem w maszynie jest cała masa stopni pośrednich. Np. palce piszącego na klawiaturze, sama klawiatura. W końcu język, w którym piszemy komendy (albo tekst). Te stopnie pośrednie powodują, że czas pomiędzy myślą, która zakwita nam w mózgu a jej „materializacją” bywa długi. Każdy stopień pośredni jest potencjalnym miejscem pojawienia się błędu. W końcu ile razy wpisywana przez klawiaturę komenda czy tekst zawierał literówki? Jest jeszcze coś. Nie każdy fizycznie jest w stanie obsługiwać komputer czy jakiekolwiek inne urządzenie elektroniczne. Zwłaszcza dla takich ludzi stworzono interfejs mózg – komputer (IBC). Urządzenie, które pozwala „zsynchronizować” mózg z komputerem, pozwalające wydawać komendy urządzeniom elektronicznym za pomocą fal mózgowych. Dzisiaj z IBC korzystają nie tylko niepełnosprawni, ale także gracze komputerowi. W przyszłości być może będzie to standardowy sposób obsługi elektroniki.

Jak to działa? Komórki nerwowe w mózgu człowieka porozumiewają się pomiędzy sobą poprzez przesyłanie impulsów elektrycznych. Te można z zewnątrz, czyli z powierzchni czaszki, rejestrować. W ostatnich latach nauczyliśmy się je także interpretować. To istne szukanie igły w stogu siana. Mózg każdej sekundy przetwarza miliony różnych informacji, przesyła miliony impulsów do mięśni rozlokowanych w całym ciele. Każdy taki sygnał pozostawia „ślad”, który można podsłuchać.

Neural net firing reversed.

(credit:  Asylum Entertainment)

Neural net firing reversed.

(credit: Asylum Entertainment)

Czujnik w okularach

Nie powiem, że potrafimy podsłuchać wszystko. To byłaby nieprawda. Mówiąc szczerze, jesteśmy dopiero na samym początku drogi. W przypadku IBC bardzo pomocna jest  świadomość użytkownika (pacjenta?) korzystającego z interfejsu. Człowiek ma bowiem zdolności do takiego aktywizowania mózgu, by sygnały z tym związane, można było wyraźniej „usłyszeć” na powierzchni czaszki. Dzięki temu, osoby sparaliżowane, myślami są w stanie poruszać mechanicznymi nogami (czyli tzw. egzoszkieletem) albo wózkiem inwalidzkim. W ten sam sposób człowiek ze sprawnie działającym mózgiem jest w stanie komunikować się z otoczeniem chociażby poprzez pisanie na ekranie, nawet gdy jest całkowicie sparaliżowany. Myśli o literach, a te wyświetlają się na odpowiednim urządzeniu.  W podobny sposób, w przyszłości być może będzie wyglądało sterowanie telefonem komórkowym czy jakimkolwiek innym urządzeniem. Pewną trudnością jest to, że – przynajmniej dzisiaj – po to, by wspomniane impulsy można było zarejestrować, do skóry głowy muszą być przyłożone elektrody. Albo korzystający z interfejsu człowiek musi mieć ubrany specjalny czepek z czujnikami. Ale w przyszłości być może wystarczą czujniki w okularach? Okularach, w których zainstalowana będzie kamera, a na szkłach wyświetlane będą dodatkowe informacje. Takie okulary już są i nazywają się GoogleGlass.

Złożony i skomplikowany

Interfejs mózg – komputer odbiera sygnały z powierzchni skóry, rejestruje je i interpretuje. Czy możliwe jest przesyłanie informacji w odwrotną stronę, czyli z jakiegoś urządzenia do mózgu? Na razie tego nie potrafimy, ale nie mam wątpliwości, że będziemy próbowali się tego nauczyć (znów, czy powinniśmy to robić, to zupełnie inny temat). To znacznie bardziej skomplikowane niż sczytywanie potencjałów elektrycznych z powierzchni czaszki. W którymś momencie tę barierę może przekroczymy i wtedy będziemy mieli dostęp do nieograniczonej ilości informacji nie poprzez urządzenia dodatkowe takie jak komputery, tablety czy smartfony. Wtedy do tych informacji będzie miał dostęp bezpośrednio nasz mózg. Na to jednak zbyt szybko się nie zanosi. Nie z powodu samej elektroniki, raczej z powodu naszego mózgu. Panuje dość powszechna zgoda, że to najbardziej skomplikowany i złożony system jaki znamy. Nie tylko na Ziemi, ale w ogóle. Choć od lat na badania mózgu przeznacza się ogromne kwoty pieniędzy, choć w ostatnich latach poczyniliśmy ogromne postępy, wciąż niewiele wiemy o CZYMŚ co waży pomiędzy 1,2 a 1,4 kg

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do Myśląca maszyna

Marsjanin okiem naukowca ;-)

Film Marsjanin jest niezły, choć książka 100 razy lepsza. Ale do rzeczy. Czy możliwa jest historia astronauty Marka Watneya, którego  gra Matt Damon? Postanowiłem popastwić się nad scenariuszem.

Wiem, że piszę to nico późno (w większości kin film już zszedł z ekranów), ale potraktujcie to jako pewien rodzaj próby. W polskim internecie naukowcy (dziennikarze naukowi) zwykle nie recenzują filmów. Ciekaw jestem jaka będzie reakcja na moją recenzję.

Film warto zobaczyć, a jeszcze bardziej warto przeczytać książkę. Piękne krajobrazy, dobre efekty specjalne i ciekawa historia nie zmieniają jednak tego, że opowiedziana w nim historia nie ma prawa się zdarzyć i to z wielu różnych powodów. Ja wspomnę o czterech. Jeżeli nie oglądałaś, jeżeli nie oglądałeś filmu, za chwilę zdradzę kilka szczegółów jego fabuły.

Burza piaskowa, ewakuacja załogi. Zdjęcie z filmu

1.Załogowa misja na Marsa musi w trybie natychmiastowym ewakuować się z planety z powodu silnej burzy piaskowej. Ta nadchodzi tak szybko, że astronauci mają dosłownie kilka minut na spakowanie się i wystrzelenie na orbitę. Tymczasem marsjańska burza byłaby dla sprzętu i ludzi  niegroźna. Marsjańska atmosfera jest z grubsza 200 razy rzadsza od ziemskiej. Nawet jak mocno wieje, niewiele ma to wspólnego z niszczycielskim żywiołem. Marsjańskie burze po prostu nie mają mocy którą mają burze na Ziemi. Marsjańska burza nie może przewracać metalowych konstrukcji. Poza tym da się ją przewidzieć z dużym wyprzedzeniem. Jeżeli w ogóle mówić o niebezpieczeństwach związanych z burzami piaskowymi na Czerwonej Planecie, to nie z powodu siły wiatru tylko znacznie mniejszych niż na Ziemi ziarenek pyłu. Te wcisną się wszędzie powodując uszkodzenia sprzętu. No ale tego w filmie nie było.

martian-gallery13-gallery-image

Uprawa ziemniaków w marsjańskim habitacie. Zdjęcie z filmu

2.Główny bohater ulega wypadkowi, a ewakuująca się załoga święcie przekonana o jego śmierci zostawia go samego na planecie. Mark Watney oczywiście się nie załamuje, tylko szybciutko liczy że na pomoc będzie musiał czekać kilka lat. Sprawdza racje żywnościowe i wychodzi mu, że tych ma za mało. Postanawia więc uprawiać w habitacie ziemniaki. Nawozi do wnętrza labu marsjański grunt i… no i tutaj zaczynają się kolejne kłopoty. Warstwa gruntu jaką przenosi do habitatu jest za mała żeby cokolwiek na niej wyrosło. Ale nie to jest najciekawsze. Z jakiś powodów astronauta postanawia nawozić ekskrementami ziemię po to by ziemniaki szybciej rosły. Po pierwsze nie wiem po co jakikolwiek nawóz. Marsjański grunt jest bardzo bogaty w mikroelementy i minerały. Nawet jeżeli chcieć go nawozić, to ludzkie odchody to nienajlepszy pomysł. Znacznie lepiej byłoby używać odpadków organicznych. Totalnym odlotem jest produkcja wody dla uprawy ziemniaków. Do tego Mark używa hydrazyny, czyli paliwa rakietowego. W teorii reakcja którą przeprowadza jest możliwa, w praktyce cały habitat wyleciałby w powietrze. Po to żeby z hydrazyny odzyskać wodór, po to by po połączeniu z tlenem powstała woda, musi zachodzić w ściśle kontrolowanych warunkach. A nie w namiocie zrobionym z worka.

Habitat, ściana na której główny bohater zaznacza liczbę spędzonych na Marcie dni. Zdjęcie z filmu

3.Największe moje wątpliwości budzi jednak nie burza, ani nie uprawa ziemniaków, tylko długi czas przebywania człowieka na Czerwonej Planecie. O ile dobrze liczę Mark Watney przebywał tam około 20 miesięcy. Nawet gdyby miał wodę i pożywienie wróciłby stamtąd chory. Do powierzchni Marsa z powodu bardzo cienkiej i rzadkiej atmosfery dochodzi dużo więcej promieniowania kosmicznego niż do powierzchni Ziemi. Z szacunków wynika, że po to by człowiek mógł czuć się na Marsie równie bezpieczny co na Ziemi, na Czerwonej Planecie musiałby przebywać pod osłoną około 2 metrów litej skały. Tymczasem w filmie nie widzimy bunkrów czy podziemnych schronów, tylko pomieszczenia wykonane z dość cienkich materiałów. Także kombinezon głównego bohatera jest cieniutki. Mark spaceruje, podziwia widoki a nawet wypuszcza się w dość dalekie trasy w pojeździe, który zresztą wygląda na zbyt ciężki jak na marsjańskie warunki. Jeden z łazików marsjańskich, nieporównywalnie mniejszy i lżejszy, kilka lat temu zakopał się w wydmie a wyciąganie go zajęło kilka tygodni.

Dalekie wycieczki piesze. Dość niebezpieczna rozrywka na Marsie. Zdjęcie z filmu

4.Natomiast najwiekszy odlot – dosłownie i w przenośni – to powrót z Marsa na Ziemię, a szczególnie jego początkowa faza, czyli opuszczenie Marsa. Nic tu się nie zgadza. Proca grawitacyjna pomiędzy Ziemia i Marsem zadziała tylko w dość specyficznych warunkach, na pewno nie takich jak te pokazane w filmie. Rozebranie rakiety, którą astronauta Mark Watney wydostaje się z powierzchni Marsa na jego orbitę spowodowałoby jej rozbicie. Pomijam już fakt, że okna zatkane materiałem z zużytego spadochronu to już nawet nie fikcja rodem z gwiezdnych wojen, tylko raczej z Hi-Mena… (dla młodszych Czytelników, He-Men to taka bajka rysunkowa, którą oglądali Wasi rodzice 😉 ). No i w końcu manewry na orbicie. Hamowanie przez wysadzenie w powietrze części stacji, przedziurawienie kombinezonu po to by używać go jak silniczka manewrowego. W końcu spotkanie… no i happy end. Nie o to chodzi że ostatnie sceny filmu sa mało prawdopodobne. One są nierealne i przeczą zasadom fizyki.

Podsumowując.

P1000471

Pustynia Atacama, Chile. Zdjęcie: Tomasz Rożek

Oczywiście takich filmów jak Marsjanin nie ogląda się po to by uczyć się fizyki. To jasne. Lubię się jednak czasami poznęcać nad filmami. Mnie najbardziej podobały się w tym filmie plenery. Spora część z nich była wykreowana komputerowo, ale część scen była grana na Chilijskiej pustyni Atacama. Byłem na niej jakiś czas temu i jeżeli Mars wygląda choć trochę jak ona… warto tam polecieć. Chociażby dla widoków. No i niebieskiego zachodu Słońca, którego akurat w filmie nie było. No bo wiecie, że na Ziemi, czyli niebieskiej planecie słońce zachodzi na czerwono, ale na czerwonej planecie na niebiesko.

P1000318_Fotor

Pustynia Atacama, Chile. Niedaleko tego miejsca testuje się marsjańskie łaziki. Zdjęcie: Tomasz Rożek

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

10 komentarzy do Marsjanin okiem naukowca ;-)

Jesteśmy w centrum?

Czy Ziemia leży w centrum wszechświata? To pytanie w XXI wieku może u niektórych wywołać  uśmiech politowania. Ale czy powinno?

Jesteśmy jedynym gatunkiem na Ziemi, który współtworzy środowisko w którym żyje. To ciekawe, bo to środowisko, które sami kreujemy, ma ogromny wpływ na kolejne pokolenia. Choć na Ziemi żyją tysiące, dziesiątki tysięcy gatunków zwierząt i roślin, tylko człowiek ma umiejętności, choć chyba powinienem napisać możliwości, by ziemię w tak ogromnym stopniu przekształcać. Jesteśmy niezwykłym gatunkiem, który żyje na niezwykłej planecie.

CopernicSystem

Rysunek Układu Słonecznego jaki pojawił się w dziele De revolutionibus orbium coelestium.

Przez setki lat, odpowiedź na tytułowe pytanie nie budziła żadnych wątpliwości. Ziemia była w centrum wszystkiego i centrum wszystkiego. Obiekty niebieskie (ze Słońcem i Księżycem włącznie) krążyły wokół naszej planety, a sama Ziemia była rusztowaniem o które opierała się cała reszta. Ten obraz runął około połowy XVI wieku. W 1543 roku w Norymberdze ukazało się dzieło kanonika Mikołaja Kopernika – astronoma, matematyka, ale także prawnika, lekarza i tłumacza. W De revolutionibus orbium coelestium – o obrotach sfer niebieskich – Kopernik obalił geocentryczną wizję świata i całkiem sprawnie (choć ze sporymi błędami) przedstawił system heliocentryczny. Ziemia przestała być w centrum. Jej miejsce zajęło Słońce. Oczywiście nikt wtedy nie myślał nawet o galaktykach, gwiazdach supernowych czy czarnych dziurach.

Dla Kopernika sytuacja była w zasadzie dosyć prosta. Słońce w centrum, a wszystko inne krążące wokoło. Mechanizm wszechświata wyglądał podobnie z tą tylko różnicą, że w samym jego centrum znajdowała się nie jak u starożytnych Ziemia, ale nasza dzienna gwiazda. Kilkadziesiąt lat po Koperniku, na początku XVII wieku obserwacje tego co znajduje się poza naszym układem planetarnym rozpoczął Galileusz. Pierwszą osobą, która przedstawiła koncepcję budowy galaktyki był urodzony w Królewcu filozof i matematyk, Immanuel Kant. Była połowa XVIII wieku i nikt poważny nie uznawał już Ziemi za geometryczne centrum wszechświata. Inaczej było jednak ze Słońcem. Wiedziano już o tym, że gwiazd w naszej galaktyce jest bardzo wiele. Wiedziano nawet że krążą one wokół jednego punktu. Bardzo długo uznawano jednak, że tym centralnym punktem jest właśnie Słońce i nasz układ planetarny.

BN-IB371_0424hu_J_20150423201321

Edwin Hubble z negatywem jednej z zaobserwowanych przez siebie galaktyk. źródło: www.wsj.com

Choć w XIX wieku Ziemia od wielu setek lat nie była już traktowana jako geometryczne centrum wszechświata, była jedyną znaną planetą co do której istniała pewność, że jest kolebką życia. Była też częścią jedynego znanego układu planetarnego. Poza Układem Słonecznym nie obserwowano żadnych planet. Ziemia nie leżała w centrum, ale była symbolicznym centrum. Na przełomie XVIII i XIX wieku najpierw Charles Messier, a później William Herschel skatalogowali setki i tysiące mgławic, które później, dzięki pracy amerykańskiego astronoma Edwina Hubble’a (lata 20te XX wieku) okazały się odległymi galaktykami. Odkrywano wiele, zaglądano coraz głębiej i dalej, ale jedno nie ulegało zmianie. W całym ogromnym wszechświecie, wszechświecie w którym istnieją miliardy galaktyk a każda jest domem dla setek miliardów gwiazd do 1990 roku istniało tylko dziewięć planet. Niesamowita historia !

Sytuacja uległa zmianie dokładnie 9 stycznia 1992 roku. To wtedy ukazała się w prestiżowym czasopiśmie Nature praca polskiego astronoma Aleksandra Wolszczana. Opisywała ona dokonane dwa lata wcześniej odkrycie trzech pierwszych planet poza Układem Słonecznym. Krążyły wokół pulsara PSR B1257+12, niecały 1000 lat świetlnych od Ziemi. Dzisiaj, 23 lat po tym odkryciu znanych jest prawie 2000 planet poza Układem Słonecznym, a planety pozasłoneczne, tzw. egzoplanety są odkrywane wręcz hurtowo.

The artist's illustration featured in the main part of this graphic depicts a star and its planet, WASP-18b, a giant exoplanet that orbits very close to it. A new study using Chandra data has shown that WASP-18b is making the star that it orbits act much older than it actually is.  The lower inset box reveals that no X-rays were detected during a long Chandra observation.  This is surprising given the age of the star, suggesting the planet is weakening the star's magnetic field through tidal forces.

To nie zdjęcie, tytlko artystyczna wizja ogromnej planety WASP-18b, która krąży bardzo blisko powierzchni swojej gwiazdy.

Planet jest sporo, ale czy one są takie jak Ziemia ? Nie! Po pierwsze przeważająca większość z nich jest dużo większa od Ziemi. To gazowe giganty takie jak „nasz” Jowisz i Saturn. Dużych planet odkrywamy tak dużo, bo znacznie łatwiej je wykryć. Ziemia różni się od innych jednak tym, że tutaj jest życie, a „tam” – niewiadomo. Co do tego, że proste bakteryjne życie istnieje w przestrzeni kosmicznej, praktycznie możemy mieć pewność, ale z życiem inteligentnym nie jest wcale tak prosto. Jest w tym pewien paradoks. Czym więcej wiem o życiu, tym chętniej przyznajemy, że to proste, jednokomórkowe jest wszechobecne i wszędobylskie. Proste formy mają niesamowitą zdolność do adaptowania się i do zasiedlania miejsc, które – jeszcze do niedawna byliśmy tego pewni – absolutnie nie nadają się do życia. Z życiem złożonym, nie mówiąc już o jego inteligentnej wersji, jest dokładnie na odwrót. Czym więcej wiemy, tym dłuższa staje się lista czynników, warunków, które muszą zostać spełnione, by życie jednokomórkowe wyewoluowało do wersji złożonej. Dzisiaj ta lista ma już kilkaset pozycji, wśród nich takie jak odpowiednia wielkość planety, odpowiednia odległość od gwiazdy i odpowiedni skład atmosfery. Te wspomniane warunki są w sumie logiczne. Ale dalej na tej liście jest pole magnetyczne i gorące jądro planety, siły pływowe, a więc tektonika płyt. Bardzo ważna jest aktywność wulkaniczna oraz wyładowania atmosferyczne.

Kiedyś powszechnie uważano, że Ziemia w skali kosmicznej jest ewenementem. Potem takie myślenie zarzucono. Gdybym napisał, że dzisiaj wraca się do tego, chyba bym przesadził. Ale faktycznie, coraz częściej zdajemy sobie sprawę z tego, że inteligentne istotny w kosmosie mogą być wielką rzadkością. I to pomimo tego, że planet we wszechświecie jest niepoliczalnie dużo. Czyżby więc Ziemia z ludźmi „na pokładzie” była egzemplarzem niepowtarzalnym? Na razie jest. Wiele, bardzo wiele wskazuje na to, że tak pozostanie jeszcze przez dość długi czas. A może nawet na zawsze.

2 komentarze do Jesteśmy w centrum?

Zdjęcia z eksplozji Antaresa

NASA ujawniła 85 zdjęć ze startu i eksplozji rakiety Antares. Niektóre zapierają dech w piersiach.

Kilka tygodni temu, na FB.com/NaukaToLubie informowałem, że Amerykańska Agencja Kosmiczna NASA udostępniła w serwisie zdjęciowym Flickr zdjęcia wysokiej jakości zrobione w trakcie trwania programu lotów księżycowych Apollo.

Tym razem NASA udostępniła 85 zdjęć na których widać nieudany start zakończony eksplozją rakiety Antares. Zdjęć nie powstydził by się najlepszy scenarzysta filmów science-fiction. Niestety fotografie, które pokazuję poniżej nie zostały stworzone na komputerze.

Rakieta Antares eksplodowała 15 sekund po starcie, który miał miejsce 28 października 2014. Zapasy, które przewoziła miały być dostarczone na pokład Międzynarodowej Stacji Kosmicznej. W sumie stracono ponad 2 tony zaopatrzenia dla ISS, a także sprzęt naukowy i eksperymenty studenckie. Zniszczeniu uległ także satelity Arkyd 3, RACE, GOMX 2 i 26 nanosatelitów Flock-1d.

>>> Przy okazji zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

6_33_gallery_wide 7_25_gallery_wide 8_25_gallery_wide 9_19_gallery_wide 10_15_gallery_wide 11_17_gallery_wide 12_8_gallery_wide-2  13_7_gallery_wide 14_6_gallery_wide 15_4_gallery_wide

 

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do Zdjęcia z eksplozji Antaresa

Wszechświaty równoległe?

Pracujący w Kalifornii astrofizyk, analizując mapę mikrofalowego promieniowania tła zauważył na niej dziwne struktury. Naukowiec uważa, że to światło które pochodzi z wszechświatów równoległych.

Pracujący w Kalifornii astrofizyk, Ranga-Ram Chary, analizując mapę mikrofalowego promieniowania tła zauważył na niej dziwne struktury. Tam gdzie na mapie miało być ciemno, pojawiały się jasne plamy. Naukowiec uważa, że najbardziej prawdopodobnym wytłumaczeniem jest to, że światło które widzi pochodzi z wszechświatów równoległych.

Czy to możliwe? Tak. Żadna teoria nie zabrania istnienia wszechświatów równoległych do naszego. Nie zabrania także istnienia wszechświatów starszych od tego w którym my żyjemy. Tyle tylko, że to nie jest żaden dowód za tym, że takie światy rzeczywiście istnieją.

Czym jest mikrofalowe promieniowanie tła, zwane inaczej promieniowaniem reliktowym? To echo Wielkiego Wybuchu. Brzmi abstrakcyjnie. Około 380 tysięcy lat po Wielkim Wybuchu, a więc w bardzo BARDZO wczesnej fazie rozwoju naszego wszechświata, temperatura materii obniżyła się do około 3000 Kelwinów a to spowodowało, że zupa materii i energii (a tym właśnie był wczesny wszechświat) zaczęła się rozdzielać. Fotony oddzieliły się od materii, a ta zaczęła się skupiać w pragalaktyki. Od tego czasu te pierwotne fotony przemierzają wszechświat we wszystkich kierunkach, a my dzięki temu jesteśmy w stanie zobaczyć, jak ten wczesny wszechświat wyglądał. Na mapie mikrofalowego promieniowania tła widać bowiem mniejsze i większe skupiska materii. To są miejsca w których zaczęły powstawać galaktyki i ich gromady. Promieniowania reliktowego jest bardzo mało (w każdym centymetrze sześciennym świata jest około 300 tworzących go fotonów), ale za to jest ono wszędzie. Otacza nas ze wszystkich stron. W skrócie mówiąc to promieniowanie to nic innego jak resztki światła, które emitował rozgrzany i potwornie ściśnięty młody wszechświat. Tak jak żarzące się włókno żarówki czy rozgrzany do czerwoności rozpalony w ogniu metalowy pręt. Poświata Wielkiego Wybuchu wydostała się z gorącej zupy materii dopiero, gdy zaczął się z niej formować przezroczysty gaz atomów. Szacuje się, że było to ok. 380 tyś lat po Wielkim Wybuchu.

A wracając do wszechświatów równoległych. Ich istnienia nie możemy wykluczyć, ani potwierdzić. Przynajmniej na razie. Tajemnicze plamy o których wspomniałem wcześniej nie są żadnym dowodem. W najlepszym wypadku będą argumentem za tym, by jeszcze raz, jeszcze dokładniej przeanalizować wyniki badań, które przeprowadza się nieustannie od kilkudziesięciu lat. Zdaniem naukowca, który zauważył tajemnicze plamy, są to ślady materii, która pochodzi z innego świata, na dodatek takiego w którym mają obowiązywać inne niż u nas prawa fizyki. To ostatnie stwierdzenie jest – delikatnie mówiąc – słabo udokumentowane. Badacza poniosła chyba fantazja. Dobrze jest pamiętać, że w XXI wieku nie jesteśmy w stanie powiedzieć z czego zbudowane jest ponad 90 proc. Naszego własnego wszechświata. Ciemna energia i ciemna materia to ogromne znaki zapytania dla kosmologów. Zanim więc zaczniemy dowodzić istnienia innych wszechświatów, będzie trzeba rozwikłać zagadkę tego w którym my żyjemy.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

3 komentarze do Wszechświaty równoległe?

Fagi – dobre wirusy

– Jak to się dzieje, że ci ludzie nie chorują – zastanawiał się widząc Hindusów kąpiących się i pijących wodę z Gangesu. Rzeki, która jest ściekiem. Więcej! wszystko wskazuje na to, że oni są przez to zdrowsi !

Bakterie stają się dla nas coraz groźniejsze. Coraz częściej zdarza się, że nie dają im rady nawet najbardziej zaawansowane terapie antybiotykowe. Sytuacja wymaga podjęcia niestandardowych metod. A może przeciwnie, wymaga powrotu do źródeł?

Ta historia rozpoczyna się w Indiach ostatnich lat XIX wieku. To wtedy przypłynął tam młody brytyjski biochemik i bakteriolog Ernest Hanbury Hankin. Ma jeden cel, walkę z cholerą, która miejscami przybiera rozmiary epidemii. Sukcesów nie ma praktycznie żadnych, a jego desperację potęguje fakt, że w Indiach zdają się nie działać reguły, których nauczył się w Anglii. Młody badacz zauważa bowiem, że na cholerę bardzo rzadko chorują ci, którzy kąpią się w rzece Ganges. Dla Hindusów sprawa jest oczywista, wody rzeki są święte, a każdy kto się w nich kąpie jest „chroniony”. Dla naukowca, sprawa jest trudna do zrozumienia. Przecież Ganges to ściek! To miejsce które powinno być źródłem problemu, a nie lekarstwem. Ku konsternacji większości Europejczyków, a już na pewno tych, którzy mieli wykształcenie medyczne czy biologiczne, Hindusi wodę z Gangesu pili. I? I nic im się nie działo. Jak to możliwe? Brytyjski naukowiec uważał, że w rzece musi być coś, co pijących jej wodę uodparnia. Fenomen dotyczył nie tylko wody w Gangesie, ale także w innych rzekach, równie zanieczyszczonych.

W 1896 roku Ernest Hanbury Hankin opublikował pracę naukową, w której stawiał tezę, że, w badanej przez niego wodzie istnieją czynniki antybakteryjne, które są na tyle małe, że nie sposób zatrzymać ich nawet na najdrobniejszych filtrach. Praca nie została jednak zauważona. Dopiero 20 lat później odkryto co tym czynnikiem jest. Dwa zespoły badaczy, brytyjski i francuski, odkryły bakteriofagi, czyli wirusy, które niszczą bakterie. Nazwa bakteriofag oznacza dosłownie „zjadacze bakterii”. W rzeczywistości wirusy nie pożerają bakterii. Ale o tym za chwilę. Dalsze badania pokazały, że w zasadzie każda bakteria ma swojego faga, czyli wirus, który bez większych problemów może sobie z nią poradzić. Pierwszy przypadek uleczenia wirusami zakażenia bakteryjnego (konkretnie chodziło o infekcję laseczką czerwonki, czyli siejącą śmierć dezynterią) miał miejsce w 1915 roku.

ganges

Zagadka: znajdź głowę chłopaka w śmieciach

Pierwszy nazwę bakteriofag zastosował pracujący w Paryżu Kanadyjczyk, Félix d’Herell. Nie jest ona do końca ścisła, bo sugeruje, że wirusy pożerają bakterie. W rzeczywistości wirusy niczego nie zjadają. Nie są organizmami żywymi, więc nie potrzebują źródła energii do zaspokajania swoich potrzeb. Jak w takim razie zabijają? Bakteriofagi, jak zresztą wszystkie wirusy, komórki żywych organizmów wykorzystują. Wirusy są kapsułkami zawierającymi materiał genetyczny. Nie potrafią same się poruszać. Posiadają jednak „klucze” do żywych komórek. Każda żywa komórka w swojej ścianie ma receptory. To coś w rodzaju zamka do drzwi. Ten, kto posiada klucz, może wejść do środka. Wirusy posiadają klucze, czyli białka pasujące do receptorów. Gdy cząsteczka wirusa znajdzie się w bezpośredniej bliskości komórki, jest bardzo prawdopodobne, że dojdzie do adsorpcji. Wirus otwiera zamek. Chwilę później następuje penetracja. Specjalną igiełką fag wkłuwa się do wnętrza bakterii i wstrzykuje tam swój materiał genetyczny. Komórka (w przypadku fagów komórka bakteryjna) nie ma pojęcia, że jest zainfekowana. Przecież wirus miał „legalne klucze”. Gdy materiał genetyczny znajdzie się w środku, dochodzi do tzw. replikacji genomu. Komórka replikuje wirusy z taką prędkością, że wkrótce zostaje – dosłownie – rozerwana z powodu ich natłoku w swoim wnętrzu. Od momentu „włożenia klucza do zamka” do unicestwienia bakterii mija nie więcej niż 30 minut! Każda zainfekowana komórka wyprodukuje kilkadziesiąt wirusów. A każdy z nich gotowy jest do ataku na nową bakterię.

W naturalnych warunkach pomiędzy bakteriami i wirusami ustala się pewna równowaga, ale gdyby tak wirusy antybakteryjne namnażać i traktować jako najlepszy z dostępnych antybiotyków? Wirusami leczono zanim, zanim ktokolwiek wiedział, czym są ci „niewidzialni” zabójcy bakterii. Félix d’Herelle leczył fagami śmiertelnie chorych na czerwonkę. „Ozdrowienie” następowało po kilkudziesięciu godzinach. Dzisiaj do koncepcji leczenia wirusami coraz częściej się wraca. Antybiotyki wydają się skuteczne, ale tylko na krótką metę. Bakterie potrafią się na nie uodparniać. W Polsce jedna trzecia szczepów dwoinki zapalenia płuc jest odporna na penicylinę. Na fagi nie da się uodpornić, bo te mutują tak samo szybko jak same bakterie. W Polsce znajduje się jeden z dwóch na świecie (i jedyny w Europie) ośrodek naukowy, który prowadzi terapię bakteriofagami. Kilka lat temu rozmawiałem z jego szefem, profesorem Andrzejem Górskim. Powiedział mi wtedy, że do Laboratorium Bakteriofagowego w Instytucie Immunologii i Terapii Doświadczalnej PAN we Wrocławiu zgłaszają się setki osób cierpiących na zakażenia, których żadne antybiotyki nie potrafią wyleczyć. Naukowcom z Wrocławia udaje to w ponad 80 procentach. W porównaniu z terapią antybiotykami, fagi są tańsze, a na pewno nie mniej skuteczne. Ponadto leczenie fagami nie powoduje skutków ubocznych, bo działanie wirusów jest ściśle ukierunkowane i wybiórcze. Określony bakteriofag atakuje tylko jeden gatunek bakterii. W ten sposób po terapii fagami oszczędzamy te „dobre bakterie”, np. z wnętrza układu pokarmowego. Tymczasem antybiotyki tak nie potrafią. – Czasami wystarczy kilkadziesiąt godzin, by osoba od lat cierpiąca na zakażenie uwolniła się od kłopotu. Leczymy nawet infekcje wywołane przez szczepy gronkowca złocistego – śmiercionośne bakterie, będące największym postrachem oddziałów intensywnej terapii – mówił mi prof. Górski.

Skoro mają tyle zalet, dlaczego bakteriofagami nie leczy się powszechnie? Przeszkodą jest prawo. Formalnie (w Unii Europejskiej i USA) przed skomercjalizowaniem, terapia musi być zarejestrowana, a jeszcze wcześniej poprzedzona badaniami klinicznymi. I tutaj pojawiają się problemy formalne. Terapia fagami nie jest zunifikowana, tylko po to by była skuteczna musi być tworzona dla każdego pacjenta osobno. Tego typu postępowanie wymyka się jednak normom, jakie ustalają prawnicy i urzędnicy. Nie bez znaczenia jest pewnie fakt, że przemysł farmaceutyczny czerpie ogromne korzyści z produkcji antybiotyków. Tańsza i w wielu przypadkach skuteczniejsza metoda leczenia fagami może być traktowana jako niechciana konkurencja. – Terapia fagowa to z formalnego punktu widzenia wciąż eksperyment, a do zaakceptowania nowości potrzeba czasu – powiedział mi kilka lat temu prof. Górski. Od tego czasu nic się nie zmieniło.

Drugi – poza Polską – ośrodek leczący fagami znajduje się w stolicy Gruzji, Tbilisi. Założył go zresztą Félix d’Herelle, ten sam, który nadał nazwę bakteriofagom. Ten zagorzały komunista pracował w Związku Radzieckim do śmierci. Gruziński instytut nie podlega pod prawo europejskie i amerykańskie, więc ma większą swobodę w działaniu, niż ośrodek we Wrocławiu. Kilka lat temu, Instytut z Gruzji założył filię w Meksyku, gdzie nie obowiązuje amerykańskie prawo, a bogatym (i chorym) Amerykanom znacznie łatwiej dojechać tam niż do Gruzji.

 

1 komentarz do Fagi – dobre wirusy

Bolid – kilka mitów, kilka faktów

Bolid, jasny ślad na nocnym niebie, jaki pojawił się przedwczoraj nad Polską, wywołał ogromne emocje. I nie ma się co dziwić. Przy okazji warto wyjaśnić kilka nieporozumień.

Bolid, jasny ślad na nocnym niebie, jaki pojawił się przedwczoraj nad Polską wywołał ogromne emocje. I nie ma się co dziwić. Tak dobrze udokumentowane na zdjęciach zdarzenie to jednak rzadkość. Przy okazji tego zdarzenia warto wyjaśnić kilka nieporozumień.

  1. Czy to dało się przewidzieć?

NIE. Bolidy to wbrew pozorom małe obiekty (piszę o tym w kolejnym punkcie), a takich nie da się obserwować przez teleskopy a tym bardziej śledzić ich trajektorii. W efekcie, choć są okresy kiedy szansa na zaobserwowanie bolidu jest większa, nie da się przewidzieć kiedy i gdzie go zauważymy. Jeżeli tak, skąd wzięło się tyle zdjęć tego zjawiska? Bolid pozostawia na nocnym niebie (w niektórych przypadkach także na dziennym niebie) ślad, który „trwa” kilkanaście, a nawet kilkadziesiąt sekund. Jeżeli ktokolwiek był na zewnątrz, jeżeli ktokolwiek miał w dłoni aparat fotograficzny (np. w telefonie), miał ogromne szanse by zrobić zdjęcie mimo tego, że nie spodziewał się niczego szczególnego. Wiele ze zdjęć bolidu było robionych na cmentarzach. Cóż, mieliśmy Wszystkich Świętych, a pogoda w sporej części Polski była perfekcyjna. Noc, liście na drzewach, znicze na grobach, łuna światła i … bolid w tle. Bonus dla artystycznych dusz.

  1. Czy to był duży obiekt?

NIE. Ludzkie oko jest w stanie zobaczyć krótkotrwały błysk światła wtedy gdy w ziemską atmosferę wchodzi obiekt wielkości ziarenka piasku. W czasie deszczy (rojów) meteorów, których w ciągu roku jest kilkanaście, przeważającą większość świetlnych efektów powodują właśnie ziarenka wielkości główki od szpilki. Gdy meteor ma wielkość kostki do gry, ślad jaki pozostawia po sobie utrzymuje się na kilka sekund. Bolidy mają wielkość kilku, górka kilkunastu centymetrów. Kilkunastocentymetrowe nie tylko mogą świecić jaśniej niż Księżyc w pełni, ale także być źródłem efektów dźwiękowych. Te przypominają charakterystyczny pisk hamującego na dworcu pociągu, albo wyładowanie atmosferyczne. Szczególnie duże bolidy mogą być widoczne także w ciągu dnia.

  1. Czy bolid mógł dolecieć do Ziemi?

NIE. Ten konkretny, który w sobotę wieczorem wywołał takie poruszenie, nie doleciał do powierzchni gruntu. Był za mały. Skąd o tym wiemy? Pierwszym wskazaniem jest to, że w pewnym momencie świetlny ślad jakiego bolid był źródłem urywa się. To nie jest wskazanie jednoznaczne, bo w przypadku niektórych obiektów świetlny ślad kończy się w miejscu w którym obiekt ma za mało energii (powietrze wyhamowało go) by rozgrzewać otaczające go powietrze. O tym czym jest świetlny ślad piszę w kolejnym punkcie. Jest jednak argument drugi za tym, że nic do powierzchni ziemi nie doleciało. Sobotni obiekt nie był duży, bo świadkowie przelotu nie słyszeli efektów dźwiękowych. Obiekty o średnicy rzędu centymetrów (a nawet te o średnicy dziesiątków centymetrów) spalają się całkowicie w atmosferze. Niektóre najpierw rozpadają się na mniejsze kawałki, a potem spalają.

  1. Czy świetlisty ślad na niebie zostawił rozgrzany do białości kawałek skały?

NIE. Powszechnie uważa się, że to co widzimy na niebie, to rozgrzany do białości kawałek meteoru. Tymczasem to nieprawda. Po pierwsze – jak wspominałem wcześniej – te obiekty są bardzo małe a efekty świetlne powstają na znacznych (kilkadziesiąt kilometrów) wysokościach. Po drugie, gdyby źródłem światła był meteor, nie widzielibyśmy utrzymującego się przez kilkanaście sekund śladu, tylko bardzo szybko poruszający się punkt świetlny. Co zatem świeci jeżeli nie rozgrzany meteor?

Powierzchnia meteoru nagrzewa się rzeczywiście bo tego typu obiekty poruszają się z bardzo dużymi prędkościami (nawet ponad 100 000 km/h), ale powodem tego nagrzewania nie jest ocieranie się o atomy ziemskiej atmosfery, tylko sprężenie powietrza przed czołem meteoru. Kosmiczna „skała” działa jak szybko poruszający się spychacz, który pcha przed sobą gaz. W ten sposób wytraca prędkość, ale „zyskuje” energię. W ten sposób może się rozgrzać do temperatury kilku tysięcy st. C. Tak, jest źródłem światła, ale to nie to światło widzimy na powierzchni ziemi. Rozgrzany meteor przekazuje część swojej energii otoczeniu przez które przelatuje, czyli powietrzu atmosferycznemu. Te rozgrzane zaczyna intensywnie świecić. I to to światło widzimy. Meteor przelatuje dalej, ale gaz świeci tak długo aż się nie ochłodzi co czasami trwa kilkanaście sekund. W pewnym momencie świetlny ślad urywa się. To znak, że w tym miejscu meteor całkowicie się spalił albo rozpadł na fragmenty mniejsze niż ziarenka piasku.

  1. Czy można się spodziewać większej ilości bolidów?

TAK. Przelot bolidu nie jest jednorazowym wydarzeniem. Wbrew pozorom na danym obszarze zdarza się kilka razy w roku. Trzeba jednak pamiętać, że średnio połowę doby mamy dzień. Bolidy dzienne, czyli na tyle duże by zobaczyć je na jasnym niebie, są rzadkością. Ponadto bolidów nie widać gdy na niebie są chmury bo świetlne ślady powstają dużo wyżej. No i kwestia świadków. Gdyby ten sam przelot miał miejsce nie w godzinach wczesno wieczornych tylko nad ranem, nie byłoby pięknych zdjęć, ani ogromnej liczby świadków.

Podsumowując. Gdyby wziąć to wszystko pod uwagę, piękna pogoda, wczesny wieczór i jasny bolid zdarza się raz wiele miesięcy. Co nie znaczy, że kolejny nie pojawi się jutro. Szanse na pojawienie się bolidów rosną w czasie deszczów meteorów. Obecnie Ziemia przechodzi przez pozostałości po komecie 2P/Encke, czego efektem jest dość rzadki (średnio 5 „spadających gwiazd” na godzinę) rój Taurydów Północnych. Jest bardzo prawdopodobne, ze sobotni bolid był kiedyś częścią komety 2P/Encke.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

5 komentarzy do Bolid – kilka mitów, kilka faktów

Type on the field below and hit Enter/Return to search