Nauka To Lubię

Oficjalna strona Tomasza Rożka

Planety z innej galaktyki!

Naukowcom z Uniwersytetu w Oklahomie (USA) udało się znaleźć planety, które znajdują się poza galaktyką Drogi Mlecznej. To pierwsze takie odkrycie w historii.

Po raz kolejny pokazano jak potężną metodą badawczą jest mikrosoczewkowanie grawitacyjne. Naukowcy z University of Oklahoma, korzystając z danych zebranych przez orbitalny teleskop Chandra, po raz pierwszy w historii odkryli planety pozasłoneczne w innej galaktyce niż nasza Droga Mleczna. Te które znaleziono znajdują się w galaktyce odległej od nas o 3,8 miliarda lat świetlnych. Odkrycie zostało opisane w Astrophysical Journal Letters.

Mikrosoczewkowanie  grawitacyjne to jedna z kilku metod poszukiwania obiektów, które same nie są źródłem światła, ale same „zniekształcają” jego bieg. To też metoda, której udoskonalenie zawdzięczamy polskim uczonym z grupy profesora Andrzeja Udalskiego.

Promień światła niekoniecznie musi poruszać się po linii prostej. Gdy biegnie przez wszechświat i przelatuje w pobliżu dużej masy, zmienia swój bieg. Polscy uczeni tę metodę zastosowali w skali mikro. Tą masą, która ugina promień światła może być np. planeta. Metodą mikrosoczewkowania można odkrywać nawet planety mniejsze od Ziemi. Żadną z pozostałych znanych metod nie potrafimy wykrywać tak małych globów.

Uginanie promieni światła pod wpływem masy postulował Albert Einstein w opublikowanej w 1916 roku Ogólnej Teorii Względności . Eksperymentalnie ten efekt potwierdzono dopiero w 1979 roku, na podstawie obserwacji kwazaru Q0957+561. Dzisiaj mikrosoczewkowanie pomaga łowić planety, a soczewkowanie grawitacyjne pomaga ocenić np. rozkład ciemnej materii we wszechświecie. Czym większa masa, tym ugięcie światła będzie większe, ale nawet to bardzo subtelne, jest przez astronomów (a w zasadzie zaawansowane urządzenia astronomiczne) zauważalne.

A wracając do odkrytych planet. Zbyt wiele o nich nie wiadomo, poza tym, że ich masa mieści się pomiędzy masą Księżyca i Jowisza. Co więcej, na razie nie zanosi się na to, by dało się w jakikolwiek sposób powiększyć wiedzę o nowych planetach. Nie znamy technologii, która by to umożliwiała. – Ta galaktyka znajduje się 3,8 miliarda lat świetlnych stąd i nie ma najmniejszej szansy na obserwowanie tych planet bezpośrednio, nawet z najlepszym teleskopem, jaki można sobie wyobrazić w scenariuszu science fiction. Jednak jesteśmy w stanie je badać, odkrywać ich obecność, a nawet mieć wyobrażenie o ich masach – powiedział Eduardo Guerras, członek grupy badawczej, która dokonała odkrycia.

Wiele lat temu intuicja podpowiadała, że Układ Słoneczny nie może być jedynym miejscem w którym znajdują się planety. I rzeczywiście, badania polskiego astrofizyka, prof. Aleksandra Wolszczana z początku lat 90tych XX wieku pokazały, że Słońce nie jest jedyną gwiazdą z planetami. Dzisiaj planet innych niż słoneczne znamy wiele tysięcy. Ta sama intuicja podpowiadała, że w innych galaktykach niż nasza Droga Mleczna także muszą istnieć planety. No i właśnie – po raz pierwszy – takie odkryto.

 

Więcej informacji:

http://www.ou.edu/web/news_events/articles/news_2018/ou-discover-planets.html

http://iopscience.iop.org/article/10.3847/2041-8213/aaa5fb

For the First Time Ever, Scientists Found Alien Worlds in Another Galaxy

1 komentarz do Planety z innej galaktyki!

Robimy krzywdę naszym dzieciom

Dzieci w ostatnich klasach szkół podstawowych są przeciążone pracą. Nie mają czasu na pogłębianie swoich zainteresowań. Chcielibyśmy, żeby ciekawość dodawała im skrzydeł, tyle tylko, że ich plecaki są tak ciężkie, że nie sposób oderwać się z nimi od twardej ziemi.

Dzieci w ostatnich klasach szkół podstawowych są przeciążone pracą. Nie mają czasu na pogłębianie swoich zainteresowań. Chcielibyśmy, żeby ciekawość dodawała im skrzydeł, tyle tylko, że ich plecaki są tak ciężkie, że nie sposób oderwać się z nimi od twardej ziemi.

Kiedyś postanowiłem zapytać kilka osób o źródło ich pasji. Pisałem wtedy książkę o wybitnych polskich naukowcach, o badaczach, którzy uprawiają naukę na światowym poziomie. Co otworzyło ich głowy? Co napędzało ich do zdobywania wiedzy? Co spowodowało, że zainteresowali się genetyką, meteorologią, medycyną, fizyką,…? Okazało się, że za każdym razem była to książka. Nie szkoła, tylko książka wykraczająca poza szkolny program. Czasami podarowana przez rodziców, czasami znaleziona w bibliotece, czasami otrzymana jako nagroda w jakimś konkursie.

Szkoła może człowieka zainspirować, ale sama szkoła to za mało, żeby podtrzymać tę inspirację. Historie naukowców z którymi rozmawiałem były niemal identyczne. Najczęściej książkę, która jak się później okazywało miała wpływ na kierunek rozwoju zawodowego, ci ludzie dostawali gdy byli jeszcze w szkole podstawowej. To wtedy rodzą się pasje, które – jeżeli odpowiednio prowadzone i podsycane – pozostają na całe życie. Po latach nie pamiętamy prawych dopływów Wisły, długości głównych rzek w Polsce czy rodzajów gleb. Po latach pamiętamy okładkę książki, która zmieniła sposób w jaki postrzegamy świat. Pamiętamy rozkład ilustracji na poszczególnych stronach i kolor grzbietu.

Rozmowy z naukowcami o książkach przypominają mi się za każdym razem, gdy muszę swoim dzieciom zabraniać czytania książek. Czy dobrze robię? Uczniowie w 7 klasie mają w tygodniu 38 godzin lekcji. To prawie tyle ile etat dorosłego człowieka. Ja w ich wieku miałem w tygodniu o około 10 godzin mniej! Po powrocie do domu, dzieci muszą odrobić zadania domowe i przygotować się do sprawdzianów i kartkówek na kolejne dni. Ich plecaki są tak ciężkie, że około czwartku słyszę, że bolą je już plecy. Gdy kolejny dzień wracają o 15:30, znowu po ośmiu lekcjach, wyglądają nie jak dzieci, tylko jak cyborgi. Nie mają nawet siły na to, żeby pobiegać. Czy w Ministerstwie Edukacji naprawdę nie ma nikogo kto wie, że taki wysiłek jest ponad dziecięce możliwości? Gdy chcą psychicznie odpocząć, gdy chcą zrobić coś innego niż nauka i przeglądanie zeszytów – przynajmniej moje dzieci – biorą do ręki książkę. Tyle tylko, że w trakcie tygodnia wybór jest prosty. Jak będą czytały, nie zdążą się nauczyć na sprawdzian. Albo będą rozwijały pasje, albo będą – często tylko pamięciowo – przyswajały szkolne informacje. W takim trybie nie ma czasu na naukę instrumentu, na kółka zainteresowań czy pójście do muzeum. W takim trybie nie ma czasu na zabawę. Naprawdę nie wiecie państwo z Ministerstwa, że zabawa rozwija? W takim trybie z trudem udaje się znaleźć czas na dodatkowy angielski. Ale tylko wtedy, gdy obiad będzie zjedzony w biegu, niemalże na stojąco.

Czego oczekujemy od młodego człowieka? Tego, żeby umiał czy tego, żeby rozumiał? Tego, żeby ciekawość dodawała mu skrzydeł, czy tego, żeby plecak pokrzywił mu kręgosłup? Chcemy tworzyć armię zmęczonych robotów czy nowoczesne społeczeństwo ciekawych świata ludzi, którzy z pasją budują rakiety, badają geny, piszą wiersze i odkrywają nowe lądy? Czy ktokolwiek w Ministerstwie Edukacji zadaje sobie takie pytania? Robimy krzywdę naszym dzieciom.

Tomasz Rożek

 

Tekst ukazał się w tygodniku Gość Niedzielny

18 komentarzy do Robimy krzywdę naszym dzieciom

Osiągnięcia Polskiej Nauki 2016

W najbliższych tygodniach na facebookowym fanpage Nauka. To Lubie będę opisywał kolejne odkrycia, które zostały uznane za największe osiągnięcia polskiej nauki w 2016 roku. Całą publikację możecie ściągnąć TUTAJ >>>…

W najbliższych tygodniach na facebookowym fanpage Nauka. To Lubie będę opisywał kolejne odkrycia, które zostały uznane za największe osiągnięcia polskiej nauki w 2016 roku. Całą publikację możecie ściągnąć TUTAJ >>>

Publikacja powstała w Ministerstwie Nauki i Szkolnictwa Wyższego.

2 komentarze do Osiągnięcia Polskiej Nauki 2016

Karmienie piersią zmniejsza ryzyko cukrzycy

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

„Zaobserwowaliśmy bardzo silną zależność między okresem, w którym kobieta karmi piersią, a spadkiem ryzyka rozwoju cukrzycy, nawet po uwzględnieniu wszystkich możliwych czynników ryzyka” – skomentowała kierująca badaniami dr Erica P. Gunderson z Kaiser Permanente Division of Research w Oakland (Kalifornia, USA).

Jej zespół przeanalizował dane zebrane wśród 1238 kobiet, uczestniczek badania na temat czynników ryzyka rozwoju choroby wieńcowej – Coronary Artery Risk Development in Young Adults (CARDIA). W momencie włączenia do niego panie były w wieku od 18. do 30 lat i żadna z nich nie miała cukrzycy. W ciągu kolejnych 30 lat, kiedy śledzono stan ich zdrowia, każda kobieta urodziła co najmniej jedno dziecko oraz była poddawana badaniom w kierunku cukrzycy (do siedmiu razy w ciągu całego badania). Uczestniczki udzielały też informacji na temat stylu życia – w tym diety i aktywności fizycznej oraz na temat okresu, w którym karmiły piersią swoje dziecko. W analizie uwzględniono czynniki ryzyka zachorowania na cukrzycę występujące u nich przed ciążą, takie jak otyłość, poziom glukozy na czczo, styl życia, historia występowania cukrzycy w rodzinie, a także zaburzenia metabolizmu podczas ciąży.

Kobiety, które karmiły piersią przez ponad sześć miesięcy były o 47 proc. mniej narażone na rozwój cukrzycy typu 2 w późniejszych latach, w porównaniu z tymi, które nie karmiły wcale. U pań karmiących sześć miesięcy lub krócej spadek ryzyka był mniejszy – o 25 proc.

Długofalowe korzyści z karmienia piersią były widoczne zarówno u kobiet rasy białej, jak i czarnej, niezależnie od tego, czy wystąpiła u nich cukrzyca ciążowa (która zwiększa ryzyko zachorowania na cukrzycę typu 2 w przyszłości). U kobiet rasy czarnej trzykrotnie częściej rozwijała się cukrzyca w ciągu 30 lat badania, jednocześnie rzadziej karmiły one piersią niż kobiety rasy białej.

„Częstość zachorowania na cukrzycę spadała stopniowo wraz z wydłużaniem się okresu karmienia piersią, niezależnie od rasy, wystąpienia cukrzycy ciążowej, stylu życia, rozmiarów ciała i innych metabolicznych czynników ryzyka ocenianych przed ciążą, co sugeruje biologiczny charakter mechanizmu leżącego u podłoża tej zależności” – skomentowała dr Gunderson.

Naukowcy uważają, że może chodzić m.in. o wpływ hormonów produkowanych podczas laktacji na komórki trzustki, które wydzielają insulinę i w ten sposób regulują poziom glukozy we krwi.

Wiedzieliśmy od dłuższego czasu, że karmienie piersią daje wiele korzyści zarówno matce, jak i dzieciom” – przypomniała niebiorąca udziału w badaniu Tracy Flanagan, dyrektor oddziału ds. zdrowia kobiet w Kaiser Permanente Northern California.

Badania wskazują na przykład, że kobiety, które karmiły dziecko piersią są mniej zagrożone zachorowaniem na raka piersi, z kolei dzieci karmione mlekiem mamy są w przyszłości mniej narażone na alergie i astmę, choroby serca, nadciśnienie, otyłość i inne zaburzenia metabolizmu.

W opinii Flanagan wyniki najnowszego badania dostarczają kolejnego argumentu, dla którego „lekarze, pielęgniarki, a także szpitale i decydenci, powinni wspierać kobiety w tym, by karmiły piersią tak długo, jak to możliwe”. (PAP)

Brak komentarzy do Karmienie piersią zmniejsza ryzyko cukrzycy

RNA w 3D

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

RNA to cząsteczki kwasu rybonukleinowego. Bez nich komórka nie mogłaby produkować białek – cząsteczek, które są istotne dla budowy i funkcjonowania komórek. Rodzajów RNA jest sporo i pełnią one w komórce różne funkcje.

I tak np. matrycowe RNA są pośrednikami, dzięki którym z DNA daje się wyciągnąć informacje – przepis na białka. Z rybosomowych RNA zbudowane są rybosomy – komórkowe centra produkcji białek. A transferowe RNA mają przynosić do tych centrów odpowiednie aminokwasy – jednostki budulcowe białek.

Model struktury 3D RNA wirusa Zika wygenerowany przez RNAComposer na podstawie sekwencji. Obecnie struktura ta jest już określona eksperymentalnie i jest zdeponowana w bazie struktur PDB. Źródło: Marta Szachniuk

 

Cząsteczkę RNA tworzy zwykle nić składająca się z połączonych ze sobą reszt nukleotydowych (w skrócie: A, C, G, U). Nawet jeśli rozszyfruje się ich kolejność w łańcuchu RNA, czyli określi sekwencję, nie jest pewne, jak cała cząsteczka układa się w przestrzeni. Bo cząsteczki RNA – w przeciwieństwie do kabla od słuchawek wrzuconych do plecaka – nie zwijają się w przypadkowe supły. Istnieją pewne reguły, które pozwalają przewidzieć, jaki kształt przybierze dana cząsteczka. W rozwikłaniu tego zagadnienia pomocne okazują się komputerowe metody do przewidywania struktur 3D RNA.

Dr hab. Marta Szachniuk wspólnie z zespołem prof. Ryszarda Adamiaka z Instytutu Chemii Bioorganicznej PAN w Poznaniu opracowała darmowy, publicznie dostępny system RNAComposer. Do systemu wprowadza się sekwencję RNA (lub informację o oddziaływaniach między resztami nukleotydowymi, czyli tzw. strukturę drugorzędową), a on w ciągu kilku/kilkunastu sekund oblicza i prezentuje trójwymiarowy model cząsteczki. Program sprawnie radzi sobie zarówno z krótkimi, jak i bardzo długimi łańcuchami cząsteczek RNA o skomplikowanej architekturze. – Wielu naukowców z całego świata używa programu RNAComposer, żeby uzyskiwać pierwsze wyobrażenie tego, jak wyglądać może w 3D cząsteczka, którą badają. Nasz system od 2012 r. wykonał już 1 mln predykcji” – opowiada dr hab. Marta Szachniuk.

To nie jest jedyny system informatyczny do predykcji struktury 3D RNA. Takich automatycznych systemów jest kilka. Poza tym przewidywaniem struktur RNA zajmują się zespoły badawcze wspomagające się badaniami eksperymentalnymi.

Aby porównać skuteczność różnych metod wyznaczania kształtu RNA w przestrzeni 3D, od 2010 roku organizowany jest konkurs RNA-Puzzles. Chodzi w nim o to, by mając zadaną sekwencję RNA, jak najdokładniej wyznaczyć strukturę cząsteczki. Modele przewidziane przez uczestników konkursu porównywane są następnie z wynikami eksperymentów chemicznych i biologicznych prowadzących do określenia struktury. Konkurs organizowany jest obecnie w dwóch kategoriach: serwerów, które automatycznie generują wyniki, oraz w kategorii predykcji ludzkich, gdzie modele powstają w wyniku integracji obliczeń komputerowych i eksperymentów laboratoryjnych. „Jesteśmy najlepsi w kategorii automatycznych systemów do predykcji 3D RNA” – podkreśla dr Szachniuk.

System RNAComposer powstał dzięki temu, że od dekady zespół z ECBiG skrzętnie gromadził ogromną bazę danych dotyczących RNA. W bazie RNA FRABASE zebrano informacje z ogromnej liczby eksperymentów. Takich, z których można było wyciągnąć wnioski o strukturze przestrzennej molekuł RNA. Baza ta jest ciągle aktualizowana i każdy może z niej bezpłatnie skorzystać. „To popularne narzędzie. Wiemy nawet, że na zagranicznych uczelniach korzystają z niej np. studenci w ramach badań i studiów przygotowujących do zawodu bioinformatyka czy biologa” – opowiada dr Szachniuk. Baza ta pomaga m.in. wyszukiwać czy w różnych cząsteczkach powtarzają się jakieś konkretne przestrzenne wzorce.

Polska na światowej mapie badań nad strukturą RNA jest widoczna także dzięki badaniom innych zespołów. Ważną postacią jest tu m.in. prof. Ryszard Kierzek z Instytutu Chemii Bioorganicznej PAN w Poznaniu. Jego prace pozwoliły określić termodynamiczne reguły fałdowania RNA. Nowatorskimi badaniami nad wyznaczaniem struktury RNA zajmuje się również zespół prof. Janusza Bujnickiego z Międzynarodowego Instytutu Biologii Molekularnej i Komórkowej w Warszawie.

PAP – Nauka w Polsce

Brak komentarzy do RNA w 3D

Fajerwerki – gra świateł

Podobno czarny proch wymyślili Chińczycy. Nie po to jednak by używać go na polu walki, ale by się nim bawić. Jak ? Budując sztuczne ognie.

Pierwsze fajerwerki budowano by odstraszać złe duchy. Spalano suszone łodygi bambusowe by wydawały charakterystyczne trzaski. Później wypełniano je różnymi substancjami. Rozrywka zaczęła się wraz z rozwojem chemii. A właściwie nie tyle rozwojem ile świadomością. Odkrywano coraz to nowe substancje czy związki, których wcześniej nikt nie podejrzewał o wybuchowe konotacje. Dziś wiele z nich znaleźć można w petardach, bombkach czy rakietach. W Polsce pokazy sztucznych ogni odbyły się po raz pierwszy w 1918 r., kilka dni po ogłoszeniu niepodległości. Trwały wtedy zaledwie 3 minuty. Pierwsze znane pokazy sztucznych ogni zorganizowano na dworze cesarskim w Chinach w roku 468 p.n.e.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

To wszystko fizyka …

Wybuchające na niebie sztuczne ognie to jedna z lepszych ilustracji tzw. zasady zachowania pędu. To dokładnie ta sama reguła, która tłumaczy dlaczego wyskakując z pokładu łódki na brzeg czy molo powodujemy, że łódka zaczyna odpływać. No właśnie, dlaczego ? Bo – jak powiedziałby fizyk – w układzie w którym nie działają siły zewnętrzne, pęd układu musi zostać zachowany. Oczywiście w wyżej opisanym przykładzie z łódką i jej pasażerem działają siły zewnętrzne – siły oporu, ale są one małe i można je pominąć. Tak więc jeżeli pasażer łódki wskakuje z jej pokładu na molo – łódka zaczyna się poruszać w przeciwnym kierunku. Można by powiedzieć, że ruch łódki równoważy ruch jej pasażera. Im z większym impetem wyskoczy on z łódki, tym szybciej sama łódka zacznie odpływać w przeciwnym kierunku. Co to wszystko ma wspólnego z fajerwerkami ? Człowiek płynący na łódce to układ składający się z dwóch elementów. Petarda rozrywana nad naszymi głowami, to układ składający się z setek a może nawet tysięcy elementów. Ilość nie gra jednak tutaj roli. Fizyka pozostaje taka sama. Każdy wybuch jest w pewnym sensie symetryczny. Jeżeli kawałek petardy leci w prawo, inny musi – dla równowagi – lecieć w lewo. Jeden do przodu, to inny do tyłu. W efekcie malujące się na ciemnym niebie wzory mają kształty kul, okręgów czy palm. Zawsze są jednak symetryczne. Zawsze takie, że gdyby potrafić cofnąć czas, wszystkie te ogniste stróżki spotkałyby się w punkcie znajdującym się dokładnie w środku, pomiędzy nimi.

… czy może chemia ?

Najczęściej występującą barwą na pokazach sztucznych ogni jest pomarańcz i czerwień. Pojawiają się też inne kolory. Skąd się biorą ? Wszystko zależy od tego z czego zrobiona, a właściwie z dodatkiem czego zrobiona jest petarda. Jej zasadnicza część to środek wybuchowy, ale czar tkwi w szczegółach. I tak, za często występujący pomarańcz i czerwień odpowiedzialny jest dodany do materiału wybuchowego wapń i bar. Inny pierwiastek – stront powoduje, że eksplozja ma kolor żółty, z kolei związki boru i antymon, że zielony. Ale to dopiero początek kolorowej tablicy Mendelejewa. Bo płomienie może barwić także rubid – na kolor żółto fioletowy, cez na kolor fioletowo-niebieski i bar na kolor biały. Potas spowoduje, że niebo stanie się liliowe, a miedź, że niebieskie. W produkcji fajerwerków wszystkie chwyty są dozwolone – o ile wykonuje je specjalista pirotechnik. Bo o efekt toczy się gra. Tak więc mieszanie poszczególnych związków jest nie tyle wskazane, ile wręcz pożądane. Jedno jest pewne. Specjalista spowoduje, że w czasie pokazu na niebie będzie można podziwiać więcej barw niż w łuku tęczy. Będą się pojawiały dokładnie w tym momencie, w którym chce je przedstawić twórca sztucznych ogni. Niebo z liliowego, przez zielony może stać się krwisto czerwone, aż na końcu spłonie intensywnym pomarańczem. A wszystko wg wyliczonego co do ułamka sekundy scenariusza. Ale czy na pewno tylko o kolory chodzi ? Co z dymem ? Co z hukiem ?

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

To sztuka!

Prawdziwy mistrz dba nie tylko o efekty wizualne, ale także dźwiękowe w czasie pokazu fajerwerków.  Żeby petarda zdrowo nadymiła trzeba zaopatrzyć się w zapas chloranu potasu, laktozę i barwniki – w zależności od oczekiwanego koloru dymu. Petardy błyskowe będą wypełnione magnezem, a hukowe i świszczące będą zawierały duże ilości nadchloranów i soli sodu i potasu. Można też wyprodukować mieszaninę iskrzącą, a wtedy przyda się węgiel drzewny albo oświetlającą. W praktyce – szczególnie w ładunkach profesjonalnych – różnego rodzaju mieszanki stosuje się razem. Nie wszystkie, w jednym worku, ale ułożone w odpowiedniej kolejności.

Można zapytać jak zadbać o chronologię w czasie trwającej ułamki sekund eksplozji ? To jest właśnie sztuka. Ładunek pirotechniczny wygląda trochę jak cebula. Składa się z wielu warstw. Petarda najpierw musi wznieść się w powietrze. Ani nie za wysoko, ani za nisko. W pierwszym wypadku efekt wizualny będzie marny, a w drugim – gdy wybuchnie zbyt blisko widzów – może dojść do tragedii. Prawdziwa magia zaczyna się, gdy ładunek jest już wysoko nad głowami. Poszczególne warstwy zapalają się od siebie i w zaplanowanej wcześniej kolejności wybuchają. Widz z zapartym tchem podziwia gęste kule rozrastającego się we wszystkich kierunkach różnokolorowego ognia, albo błysk i kilka opadających w bezwładzie długich ognistych języków. Gdy wszystko wydaję się być skończone, nagle pojawiają się migoczące gwiazdki, albo wirujące wokół własnych osi ogniste bombki. Po nich jest ciemność i cisza. Do następnej eksplozji, innej niż poprzednia. Innej niż wszystkie poprzednie.

Sztuczne ognie można sprowadzić do chemii materiałów wybuchowych. Można też powiedzieć, że są wręcz encyklopedycznym przykładem znanej każdemu fizykowi zasady zachowania pędu. Ale tak naprawdę sztuczne ognie to czary.

Kolory sztucznych ogni:

karminowy: lit, bar i sód

szkarłatny: bar 

czerwono-żółty: wapń i bar

żółty: stront, śladowe ilości sodu i wapnia

biały: cynk i bar

szmaragdowy: miedź i tal

niebiesko-zielony: związki fosforu ze śladowymi ilościami kwasu siarkowego lub kwasu borowego, związki miedzi

jaskrawy zielony: antymon

żółto-zielony: bar i molibden

lazurowy: ołów, selen i bizmut

jasnoniebieski: arszenik

fioletowy/liliowy: niektóre związki potasu z dodatkiem sodu i litu

purpurowy: potas, rubid i cez

1 komentarz do Fajerwerki – gra świateł

Pożary widziane z kosmosu

W Kalifornii od kilku tygodni szaleją pożary. Serwisy telewizyjne czy internetowe pełne są apokaliptycznych zdjęć, ale ja postanowiłem pokazać wam zdjęcia z kosmosu. Są straszne i… hipnotyzujące.

W Kalifornii od kilku tygodni szaleją pożary. Serwisy telewizyjne czy internetowe pełne są apokaliptycznych zdjęć, ale ja postanowiłem pokazać wam zdjęcia z kosmosu. Są straszne i… hipnotyzujące.

 

Pożary zniszczyły albo niszczą setki tysięcy hektarów lasu. W sumie z domów ewakuowano kilkaset tysięcy ludzi. Ogień dotarł już do Los Angeles, płonie dzielnica Bel Air na terenie której znajduje się kampus znanego na całym świecie Uniwersytetu Kalifornijskiego.

Pożary w tej części Stanów to żadna nowość, ale tegoroczne są szczególnie groźne, bo towarzyszy im suchy i gorący wiatr fenowy, który wieje w porywach z prędkością do 130 km/h. Taki wiatr w południowej Kalifornii wieje od października do marca, z północnego wschodu, od strony gór Sierra Nevada.

Wiatrem fenowym jest np. nasz wiatr halny, czyli ciepły, suchy i porywisty wiatr, wiejący ku dolinom. Taki wiatr powstaje na skutek różnic ciśnienia pomiędzy jedną a drugą stroną grzbietu górskiego. Po nawietrznej stronie grzbietu powietrze unosi się ochładzając oraz pozbywając się pary wodnej. Po stronie zawietrznej powietrze opada ocieplając się.

A wracając do pożarów w Kalifornii. W tym roku są one tak dotkliwe także dlatego, że wczesną wiosną w Kalifornii spadły wyjątkowo obfite deszcze. To spowodowało szybki wzrost niskiej roślinności porastającej zbocza. Od marca jest tam jednak susza. NASA szacuje, że mamy właśnie do czynienia z okresem dziesięciu najsuchszych miesięcy w historii Południowej Kalifornii. Od 10 miesięcy nie spadła tam nawet jedna kropla wody. Ta niska, bujna na wiosnę, ale teraz wysuszona na proch roślinność stała się doskonałą pożywką dla pożarów.

Dzisiaj w Kalifornii szaleje sześć dużych pożarów i kilka mniejszych. Spaliło się kilkaset domów i setki tysięcy hektarów lasu. Straty liczone są w setkach miliardów dolarów.

Zdjęcia w większości zostały zrobione przez spektroradiometr obrazu (MODIS) na pokładzie satelity NASA oraz Multi Spectral Imager (MSI) z satelity Sentinel-2 Europejskiej Agencji Kosmicznej.

A photo taken from the International Space Station and moved on social media by astronaut Randy Bresnik shows smoke rising from wildfire burning in Southern California, U.S., December 6, 2017. Courtesy @AstroKomrade/NASA/Handout via REUTERS ATTENTION EDITORS – THIS IMAGE HAS BEEN SUPPLIED BY A THIRD PARTY. – RC11C90C8420

Przy okazji, zapraszam do subskrypcji mojego kanału na YT ( youtube.com/NaukaToLubie ) i polubienia fanpaga na Facebooku ( facebook.com/NaukaToLubie )

Brak komentarzy do Pożary widziane z kosmosu

Co najbardziej skraca życie Polakom? Przeanalizowały to badaczki z Łodzi

Rak płuc kradnie już Polkom więcej lat życia niż rak piersi. A u mężczyzn roczna liczba samobójstw przerasta liczbę ofiar wypadków komunikacyjnych. Badaczki z Łodzi przyjrzały się, dlaczego Polacy nie…

Rak płuc kradnie już Polkom więcej lat życia niż rak piersi. A u mężczyzn roczna liczba samobójstw przerasta liczbę ofiar wypadków komunikacyjnych. Badaczki z Łodzi przyjrzały się, dlaczego Polacy nie żyją tak długo, jakby mogli.

„Chciałyśmy zbadać, które przyczyny zgonu są teraz w Polsce najbardziej istotne z ekonomicznego i społecznego punktu widzenia. I jak to się zmieniło w ciągu 15 lat XXI wieku” – opowiada w rozmowie z PAP dr Małgorzata Pikala z Uniwersytetu Medycznego w Łodzi. Jej badania – prowadzone wspólnie z prof. Ireną Maniecką-Bryła z łódzkiego UM – publikowane były w prestiżowym „Scientific Reports”. 

Badaczki z łódzkiego UM zanalizowały dane z GUS na temat wszystkich zgonów Polaków w latach 2000-2014. Średnia długość życia mężczyzn w Polsce w 2014 r. wynosiła 73,7 lat, a kobiet – 81,7. Od 2000 r. te średnie wzrosły odpowiednio o 4,1 i 3,7 lat. Jednakże pomimo tych pozytywnych zmian, długość trwania życia Polaków różni się na niekorzyść od większości krajów europejskich. Wśród 44 krajów Europy Polska zajmowała pod tym względem w 2014 roku 28. miejsce w grupie mężczyzn i 25. miejsce w grupie kobiet.

JAK POLICZYĆ UTRACONE LATA ŻYCIA?

Badaczki analizując przyczyny tych zgonów i ich znaczenie dla społeczeństwa zastosowały zamiast tradycyjnych współczynników zgonów współczynnik SEYLL – oparty o utracone lata życia. To współczynnik dość nowy, ale stosowany już na świecie, m.in. przez Światową Organizację Zdrowia. SEYLL – w uproszczeniu – uwzględnia, ile lat utraciła przedwcześnie zmarła osoba. „Kiedyś uwzględniało się w tym współczynniku długość życia w Japonii, bo Japończycy biją rekordy w długowieczności. Teraz oblicza się to według specjalnych tablic, skonstruowanych w oparciu o najniższe obserwowane wskaźniki umieralności dla każdej grupy wieku w krajach liczących ponad 5 milionów ludności” – mówi dr Pikala. Tablice te wykazują, ile powinna – w modelowej sytuacji – przeżyć osoba w danym wieku. Według tego wskaźnika np. śmierć noworodka oznacza 86 utraconych lat życia, 30-latka to 54 lat straty, 60-latka – 27 lat, a 100-latka to 2 utracone lata życia.

„Utracone lata życia są o tyle lepszym miernikiem, że bardziej uwzględniają skutki społeczne i ekonomiczne przedwczesnej umieralności” – mówi badaczka z łódzkiego UM. I podaje przykład, że zgony osób młodych są dla społeczeństwa większym obciążeniem niż osób w sędziwym wieku.

Z wyliczeń wynika, że w przeliczeniu na 10 tys. mieszkańców Polski w 2000 r. mężczyźni tracili 2500 lat życia, a w 2014 r. mniej, bo prawie 2200 lat. U kobiet współczynnik ten wynosił odpowiednio 1430 i 1270 lat. Najwięksi złodzieje życia w Polsce to choroby układu krążenia, nowotwory złośliwe, zewnętrzne przyczyny zgonów (w tym przede wszystkim wypadki komunikacyjne i samobójstwa) oraz choroby układów trawiennego i oddechowego.

TRZY GRUPY PRZYCZYN

Naukowcy podzielili przyczyny zgonu na trzy najważniejsze grupy. W pierwszej grupie są m.in. choroby zakaźne, pasożytnicze, związane z ciążą i porodem, a także niedożywieniem. „To grupa istotna w krajach słabo rozwiniętych, ale w Polsce – najrzadziej spotykana” – skomentowała dr Pikala. Drugą grupą przyczyn zgonów są przewlekłe choroby niezakaźne – m.in. nowotwory czy choroby układu krążenia. „To najczęstszy powód zgonów w krajach rozwiniętych, również w Polsce” – powiedziała rozmówczyni PAP. Trzecia zaś grupa to zewnętrzne przyczyny zgonu – wypadki, samobójstwa.

PROSIMY NIE PALIĆ!

Druga grupa przyczyn śmierci – przewlekłe choroby niezakaźne – to w Polsce prawie 80 proc. wszystkich utraconych lat życia mężczyzn i 90 proc. utraconych lat kobiet. Chociaż współczynnik SEYLL w przypadku tych przyczyn spada (to dobry znak), są grupy osób, w których obserwuje się niekorzystne zmiany. „Na przykład zwiększa się liczba lat życia utraconych przez kobiety z powodu nowotworów, zwłaszcza raka płuc” – opowiada dr Pikala. I dodaje: „Zaskakujące jest, że odsetek lat życia utraconych z powodu raka płuc jest wyższy niż z powodu raka piersi. Do niedawna było odwrotnie” – opowiada badaczka.

A to oczywiście sprawka papierosów. Dr Pikala opowiada, że w ostatnim 15-leciu odsetek palących mężczyzn spadł z 43 do 33 proc. A odsetek palących kobiet się nie zmienił – utrzymuje się na poziomie 23 proc. To, że rak płuc u kobiet jest teraz silniej widoczny w przyczynach zgonu, ma też związek z kulturą palenia. Co druga kobieta, która urodziła się między 1940 a 1960 r. jest (lub była) palaczką. „Dopiero teraz – obserwując przyczyny zgonów – widzimy skutki tak wysokiego odsetka palaczek z tamtych roczników” – opowiada dr Pikala.

U MĘŻCZYZN SAMOBÓJSTW WIĘCEJ NIŻ WYPADKÓW

Zewnętrzne przyczyny zgonów (trzecia grupa) odpowiadają za 15,7 proc. utraconych lat życia u mężczyzn i 5,3 proc. u kobiet. W tej grupie przyczyn najwięcej lat zabierają Polakom wypadki komunikacyjne. „Ale tu mamy trendy spadkowe” – komentuje dr Pikala. Ale dodaje, że już w przypadku samobójstw o korzystnych zmianach raczej nie może być mowy. Problem dotyczy zwłaszcza samobójstw mężczyzn mieszkających w małych miasteczkach i na wsiach. „Od 2006 r. wśród mężczyzn liczba zgonów z powodu samobójstw przekracza liczbę ofiar wypadków komunikacyjnych. Podobne tendencje obserwuje się i w innych krajach Europy Wschodniej” – mówi statystyk.

„To przez wielu autorów tłumaczonych jest tym, że na skutek zmian społeczno-ekonomicznych wielu mężczyzn odczuwa zmniejszanie swoich szans na rynku pracy, co często jest przez nich postrzegane jako wykluczenie społeczne i może prowadzić do samobójstw” – opowiada. Sugeruje, że liczba samobójstw może się też wiązać z rosnącą ilością wypijanego alkoholu. W Polsce spożycie alkoholu na 1 mieszkańca od 2000 r. systematycznie rośnie: od 7,1 l do 9,4 l czystego alkoholu w 2014 r. Jak zwraca uwagę dr Pikala, statystyki zawyżane są przez mieszkających w mniejszych miastach i wsiach mężczyzn z wykształceniem średnim i podstawowym.

SZCZEPIENIA – ZALEGŁOŚĆ DO NADROBIENIA

Jeśli chodzi o grupę zgonów związaną z chorobami zakaźnymi, niedożywieniem, ciążą i połogiem (pierwsza grupa zgonów) – mamy tu – jeśli chodzi o współczynnik SEYLL – trend spadkowy. „Niemniej jednak mamy problem dotyczący zakażeń górnych i dolnych dróg oddechowych. Tu obserwujemy trend rosnący” – opowiada dr Pikala. I dodaje: „autorzy różnych opracowań tłumaczą to między innymi niechęcią Polaków do szczepień przeciw grypie”. Podczas gdy Rada Europejska rekomenduje, by szczepiło się 75 proc. obywateli, statystyki pokazują, że przeciw grypie szczepi się nie więcej niż 5 proc. Polaków. To nie zapewnia wystarczającej redukcji zachorowań.

Zapytana o to, jak Polacy mogą zadbać o to, by ich życie trwało jak najdłużej, dr Pikala odpowiada: „Porady są proste: prowadzić zdrowy tryb życia, nie mieć nałogów, dbać o aktywność fizyczną, regularnie się badać oraz szczepić”.

PAP – Nauka w Polsce, Ludwika Tomala

Źródło: www.naukawpolsce.pap.pl

7 komentarzy do Co najbardziej skraca życie Polakom? Przeanalizowały to badaczki z Łodzi

Samouczące się systemy informatyczne pomocą dla radiologów

Samouczące się systemy informatyczne, które na podstawie zgromadzonych danych i doświadczeń potrafią automatycznie analizować również nowe dane, mogą się okazać pomocne w pracy radiologów. Tego typu rozwiązanie powstaje właśnie w…

Samouczące się systemy informatyczne, które na podstawie zgromadzonych danych i doświadczeń potrafią automatycznie analizować również nowe dane, mogą się okazać pomocne w pracy radiologów. Tego typu rozwiązanie powstaje właśnie w Gliwicach. Pilotaż planowany jest na przyszły rok.

Chodzi o system do diagnostyki nowotworów i analizy zmian nowotworowych, oparty o obrazowanie dynamiczne po wzmocnieniu kontrastowym.

„To projekt innowacyjny na skalę świata. Być może takie badania są prowadzone w innych ośrodkach na świecie, ale to jest rzecz bardzo nowa, która bardzo może skrócić i ułatwić (kompleksową – przyp. PAP) analizę takich danych medycznych, np. w zastosowaniach onkologicznych (…). Mam nadzieję, że wdrożenie wyników tego projektu stanie się przełomem” – powiedział PAP dr Jakub Nalepa z Wydziału Automatyki, Elektroniki i Informatyki Politechniki Śląskiej w Gliwicach.

Trzonem tego innowacyjnego rozwiązania są techniki uczenia maszynowego (ang. machine learning). Jak tłumaczył Nalepa, systemy informatyczne budowane w oparciu o dotychczas zgromadzone i „zrozumiane” dane (np. obrazy medyczne) pozwalają na skrócenie czasu analizy nowych danych.

Naukowiec wskazał, że techniki uczenia maszynowego mogą być wykorzystywane np. do automatycznej segmentacji obrazów medycznych. „Na podstawie danych, które już mamy – to są dane historyczne – możemy stworzyć klasyfikator, który pozwoli na automatyczną analizę nowych obrazów, które nie były dotychczas +widziane+ przez taki system w czasie +treningu+. Możemy w ten sposób skrócić analizę, która musiałaby być wykonana przez człowieka, a jeżeli skracamy analizę obrazów medycznych, skracamy też czas potrzebny do diagnozy” – tłumaczył Nalepa, który jest jednocześnie kierownikiem ds. badań w tym projekcie z ramienia firmy Future Processing.

Innymi słowy – techniki uczenia maszynowego pozwalają na stworzenie takich algorytmów, które na podstawie opisanych wcześniej danych automatycznie „dostosowują się” do nowych danych, wykorzystując zgromadzone doświadczenia.

Wspomniany system dotyczący obrazowania dynamicznego powstaje we współpracy firmy Future Processing z Centrum Onkologii – Instytutem im. Marii Skłodowskiej-Curie w Gliwicach.

Jak podał Nalepa, obrazowanie dynamiczne po wzmocnieniu kontrastowym polega na skanowaniu wybranego obszaru ciała i analizie dynamiki przepływu środka kontrastowego u pacjenta. Pozwala to na wyznaczenie biomarkerów, opisujących charakterystykę i stopień zaawansowania nowotworu, umożliwiając ocenę ryzyka u pacjentów z chorobą nowotworową.

Dzięki segmentacji tego rodzaju danych medycznych można znaleźć w tych obrazach pewne „podejrzane” obszary, które wymagają dalszej analizy przez radiologa.

„Nasz system na pewno nie zastąpi pracy radiologa, ale będzie mógł pomóc w znalezieniu pewnych +podejrzanych+ regionów w obrazach, które powinny być jeszcze dokładniej sprawdzone” – podkreślił Nalepa.

Projekt badawczo-rozwojowy to nie tylko wyzwania medyczne, ale przede wszystkim algorytmiczne. Wśród nich naukowiec wymienił analizę trudnych danych, czyli zagadnienie z zakresu „big data”. Tłumaczył, że chodzi tu nie tylko o dużą ilość tych danych, duży ich rozmiar, ale też ich heterogeniczność, czyli niejednorodność, a także o dane, których jakość nie jest pewna.

Nalepa zaznaczył więc, że zbudowanie takich systemów klasyfikacyjnych opartych o dane o zróżnicowanej jakości jest w praktyce bardzo trudne i wymaga dobrze przemyślanego wstępnego przetwarzania i selekcji danych, które są najbardziej reprezentatywne, np. dla pewnego rodzaju zmian nowotworowych.

Badania nad tym systemem są jeszcze prowadzone. „Mamy nadzieję, że już w przyszłym roku będziemy gotowi do pierwszych, pilotażowych wdrożeń. Wprowadzenie nowego produktu medycznego na rynek jest długim i żmudnym procesem, dlatego że należy udowodnić, że to, co opracowaliśmy rzeczywiście może być użyte w codziennej praktyce onkologicznej” – zaznaczył Nalepa.

W jego ocenie zapotrzebowanie na tego typu pomoc dla radiologów i fizyków medycznych jest nie tylko w Polsce. „Współpracujemy z ludźmi z Cambridge, więc widzimy, że nie tylko w Polsce jest zapotrzebowanie na tego rodzaju rozwiązania i mam nadzieję, że to w przyszłości zaprocentuje, przede wszystkim dla pacjentów” – podsumował.

Projekt ten o budżecie w wysokości 19 mln zł uzyskał dofinansowanie z Narodowego Centrum Badań i Rozwoju w wysokości 9 mln zł.

W październiku dr Jakub Nalepa otrzymał Nagrodę im. Witolda Lipskiego, przyznawaną młodym polskim uczonym zajmującym się informatyką.(PAP)

autor: Agnieszka Kliks-Pudlik

akp/ agt/

 

 

 

Źródło: www.naukawpolsce.pap.pl

Brak komentarzy do Samouczące się systemy informatyczne pomocą dla radiologów

Komórki nowotworowe niszczone z pomocą nanocząstek – projekt łódzkich naukowców

Łódzcy naukowcy opracowali metodę termicznego niszczenia rozsianych komórek nowotworowych z użyciem nanocząstek. Całe piękno tej metody polega na tym, że niszczymy tylko komórki zwyrodniałe – mówi współtwórca rozwiązania prof. Zbigniew…

Łódzcy naukowcy opracowali metodę termicznego niszczenia rozsianych komórek nowotworowych z użyciem nanocząstek. Całe piękno tej metody polega na tym, że niszczymy tylko komórki zwyrodniałe – mówi współtwórca rozwiązania prof. Zbigniew Kołaciński z Instytutu Mechatroniki i Systemów Informatycznych PŁ.

Przy zastosowaniu tej metody przepływające w układzie krwionośnym nanorurki odnajdują guza nowotworowego zawierającego zdegenerowane komórki i się do nich przyczepiają. Napromieniowanie tkanki falą elektromagnetyczną powoduje nagrzanie komórek nowotworowych powyżej temperatury ich apoptozy wywołując nekrozę, czyli śmierć komórek – mówił PAP współtwórca rozwiązania prof. Zbigniew Kołaciński z Instytutu Mechatroniki i Systemów Informatycznych Politechniki Łódzkiej.

Opracowanie metody niszczenie rozsianych komórek nowotworowych jelita grubego z użyciem nanocząstek to rezultat projektu sponsorowanego przez NCBiR, zrealizowanego w Politechnice Łódzkiej, z udziałem Uniwersytetu Medycznego w Łodzi oraz firmy AMEPOX.

Prof. Kołaciński podkreślił, że naukowcy zajmujący się nanotechnologią wychodzą naprzeciw niedoskonałościom obecnie stosowanych metod leczenia raka – leczenia chirurgicznego, w przypadku którego pacjenci zgłaszają się do lekarza zbyt późno, dlatego często jest to leczenie jedynie paliatywne, czyli przeciwbólowe, a także chemioterapii i radioterapii, których stosowanie niszczy niestety także komórki zdrowe.

„Powstała wśród naukowców, którzy zajmują się nanotechnologią, chęć wprowadzenia nanocząstek do likwidacji komórek rakowych. Te nanocząstki muszą być zasobnikami leków lub innych elementów, które potrafią zniszczyć komórki rakowe” – wyjaśnił prof. Kołaciński.

Na Politechnice Łódzkiej opracowano metodę otrzymywania takich nanozasobników poprzez syntezę nanorurek węglowych różnymi metodami: łukową, metodą plazmy mikrofalowej oraz chemicznego osadzania z fazy gazowej. Nanorurki zawierają w sobie ferromagnetyk np. żelazo, które można następnie rozgrzać przy pomocy fali elektromagnetycznej.

„Jeżeli taki zasobnik wprowadzimy do organizmu i przyłączymy go do komórek rakowych, spełni on rolę mikroźródła grzejnego, które zniszczy te komórki. Jest to zniszczenie całkowite, bo jeżeli temperatura komórki nowotworowej przekroczy 42 stopni C, następuje jej nekroza” – podkreślił prof. Kołaciński.

Martwe komórki nowotworowe są wydalane z organizmu, a komórki zdrowe pozostają dalej żywe. „Całe piękno tej metody polega na tym, że niszczymy tylko komórki zwyrodniałe” – ocenił naukowiec.

Łódzcy uczeni opracowali metodę adresowania nanorurek węglowych jako zasobników do komórek rakowych przy pomocy przyłączonych do kwasu foliowego specyficznych ligandów, które mają zdolność znajdowania komórek rakowych. Takie zasobniki mogą być wstrzykiwane do organizmu, bądź podawane przez skórę lub w formie tabletki. Badacze opracowali także urządzenie do hipertermii, czyli nagrzewania komórek falą elektromagnetyczną.

Nanozasobniki biegną w układzie krwionośnym i odnajdują chore komórki – uruchamiany jest wówczas proces termoablacji tzn. nagrzewania polem elektromagnetycznym. ”Chore komórki podlegają napromieniowaniu falą elektromagnetyczną o wysokiej częstotliwości radiowej, która podgrzewa żelazo w procesie hipertermii niszczącej komórki rakowe” – dodał naukowiec.

Do tego celu łódzcy naukowcy wykorzystują generatory o częstotliwości radiowej pracujące w zakresie od setek kiloherców do rzędu kilkudziesięciu megaherców. „Opracowaliśmy urządzenie do hipertermii, czyli nagrzewania komórek falą elektromagnetyczną, które wraz z patentem adresującym zasobniki do komórek rakowych, tworzy całość, która likwiduje wyłącznie zwyrodniałe komórki” – podkreślił prof. Kołaciński.

Metoda naukowców z PŁ została przebadana na komórkach nowotworowych jelita grubego. Konieczne są jeszcze testy na zwierzętach i testy kliniczne. W końcowej fazie wdrożenia klinicznego projektu naukowcy planują umieszczenie całego człowieka w urządzeniu emitującym kontrolowane dawki pola elektromagnetycznego o częstotliwości radiowej.

Prof. Kołaciński liczy na to, że za 10 lat ta metoda ta będzie skutecznie stosowana w określonych typach nowotworów. „Na pewno nie do wszystkich typów, natomiast w określonych typach nowotworów zostanie sprawdzona i będzie mogła być stosowana” – ocenił naukowiec. (PAP)

szu/ ksk/ zan/

 

Źródło: www.naukawpolsce.pap.pl

Brak komentarzy do Komórki nowotworowe niszczone z pomocą nanocząstek – projekt łódzkich naukowców

Mechanizm samobójczego naśladownictwa

Czyli inaczej efekt Wertera jest znany od wielu lat. Media powinny z wielką powściągliwością pisać o zbrodniach, aktach terroryzmu i samobójstwach. Inaczej biorą na siebie ciężar odpowiedzialności za naśladowców. 

Czyli inaczej efekt Wertera jest znany od wielu lat. Media powinny z wielką powściągliwością pisać o zbrodniach, aktach terroryzmu i samobójstwach. Inaczej biorą na siebie ciężar odpowiedzialności za naśladowców. 

Gdy w mediach pojawia się dużo relacji dotyczących samobójstwa, gdy z tematu robi się główną informację dnia, gdy osoby znane gratulują samobójcy odwagi i determinacji, wzrasta prawdopodobieństwo kolejnych tragedii. Niewiele rzeczy tak jasno jak efekt Wertera ilustruje ogromną odpowiedzialność mediów i pracujących w nich dziennikarzy. Ta odpowiedzialność leży także na naszych barkach. To przecież my linkujemy, komentujemy i udostępniających treści, za które jesteśmy odpowiedzialni.  Światowa Organizacja Zdrowia kilka lat temu stworzyła nawet dokument z wytycznymi dla dziennikarzy jak pisać o samobójstwach, tak, żeby nie prowokować naśladowców.

Statystycznie rzecz ujmując, wzrost samobójstw następujący kilka, kilkanaście dni od nagłośnienia analogicznej tragedii. Z badań wynika, że szczególnie wyraźnie jest widoczny, gdy samobójstwo popełni znana osoba (np. gwiazda filmowa), lub gdy czyn osoby popełniającej samobójstwo jest usprawiedliwiany. Efekt Wertera zauważono także w stosunku do terroryzmu. Czym więcej informacji a aktach terroru, tym częściej się one zdarzają. Gdy przeanalizowano ponad 60 tysięcy zamachów terrorystycznych jakie miały miejsce na całym świecie w latach 1970 – 2002 i skorelowano je z częstotliwością oraz długością ukazujących się na ich temat materiałów prasowych, odkryto, że każde dodatkowe doniesienie o zamachu terrorystycznym zwiększało prawdopodobieństwo zamachów w kolejnym tygodniu o od kilku do kilkunastu procent.

Człowiekiem, który wprowadził do literatury określenie „efekt Wertera” był amerykański socjolog David Philips. Swoje badania prowadził w latach 70tych XX wieku. Już wtedy zauważono, że efekt jest wzmacniany gdy opisy śmierci podaje się ze szczegółami. Gdy samobójca umiera długo i w cierpieniu, gdy upublicznia się wizerunek zrozpaczonych krewnych samobójcy, gdy publikuje się list w których samobójca wyjaśnia swoje motywy i gdy te motywy poddaje się w mediach analizie. Psychologowie twierdzą, że w tym jest tak duży „potencjał identyfikacyjny”, że osoby o słabszej osobowości, osoby, które już wcześniej rozważały samobójstwo są tymi informacjami wręcz popychane do tragicznych czynów.

Obszerną rozmowę na temat efektu Wertera, kilka lat temu (w 2011 roku) opublikował portal Polityka.pl

– Jak to działa? – pytała w wywiadzie Joanna Cieśla.

(prof. Bartosz Łoza – kierownik Kliniki Psychiatrii Warszawskiego Uniwersytetu Medycznego.): Większość z nas bez głębszej refleksji wchłania papkę newsową, którą przekazują nam media, zwłaszcza te szybkie, operujące skrótami. Działa tu mechanizm modelowania – mamy podaną całą gotową historię – o prawdziwym człowieku, prawdziwym życiu, prawdziwych decyzjach, z początkiem i końcem. Nie musimy wkładać żadnego wysiłku w to, żeby ją śledzić, siedzimy w fotelu, a ona jest nam opowiadana. Staje się szczególnie wiarygodna dzięki wykorzystaniu takich technik jak nakręcone drżącą ręką filmy przysłane przez widzów, relacje i amatorskie zdjęcia internautów. To wszystko potwierdza, że to prawda, nie jakaś kreacja. 

Następnie prof. Bartosz Łoza wyjaśnia na czym polega owo modelowanie. Mówi, że osoby z podobnymi problemami co samobójca, rozważające już wcześniej tragiczne w skutkach kroki, dochodzą do wniosku, że skoro samobójca się zabił, one także mogą to zrobić.

– Informacja o zbrodni sprawia, że wszyscy stajemy się gorsi? – pytała Joanna Cieśla z Polityki.

– Niestety. Nie chcę zabrzmieć jak kaznodzieja, ale zło będzie rodzić zło. Wyjaśnia to nie tylko mechanizm modelowania, ale i teoria analizy transakcyjnej amerykańskiego psychoanalityka Erica Berne. Zgodnie z nią nasze emocje, moralność zależą od „głasków”, którymi nieustannie się wymieniamy z innymi ludźmi. Dobry głask to pochwała, zły głask – gdy ktoś na mnie burknął w autobusie. Mogę odburknąć – wtedy oddam negatywny głask. To taka waluta emocjonalna. Nasze portfele są pełne tej waluty, którą przez całe życie wymieniamy się z innymi ludźmi – odpowiada prof. Łoza.

W kolejnych częściach wywiadu profesor tłumaczy, że w tak destrukcyjny sposób działają na nas przede wszystkim informacje prawdziwe. Stąd często emitowane filmy w których dochodzi do strzelanin czy innych zbrodni nie mają wpływu na wzrost przestępczości. Natomiast relacjonowanie zbrodni czy tragedii, które rzeczywiście miały miejsce, szczególnie, gdy te relacje są bardzo emocjonalne, mogą nakłaniać do samobójczych kroków.

Efekt Wertera swoją nazwę zawdzięcza imieniu głównego bohatera napisanej przez Goethego powieści „Cierpienia młodego Wertera”. Po jej wydaniu (w 1774 roku) bodaj po raz pierwszy zauważono tzw. mechanizm samobójczego naśladownictwa.

Historia nieszczęśliwie zakochanego Wertera, który ostatecznie popełnił samobójstwo, pchnęła tysiące młodych ludzi nie tylko w Niemczech ale i w wielu innych krajach Europy do odebrania sobie życia.

2 komentarze do Mechanizm samobójczego naśladownictwa

Ukryta komnata

Ukryta komnata, promienie kosmiczne i piramidy. Nie, to nie jest streszczenie taniego filmu science-fiction. Streszczenie tekstu z Nature

To podobno pierwsze znalezisko w piramidzie Cheopsa od XIX. I to od razu z grubej rury. Magazyn Nature napisał, że w jednym z najbardziej monumentalnych grobowców odkryto tajemniczą komnatę. Jej długość jest szacowana na kilkadziesiąt metrów, a o tym, że w ogóle istnieje dowiedziano się dzięki analizie… promieni kosmicznych. Jak tego dokonano?

Czerwoną strzałką zaznaczyłem odkrytą komnatę 

Składnikiem  strumienia cząstek, które docierają do nas z kosmosu są miony. A ściślej mówiąc, miony powstają jako cząstki wtórne w wyniku rozpadu mezonów w wyższych warstwach ziemskiej atmosfery. Miony mają cechy elektronów, ale są ponad 200 razy od nich cięższe. Strumień mionów jest dość duży, bo w każdej sekundzie, przez metr kwadratowy powierzchni Ziemi przelatuje ich prawie 200. Miony nie omijają także nas, ale nie są dla nas groźne. Od jakiegoś czasu fizycy nauczyli się je wykorzystywać praktycznie.

 

Wiadomo ile mionów leci na nasze głowy. Jeżeli na ich drodze postawimy przeszkodę, część z nich, w niej ugrzęźnie. Im gęstsza ta przeszkoda, tym ugrzęźnie ich więcej. Ustawiając w odpowiedni sposób detektory mionów, jesteśmy w stanie wykonać trójwymiarowy obraz skanowanego obiektu. Zasada działania tego pomiaru jest identyczna co działania tomografu komputerowego. Jest źródło promieniowania (promienie Roentgena, zwane promieniami X) i są detektory. Robiąc odpowiednio dużo pomiarów pod różnymi kątami, jesteśmy w stanie z dużą precyzją określić kształt, budowę i strukturę tych części ludzkiego ciała, które dla oka lekarza są zakryte.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

W przypadku piramidy Cheopsa w Gizie nie było lekarzy, tylko fizycy i archeologowie, nie było promieni X, tylko kosmiczne miony. Nie było tomografu medycznego, tylko zmyślny system detektorów. Ale udało się dokonać tego samego. Znaleziono obiekt, a właściwie pustą przestrzeń, która wcześniej była przed wzrokiem badaczy zakryta.

Nie wiadomo czym jest tajemnicza komnata. Rozdzielczość tej metody jest zbyt mała, by stwierdzić czy znajdują się w niej jakieś obiekty. Może więc być pusta. Ale może też być pełna skarbów. Pusta przestrzeń znajduje się nad tzw. Wielką Galerią, czyli korytarzem prowadzącym do Komory Królewskiej. Nie wiadomo też, czy komnata (pusta przestrzeń) była zamurowana na etapie budowy piramidy, czy ktokolwiek po jej wybudowaniu do niej zaglądał. Piramida Cheopsa powstała w okresie tzw. Starego Państwa, czyli około 2560 roku p.n.e. Budowano ją zaledwie przez 20 lat. Jak na metody i technologie jakimi wtedy dysponowano, to tempo ekspresowe.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

7 komentarzy do Ukryta komnata

Nagroda za mikroskop

Nagroda Nobla z chemii zostałą przyznana za technikę, która zrewolucjonizowała biochemię. Mowa o mikroskopii krioelektronowej, dzięki której można obserwować i to w trzech wymiarach cząsteczki np. białek, bez uszkadzania ich.

Nagroda Nobla z chemii zostałą przyznana za technikę, która zrewolucjonizowała biochemię. Mowa o mikroskopii krioelektronowej, dzięki której można obserwować i to w trzech wymiarach cząsteczki np. białek.

Jacques Dubochet, Joachim Frank, Richard Henderson

„for developing cryo-electron microscopy for the high-resolution structure determination of biomolecules in solution”

Co niezwykle ważne, dzięki nagrodzonej metodzie, jesteśmy w stanie zobrazować nieuszkodzoną cząsteczkę białka w jej „naturalnym” środowisku. Uszkodzone białko nie niesie dla nas interesującej informacji. Nie jesteśmy w stanie zobaczyć jak ono reaguje, jak łączy się z innymi cząsteczkami, w skrócie, jak ono funkcjonuje w swoim naturalnym środowisku (a nie na przysłowiowym szkiełku) czyli we wnętrzu żywej komórki czy we wnętrzu poszczególnych organelli komórki. Białka to cegiełki z których wybudowane jest życie. Przy czym analogia do cegły i budynku nie jest wystarczająca. Białka nie są pasywnymi elementami naszego ciała. Białka (jako hormony) regulują czynności a nawet modyfikują struktury tkanek (tkanek, które też są zbudowane z białek). Bez poznania białek, tego jak są zbudowane, jak funkcjonują, jak łączą się w większe kompleksy, nie ma najmniejszej szansy żeby zrozumieć życie.

Trzej panowie Jacques Dubochet (Szwajcaria), Joachim Frank (USA), Richard Henderson (Wielka Brytania) stworzyli metodę by w skuteczny sposób białka badać. Nie w środowisku sztucznym, ale naturalnym. Bo tylko złapane w akcji białko daje nam się poznać. Tylko wtedy widzimy jak rzeczywiście funkcjonuje cały mechanizm, w którym bierze ono udział. Jak białko podglądnąć tak, by rzeczywiście zobaczyć jak ono funkcjonuje? Zamrozić. Ale bardzo szybko, po to by nie zdążył przebiec proces krystalizacji. Zamrażanie – jeżeli zostanie odpowiednio przeprowadzone – niczego nie uszkadza i niczego nie fałszuje. Mrożąc kolejne próbki, jesteśmy w stanie zrobić video, klatka po klatce pokazujące procesy, które przebiegają niezwykle szybko. Złożenie tych klatek w jedną całość umożliwia nie tylko prześledzenie procesu tak jak gdyby było się jego naocznym świadkiem, ale także przyjrzenie się poszczególnym jego aktom z różnej perspektywy. I tak w trójwymiarze można zobaczyć splatanie i rozplatanie długich nici białkowych. Można zobaczyć łączenie się mniejszych białek w większe kompleksy czy np. działanie receptorów białkowych.

– Te metody były przełomowe w medycynie molekularnej. Dzięki nim nie tylko możemy patrzyć na narządy i komórki. Możemy zejść głębiej, możemy śledzić jak wyglądają i działają pojedyncze cząsteczki w szczegółach, o jakim jeszcze niedawno nam się nie śniło. – powiedział Joachim Frank, jeden z laureatów tegorocznego Nobla z chemii, w rozmowie telefonicznej którą zaaranżowano w trakcie ogłaszania werdyktu.

Na zdjęciu głównym model wirusa zapalenia mózgu otrzymany dzięki technice mikroskopii krioelektronowej.

1 komentarz do Nagroda za mikroskop

Nobel z fizyki za fale

Prace nad wykrywaniem i analizą fal grawitacyjnych musiały kiedyś zostać uhonorowane Nagrodą Nobla. No i stało się.

Kosmiczny detektor, kosmiczne zagadnienie. W świecie fizyków i kosmologów po raz kolejny będzie mówiło się o falach grawitacyjnych. Kilkanaście dni temu dzięki pracy kolaboracji LIGO/VIRGO zmarszczki przestrzeni były w czołówkach serwisów na całym świecie. Dzisiaj też będą. Z powodu Nagrody Nobla z fizyki.

Rainer Weiss, Barry C. Barich, Kip S. Thorne

„for decisive contributions to the LIGO detector and the observation of gravitational waves”

waves-101-1222750-1600x1200

Fale grawitacyjne to kompletny odlot. Człowiekiem który sprawę rozumiał, ba, który ją wymyślił, a w zasadzie wyliczył był nie kto inny tylko Albert Einstein (swoją drogą powinien dostać nagrodę za odkrycie najbardziej nieintuicyjnych zjawisk we wszechświecie). Z napisanej przez niego 100 lat temu Ogólnej Teorii Względności wynika, że ruch obiektów obdarzonych masą,  jest źródłem rozchodzących się w przestrzeni fal grawitacyjnych (lub inaczej – choć nie mniej abstrakcyjnie – zaburzeń czasoprzestrzennych). Jak to sobie wyobrazić? No właśnie tu jest problem. Bardzo niedoskonała analogia to powstające na powierzchni wody kręgi, gdy wrzuci się do niej kamień. W przypadku fal grawitacyjnych zamiast wody jest przestrzeń, a zamiast kamienia poruszające się obiekty. Czym większa masa i czym szybszy ruch, tym łatwiej zmarszczki przestrzeni powinny być zauważalne. Rejestrując największe fale grawitacyjne, tak jak gdybyśmy bezpośrednio obserwowali największe kosmiczne kataklizmy: zderzenia gwiazd neutronowych, czarnych dziur czy wybuchy supernowych. Trzeba przyznać, że perspektywa kusząca gdyby nie to… że fale grawitacyjne to niezwykle subtelne zjawiska. Nawet te największe, bardziej będą przypominały lekkie muśnięcia piórkiem niż trzęsienie ziemi. W książce „Zmarszczki na kosmicznym morzu” (Ripples on a Cosmic Sea: The Search for Gravitational Waves) australijski fizyk, prof. David Blair, poszukiwanie fal grawitacyjnych porównuje do nasłuchiwania wibracji wywołanych przez pukanie do drzwi z odległości dziesięciu tysięcy kilometrów. Detektory zdolne wykryć fale grawitacyjne powinny być zdolne zarejestrować wstrząsy sejsmiczne wywołane przez upadek szpilki po drugiej stronie naszej planety. Czy to w ogóle jest możliwe? Tak! Od 2002 roku działa w USA Laser Interferometer Gravitational Wave Observatory w skrócie LIGO czyli Laserowe Obserwatorium Interferometryczne Fal Grawitacyjnych. Zanim budowa ruszyła, pierwszy szef laboratorium prof. Barry Barrish na dorocznym posiedzeniu AAAS (American Association for the Advancement of Science) oświadczył, że pomimo wielu trudności nadszedł w końcu czas na zrobienie czegoś, co można nazwać prawdzią nauką (swoją drogą, odważne słowa na zjeździe najlepszych naukowców na świecie).

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

This_visualization_shows_what_Einstein_envisioned

Symulacja łączenia się czarnych dziur – jedno ze zjawisk, które wytwarza najsilniejsze fale grawitacyjne

Z falami grawitacyjnymi jest jednak ten problem, że przez dziesięciolecia, mimo prób, nikomu nie udało się ich znaleźć. Gdyby komuś zaświtała w głowie myśl, że być może w ogóle ich nie ma, spieszę donieść, że gdyby tak było naprawdę, runąłby fundament współczesnej fizyki – Ogólna Teoria Względności, a kosmologię trzeba byłoby przepisać od początku. Dzisiaj głośno mówi się, że fale grawitacyjne zostały przez LIGO zarejestrowane. Panuje raczej atmosfera lekkiego podniecenia i oczekiwania na to, co stanie się za chwilę. Potwierdzenie istnienia fal grawitacyjnych nie będzie kolejnym odkryciem, które ktoś odfajkuje na długiej liście spraw do załatwienia.  Zobaczymy otaczający nas wszechświat z całkowicie innej perspektywy.

Jako pierwszy falowe zmiany pola grawitacyjnego, w latach 60 XX wieku próbował zarejestrować amerykański fizyk Jaseph Weber. Budowane przez niego aluminiowe cylindry obłożone detektorami nie zostały jednak wprawione w drgania. Co prawda Weber twierdził, że złapał zmarszczki wszechświata, ale tego wyniku nie udało się potwierdzić. Dalsze poszukiwania trwały bez powodzenia, aż do 1974 roku, gdy dwóch radioastronomów z Uniwersytetu w Princeton (Joseph Taylor i Russel Hulse) obserwując krążące wokół siebie gwiazdy (PSR1913+16) stwierdziło, że układ powoli traci swoją energię, tak jak gdyby wysyłał … fale grawitacyjne. Mimo, że samych fal nie zaobserwowano, za pośrednie potwierdzenie ich istnienia autorzy dostali w 1993 roku Nagrodę Nobla. Uzasadnienie Komitetu Noblowskiego brzmiało: „za odkrycie nowego typu pulsara, odkrycie, które otwiera nowe możliwości badania grawitacji”.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

virgoviewInstalacja, która z lotu ptaka wygląda jak wielka litera L, to dwie rury o długości 4 km każda, stykające się końcami pod kątem prostym. Choć całość przypomina przepompownię czy oczyszczalnię ścieków jest jednym z najbardziej skomplikowanych urządzeń kiedykolwiek wybudowanych przez człowieka. Każde z ramion tworzy betonowa rura o średnicy 2 metrów. W jej wnętrzu – jak w bunkrze – znajduje się druga ze stali nierdzewnej, która jest granicą pomiędzy światem zewnętrznym a bardzo wysoką próżnią. Z miejsca w którym rury się stykają, „na skrzyżowaniu”, dokładnie w tym samym momencie wysyłane są wiązki lasera. Ich celem są zwierciadła umieszczone na końcu każdej z rur. 2000px-Ligo.svgOdbijane przez zwierciadła tam i z powrotem około 100 razy promienie, wpadają z powrotem do centralnego laboratorium i tam zostają do siebie porównane. Dzięki zjawisku interferencji możliwe jest wyliczenie z wielką dokładnością różnicy przebytych przez obydwie wiązki światła dróg. A drogi te powinny być identyczne, no chyba że… chyba że w czasie pomiaru przez Ziemie – podobnie jak fala na powierzchni wody – przejdzie fala grawitacyjna. Wtedy jedno z ramion będzie nieco dłuższe, a efekt natychmiast zostanie wychwycony w czasie porównania dwóch wiązek. Tyle tylko, że nawet największe zaburzenia zmienią długość ramion o mniej niż jedną tysięczną część średnicy protonu (!). To mniej więcej tak, jak gdyby mierzyć zmiany średnicy Drogi Mlecznej (którą ocenia się na ok. 100 tys. lat świetlnych) z dokładnością do jednego metra. Czy jesteśmy w stanie tak subtelne efekty w ogóle zarejestrować ? Lustra na końcach każdego z korytarzy (tuneli) mogą zadrgać (chociażby dlatego, że przeleciał nad nimi samolot, albo w okolicy przejechał ciężki samochód). By tego typu efekty nie miały wpływu na pomiar zdecydowano się na budowę nie jednej, ale dwóch instalacji, w Handford w stanie Waszyngton i w Livingston w stanie Luizjana. Są identyczne, choć oddalone od siebie o ponad 3 tys. kilometrów. Ich ramiona maja takie same wymiary i maja takie same układy optyczne. Nawet gdy w jednym LIGO zwierciadło nieoczekiwanie zadrga, niemożliwe by to samo w tej samej chwili stało się ze zwierciadłem bliźniaczej instalacji. Zupełnie jednak inaczej będzie gdy przez Ziemię przejdzie z prędkością światła fala grawitacyjna. Zmiany jakie wywoła zajdą w dokładnie tej samej chwili w obydwu ośrodkach.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

A kończąc, pozwólcie na ton nieco nostalgiczny. Wszechświat jest areną niezliczonych kataklizmów a dramatyczne katastrofy, to naturalny cykl jego życia. To nic, że od tysięcy lat na naszym niebie królują te same gwiazdozbiory. W skali kosmicznej taki okres czasu to nic nieznacząca chwila, a nawet w czasie jej trwania widoczne były wybuchy gwiazd. Z bodaj największego kataklizmu – Wielkiego Wybuchu – „wykluło” się to co dzisiaj nazywamy kosmosem. Obserwatoria grawitacyjne (np. takie jak LIGO) otworzą oczy na inne wielkie katastrofy, i to nie tylko te które będą, ale także te które były. Już prawie słychać zgrzyt przekręcanego klucza w drzwiach. Już za chwilę się otworzą. Najpierw przez wąską szparę, a później coraz wyraźniej i coraz śmielej będziemy obserwowali wszechświat przez nieznane dotychczas okulary. Ocenia się, że to co widzą „zwykłe” teleskopy (tzw. materia świecąca) to mniej niż 10% całej masy Wszechświata. A gdzie pozostałe 90% ? Na to pytanie nie znaleziono dotychczas odpowiedzi. Tzw. ciemna materia powinna być wszędzie, a nie widać jej nigdzie. Przypisuje się jej niezwykłe właściwości, łączy się ją z nie mniej tajemniczą ciemną energią. Czy LIGO, pomoże w rozwiązaniu tej intrygującej zagadki? Czy będzie pierwszym teleskopem, przez który będzie widać ciemną materię? Jeżeli obserwatoria grawitacyjne będą w stanie „zobaczyć” obiekty, które można obserwować także w świetle widzialnym (np. wybuch supernowej), a nie będą widziały ani grama ciemnej materii, to zagadka staje się jeszcze bardziej tajemnicza. Bo albo ta materia nie podlega prawom grawitacji, albo nie ma żadnej ciemnej materii. Konsekwencje obydwu tych scenariuszy są trudne do przewidzenia. Czy teraz rozumiecie dlaczego odkrycie fal grawitacyjnych jest tak ważne? 

8 komentarzy do Nobel z fizyki za fale

Type on the field below and hit Enter/Return to search