Nauka To Lubię

Oficjalna strona Tomasza Rożka

Miesiąc: Styczeń 2015

Teleportuj się !!!

Powiem szczerze: bałbym się teleportacji, skoro mamy kłopot z tradycyjnymi środkami transportu. A tymczasem naukowcom udała się teleportacja na odległość 25 km!

Może więc i dobrze, że teleportacja ludzi jest (na razie) niemożliwa. O co w ogóle chodzi? Teleportacja to przenoszenie obiektów z miejsca na miejsce, ale – jak mówią fizycy – bez zachowania ciągłości istnienia. Brzmi nie najlepiej, ale w największym skrócie polega na tym, że obiekt w jednym miejscu znika, a w drugim się pojawia.

Mielonka

Teleportacja jest dość popularna np. w filmach science fiction. Szczególnie w tych, których akcja dzieje się w przestrzeni kosmicznej. To jeden z dwóch sposobów radzenia sobie z ogromnymi odległościami, jakie w kosmosie są faktem. Nie chcąc narażać się na śmieszność, trzeba znaleźć w miarę prawdopodobny sposób szybkiego przemieszczania się. Jednym ze sposobów radzenia sobie z tym kłopotem jest zamontowanie w statkach kosmicznych napędów nadświetlnych, czyli takich, które rozpędzają obiekt do prędkości wyższej niż prędkość światła. Drugim ze sposobów jest teleportowanie. Napędów nadświetlnych nie ma i nie wiem, czy kiedykolwiek będą. Jeżeli zaś chodzi o teleportację, to problemu nie ma. Naukowcy potrafią teleportować… choć na razie nie ludzi. Na razie nie mamy ani urządzenia, ani nawet pomysłu, jak powinno wyglądać urządzenie do teleportowania większych i bardziej złożonych obiektów. Pisząc „większych i bardziej złożonych”, nie mam na myśli słonia afrykańskiego czy fortepianu. Mam na myśli większe atomy, nie mówiąc już nawet o najprostszej cząsteczce chemicznej.

Problemy z teleportowaniem przewidzieli także futurolodzy. Od czasu do czasu także w produkcjach science fiction nielubiany bohater korzystał z uszkodzonego „portalu” i w efekcie pojawiał się „po drugiej stronie” w kawałkach albo w formie przypominającej – brutalnie mówiąc – mielonkę. I także tutaj scenarzyści mieli nosa i nie bardzo minęli się z prawdą. Z definicji przy przesyłaniu cech zwanych stanami kwantowymi cząstki A do oddalonej cząstki B, niszczony jest stan kwantowy A. Trochę to skomplikowane, ale w zasadzie da się prosto wytłumaczyć. Nie może być tak, że teleportacja polega na skopiowaniu obiektu. Wtedy istniałyby dwa takie same obiekty. Teleportacja polega na „sczytaniu” obiektu A i przesłaniu w oddalone miejsce. Ale w czasie tego przesyłania obiekt A przestaje istnieć („znika”). Gdy przychodzi do jego odtworzenia, a coś pójdzie nie tak jak trzeba, wychodzi… w największym skrócie mielonka.

W czym jest problem?

Dzisiaj nikt ludzi oczywiście nie próbuje teleportować. Poza zasięgiem naukowców jest nawet teleportacja najprostszych cząsteczek. Nawet tak prostych jak chociażby trzyatomowa cząsteczka wody. Więcej, dzisiejsza technika nie pozwala teleportować nawet pojedynczego atomu, o ile mówimy o większym atomie, np. uranu, który składa się z kilkuset protonów, neutronów i elektronów. Jak to wygląda w praktyce? Każda cząstka ma tzw. stany kwantowe, czyli swoją specyfikę. Cząstki różnią się od siebie właśnie stanami kwantowymi, tak jak obiekty makroskopowe różnią się od siebie np. kolorem, zapachem, smakiem czy fakturą. Teleportacja polega na odczytaniu tych „cech”, przesłaniu ich w nowe miejsce i tam nadaniu ich innej cząstce. Przy okazji niszczy się stany kwantowe cząstki pierwotnej, stąd nie ma mowy o kopiowaniu czegokolwiek, tylko rzeczywiście o przesyłaniu.

Skoro to takie proste, w czym problem, żeby teleportować duże obiekty? Nie da się przesłać takich cech jak kolor, kształt, smak czy zapach po to, by w drugim teleporcie je odtworzyć… Te wspomniane cechy makroskopowe są wypadkową stanów kwantowych miliardów, bilionów cząstek, z których duże obiekty się składają. Problem teleportowania dużych czy większych od pojedynczych cząstek obiektów jest więc problemem skali. Na razie ledwo radzimy sobie ze stanami kwantowymi maleńkich obiektów, ale przyjdzie czas na te większe. I może wtedy pojawi się problem, czy da się teleportować wiedzę, czy da się teleportować duszę…

Wróćmy jednak na Ziemię (albo ziemię). Pierwszą teleportację kwantową przeprowadzono w 1997 r., ale już 7 lat później zespół badaczy z USA i Austrii opublikował dane, z których wynikało, że teleportowano najmniejszy atom, czyli wodór. Tym razem w piśmie „Nature Photonics” ukazała się publikacja, z której wynika, że dzięki badaczom z Uniwersytetu w Genewie, należącego do NASA Jet Propulsion Laboratory, oraz z National Institute of Standards and Technology w USA, udało się teleportować cząstkę na rekordową odległość 25 kilometrów. Informacja o stanach kwantowych została przesłana światłowodem, ale w przyszłości być może uda się ją przesłać falami radiowymi albo promieniem lasera. Tylko 25 kilometrów? Tak, wiem, wiem. W ten sposób na Księżyc czy Marsa się nie dostaniemy, ale od czegoś trzeba zacząć

Tekst ukazał się w tygodniku Gość Niedzielny

1 komentarz do Teleportuj się !!!

Komputer na światło

Wyobraź sobie komputery miliardy razy szybsze od tych, które dzisiaj mamy do dyspozycji. Po co nam takie urządzenia? Na razie jeszcze nie wiem, ale jestem pewien, że jak tylko je stworzymy, zastosowania sypną się jak z rękawa.

Wyobraź sobie komputery miliardy razy szybsze od tych, które dzisiaj mamy do dyspozycji. Po co nam takie urządzenia? Na razie jeszcze nie wiem, ale jestem pewien, że jak tylko je stworzymy, zastosowania sypną się jak z rękawa.

Skąd ta pewność? Tego uczy nas historia. Także ta najnowsza. W 1946 roku Thomas Watson, prezes koncernu IBM, firmy, która właśnie skonstruowała pierwszy komputer, stwierdził publicznie, że tego typu maszyny nigdy nie będą powszechne. W dość długim przemówieniu powiedział także, że jego zdaniem w przyszłości świat nie będzie potrzebował więcej niż 5 maszyn cyfrowych. No tak, przecież gry były planszowe, o internecie nikt nie słyszał, a dokumenty można przecież pisać na maszynie do pisania. Tymczasem dzisiaj mocna pozycja firmy IBM została zbudowana właśnie na produkcji ogólnie dostępnych i powszechnych maszyn cyfrowych. I jeszcze jeden przykład. W połowie lat 90. XX wieku (czyli zaledwie 20 lat temu) guru technologii cyfrowej, założyciel i szef Microsoftu Bill Gates stwierdził, że internet to mało użyteczna zabawka. Faktycznie, wtedy był on czymś takim. Faktycznie, listy można było wysłać pocztą albo faksem. Zawsze to samo. Cywilizacja rozwija się dzięki wizjonerom spełniającym swoje marzenia. Dzięki ludziom, którzy nie zawsze potrafią odpowiedzieć na pytania „po co?” albo „do czego nam się to przyda?”. Historia uczy jednak, że każde odkrycie, każda rewolucja błyskawicznie zostają zagospodarowane. I stąd pewność, że komputery kwantowe, bo o nich mowa, będą urządzeniami, bez których ludzie nie będą sobie wyobrażali życia.

Światłem hurtowo

Pomysł, by wykorzystać kwanty (np. pojedyncze cząstki światła) jako nośnik informacji, jako „medium” do prowadzenia obliczeń, ma około 40 lat. Jak to często bywa, w takich sytuacjach dość trudno wskazać pierwszego pomysłodawcę, ale nie ma wątpliwości, że jednym z pierwszych był znany fizyk Richard Feynman. No i potoczyło się. Na kilku uniwersytetach grupy naukowców rozpoczęły teoretyczne obliczenia. Jedna z takich grup, związana z uniwersytetem oksfordzkim, stworzyła protokoły kwantowe. Współpracował z nią też Polak, Artur Ekert. Po około 10 latach od rzucenia pomysłu, czyli w połowie lat 90. XX wieku, powstały pierwsze podstawowe elementy konstrukcji komputera kwantowego, czyli bramki, które przetwarzały kubity. Co to takiego? To cząstki elementarne, fotony lub elektrony, których różne stany w pewnym sensie są nośnikami informacji. Tylko dlaczego komputer zbudowany „na kwantach” ma być szybszy od tradycyjnego? Sprawa, wbrew pozorom, nie jest aż tak bardzo skomplikowana. Podstawą jest przeniesienie się do zupełnie innego świata. Świata, w którym nic nie jest takie jak w naszym świecie. Mam tutaj na myśli świat kwantów, same podstawy budowy naszej materii. Zjawiska, które tam występują, są dla nas fascynujące, bo wokół nas ich nie zauważamy. Więcej, one są nielogiczne, przeczące intuicji i zdrowemu rozsądkowi.

Jedną z dziedzin badających ten świat jest optyka kwantowa. Tak jak „zwykła” optyka, czyli ta, której uczymy się w szkole na lekcjach przyrody czy fizyki, tak samo i ta kwantowa zajmuje się światłem. Różnica polega na tym, że optyka kwantowa bada pojedyncze cząstki światła, czyli kwanty albo ich niewielkie grupy (pary, trójki…), podczas gdy „optyka szkolna” zajmuje się światłem bardziej „hurtowo”. Bada je jako zbiór ogromnej ilości kwantów. Właśnie w tych ogromnych ilościach fotonów (czyli w wiązkach czy promieniach światła) gubią się te zjawiska, które w przypadku pojedynczych cząstek występują. O co konkretnie chodzi? Na przykład o zjawisko superpozycji. – To zjawisko nie występuje w świecie klasycznym i bardzo trudno w ogóle znaleźć do niego zrozumiałą analogię – mówi „Gościowi” Radosław Chrapkiewicz, doktorant Wydziału Fizyki Uniwersytetu Warszawskiego.

I w lewo, i w prawo

Superpozycja. O co chodzi? – Definicja mówi, że to istnienie dwóch pozornie wykluczających się stanów cząstki – mówi Chrapkiewicz. I od razu dodaje, że superpozycja w naszym świecie nie występuje, ale gdyby występowała, strzałka skierowana w prawo równocześnie byłaby skierowana także w lewo, a prawy but byłby równocześnie lewym. – W świecie, który nas otacza, strzałka jest skierowana albo w jedną, albo w drugą stronę, a jeden but może być albo prawy, albo lewy. Ale w świecie kwantów jest inaczej. Jedna cząstka może istnieć w stanach, które się wzajemnie wykluczają. Tylko co to ma wspólnego z komputerami kwantowymi? W klasycznym komputerze, takim, jaki stoi w niemal każdym domu, takim, na jakim piszę ten artykuł, wszelkie obliczenia robi się na zerach i jedynkach. Maleńkie elementy elektroniczne mogą przyjmować albo wartość „0”, albo „1”. – W komputerze kwantowym w pewnym sensie zera i jedynki istnieją równocześnie, a to oznacza, że możemy wykonywać równocześnie wiele obliczeń naraz – mówi Radosław Chrapkiewicz. Muszę mieć niewyraźną minę, bo Radek tłumaczy dalej. – Jeden klasyczny bit to jest zero lub jedynka, jeden kwantowy bit, czyli kubit, to jakiś stan równoczesnego istnienia zera i jedynki. W tym samym momencie zamiast jednej wartości mamy dwie współistniejące. Jeżeli weźmiemy dwa kubity, mamy jednoczesne współistnienie czterech wartości, bo tyle jest możliwych kombinacji zer i jedynek. A jeżeli zbuduję komputer dziesięciokubitowy, różnych możliwości jest 2 do 10 potęgi, czyli 1024, podczas gdy w klasycznym komputerze dziesięciobitowym jest tylko 10 możliwości – tłumaczy Radosław Chrapkiewicz. I dodaje: – Liczba operacji możliwych do wykonania równocześnie rośnie bardzo szybko wraz ze wzrostem liczby kubitów. Komputery skonstruowane w ten sposób działałyby nieporównywalnie szybciej, bo wiele operacji mogłyby wykonywać równocześnie. Dzisiejsze komputery nie potrafią robić kilku operacji naraz – kończy Chrapkiewicz.

Zasada działania komputera kwantowego nie wydaje się skomplikowana. Ale jak jest z jej realizacją? No i tutaj pojawia się problem. Dzisiaj nie ma jeszcze układów, które z czystym sumieniem można byłoby nazwać wielokubitowymi. Co prawda na początku lutego 2007 roku firma D-Wave Systems zaprezentowała 128-kubitowy komputer, ale istnieją uzasadnione wątpliwości, czy to rzeczywiście jest „pełnowartościowy” komputer kwantowy, czy tylko urządzenie, które wykorzystuje pewne zjawiska kwantowe. Być może różnica pomiędzy tymi dwoma przypadkami jest subtelna, ale specjaliści ją zauważają. Ale nawet w przypadku komputera, który nie jest przez wszystkich zaliczany do maszyn kwantowych, liczby mogą robić wrażenie. Jedna z grup badaczy twierdzi, że stworzyła czip, który może dokonywać ponad 10^38 obliczeń naraz. Zwykłemu, klasycznemu komputerowi zajęłoby to kilka milionów lat.

To takie logiczne

No i powstaje pytanie kluczowe. Po co nam tak szybkie komputery? Kilka zastosowań przychodzi do głowy od razu. Zastosowania wojskowe, a właściwie wywiadowcze. Dzisiejsze komputery nie radzą sobie z ogromną ilością danych, które nadsyłają urządzenia podsłuchowe. Ludzie odpowiedzialni w strukturach państwa za bezpieczeństwo (własnych obywateli) nie lubią sytuacji, gdy mają dane, ale nie są ich gdy przeanalizować, bo jest ich za dużo. Niewiele instytucji ma fundusze na to, by inwestować w takie dziedziny nauki jak optyka kwantowa. Nieliczne są instytucje związane z wojskiem czy wywiadem. Amerykańska Agencja Bezpieczeństwa Narodowego, która zajmuje się tym drugim, w komputery kwantowe inwestuje duże pieniądze. Zresztą podobnie było z komputerami, których dzisiaj używamy. Ich rozwój związany był z Projektem Manhattan – budowy pierwszej bomby jądrowej. – Ta analogia jest bardzo dobra. Moim zdaniem komputery kwantowe dzisiaj są na takim etapie rozwoju technologicznego, jak w latach 40. XX wieku były komputery klasyczne – mówi Radosław Chrapkiewicz. I dodaje, że nie sposób dzisiaj powiedzieć, kiedy przyjdzie przełom.

Choć sam zajmuje się optyką kwantową, nie jest w stanie wyobrazić sobie komputerów kwantowych w każdym domu czy w zminiaturyzowanej wersji zastosowanych w jakichś urządzeniach mobilnych, takich jak np. dzisiejsze smartfony. Nie tylko zresztą on. Przegląd specjalistycznych stron internetowych pokazuje, że gdy mowa o wykorzystaniu komputerów kwantowych, najczęściej pojawiają się stwierdzenia o analizie dużej ilości danych, w tym danych naukowych i o skomplikowanych modelach matematycznych, dotyczących np. pogody czy na przykład projektowania leków. Nic dla ludzi? Cóż, leki są jak najbardziej dla ludzi, ale faktycznie brakuje nam chyba wyobraźni, by dzisiaj znaleźć zastosowanie dla maszyn o tak ogromnej mocy obliczeniowej. Spokojnie, gdy pojawią się takie komputery, pojawią się i zastosowania. A wtedy będziemy nieskończenie zdziwieni, że wcześniej tych zastosowań nie potrafiliśmy zauważyć. Przecież one są takie… logiczne.

komputer kwantowy

 

>>> Na zdjęciu układ skonstruowany przez firmę D-Wave Systems, zawierający 128 kubitów.

 

Tekst ukazał się w tygodniku Gość Niedzielny

6 komentarzy do Komputer na światło

Telepatia działa…

…przez internet. Przeprowadzono eksperyment, w ramach którego udało się skomunikować ze sobą dwa oddalone od siebie mózgi. W efekcie jeden człowiek zrobił coś, co pomyślał drugi.

…przez internet. Przeprowadzono eksperyment, w ramach którego udało się skomunikować ze sobą dwa oddalone od siebie mózgi. W efekcie jeden człowiek zrobił coś, co pomyślał drugi.

Nieinwazyjny interfejs mózg–mózg jest czymś, co budzi równie dużo obaw, co nadziei i fascynacji. Odkrycie czy raczej eksperyment był dość naturalną konsekwencją prac, które prowadzi się od lat i które polegają na „sprzęgnięciu” ze sobą mózgu i komputera. Interfejsy mózg–komputer działają dzięki odczytowi, a następnie skomplikowanej interpretacji sygnałów elektrycznych, które generuje ludzki mózg. Te sygnały mogą być odczytywane wprost z mózgu, ale także (co czyni całą sprawę jeszcze bardziej skomplikowaną) na powierzchni skóry głowy. Zresztą te same sygnały są analizowane w znanej lekarzom od lat metodzie EEG. Interfejs mózg–komputer jest kolejnym krokiem. Sygnały są nie tylko rejestrowane, ale przypisywane jest im pewne znaczenie. I tak np. osoba niepełnosprawna myśląc, jest w stanie kierować wózkiem inwalidzkim. Albo ktoś całkowicie sparaliżowany jest w stanie komunikować się z otoczeniem poprzez koncentrację, wyobrażanie sobie np. liter, które następnie pojawiają się na ekranie komputera (opisuję to w skrócie, bo w rzeczywistości proces jest bardziej złożony).

Jak mózg z komputerem

Wspomniane techniki nie są przeznaczone oczywiście tylko dla ludzi chorych. Już dziś można kupić urządzenie przypominające kask, które zakłada się na głowę, co pozwala za pomocą myśli sterować postaciami w grze komputerowej. Być może w przyszłości komunikacja ludzi z urządzeniami elektronicznymi w całości będzie się opierała na falach mózgowych. Dzisiaj w komputerze czy telefonie niezbędna jest klawiatura, myszka czy dotykowy ekran. Inaczej nie wprowadzimy do urządzenia informacji, bez tego nie wyegzekwujemy żadnego działania. Przyszłości nie da się przewidzieć, ale nie znaczy to, że nie można zostać futurologiem. Sytuacja, w której myślami będę „współpracował” z komputerem, wydaje mi się fascynująca. Ale to oczywiście nie koniec drogi, tylko być może dopiero jej początek. No bo skoro da się skomunikować pracę mózgu i komputera, dlaczego nie spróbować komunikacji pomiędzy dwoma mózgami? Naukowcy z amerykańskiego Uniwersytetu Waszyngtona stworzyli taki interfejs. Informacja pomiędzy dwoma mózgami została przesłana siecią internetową.

Pisząc „informacja”, nie mam jednak na myśli konkretnej wiedzy przekazywanej pomiędzy mózgami, tylko raczej impuls do zrobienia czegoś. Eksperyment wykonało dwóch uczonych, którzy tematem zajmowali się od wielu lat. Jeden to Andrea Stocco, drugi Rajesh Rao. W sierpniu tego roku ci dwaj panowie usiedli wygodnie w fotelach w dwóch różnych punktach kampusu uniwersyteckiego i zrobili coś, co będzie opisywane kiedyś w podręcznikach. Rao założył na głowę czepek z elektrodami rejestrującymi fale mózgowe. Z kolei Stocco założył czepek z elektrodami do tzw. przezczaszkowej stymulacji magnetycznej. W pewnym sensie te urządzenia są swoją przeciwnością. Jedno fale mózgowe rejestruje, a drugie raczej je w mózgu generuje. Rao nie myślał o niczym specjalnym, po prostu grał w grę komputerową, z tym, że nie przez klawiaturę czy inne urządzenie peryferyjne, tylko używał do tego własnych myśli. Gdy jego zadaniem było trafienie w cel znajdujący się z prawej strony ekranu komputera, wyobrażał sobie, że porusza prawą ręką i trafia w ten punkt. Tymczasem niemal dokładnie w tej samej chwili jego kolega Stocco, kilkaset metrów dalej, rzeczywiście poruszył prawą ręką.

Mimowolny tik

Stocco miał na uszach słuchawki (po to, by nie było podejrzeń, że ktoś mu podpowiada) i słuchał muzyki. Nie patrzył też na ekran komputera. Był zrelaksowany, odpoczywał, a w pewnym momencie poruszył palcem ręki. Nie do końca potrafił powiedzieć, dlaczego to zrobił. Tłumaczył, że jego ruch „przypominał mimowolny tik”. Ten eksperyment oznacza, że po raz pierwszy udało się przekazać informację pomiędzy dwoma mózgami. Na razie ten przepływ jest jednokierunkowy, ale wiadomo, że kolejnym krokiem będzie dwukierunkowość. Co ciekawe, w tym eksperymencie w zasadzie nie używa się niczego, co dotychczas nie było znane. Zarówno EEG, jak i stymulację magnetyczną lekarze stosują od wielu lat. Przełom polega na tym, że badaczom udało się, wykorzystując znane narzędzia, uzyskać zupełnie nową jakość. Badacze jak zwykle studzą emocje.

Eksperyment powiódł się dlatego, że ośrodek odpowiedzialny za motorykę nie jest usytuowany we wnętrzu mózgu, tylko na jego powierzchni. W innym wypadku nie udałoby się go pobudzić bezinwazyjnie z zewnątrz. Nie ma żadnych szans – jak twierdzą – na to, by obecna metoda była wykorzystywana do wpływania na myśli drugiego człowieka. Badacze kategorycznie stwierdzili również, że nie ma także możliwości sterowania drugim człowiekiem bez jego woli. Na co w takim razie są szanse? Dość trudno na tym etapie powiedzieć, ale niemal od razu narzuca się pomoc osobom niepełnosprawnym w komunikacji ze światem zewnętrznym. Być może uda się stworzyć urządzenia pomagające ludziom w kontrolowaniu bardzo skomplikowanych urządzeń, takich, jakimi są np. samoloty.

Dwóch pilotów mogłoby być w jakiś sposób połączonych ze sobą, tak, że działaliby jako jeden organizm, a nie dwa oddzielne. Z drugiej strony piloci przez wielogodzinne szkolenia, nawet bez nowej technologii, potrafią doskonale ze sobą współpracować. Jest jeszcze coś. A może ta technologia przyda się w porozumiewaniu pomiędzy osobami, które mówią w różnych językach? Fale mózgowe są przecież uniwersalne i nie zależą od wieku, kultury i pochodzenia. Tym bardziej że nikt nie powiedział, że w takiej komunikacji mogą uczestniczyć tylko dwie osoby.

Tekst ukazał się w tygodniku Gość Niedzielny

1 komentarz do Telepatia działa…

Type on the field below and hit Enter/Return to search