Biotechnologia.pl
łączymy wszystkie strony biobiznesu
Komputery DNA, czyli co dalej z PC.
28.07.2011

Chyba każdy zna mniej więcej podstawowe parametry swojego komputera. Sprzęt, niezależnie, czy jest to komputer stacjonarny, przenośny notebook, tablet internetowy, czy nawet smartfon charakteryzuje się określoną wydajnością i posiada swój elektroniczny mózg w postaci procesora. Producenci prześcigają się w ulepszaniu swoich urządzeń, i wprowadzaniu na rynek co raz to nowszych technologii. Ale czy taki wyścig ulepszeń może trwać w nieskończoność? Jaka jest przyszłość komputerów, jakie są ograniczenia technologii produkcji procesorów? Jaką rolę w przyszłości pecetów może odegrać biotechnologia, a jaką fizyka kwantowa? Postaramy się odpowiedzieć na te pytania.

Co pół roku na stronie internetowej www.top500.org można znaleźć zestawienie pięciuset najszybszych i najwydajniejszych komputerów na świecie. W ostatnim, najświeższym rankingu na pierwszym miejscu znalazł się „K” komputer wyprodukowany przez firmę Fujitsu znajdujący się w Kobe w Japonii.

Lista dziesięciu najszybszych komputerów na świecie:

1. K computer, SPARC64 VIIIfx 2.0GHz, Tofu interconnect

2. Tianhe-1A - NUDT TH MPP, X5670 2.93Ghz 6C, NVIDIA GPU, FT-1000 8C

3. Jaguar - Cray XT5-HE Opteron 6-core 2.6 GHz

4. Nebulae - Dawning TC3600 Blade, Intel X5650, NVidia Tesla C2050 GPU

5. TSUBAME 2.0 - HP ProLiant SL390s G7 Xeon 6C X5670, Nvidia GPU, Linux/Windows

6. Cielo - Cray XE6 8-core 2.4 GHz

7. Pleiades - SGI Altix ICE 8200EX/8400EX, Xeon HT QC 3.0/Xeon 5570/5670 2.93 Ghz, Infiniband

8. Hopper - Cray XE6 12-core 2.1 GHz

9. Tera-100 - Bull bullx super-node S6010/S6030

10. Roadrunner - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband

K komputer osiąga maksymalną wydajność 8,16 petaflopsa na sekundę (FLOPS – Floating point operations per second). Oznacza to, że może przeprowadzać 8,16 biliarda operacji zmiennoprzecinkowych w ciągu jednej sekundy. Ten superkomputer napędzany jest przez klaster 68544 ośmiordzeniowych procesorów SPARC64 VIIIfx. Oznacza to, że korzysta z 548 352 rdzeni. Jak to przełożyć na język zrozumiały dla laika komputerowego? Otóż K komputer w ciągu kilku minut potrafi obliczyć tygodniową prognozę pogody dla całego świata, sprawdzić nanosekunda po nanosekundzie co dzieje się we wnętrzu bomby atomowej, albo w dwie minuty obliczyć wszystkie klatki animacji składające się na film „Shrek 3”. Ludzki mózg w zestawieniu z K komputerem wypada dość blado. Jeśli chodzi o liczbę operacji zmiennoprzecinkowych na sekundę to wydajność mózgu ludzkiego liczyć można zaledwie w miliflopsach. Jednakże K komputer nie poradzi sobie z zadaniem, z którym na co dzień zmagają się pracownicy firm kurierskich – z tzw. Efektem Komiwojażera. Wyznaczenie najkrótszej drogi łączącej 25 miast zajęłoby superkomputerowi kilkanaście lat. K komputer nie poradzi sobie również ze złamaniem szyfru 128 bitowego metodą siłową, czyli poprzez sprawdzenie wszystkich możliwych kombinacji. Teoretycznie podołałby temu zadaniu, ale zajęłoby mu to kilka biliardów lat…

Tym samym sprawdza się sformułowane w 1965 roku empiryczne prawo Moore’a, założyciela firmy Intel.  Prawo to opiera się na obserwacji, że ekonomicznie optymalna liczba tranzystorów w układzie scalonym w kolejnych latach posiada trend wykładniczy (podwaja się w niemal równych odcinkach czasu). Tak więc teoretycznie już za jakieś 100 lat superkomputery będą potrafiły złamać szyfr 128 bitowy w ciągu roku, jednak podążając dalej za prawem Moore’a wielkość procesorów używanych w takich superkomputerach będzie oscylować w granicach rozmiarów… Ziemi.

Obecnie technologia produkcji procesorów pozwala budować układy z tranzystorów o powierzchni 32 na 32 nm. Firma Intel już zapowiada, że wkrótce zmieści tranzystor w kwadracie o boku 7 nm. Jednakże może mieć z tym pewne kłopoty. Do produkcji procesorów używa się wiązek skoncentrowanego światła, więc im mniejsza pożądana struktura tym krótsze długości fali należy zastosować. W przypadku tranzystorów o rozmiarach 7x7 nm w technologii produkcji będzie trzeba użyć promieniowania rentgenowskiego. Przy takiej miniaturyzacji, na jeden tranzystor przypadnie zaledwie kilkadziesiąt atomów krzemu, a wówczas do głosu mogą dojść tajemnicze zjawiska kwantowe.  

Producentów procesorów dużą nadzieją napawa odkryty w 2004 roku grafen. Jest to jedna z alotropowych form węgla. Grafen zbudowany jest z pojedynczej warstwy atomów węgla tworzących połączone pierścienie sześcioczłonowe i może być uważany za ostatni element szeregu wielopierścieniowych węglowodorów aromatycznych. Ponieważ grubość materiału wynosi jeden atom, tę formę określa się jako dwuwymiarową (dokładniej dwuwymiarową strukturę atomów węgla ułożonych w sieć heksagonalną). Grafen jest bardzo dobrym przewodnikiem ciepła; posiada niewielką rezystancję; jest niemal całkowicie przezroczysty (pochłania tylko 2,3 proc. światła), a przez jego warstwę nie przechodzą nawet atomy helu; jest ponad 100 razy mocniejszy niż stal, a zarazem tak elastyczny, że można go bez szkody rozciągnąć o 20 procent. Za badania grafenu Andriej Gejm i Konstantin Nowosiołow otrzymali w roku 2010 Nagrodę Nobla w dziedzinie fizyki. Materiał ten ma szansę w wielu zastosowaniach zastąpić krzem. Naukowcy amerykańskiego Massachusetts Institute of Technology (MIT) zbudowali eksperymentalny grafenowy układ, jako mnożnik częstotliwości. Układ ten jest w stanie odebrać przychodzący sygnał elektryczny o pewnej częstotliwości i wyprodukować sygnał wychodzący będący wielokrotnością tej częstotliwości. Układ stworzony przez MIT podwoił częstotliwość elektromagnetycznego sygnału. Testy przeprowadzone przez IBM wykazały, że tranzystor wytworzony w procesie technologicznym 240 nm jest w stanie osiągnąć częstotliwość do 100 GHz. Poza zastąpieniem krzemu w produkcji procesorów grafen idealnie nadaje się do wytwarzania przejrzystych zwijanych w rolkę wyświetlaczy dotykowych, baterii słonecznych, czujników, pokryć samochodów czy samolotów.

W 1985 r. prof. David Deutsch z University of Oxford zaproponował teoretyczny model komputera kwantowego. Od tego czasu matematycy zajmowali się pisaniem programów na komputery kwantowe, nie przejmując się zbytnio tym, że takowe nie istniały.W 1994 roku Peter Shor amerykański informatyk teoretyk i matematyk z New Jersey zaproponował algorytm, dzięki któremu możliwe byłoby rozkładanie na czynniki pierwsze bardzo dużych liczb naturalnych. Algorytm ten miałby działać na komputerze kwantowym, czyli na układziefizycznym,do opisu którego wymagana jest mechanika kwantowa. Zaprojektowanyjest ontak, aby wynik ewolucji tego układu reprezentował rozwiązanie określonego problemu obliczeniowego. Dane w komputerach kwantowych są reprezentowane przez aktualny stan kwantowy układu stanowiącego komputer. Jego ewolucja odpowiada procesowi obliczeniowemu. Odpowiednie zaplanowanie ewolucji układu kwantowego, czyli stworzenie odpowiedniego algorytmu kwantowego pozwala teoretycznie na osiągnięcie wyników w znacznie efektywniejszy sposób, niż za pomocą tradycyjnych komputerów. Komputery kwantowe wykorzystują zjawisko splątania. Gdy uda się upodobnić do siebie dwie cząstki elementarne np. poprzez zbliżenie ich do siebie, ich losy zostają ze sobą ściśle powiązane. Potem, gdy zmianie ulegną właściwości jednej z cząstek elementarnych druga zareaguje tak samo nawet jeśli będzie daleko od pierwszej. W komputerach kwantowych dane będą zapisywane w postaci kubitów i będą korzystały z praw mechaniki kwantowej. Zwykłe komputery wykonują obliczenia na seriach bitów – „zer” i „jedynek”. Kwantowy bit, czyli właśnie kubit, zgodnie z prawami mikroświata nie będzie miał ustalonej wartości 1 lub 0, tak jak bit w standardowym komputerze. W trakcie obliczeń będzie się znajdował w nieokreślonym stanie pośrednim.Kubit jestwięckwantową superpozycją zera i jedynki.Obecnie np. w trzech bitach, z których każdy może przyjąć wartość „0„ lub „1„ możemy zapisać 8 różnych kombinacji, jednak w danym momencie zapiszemy tylko jedną z nich i na jednej wykonamy działania. W kubitach możemy zapisać jednocześnie wszystkie 8 kombinacji i jednocześnie wykonać na nich działania.

Grupa naukowców z IBM i Stanford University pracowała na siedmiokubitowym komputerze. Wykonywanie obliczeń wyglądało tak, że fiolkę z płynem bombardowano impulsami elektromagnetycznymi (w ten sposób uczeni manipulowali kubitam i odczytywali wynik). Nośnikami siedmiu kubitów były oddziałujące ze sobą spiny atomów fluoru i węgla. Każdy z atomów mógł być indywidualnie "programowany" za pomocą impulsów radiowych. Uczeni dokonali jedynie rozkładu liczby 15 na czynniki 5 i 3. Ważne jest jednak, że pierwszy krok został zrobiony.

National Institute of Standards and Technology (NIST) zaprezentował urządzenie trzymające w magnetycznej pułapce dwa jony berylu, sterowane impulsami lasera. Jest ono w stanie przeprowadzać operacje kwantowe na dwóch kubitach. Wydaje się to mało imponujące, skoro wcześniej powstawały maszyny siedmiokubitowe, ale chodzi tu o uniwersalność. Maszyna NIST może zrealizować dowolny program. Naukowcy ułożyli ich 160 i każdy z nich wykonali 900 razy.

Niestety, poważnym problemem jest fakt, że stany kwantowe są bardzo nietrwałe. Pod wpływem oddziaływania z czynnikami zewnętrznymi kubity tracą stany kwantowe i stają się „zwykłymi” bitami. Jednakże naukowcy z University of Southern California pokazali, w jaki sposób można poradzić sobie z tą jedną z najpoważniejszych przeszkód, z jakimi zmagają się specjaliści pracujący nad komputerami kwantowymi. Zespół profesora Susumu Takahashiego znacząco obniżył ryzyko pojawienia się dekoherencji. Czynniki dekoherencji możemy podzielić na dwie grupy. Jedna z nich to te, które są częściami samego systemu kubitów, a druga to czynniki zewnętrzne, pojawiające się np. z powodu niedoskonałości systemu. Zespół Takahashiego badał pojedyncze kryształy molekularnego magnesu. Magnesy takie są bardzo czyste, co eliminuje dekoherencję zewnętrzną, uczeni mogli się zatem skupić na obliczaniu dekoherencji wewnętrznej. Uczeni wykorzystali silne pole magnetyczne do obniżenia wpływu czynników dekoherencji. Eksperymenty wykazały, że możliwe jest utrzymanie idealnych warunków dla kubitu przez około 500 mikrosekund. To bardzo długo, dlatego też uczeni mówią o przełomie w badaniach nad komputerami kwantowymi.

Prof. Leonard Adleman z University of Southern California – zaproponował, by obliczenia wykonywać z użyciem DNA. Prof. Adleman znalazł nawet zastosowanie dla takiej metody – rozwiązanie wspomnianego wcześniej problemu komiwojażera. Wystarczy stworzyć krótkie pojedyncze nici DNA, kodując w nich informację o miastach oraz drogach między nimi. Przenosimy to wszystko do probówki i mieszamy. Ponieważ nici DNA same „dobierają się w pary”, musimy tylko odrzucić nieprawidłowe rozwiązania (takie, które nie łączą wszystkich miast), a z prawidłowych wybieramy wariant najbardziej optymalny (najkrótszą drogę).

Do bardziej spektakularnych osiągnięć w tej dziedzinie należy praca zespołu kierowanego przez prof. Ehuda Shapiro z izraelskiego Instytutu Nauk im. Weizmanna. Naukowcy zbudowali z enzymów i DNA komputer, który można zaprogramować. Zadanie, które wykonywał, było proste i zarazem bardzo ważne – sprawdzał, czy ma do czynienia z komórką rakową i jeśli tak było, uwalniał lek przeciwnowotworowy.

System przypisuje fakty i prawidła molekułom. Znając ich działanie, badacze są w stanie uzyskać „odpowiedź” na proste zadanie. Jedno z pierwszych było następujące: „Wszyscy ludzie są śmiertelni. Sokrates jest człowiekiem. Zatem Sokrates jest śmiertelny”. Naukowcy przypisali molekułom regułę (wszyscy ludzie są śmiertelni) i połączyli ją z faktem (Sokrates jest człowiekiem). Komputer DNA był w stanie udzielić prawidłowej odpowiedzi. Odpowiedź zakodowana została przez błysk zielonego światła. Niektóre nici DNA były wyposażone w molekuły fluorescencyjne, podczas gdy inne w molekuły, które światło mogą zasłonić. Wyspecjalizowany enzym odsłania zasłonkę i pozwala molekułom zaświecić.

Komputer z DNA ma wiele zalet. Programuje się go tak samo jak zwykłe maszyny obliczeniowe. Jego biopamięć może przechowywać ogromne ilości danych. Jest przy tym niesamowicie energooszczędny. Superkomputer taki jak K komputer potrzebuje do działania kilku megawatów elektryczności – tyle, ile produkuje niewielka elektrownia. Nici DNA zużywają bardzo mało energii chemicznej, którą czerpią bezpośrednio z otoczenia. Mamy więc komputer bez elementów elektronicznych.

W 2003 r. naukowcy z Uniwersytetu Columbia i Uniwersytetu Nowego Meksyku skonstruowali komputer MAYA, który potrafił grać w kółko i krzyżyk. Składał się z 23 bramek DNA rozmieszczonych w próbówkach oznaczających 8 zewnętrznych pól planszy do gry. Przebieg gry wyglądał następująco: ruch człowieka polegał na dodaniu jednego z ośmiu DNA do każdego z pól. Każdy rodzaj DNA miał inną sekwencję i oznaczał wybór innego pola w grze. W wyniku reakcji wewnątrz pól, bramki wywoływały fluorescencję odpowiedniego pola, co oznaczało ruch komputera. Pierwszy ruch w grze należał do komputera i wykonywał go zawsze w centralnym polu. Drugi ruch człowieka ograniczony był tylko do dwóch pól: górnego i środkowego w lewej kolumnie. Istnieje 19 możliwych scenariuszy tej gry. W żadnym komputer nie przegrywał. W 2006 roku powstała MAYA-II, udoskonalona wersja komputera, która zawierała 128 bramek DNA. Pierwszy ruch znów należał do komputera i był wykonywany w centralnym polu, tym razem jednak człowiek mógł wybrać dowolne z ośmiu pozostałych pól. Pozwalało to na 76 możliwych scenariuszy gry. Gra zajmuje dużo czasu. Obliczenie jednego ruchu trwa od 2 do 30 minut.

W poszerzeniu wiedzy na temat obliczeń wykonywanych na komputerach DNA pomóc może strona internetowa http://www.dna-computing.org/ .

Wygląda na to, że komputery przyszłości nie będą się znacznie różnić od dzisiejszych komputerów. Jednakże w ich wnętrzu pracować będą superszybkie układy wykorzystujące zjawiska kwantowe, czy kod genetyczny. Wydawać się może, że takie maszyny to odległa przyszłość, ale wkrótce mogą zacząć pojawiać się szybciej, niż sądzimy – choćby w formie przystawek czy dodatkowych elementów zwykłych komputerów. Na dzień dzisiejszy kwantowy układ szyfrujący czy twardy dysk z DNA brzmią dość dziwacznie, ale pamiętajmy, że w 1943 r. Thomas Watson, ówczesny szef IBM, twierdził, iż na całym świecie będzie zapotrzebowanie na zaledwie kilka komputerów.

Tomasz Sznerch

 

Źródła:

1. http://cam.qubit.org/

2. http://www.dna-computing.org/

3. http://www.howstuffworks.com/dna-computer.htm

4. http://www.engadget.com/2006/10/16/meet-maya-ii-the-new-dna-computer-that-can-play-tic-tac-toe/

5. http://www.cs.virginia.edu/~robins/DNA_Computers_for_Work_and_Play.pdf

KOMENTARZE
news

<Wrzesień 2024>

pnwtśrczptsbnd
26
27
28
29
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
1
2
3
4
5
6
Newsletter