Biotechnologia.pl
łączymy wszystkie strony biobiznesu
Amazon, DNAnexus i Baylor College of Medicine łączą siły w największej dotychczas analizie sekwencji ludzkiego DNA
Jedna z jednostek Baylor College of Medicine o nazwie Human Genome Sequencing Center (HGSC) wraz z platformą DNAnexus i firmą Amazon podjęły się niezwykłego przedsięwzięcia. Naukowcy zajęli się dogłębną analizą ludzkiego DNA na niespotykaną dotąd skalę. Eksploracja, przeprowadzona pod kątem badań klinicznych, objęła ponad 14 tysięcy ludzkich genomów zawartych we wspólnej chmurze obliczeniowej.

Chmura obliczeniowa to wirtualna sieć zdalnych serwerów internetowych wykorzystywanych do przechowywania, zarządzania i przetwarzania informacji. Do celów tego projektu przysposobiono platformę obsługującą chmurę obliczeniową firmy DNAnexus. Włączając do współpracy firmę Amazon Web Services, największego na świecie dostawcę oprogramowania dla tego typu platform, naukowcom z HGSC udało się zsekwencjonować DNA ponad 14 tysięcy ludzi, a konkretnie 3 751 kompletnych genomów i 10 771 kompletnych eksonów (DNA eksonowe zawiera tylko sekwencje kodujące białka). Wykorzystano w tym celu techniki sekwencjonowania nowej generacji. Wyniki badań zostały oficjalnie zaprezentowane 25 października na corocznym zjeździe Amercian Society of Human Genetics.

HGSC stworzyło półautomatyczny, modułowy zestaw narzędzi do analizy danych z sekwencjonowania nowej generacji o nazwie Mercury. Nadaje się on do przetwarzania danych zarówno pod kątem czysto badawczym, jak i wykorzystania w kontekście klinicznym, w związku z czym był on integralną częścią projektu. Mercury identyfikuje mutacje w otrzymanych sekwencjach, przez co umożliwia ocenę ich znaczenia w powstawaniu poważnych chorób.

W całym projekcie brało udział ponad 300 naukowców z pięciu instytucji badawczych ulokowanych w różnych zakątkach świata. Analiza danych oparta na chmurze obliczeniowej umożliwiła tak dużej grupie osób dostęp do danych znajdujących się na serwerze, który jednocześnie zadbał o to, aby nie naruszyć prywatności danych pacjentów.

Cały projekt badawczy wymagał około 2 400 000 godzin obliczeń wykonywanych przez procesory komputerowe. Wygenerowano w ten sposób 440 terabajty wyników, oraz prawie petabajt wszystkich danych (1 terabajt = bilion bajtów; 1 petabajt = biliard bajtów). Tę imponującą ilość rezultatów obliczeń otrzymano w czasie zaledwie czterech tygodni. W trakcie trwania projektu HGSC prowadził największy na świecie klaster dedykowany analizie genomowej. Dla porównania, w ramach The 1000 genome project zsekwencjonowano 2 535 eksomów i wytworzono 25 terabajtów danych.

Uczestnicy projektu przyznają, że z ich punktu widzenia, ważne jest stworzenie funkcjonalnej przestrzeni, w której naukowcy ze wszystkich zakamarków Ziemi będą mogli się spotkać i pochylić nad tymi samymi danymi.

Teraz 300 naukowców biorących udział w projekcie wykorzysta zebrane dane do analizy podstaw chorób serca i procesów starzenia.

Źródła

www.bcm.edu

KOMENTARZE
news

<Październik 2024>

pnwtśrczptsbnd
30
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
31
1
2
3
Newsletter