Biotechnologia.pl
łączymy wszystkie strony biobiznesu
Stare „nowe” leki, czyli repozycjonowanie substancji aktywnych (część I)
Wprowadzenie nowego leku na rynek to koszt około miliarda dolarów. Dodatkowo od momentu podjęcia badań nad potencjalnym lekiem do pojawienia się jego na rynku mija przeciętnie około 15-17 lat. Dane te odnoszą się do tradycyjnych metod poszukiwania nowych leków bazujących na screeningu fenotypowym lub poszukiwaniu substancji oddziałującej na określony cel. Cel ten z reguły jest bezpośrednio związany z chorobą, a na podstawie jego struktury projektowana jest substancja, która potencjalnie może wykazywać aktywność biologiczną poprzez oddziaływanie z danym targetem. Screening fenotypowy pomija etap badania celu działania i polega na poszukiwaniu substancji wykazującej określony efekt fenotypowy. W każdym przypadku jednak konieczne są dodatkowe badania i optymalizacja tzw. związku wiodącego, czyli wyjściowej struktury wykazującej aktywność. Działanie to umożliwia zwiększenie aktywności stosowanej substancji oraz uniknięcie poważnych skutków ubocznych. Współcześnie, przy szerokiej wiedzy na temat mechanizmów przebiegu wielu chorób oraz ogromnej ilości leków stosowanych na różne schorzenia nadal istnieje problem braku terapii lub ich nieskuteczności w przypadku niektórych chorób. W związku z tym naukowcy opracowują coraz to nowsze sposoby poszukiwania dodatkowych zastosowań istniejących już substancji aktywnych. Jednym z nich jest repozycjonowanie leków, w którym kluczową rolę odgrywają bazy danych i metody analizy statystycznej. Chemia i biologia przeplata się zatem z szeroko pojętą matematyką prowadząc do nowych odkryć dzięki wykorzystaniu faktu, że pojedyncza cząsteczka może działać na wiele celów.

 

Repozycjonowanie – co to takiego?

Strategia repozycjonowania leków, czyli poszukiwania nowych wskazań dla leków już obecnych na rynku farmaceutycznym, jest powszechnie stosowana od wielu lat. Takie postępowanie znacząco skraca drogę cząsteczki od wynalezienia do zastosowania w terapii. Współcześnie dąży się zatem do zastosowania metod obliczeniowych. Proces komputerowego repozycjonowania polega na projektowaniu i sprawdzaniu zautomatyzowanych programów mogących generować hipotezy dotyczące nowych wskazań określonej substancji. Programy te, mogą bazować na strukturze leku i jego chemicznej oraz farmakologicznej analizie, bądź na znajomości choroby, gdy na przykład właściwości farmakologiczne leku nie są do końca poznane. Większość stosowanych strategii wykorzystuje jednak zarówno dane o właściwościach leku jak i o chorobach. Jednocześnie potencjał obliczeniowy repozycjonowania jest bardzo wysoki, dzięki temu, że systematyczny proces może posiadać funkcję priorytetowania informacji, która pozwala zdecydowanie przyspieszyć analizę.

 

Dotychczasowe sukcesy

Biorąc pod uwagę dotychczasowe osiągnięcia w zastosowaniu istniejących substancji aktywnych w innych schorzeniach wydaje się wskazanym, przebadanie zarówno leków obecnych na rynku, jak i odrzuconych na określonym etapie badań. Szacuje się, że przy wydajnym zastosowaniu metod repozycjonowania, możliwe jest skrócenie czasu wprowadzenia niektórych leków do terapii z 10-17 do 3-12 lat, bowiem w przypadku substancji już stosowanych znane są dane dotyczące bezpieczeństwa leku, a co za tym idzie, terapeutyki te zdecydowanie szybciej mogą wejść do badań klinicznych.

Spośród leków odrzucanych na określonym etapie badań, metody repozycjonowania doprowadziły do wprowadzenia do leczenia m.in talidomidu, który mimo poważnej teratogenności, znalazł zastosowanie w terapii szpiczaka mnogiego generując w 2003 roku zyski na poziomie 271 milionów dolarów. Należy również bowiem pamiętać, że konieczna jest analiza profilu ryzyka i korzyści stosowania danego leku. Często skutki uboczne, które eliminują lek w terapii schorzeń chronicznych takich jak np.: cukrzyca, mogą okazać się do zaakceptowania w stanach zagrażających życiu i wymagających podania jednorazowej dawki. Oczywiście, substancje tego typu muszą zostać poddane dodatkowym badaniom bezpieczeństwa, jednak ostatecznie mogą stanowić jedyny sposób leczenia określonej choroby. Tego typu związkami i ich analizą zajmują się również metody repozycjonowania. Badania te nie poszukują jednak wyłącznie związków umożliwiających ratowanie życia w nagłych sytuacjach. Należy tu bowiem wspomnieć o najsłynniejszym, jak do tej pory, sukcesie repozycjonowania, czyli odkryciu dodatkowego zastosowania cytrynianu sildenafilu  lek na anginę zaczęto podawać pacjentom z zaburzeniami erekcji.

Aktualnie najczęściej stosowanymi strategiami repozycjonowania leków są analizy zależności między strukturą a aktywnością leku (Quantitative structure–activity relationship, QSAR), monitorowanie skutków ubocznych i elektronicznej dokumentacji zdrowotnej (electronic health records, EHRs) oraz tworzenie tzw. map połączeń (Connectivity Map, CMap) i dokowanie molekularne. W tej części artykułu omówione zostaną metody QSAR oraz strategie oparte o dane pochodzące z badań klinicznych, czyli monitorowanie skutków ubocznych i elektronicznej dokumentacji zdrowotnej. W drugiej części skupimy się na podejściach bazujących na wiedzy z zakresu badań molekularnych, czyli tworzeniu map połączeń (Connectivity Map, CMap) oraz dokowaniu molekularnym.

 

CZYTAJ DALEJ O BADANIACH QSAR

{page_break}

QSAR – z czym to się je?

Badania QSAR polegają na analizie zależności pomiędzy strukturą chemiczną związku a jego aktywnością biologiczną. Dostarczają one dzięki temu wiedzy dwojakiej natury. Z jednej strony, pozwalają na uzyskanie modeli matematycznych procesów, którym podlegają związki biologicznie czynne. Z drugiej, mają one zdolności prognostyczne – pozwalają przewidzieć aktywność biologiczną związku na podstawie jego właściwości fizykochemicznych lub nawet tylko struktury chemicznej. I choć podobne struktury nie zawsze zachowują się tak samo w układach biologicznych, to ich stopnie podobieństwa można wydajnie wykorzystywać w metodach obliczeniowych do repozycjonowania leków. Podstawą tej strategii, jest dążenie do wyodrębnienia zestawu cech chemicznych dla każdego leku z określonej grupy i budowanie sieci zależności pomiędzy nimi, na podstawie opisanych funkcji. Na przykład, poszukując nowych celów dla antagonistów metabotropowych receptorów glutaminianu (mGluR), naukowcy odnaleźli deskryptory farmakoforu dla znanych mGluR oraz dla szerokiego zestawu leków o różnych targetach. Następnie, stworzono komputerowo samoorganizujące się mapy, na podstawie których wyodrębniono klastery antagonistów mGluR, wykazujące wspólne cechy m.in z ligandami posiadającymi miejsca wiązania histaminy, dopaminy i kilku innych celów. Te dodatkowe interakcje następnie weryfikowano doświadczalnie, ale wykrycie opisanych zależności pozwoliło przewidzieć dodatkowe targety dla badanej grupy leków.

Nieco inne podejście zastosował Keiser i inni, którzy przyjęli podejście zintegrowanego podobieństwa chemicznego, które łączy nie tylko strukturalne podobieństwo cząsteczek aktywnych, ale również wiedzę o celach molekularnych leków. W tym podejściu, targety leków reprezentowane są przez zestaw znanych, wiążących się do nich ligandów. Obliczenie sumy strukturalnego podobieństwa między potencjalnym lekiem a znanym ligandem umożliwia ocenę teoretycznego związku między docelowym miejscem działania a substancją aktywną. Podobieństwo przedstawiane jest jako wartość współczynnika Tanimoto, obliczanego w oparciu o deskryptory dwuwymiarowych struktur chemicznych analizowanych związków. Następnie model statystyczny bazujący na skrajnych wartościach umożliwia identyfikację znaczących wyników. Wytypowane w ten sposób struktury chemiczne poddaje się dalszym badaniom. Stosując tego typu podejście, znaleziono interakcje pomiędzy N,N‑dimetylotryptaminą a receptorami serotoninowymi, które następnie potwierdzono na modelu mysim.

Ograniczenia metod QSAR wynikają w dużej mierze z faktu, że wiele struktur i innych właściwości chemicznych znanych związków farmaceutycznych zawiera błędy lub nie jest ujawnionych. Trudno jest również przewidzieć jakim dokładnie przemianom metabolicznym ulegają leki w ludzkim organizmie.


Pożądane skutki uboczne?

Stosowanie każdego preparatu leczniczego u dużej populacji chorych, wiąże się z wystąpieniem skutków ubocznych. Oczywiście, stanowią one efekt niepożądany, jednak nie da się ich uniknąć. Jak się okazuje, są one również źródłem cennych informacji dla naukowców zajmujących się repozycjonowaniem leków. Analiza zgłaszanych przez pacjentów i ich lekarzy skutków ubocznych, stanowi jedną z bardziej tradycyjnych metod prowadzących do poszukiwania nowych wskazań istniejących już leków. To właśnie do osiągnięć tego podejścia należy wspomniane wcześniej zastosowanie cytrynianu sildenafilu w leczeniu zaburzeń erekcji. Innym przykładem jest eksenatyd. Podczas badań klinicznych nad tym lekiem, często obserwowanym skutkiem ubocznym była znaczna utrata wagi pacjentów. Doprowadziło to do testów substancji w leczeniu cukrzycy u ludzi cierpiących na otyłość. Naukowcy wykorzystują zatem zdarzenia niepożądane do ustalenia dodatkowych celów molekularnych, na które oddziałują leki. Poza tym skutki uboczne, podobnie jak efekty terapeutyczne, można potraktować jako mierzalne zmiany wywołane podaniem leku. Można je zatem uznać za „markery fenotypowe” wykorzystywane do opracowywania terapii.

Współcześnie, w zakresie badań skutków ubocznych, zastosowanie znalazły również metody komputerowe. Doprowadziły one do wygenerowania zestawu danych wiążących choroby z określonymi skutkami ubocznymi, dzięki którym możliwe jest przewidywanie nowych zastosowań dla leków. Na przykład, zauważono, że wiele leków zapobiegających odrzuceniom przeszczepów po transplantacji powoduje wzrost podatności na infekcje wirusem cytomegalii. Jest to logiczne, ponieważ związki te osłabiają działanie układu odpornościowego. Korzystając z tych informacji, można pokusić się o hipotezę, że związki powodujące wzrost zachorowań na cytomegalię, jako efekt uboczny, mogą znaleźć zastosowanie w zapobieganiu odrzucaniu przeszczepów. W ten sposób zaczęto stosować metotreksat w transplantologii.

Podejście to ma jedną kluczową zaletę – wszystkie obserwowane efekty terapeutyczne i uboczne występują u ludzi, a co za tym idzie nie ma problemu z ewentualnym zafałszowaniem wyników będącymi skutkiem analizy danych pochodzących z modeli zwierzęcych. Dodatkowo, skutki uboczne stanowią naturalne następstwo stosowania substancji biologicznie aktywnej, tak więc badania tego typu, poza mocą obliczeniową komputerów i analizą prowadzoną przez naukowców, nie wymagają dodatkowych nakładów na początkowych etapach. Fakt ten zdecydowanie skraca czas i zmniejsza koszty badań nad nowym zastosowaniem leku. Jednocześnie, stanowi jednak znaczące utrudnienie. Skutki uboczne są bowiem zgłaszane w ogromnych ilościach. Szacuje się, że średnia  liczba, w przypadku badań jednego leku, stanowi około 70, a analiza takiej ilości danych stanowi nie lada wyzwanie.

 

Wszystko opiera się na dokładnej analizie

Kolejnym narzędziem mającym ułatwić i przyspieszyć badania w zakresie repozycjonowania leków, jest elektroniczna dokumentacja zdrowotna (electronic health records, EHRs), bazująca na danych dotyczących przebiegu badań klinicznych. Przedsięwzięcie to dąży do sytuacji, w której wszystkie efekty terapeutyczne i skutki uboczne obserwowane podczas prowadzenia badania klinicznego  będą szczegółowo opisywane i udostępnianie naukowcom w postaci wirtualnej. Okazało się, że przy wykrywaniu i analizie skutków ubocznych strategia ta jest praktycznie nie do zastąpienia. Umożliwia bowiem wgląd w setki tysięcy obserwacji klinicznych, a co za tym idzie znacząco zmniejsza ryzyko pomyłek. Naukowcy dążą również do utworzenia sieci podobieństw, między chorobami, na podstawie wspólnych cech zaobserwowanych podczas badań klinicznych. Istnienie takich baz danych znacząco ułatwiłoby pracę przy repozycjonowaniu, umożliwiając próby niejako „przeniesienia” terapii stosowanej u grupy pacjentów cierpiących na określone schorzenie, do zastosowania w innym wskazaniu. Oczywiście, każde tego typu rozwiązanie musi przejść szereg badań poprzedzających ewentualne zastosowanie kliniczne.

 

Edyta Bartusik

Źródła

 

Źródła:

http://www.nature.com

http://europepmc.org

http://www.broadinstitute.org

KOMENTARZE
news

<Styczeń 2023>

pnwtśrczptsbnd
26
27
28
29
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
Newsletter