Biotechnologia.pl
łączymy wszystkie strony biobiznesu
Analiza trendów w przemyśle farmaceutycznym. Czym tak naprawdę są OOT i jak je efektywnie wykrywać?
Redakcja portalu, 26.04.2016 , Tagi: OOT
W związku z obowiązującymi wytycznymi oraz wprowadzonymi najnowszymi zmianami, analiza trendów i ciągła weryfikacja procesów to gorący temat, który dotyczy coraz szerszego zakresu parametrów jakościowych i procesowych. Można wręcz powiedzieć, że już wkrótce staniemy przed zagadnieniem trendowania wszystkich parametrów opisujących produkt oraz cały proces jego produkcji.

 

Myśląc o analizie trendów, musimy rozważać zagadnienia wykraczające poza samą analizę danych, obejmujące gromadzenie wyników, ich bieżący monitoring wg odpowiednich algorytmów oraz system informowania o niepokojących zjawiskach. Już same organy regulacyjne podkreślają znaczenie przechowywania danych np. wyniki testów laboratoryjnych, wydajności czy kontroli środowiska należy przechowywać w takiej postaci i  ilości, aby możliwa była ich ocena pod kątem występowania trendów. Natomiast odpowiednie podejście do pozostałych elementów to już wygoda i wydajność naszej pracy oraz możliwość reagowania na bieżąco na określone zdarzenia.

Punkt odniesienia do określania odchyleń

Pamiętajmy, że występowanie trendu (czyli zmiany wartości parametru w zależności od upływu czasu) w przypadku parametrów, które mają po prostu taką charakterystykę (np. w badaniach stabilności) jest zjawiskiem normalnym. Podjęcia odpowiednich działań wymaga natomiast występowanie sytuacji odbiegającej od dotychczas rejestrowanych przebiegów w niekorzystnym kierunku. Dokładnie w ten sposób będziemy podchodzić do identyfikowania OOT (Out Of Trend), jako odejście od przyjętych wzorców.

W pierwszej kolejności musimy określić wzorce, do których będziemy porównywać aktualne wartości. W tym celu powinniśmy poddać analizie zbiory danych historycznych opisujących przebiegi interesujących nas parametrów. Już na tym etapie prac samo zgromadzenie danych może stanowić spore wyzwanie, jeśli do tej pory polegaliśmy na „standardowych” sposobach rejestrowania i przechowywania wyników w postaci arkuszy xls i zapisów papierowych. Natomiast ta część zakładów, która już posiada systemy skomputeryzowane, pozwalające gromadzić i przechowywać wyniki badań oraz charakterystyki procesu produkcyjnego, może, korzystając z odpowiednich narzędzi, przystąpić do prac związanych z  wyznaczaniem wzorców napodstawie kompletu informacji.

Może się zdarzyć, że wśród historycznych wyników będą też takie, dla których wystąpiły jakieś zakłócenia czy odchylenia, dlatego powinniśmy dokładnie przejrzeć dane i wykluczyć te, które nie odzwierciedlają poprawnego stanu. W ten sposób uzyskamy rzetelny obraz przebiegu danego parametru, ocenimy jego charakterystykę i na tej podstawie możemy wyznaczyć wzorzec dla pomiarów, które pojawią się w przyszłości. Zwróćmy uwagę, że  wyznaczenie wzorców nie jest zadaniem jednorazowym, powinniśmy okresowo dokonywać oceny, sprawdzać ich aktualność oraz ewentualnie wykonać ich kalibrację np. po  zmianach w procesie.

Wybrane techniki wykrywania odchyleń 

W zależności od tego, czy mamy do czynienia z danymi, dla których oczekujemy zależności pomiędzy wartościami a czasem, czy też nie przewidujemy jej występowania, podejście do  ich analizy będzie inne. Znaczenie również będzie miał charakter zmienności tych danych, ponieważ inaczej należy podejść do analizy, jeśli zależność parametru od czasu jest liniowa, a inaczej kiedy badana cecha szybko osiąga np. wysoką wartość, która później utrzymuje się na jednym poziomie, ulegając nieznacznym zmianom.

Pojedyncze odchylenie 

W przypadku liniowego układu danych, czyli takiego, który nie powinien wykazywać stałego wzrostu lub spadku w czasie, najprostszym zjawiskiem OOT może być odchylenie wartości kolejnego wyniku w stosunku do założonej wartości obliczanej na podstawie wartości początkowej np. o 5%. Taka zmiana sugeruje pojawienie się zmiany mogącej wskazywać na  dryf parametru, a co za tym idzie, wcześniejsze przecięcie linii specyfikacji w przypadku badania stabilności. W związku z tym możemy traktować takie zdarzenie jako sygnał wskazujący na pojawienie się trendu. Trzeba jednak zwrócić uwagę, że warunek taki jest wyznaczony a priori. Tutaj warto zacytować jednego z ojców statystyki w jakości, Edwarda Deminga: „Bez danych jesteśmy kolejną osobą tylko z własną opinią”, co oznacza że takie podejście bez analizy wcześniejszych informacji może nie być skuteczne.

Bardziej zgodnym ze sztuką sposobem określenia takiej odchyłki jest wyznaczenie „odległości” od standardowego poziomu dla parametru, stosując podejście proponowane np. przez karty kontrolne Shewharta.

Zmiana nachylenia 

Innym testem wykrywającym istnienie trendu może być ocena nachylania linii regresji. Wynik oceny istotności różnic nachylania dla trendu liniowego może być sygnałem OOT, informującym o zmianie charakteru trendu względem sytuacji oczekiwanej [rys. 1]. W  przypadku gdy wzorcowa linia trendu jest nachylona ku górze, wówczas jeśli analizowana zależność wykazuje istotną różnicę nachylenia prostej regresji i to w górę, istnieje ryzyko zmiany punktu przecięcia z limitami specyfikacji. Natomiast w tej sytuacji, gdyby zmiana trendu odchylona była w dół, to co prawda mamy zmianę, jednak w korzystnym dla nas kierunku.

Oczywiście do zastosowania tego podejścia potrzebne jest wcześniejsze zbudowanie modelu, a do tego potrzeby jest odpowiedni zestaw danych historycznych. Odpowiedni to znaczy taki, który nie jest obarczony błędami pomiarowymi i dane pochodzą z produktów, które uznaliśmy za spełniające wymagania jakościowe. Mogą to być przykładowo dane z  serii walidacyjnych. W tym miejscu należy zwrócić uwagę, że wyznaczenie wzorcowego nachylenia dla przykładowo 100 produktów, z których każdy ma 5 parametrów jakościowych tego typu, oznacza przeprowadzanie 500 analiz (nie licząc wcześniejszego przygotowania danych). Zastosowanie takiego podejścia bez dedykowanego systemu informatycznego jest więc mało realne w warunkach produkcyjnych. Dodatkowym zagadnieniem jest potrzeba korygowania wzorcowych modeli, po zmianach w procesach produkcyjnych.

Zmiany skokowe 

W przypadku parametrów, które zmieniają się skokowo, można zastosować kryterium oceny poziomu początkowego. Można tak oceniać parametr, w przypadku gdy pierwszy pomiar (lub kilka kolejnych) znajduje się na pewnym poziomie, a następnie gwałtownie zmienia się jego wartość, co niemniej jest zachowaniem naturalnym dla analizowanego parametru.

Wówczas identyfikując standardową wielkość tego skoku, możemy poddać ocenie pierwszy pomiar (lub kilka kolejnych) i jeśli znajduje się on na odpowiednim poziomie, to wiadomo, że jeżeli zajdzie jego standardowa skokowa zmiana, to nie będzie zagrożenia wyjścia poza specyfikację. Natomiast, jeśli poziom początkowy będzie np. niższy niż zazwyczaj, to następujący później spadek wielkości spowoduje, że kolejny wynik może być pod limitem.

Zatem w przypadku takich parametrów możemy identyfikować OOT jako poziom pierwszego pomiaru, z którego wynika, że jeśli parametr wykona swój standardowy skok, to znajdzie się poza specyfikacją [rys 2]. W zasadzie podejście to jest pewną modyfikacją standardowej karty kontrolnej dla specyficznych typów parametrów, które charakteryzują się nieliniową zmianą w czasie - o czym jest mowa dalej.

Zmiany nielinowe 

Kolejną sytuacją, z którą możemy mieć do czynienia, to parametr, którego zależność od  czasu nie jest liniowa. Przykładem takiego trendu może być zanieczyszczenie, którego wartość w początkowej fazie szybko rośnie, a następnie ulega nasyceniu. Często odpowiednim podejściem jest zastosowanie transformacji logarytmicznej na osi czasu, co  pozwoli dla tak przekształconych danych uzyskać zależność liniową i wykonywać dalsze analizy na danych przekształconych do postaci liniowej.

Po procesie linearyzacji możemy więc wykorzystać techniki analizy, takie jak w przypadku zależności liniowej, tylko dla danych przekształconych. Możemy oceniać np. różnicę nachyleń trendu, czy też zastosować opisaną dalej kartę kontrolną regresji. Typowa nieliniowa zależność jest przedstawiona na rysunku 3. Różnica polegać będzie na  interpretacji wyników, które teraz na osi czasu mają inną skalę, więc po wykonaniu analizy, należy powrócić do „naturalnej” osi czasu, aby odpowiednio zinterpretować wynik analizy, a co za tym idzie poprawnie ocenić wystąpienie ewentualnego zdarzenia OOT.

Karta kontrolna regresji 

W przypadku kiedy rozważany parametr z natury zmienia się liniowo w czasie, w  zastosowanej analizie należy uwzględnić tę cechę. Innymi słowy zastosowana analiza musi ignorować naturalny trend parametru i skupić się na ewentualnym odejściu od tego wzorca. Funkcję taką może spełnić karta kontrolna regresji, która jest budowana podobnie jak zwykła karta kontrolna, ale z tą różnicą, że linia centralna „podąża” za naturalnym trendem (jest to prosta regresji) i w oparciu o nią tworzone są linie kontrolne, w których powinny być zawarte wyniki, jeżeli nie ma sygnału OOT. Przykład takiej karty prezentuje rysunek 4. Zauważmy, że karta może być zastosowana zarówno do rzeczywistych danych, które charakteryzują się zmiennością liniową, jak i takich, dla których zmienność jest nieliniowa, ale zostały odpowiednio przekształcone.

Dodatkowo, posługując się tego typu analizą, można oprócz samego wykrywania OOT oszacować prawdopodobieństwo przekroczenia przez badany parametr limitu przed założonym terminem ważności [rys. 4]. Dzięki temu osoby analizujące jakość, dostają informację np. o zmianie takiego ryzyka po wprowadzeniu zmian w procesie. Można to oszacować, obliczając odległość linii regresji w jednostkach σ (miary zmienności parametru wokół prostej), a następnie przenosząc to na wartość prawdopodobieństwa w oparciu o  rozkład Gaussa.

Zakres zmienności 

Nie wszystkie parametry można zamodelować w postaci prostej regresji liniowej, nawet po przekształceniu, i wtedy rozsądną metodą identyfikacji zmiany takiego parametru może być podejście „inżynierskie” oparte na danych. Załóżmy, że parametr ma skomplikowaną zależność związaną z czasem i próba odtworzenia tej zależności równaniami matematycznymi wprowadzi tylko dodatkową niepewność do procesu oceny odejścia od  trendu. I tak w przypadku badań stabilności można potraktować każdy punkt czasowy jako oddzielny element do analizy i weryfikować, czy nowe dane w kolejnym punkcie nie  przekraczają wyznaczonych dla tego konkretnego punktu granic (zakresu).

Opracowując wzorzec (granice) dla takiego parametru, musimy skorzystać z technik statystycznych i wyznaczyć zakres parametru w każdym punkcie, opierając się oczywiście na dostępnych danych historycznych. Po wyznaczeniu poszczególnych zakresów możemy je potraktować jako wspólny „kanał” [rys. 5], w którym w przyszłości powinny znaleźć się poprawne wyniki pomiarów. Następnie po prostu każdą nowo otrzymaną wartość porównujemy, czy mieści się w określonym przedziale dla danego punktu, a każde wyjście poza ten zakres będzie traktowane jako odejście od trendu.

Brak naturalnego trendu 

Na koniec rozważmy najprostszy przypadek, czyli taki, w którym parametr nie powinien zmieniać się w czasie, natomiast jego zmienność wynika z błędów pomiarowych i różnych fluktuacji procesowych, z którymi musimy się po prostu pogodzić. Takim narzędziem, o  ugruntowanej pozycji, do odróżniania przyczyn losowych (zmienność wynikająca np. z  błędu standardowego metody pomiarowej) od przyczyn istotnych (zły produkt, błąd pomiaru), które określamy jako OOT, jest karta kontrolna. Ma ona dwie zalety, które nie są bez znaczenia w codziennej pracy: prostotę tworzenia analizy i łatwość interpretacji wyników.

W przypadku tego typu danych możemy też podjąć się oceny różnicy położenia wartości średnich. Otrzymując każdy kolejny wynik, wyznaczamy narastająco wartość średnią i  oceniamy, czy pomiędzy nią, a wartością średnią wzorca występuje statystycznie istotna różnica która będzie równoznaczna z OOT [rys. 6]. Do tego celu możemy wykorzystać standardowy test statystyczny oparty np. na rozkładzie t-Studenta.

Praktyczne rozwiązanie nietypowych zagadnień 

Na tym etapie wiemy już jakie są wzorce, do których powinniśmy porównywać nowe wyniki oraz znamy techniki i kryteria identyfikacji OOT. Na tej podstawie możemy do każdego parametru przypisać odpowiednie zestawy warunków, według których ma być oceniany.

Teraz dochodzimy do kluczowego zagadnienia, które zamienia podejście retrospektywne na takie, które pozwala oceniać sytuację na bieżąco. Naszym celem jest przecież wykrywanie niepożądanych zjawisk w momencie ich wystąpienia, co pozwoli na podjęcie odpowiednich działań, a nie stwierdzenie faktu zaistnienia OOT i to po upływie dłuższego okresu czasu (co najczęściej ma miejsce podczas zestawiania danych na potrzeby rocznego przeglądu jakości).

W tym celu potrzebujemy kilku współpracujących ze sobą elementów, stanowiących jedno kompleksowe rozwiązanie informatyczne.

Dedykowane dla sektora farmaceutycznego i dostosowywane do potrzeb klientów systemy informatyczne w tym obszarze dostarcza firma DataComplex, której eksperci posiadają prawie 15 letnie doświadczenie w opracowywaniu i wdrażaniu systemów IT w obszarze gromadzenia i analizy danych w farmacji.

Pierwszym elementem, którego „nie widać”, ale który jest fundamentem, to baza danych. Przechowywane są w niej dane historyczne (potrzebne do wyznaczania wzorców), metadane (opisujące znaczenie i charakterystyki parametrów), wzorce (z którymi porównywane będą nowe wartości) oraz na bieżąco gromadzone wyniki badań surowców, półproduktów, produktów gotowych, środowiska oraz parametrów procesu produkcji (które  będą poddane monitoringowi i analizie trendów). Baza danych, oprócz przechowywania danych, zapewnia ich rzetelność i spójność oraz przechowuje je w układzie umożliwiającym tworzenie analiz, zestawień i raportów w dowolnych przekrojach.

Drugi element to zasilanie bazy nowymi wartościami wyników badań i parametrów procesu. Część informacji może być automatycznie pobierana z już istniejących systemów skomputeryzowanych (typu LIMS, ERP czy MES) lub z plikowych źródeł danych. Wyniki mogą być również wprowadzane przez pracowników technologicznych lub w laboratorium i  dlatego potrzebny jest również wygodny interfejs ręcznego wprowadzania danych. Tutaj od razu dochodzimy do funkcjonalności analitycznej, ponieważ osoba wprowadzająca kolejne pomiary powinna od razu otrzymać informację zwrotną oceniającą dany wynik i  system powinien automatycznie porównać go z zaimplementowanymi wzorcami, i w razie wystąpienia OOT natychmiast o tym poinformować. W takim przypadku ważne jest też, aby taka osoba mogła w prosty sposób (korzystając z narzędzi analitycznych) zobaczyć wyniki analizy trendu dla takiego parametru i na tej podstawie ocenić sytuację. Nie wymagajmy jednak, aby pracownik laboratorium, który świetnie zna techniki analityczne, był jednocześnie specjalistą statystykiem. Przy aktualnym rozwoju technologii informatycznych tego typu zadania są realizowane automatycznie przez odpowiednie, dedykowane rozwiązania, a praca z nimi ogranicza się jedynie do przejrzenia danych i oceny dostarczonych kompleksowych i skomentowanych wyników analiz statystycznych.

Rzeczywiście, posiadając odpowiednie rozwiązanie informatyczne, łatwo wyobrazić sobie sytuację, że osoba, która na co dzień zajmuje się badaniami jakiegoś parametru, wprowadza jego wyniki i na bieżąco otrzymuje informację zwrotną z oceną istnienia ewentualnego OOT. Nie jest natomiast powiedziane, że analiza trendów jest obowiązkiem tej właśnie osoby i trudno też jej będzie ocenić, co dzieje się z pozostałymi parametrami, seriami i produktami.

Znów przydatne okazują się rozwiązania, od dawna już stosowane w przemyśle produkcyjnym – syntetyczne tablice informacyjne. Przy pomocy jednego pulpitu możemy obserwować aktualną ocenę poszczególnych parametrów dla wszystkich serii produktu lub  też dla wszystkich parametrów i produktów [rys. 7]. Zasada działania opiera się na  wizualizacji (zazwyczaj w postaci kolorowych kafelków) wyników różnorodnych testów i  ocen przeprowadzanych automatycznie przez system. W ten sposób możemy się dowiedzieć, czy np. wszystkie badania zostały wykonane w terminie i czy wprowadzono wszystkie wymagane wyniki, czy istnieje ryzyko przekroczenia limitów przez dany parametr, czy w danych wstępuje trend, czy zidentyfikowano OOT i na podstawie którego kryterium. Przy wdrożeniu takiego rozwiązania należy zawsze dokładnie ustalić zakres i sposób prezentowania informacji na takiej tablicy, aby później użytkownik mógł łatwo ocenić sytuację, przeglądając najważniejsze komunikaty.

Oprócz możliwości śledzenia on-line przebiegu parametrów, system na bieżąco zapisuje w bazie danych wprowadzane lub automatycznie pobierane wyniki badań oraz parametry procesu. Dlatego w każdym momencie może wykonać, zgodnie z zaimplementowanymi szablonami analizę, zestawienie lub raport. W ten sposób określając interesujący zakres informacji, można natychmiast otrzymać np. gotowy kompletny raport na potrzeby rocznego przeglądu jakości.

Ponieważ opisywane zagadnienie mocno wiąże obszary danych historycznych, bieżącego gromadzenia wyników i parametrów, wielowariantowego monitorowania on-line dużej ilości informacji z wykorzystaniem technik analizy danych, jedynie dedykowany system informatyczny jest w stanie spełnić te wszystkie role, oszczędzić ogromne ilości czasu, pozwolić spełnić wymogi stawiane przez przepisy oraz dodatkowo zwiększyć bezpieczeństwo produkowanych preparatów.

 

 

 

 

Michał Iwaniec

Mirosław Popieluch

DataComplex

www.datacomplex.pl

 

KOMENTARZE
Newsletter