– Nowoczesne techniki analityczne pozwalają szybko dostarczać coraz lepszych i bardziej informatywnych danych, a metody uczenia maszynowego pozwalają wykrywać zależności, których klasyczna analiza nie dostrzega – uważa dr hab. Krzesimir Ciura, adiunkt w Katedrze i Zakładzie Chemii Fizycznej, Wydział Farmaceutyczny, GUMed
NAGRODA ZAUFANIA ZŁOTY OTIS 2026 ZA OSIĄGNIĘCIA W FARMACJI W ROKU 2025
W swoich badaniach zajmuje się pan m.in. przewidywaniem właściwości kandydatów na leki jeszcze przed badaniami klinicznymi. Jak bardzo takie podejście realnie skraca dziś drogę od pomysłu do gotowej terapii?
W klasycznym ujęciu cały proces od pomysłu do terapii trwa ok. 10–15 lat, natomiast dzięki metodom obliczeniowym i testom in vitro możemy znacząco przyspieszyć fazę odkrywania i optymalizacji kandydatów. Bardzo trudno jest jednak dokładnie określić, o ile takie narzędzia skracają czas od pomysłu do wdrożenia, ponieważ każdy projekt jest inny i wiąże się z odmiennymi wyzwaniami, a dodatkowo nie zawsze kończy się sukcesem. Pewną miarą może być na przykład zwiększenie liczby kandydatów wiążących się z celem molekularnym, które dzięki dokowaniu molekularnemu może wzrosnąć nawet kilkukrotnie.
Dobrym przykładem przyspieszenia jest rozwój leku Paxlovid w czasie pandemii COVID-19, gdzie od momentu pojawienia się wirusa do wprowadzenia terapii minęło ok. 1,5–2 lat. Było to możliwe między innymi dzięki temu, że cel molekularny był dobrze poznany na podstawie wcześniejszych badań nad wirusem SARS, co znacząco przyspieszyło etap projektowania, a także dlatego że badania kliniczne były prowadzone w sposób równoległy i przyspieszony, przy dużym wsparciu regulacyjnym i organizacyjnym. Dlatego należy traktować ten przypadek jako wyjątkowy, ale jednocześnie pokazujący jak szybko, przy odpowiedniej wiedzy i narzędziach, możliwy jest transfer badań do realnej terapii.
Nowoczesna farmacja coraz częściej opiera się na modelach i symulacjach. Czy pana zdaniem jesteśmy blisko momentu, w którym komputer „wybierze” najlepszy lek szybciej niż tradycyjne laboratorium?
Modele i symulacje odgrywają dziś coraz większą rolę w odkrywaniu leków, ale nie spodziewałbym się, że komputer w najbliższym czasie całkowicie „zastąpi” tradycyjne laboratorium. Kluczowym ograniczeniem jest złożoność tzw. przestrzeni chemicznej, w której porusza się farmacja. Jest ona praktycznie niewyczerpana, a duża jej część pozostaje wciąż niezbadana. W efekcie nawet najbardziej zaawansowane algorytmy uczą się tylko na dostępnych danych i mają ograniczoną zdolność do ekstrapolacji. Dlatego nie sądzę, aby komputer w najbliższym czasie całkowicie zastąpił laboratorium. W praktyce obserwujemy raczej zmianę podejścia: komputer nie zastępuje eksperymentu, ale go ukierunkowuje – pozwala lepiej próbkować tę złożoną przestrzeń chemiczną i efektywniej się w niej poruszać, zawężając obszar poszukiwań do najbardziej obiecujących regionów. Ostateczna weryfikacja nadal musi jednak odbywać się w laboratorium i w badaniach klinicznych.
Pracuje pan na styku nauki i przemysłu. Co jest dziś największym wyzwaniem w przełożeniu wyników badań laboratoryjnych na realne zastosowania w produkcji leków?
Największym wyzwaniem w przełożeniu wyników badań laboratoryjnych na realne zastosowania jest dziś zapewnienie bezpieczeństwa. W warunkach laboratoryjnych często obserwujemy obiecujące efekty biologiczne, natomiast dopiero na kolejnych etapach ujawniają się kwestie związane z działaniem poza celem terapeutycznym i związaną z tym toksycznością. Dodatkowym wyzwaniem jest też tzw. luka translacyjna – to, co działa w modelu komórkowym czy zwierzęcym, często nie przekłada się bezpośrednio na człowieka, co czyni ocenę bezpieczeństwa największym wyzwaniem.
W pana pracy kluczową rolę odgrywają zaawansowane techniki analityczne. Co dla laika byłoby najbardziej zaskakujące w tym, jak „sprawdza się” nową cząsteczkę zanim trafi do badań klinicznych?
Z perspektywy osoby zajmującej się wczesnym profilowaniem właściwości bio-fizyko-chemicznych najbardziej zaskakujące może być zastosowanie niektórych metod analitycznych. Generalnie w testach staramy się jak najlepiej odwzorowywać środowisko biologiczne, tak aby warunki eksperymentalne były jak najbliższe temu, co chcemy badać.
Całkowitym przeciwieństwem jest chromatografia w stanie nadkrytycznym, gdzie stosowana jest faza ruchoma w postaci dwutlenku węgla w stanie nadkrytycznym, czyli fluidu. To środowisko jest całkowicie niebiologiczne, a mimo to dostarcza użytecznych informacji dotyczących polarności cząsteczki, które korelują z jej przenikaniem przez bariery biologiczne.
Gdyby miał pan wskazać jeden kierunek, który w najbliższych latach najbardziej zmieni farmację: będzie to sztuczna inteligencja, nowe technologie analityczne czy zupełnie coś innego?
Z mojej perspektywy jako osoby zajmującej się łączeniem wyników badań eksperymentalnych z informacjami o strukturze trudno wskazać jeden dominujący kierunek. Uczenie maszynowe i sztuczna inteligencja mają ogromny potencjał i już dziś zmieniają sposób, w jaki analizujemy dane i projektujemy nowe związki. Natomiast skuteczność tych metod jest bezpośrednio uzależniona od jakości i zakresu danych. Bez wiarygodnych, dobrze zaprojektowanych eksperymentów nawet najbardziej zaawansowane algorytmy nie będą w stanie dalej się rozwijać.
Stąd w mojej ocenie największa zmiana nie wynika z jednej technologii, ale z ich integracji. Nowoczesne techniki analityczne pozwalają szybko dostarczać coraz lepszych i bardziej informatywnych danych, a metody uczenia maszynowego pozwalają wykrywać zależności, których klasyczna analiza nie dostrzega. Przyszłość farmacji będzie więc oparta na ścisłej współpracy tych dwóch obszarów, ponieważ dopiero ich połączenie pozwala w pełni wykorzystać potencjał.






