W ostatnich latach nauki life science przechodzą gwałtowną transformację, związaną między innymi z rozwojem technologii omicznych, w tym genomiki, oraz cyfryzacją procesów badawczo-rozwojowych. Ilość danych biologicznych, chemicznych i klinicznych – od sekwencji genomowych po obrazy mikroskopowe i wyniki badań pacjentów – stanowi coraz większe wyzwanie dla efektywnego prowadzenia badań klinicznych. AstraZeneca, jako pionier sektora life science, w celu przetwarzania i optymalnego wykorzystywania niespotykanej wcześniej ilości danych medycznych, zdecydowała się na zaadoptowanie narzędzi bazujących na sztucznej inteligencji. Dzięki temu pacjenci mają szanse na szybszy dostęp do przełomowych leków.

Dostęp do wysokiej jakości danych ma kluczowe znaczenie dla rozwoju nauki w dzisiejszym świecie. Jednak zbiory danych są użyteczne tylko wtedy, gdy można je właściwie analizować, interpretować i stosować w praktyce. Bez odpowiednich narzędzi istnieje ryzyko utraty potencjalnie kluczowych informacji w szumie, z którym każdego dnia mierzą się nasi naukowcy. Dzięki narzędziom sztucznej inteligencji ułatwiamy dostęp do zsyntezowanych, gotowych do analizy danych, co podnosi szanse na dokonywanie nowych, trafnych spostrzeżeń, a to z kolei przekłada się na proces odkrywania, opracowywania i dostarczania pacjentom nowych leków – powiedział Piotr Maślak, Head of Emerging Technologies w AstraZeneca​.

Nowe narzędzia oparte na AI przyspieszają rozwój firmy i przybliżają ją do osiągnięcia celów strategicznych do 2030 roku – są to: zwiększenie rocznych globalnych przychodów firmy do 80 mld dolarów, wprowadzenie na rynek 20 nowych leków, a także osiągnięcie ujemnego bilansu emisji dwutlenku węgla.

Narzędzia oparte na sztucznej inteligencji są wykorzystywane przede wszystkim w obszarze badań i rozwoju firmy i służą optymalizacji procesów opracowania i dostarczania pacjentom nowych możliwości terapeutycznych. Ich główne zalety to:

  • lepsze zrozumienie chorób, na które firma szuka terapii,
  • skrócenie czasu podejmowania decyzji badawczych,
  • poprawa trafności w identyfikowaniu cząsteczek o potencjale terapeutycznym,
  • poprawa skuteczności klinicznej (ograniczenie wycofywania się pacjentów z trwających badań klinicznych).

Dzięki wprowadzeniu zaawansowanych narzędzi sztucznej inteligencji AstraZeneca w znacznym stopniu zdemokratyzowała dostęp do danych dla pracowników, a jednocześnie ustanowiła nową kulturę pracy z danymi, w której AI jest wsparciem dla naukowców na każdym etapie rozwoju leków. Warto zaznaczyć, że niezmiernie ważnym elementem tego procesu było równoległe wdrożenie rygorystycznych zasad mających na celu etyczny, bezpieczny i odpowiedzialny rozwój oraz wdrażanie rozwiązań AI, a także uczenia maszynowego – podkreślił Piotr Maślak.

5 przykładów rozwiązań opartych na sztucznej inteligencji, wdrażanych globalnie w firmie AstraZeneca

  1. Platforma Databricks jako silnik wiedzy i AI dla R&D

Wyzwanie:
Tradycyjny proces odkrywania i komercjalizacji nowych leków trwa zwykle 10 –15 lat i może kosztować ponad 5 miliardów dolarów. Jednocześnie mniej niż 5% projektów jest ostatecznie komercjalizowana (lek trafia na rynek). W ostatnim czasie – wobec ogromnego przeciążenia, spowodowanego przyrastającymi lawinowo danymi z setek rozproszonych źródeł – pojawiło się realne zagrożenie, że procesy decyzyjne naukowców AstraZeneca będą zakłócone i opóźnione, a same badania jeszcze bardziej się wydłużą.

Cel:
Stworzenie przejrzystej i uniwersalnej infrastruktury danych, która umożliwiłaby budowę silnika z rekomendacjami dla naukowców – wspierającego identyfikację nowych celów terapeutycznych i podejmowanie decyzji szybciej, taniej i skuteczniej. W skrócie: opracowanie elastycznej, wydajnej i łatwej w zarządzaniu platformy, która pozwoli na przekształcenie danych w realne decyzje badawcze.

Rozwiązanie:
AstraZeneca wdrożyła Databricks Data Intelligence Platform jako centralną platformę do przetwarzania, analizy i modelowania danych w całym dziale R&D. Kluczowym jej elementem jest stworzenie grafu wiedzy biologicznej (knowledge graph), który łączy fakty
i zależności z milionów źródeł danych (m.in. artykułów naukowych, baz danych, wyników eksperymentów). Na bazie grafu działa system rekomendacji AI – umożliwiający każdemu naukowcowi generowanie nowych hipotez terapeutycznych dla dowolnej choroby.

Efekty:

    • Skrócenie czasu uzyskiwania nowych spostrzeżeń badawczych (insightów) – naukowcy mogą szybciej tworzyć trafne hipotezy i podejmować decyzje, co skraca czas opracowania nowego leku
    • Zwiększona efektywność operacyjna – automatyczne zarządzanie klastrami, skalowalność, uproszczona obsługa zasobów analitycznych
    • Większa produktywność zespołów data science – wspólne środowisko pracy dla analityków czy bioinformatyków
    • Lepsze wykorzystanie danych – przełamanie barier skalowania umożliwiło przetwarzanie i analizę milionów danych z tysięcy źródeł
    • Lepsza trafność predykcji – silnik rekomendacji wykorzystujący uczenie maszynowe (machine learning, ML) umożliwia rankingowanie celów terapeutycznych i podejmowanie decyzji z większym prawdopodobieństwem sukcesu klinicznego
  1. Radiomika do wykrywania lokalizacji 3D na skanach tomografii komputerowej

Wyzwanie:
Tradycyjna analiza skanów tomografii komputerowej (CT) wymaga ręcznego oznaczania obszarów zainteresowania przez radiologów, co jest czasochłonne, kosztowne i narażone na subiektywność. Przy dużej liczbie badań i rosnącej skali danych obrazowych brakuje wydajnego sposobu na szybkie i spójne przetwarzanie tych danych.

Cel:
Automatyzacja oznaczania zmian na obrazach CT w celu przyspieszenia analiz i odciążenia ekspertów w ich pracy.

Rozwiązanie:
AstraZeneca wdrożyła platformę radiomiki zasilaną przez AI, która automatycznie analizuje trójwymiarowe obrazy CT i rozpoznaje struktury anatomiczne oraz zmiany patologiczne. System oparty na uczeniu maszynowym został przeszkolony na dużej liczbie uprzednio oznaczonych obrazów, co pozwala mu dokładnie odwzorowywać pracę radiologów.

Efekty:
Zmniejszono potrzebę ręcznego oznaczania obrazów, co przełożyło się na oszczędność czasu ekspertów i skrócenie cyklu analizy danych obrazowych. Dzięki temu zespoły badawcze mogą szybciej podejmować decyzje i przesuwać kandydatów na leki do kolejnych faz rozwoju.

  1. Wsparcie AI w tworzeniu protokołów badań klinicznych

Wyzwanie:
Protokół badania klinicznego to dokument określający cele, zasady i przebieg każdego badania, które muszą być ściśle przestrzegane przez wszystkich uczestników procesu. Jego główne cele to zapewnienie bezpieczeństwa pacjentów, spójności zbierania danych oraz wiarygodności uzyskanych wyników. Dlatego poprawność protokołu i jego zrozumiałość dla pacjentów są kluczowe – tylko wtedy możliwe jest świadome wyrażenie zgody i rzetelna realizacja badania klinicznego. Z punktu widzenia firmy farmaceutycznej tworzenie protokołów to złożony i czasochłonny proces. Wymaga przeszukiwania wcześniejszych dokumentów, dostosowania treści do obowiązujących regulacji i zapewnienia logicznej spójności i przejrzystości. Autorzy protokołów często muszą pisać je „od zera”, co powoduje powtarzalność pracy i ryzyko błędów.

Cel:
Wsparcie autorów w szybkim tworzeniu roboczych wersji protokołów badań klinicznych.

Rozwiązanie:
Narzędzie AI, oparte na dużym modelu językowym, umożliwia tworzenie szkiców protokołów na podstawie firmowego repozytorium dokumentów (formularze świadomej zgody, wcześniejsze protokoły, standardowe zapisy). AI rozumie strukturę protokołu i może uzupełniać poszczególne sekcje tekstem dopasowanym do kontekstu danego badania.

Efekty:
Narzędzie znacznie przyspieszyło proces pisania, odciążając autorów od powtarzalnych czynności i umożliwiając skupienie się na treści merytorycznej. W testach czterech z pięciu autorów uznało narzędzie za przydatne przy tworzeniu streszczenia. Trwa jego rozbudowa na kolejne sekcje i inne obszary terapeutyczne. Ostatecznie narzędzie skraca czas wejścia badania do fazy realizacji.

  1. Asystent rozwoju zasilany AI (Development Assistant
  • Wyzwanie:
    Zespoły pracujące nad rozwojem leków korzystają jednocześnie z wielu różnych systemów danych, które nie zawsze są kompatybilne. Dostęp do informacji klinicznych i jakościowych bywa czasochłonny i skomplikowany, co utrudnia szybkie reagowanie i efektywną współpracę między działami.
  • Cel:
    Ułatwienie analizy danych oraz dostępu do informacji w czasie rzeczywistym dla zespołów projektowych i klinicznych.
  • Rozwiązanie:
    AstraZeneca zbudowała wewnętrzne narzędzie AI, które działa jak wirtualny asystent
    – umożliwia zadawanie pytań językiem naturalnym i generuje odpowiedzi na podstawie danych wewnętrznych. Narzędzie osadzono na produktach danych z różnych systemów,
    z warstwą modeli językowych dużej skali (large learning models, LLM) umożliwiającą kontekstowe rozumienie zapytań i automatyzację analiz. Jego funkcje to między innymi: porównywanie danych klinicznych i jakościowych, generowanie wykresów i analiz a także wyszukiwanie i ekstrakcja danych z różnych źródeł.
  • Efekty:
    Asystent zwiększył szybkość i wygodę analiz, eliminując potrzebę ręcznego przeszukiwania dużych ilości danych. Dzięki niemu zespoły R&D mogą sprawniej identyfikować problemy, porównywać wyniki badań i podejmować decyzje oparte na danych. Narzędzie wspiera też lepszą współpracę między działami, przełamując wcześniejsze silosy informacyjne.
  1. Bayesian Neural Network do predykcji toksyczności wątrobowej (DILI)

Wyzwanie:
Przewidywanie toksyczności leków na etapie przedklinicznym polega na ocenie, czy nowa substancja, zanim zostanie podana ludziom, może wywoływać działania szkodliwe dla organizmu. Poza testami laboratoryjnymi (in vitro) coraz częściej wykorzystuje się do tego celu modele komputerowe (in silico), które analizują strukturę chemiczną leku i jego możliwy wpływ na różne układy biologiczne (często – wątrobę). Celem jest identyfikacja potencjalnych zagrożeń i odrzucenie związków o nieakceptowalnym profilu bezpieczeństwa jeszcze przed rozpoczęciem badań klinicznych. Jednak przewidywanie toksyczności leków (np. uszkodzeń wątroby) na etapie przedklinicznym jest często nieprecyzyjne – dane są ograniczone, a tradycyjne modele (np. regresja logistyczna) często nie są wystarczające do predykcji oraz nie uwzględniają niepewności. Z kolei klasyczne sieci neuronowe (Deep Neural Network, DNN), będące popularnym narzędziem predykcyjnym, ze względu na tendencję do nadmiernego dopasowania do danych treningowych, nie są zalecane przy małych zbiorach danych. Ponadto nie dostarczają informacji o niepewności prognoz.

Cel:
opracowanie modelu umożliwiającego przewidywanie stopnia toksyczności wątrobowej (DILI – drug-induced liver injury) na podstawie danych biologicznych i chemicznych. Kluczowym elementem rozwiązania jest nie tylko generowanie samego wyniku predykcji, lecz także dostarczanie informacji o poziomie pewności prognozy, co pozwala ocenić,
na ile dany wynik jest wiarygodny. Dzięki temu narzędzie może wspierać podejmowanie decyzji w procesie odkrywania i wstępnej oceny bezpieczeństwa nowych cząsteczek terapeutycznych.

Rozwiązanie:
Model oparty na Bayesian Neural Network (BNN) – specjalnym typie sieci neuronowej, gdzie każda waga sieci (parametr) ma wartość rozłożoną probabilistycznie, a nie jedno ustalone „najlepsze” ustawienie. Pozwala to modelowi „uczyć się” rozkładów możliwych parametrów i przekazywać nie tylko prognozę, ale też poziom niepewności.

Efekty:

Dzięki opracowaniu modelu opartego na bayesowskiej sieci neuronowej, naukowcy zyskali narzędzie umożliwiające trafniejsze prognozowanie toksyczności wątrobowej (DILI) nowych związków chemicznych na etapie przedklinicznym. Model nie tylko przewiduje poziom ryzyka, ale także wskazuje, z jaką pewnością można ufać danemu wynikowi. To znacząco zwiększa wiarygodność ocen bezpieczeństwa i pozwala lepiej odróżnić związki o podobnej strukturze chemicznej, ale różnej toksyczności. Rozwiązanie może wspierać specjalistów ds. bezpieczeństwa leków w podejmowaniu decyzji o kontynuacji lub odrzuceniu projektów na wczesnym etapie rozwoju.

epoint
Subskrybuj
Powiadom o
guest
0 komentarzy
Najstarsze
Najnowsze Najwięcej głosów
Opinie w linii
Zobacz wszystkie komentarze