Nowe badanie opublikowane w American Journal of Preventive Cardiology pokazuje, że ilość tłuszczu osierdziowego, czyli tłuszczu otaczającego serce, może mówić o ryzyku sercowo-naczyniowym więcej, niż dotąd wykorzystywaliśmy w praktyce. Co ważne, badacze nie proponują nowego, kosztownego badania. Chcą wydobyć dodatkową informację z tomografii, którą wielu pacjentów i tak już wykonuje.
Tu właśnie pojawia się sztuczna inteligencja, jako narzędzie, które potrafi automatycznie zmierzyć objętość tego tłuszczu na EKG-bramkowanej tomografii serca. Zespół z Mayo Clinic pokazał, że taki pomiar poprawia przewidywanie przyszłych incydentów sercowo-naczyniowych ponad to, co dają już dziś klasyczne modele ryzyka i sam wynik wapnia w tętnicach wieńcowych. Szczególnie przydatne okazało się to tam, gdzie decyzje kliniczne bywają najmniej oczywiste, czyli u osób z pogranicza niskiego i pośredniego ryzyka.
To ciekawy temat, bo tłuszcz wokół serca długo był traktowany trochę jak pasażer na gapę. Wiadomo było, że istnieje, że jest związany z metabolizmem i stanem zapalnym, ale rzadziej traktowano go jako coś, co można szybko i praktycznie włączyć do codziennej oceny ryzyka.
Nowe badanie sugeruje, że czas skończyć z tym lekceważeniem. Ten tłuszcz nie jest biernym wypełniaczem. Może być czymś w rodzaju biologicznego podszeptu, że układ sercowo-naczyniowy żyje w gorszym środowisku, niż wynikałoby to z samego spojrzenia na klasyczne parametry.
Tłuszcz tłuszczowi nierówny. Ten przy sercu ma wyjątkowo niewygodne położenie
W codziennym myśleniu o zdrowiu łatwo wrzucić tłuszcz do jednego worka. Albo go jest za dużo, albo za mało, albo odkłada się tam, gdzie nie trzeba. Tymczasem medycyna od dawna wie, że lokalizacja robi ogromną różnicę. Tłuszcz osierdziowy i nasierdziowy to nie jest po prostu neutralna poduszka ochronna.
Tkanka tłuszczowa w sąsiedztwie serca jest metabolicznie aktywna i może wydzielać substancje związane z zapaleniem oraz przebudową naczyń. Już wcześniejsze badania wiązały większą objętość takiego tłuszczu z wyższym ryzykiem chorób sercowo-naczyniowych.
Można to porównać do mieszkania nad hałaśliwym lokalem. Sam budynek z zewnątrz może wyglądać całkiem spokojnie, ale jeśli pod spodem stale coś buzuje, z czasem zaczyna to wpływać na komfort i bezpieczeństwo całej konstrukcji. Tłuszcz wokół serca nie musi sam w sobie oznaczać katastrofy, ale jego nadmiar może być sygnałem, że w najbliższym otoczeniu serca dzieje się coś, co zwiększa ryzyko problemów.
Nowość w tej pracy polega nie na samym pomyśle, że taki tłuszcz ma znaczenie, tylko na tym, że udało się go automatycznie zmierzyć na dużą skalę i powiązać z długoterminowymi losami pacjentów. To ważne, bo w medycynie wiele obiecujących wskaźników kończy jako ciekawostki naukowe. Działają dobrze w małych analizach, ale nie da się ich łatwo wdrożyć. Tutaj badacze próbują przejść właśnie ten najtrudniejszy most: od biologicznie ciekawego zjawiska do czegoś praktycznego.
AI nie szuka tu choroby od zera. Po prostu wyciąga z badania więcej, niż dotąd wyciągaliśmy
To chyba najmocniejsza strona całego projektu. Pacjent nie musi iść na kolejną tomografię, nie musi płacić za dodatkowy egzamin, nie musi umawiać się na nowy zestaw obrazowań. Badacze użyli standardowych skanów wapnia wieńcowego i dołożyli do nich algorytm, który automatycznie ocenia objętość tłuszczu wokół serca. W praktyce wygląda to jak wyciąganie dodatkowej informacji z badania, które i tak już było w systemie. Mayo Clinic podkreśla wprost, że to sposób na poprawę oceny ryzyka bez dodatkowych kosztów i bez dodatkowych testów.
To ogromna zaleta, bo właśnie tak zwykle rodzą się najlepsze medyczne ulepszenia. Nie przez rewolucję, która wywraca cały system, lecz przez podkręcenie jednego istniejącego elementu. Tu tomografia pozostaje tomografią, ocena wapnia pozostaje oceną wapnia, ale z tych samych danych da się odczytać jeszcze coś więcej. To trochę jak zrobienie drugiego, dokładniejszego odczytu tej samej mapy i zauważenie ścieżek, które wcześniej umykały.
W praktyce klinicznej takie rozwiązania bywają cenniejsze niż najbardziej efektowne nowinki. Szpitale i poradnie nie potrzebują tylko “sprytnych” algorytmów. Potrzebują rozwiązań, które da się wpiąć w realny obieg badań, decyzji i kosztów. Jeżeli ten sam skan potrafi dać lepszy obraz ryzyka, to od razu rośnie szansa, że pomysł nie utknie w publikacji, tylko zacznie mieć znaczenie dla pacjentów.
Czytaj też: Nie lubisz prac domowych? Wielka szkoda, mogą obniżyć ryzyko śmierci z powodu cukrzycy i chorób serca
Prawie 12 tysięcy osób i około 16 lat obserwacji. To już nie jest drobny sygnał
Badanie objęło prawie 12 tysięcy dorosłych i śledziło ich przez około 16 lat. W tym czasie niemal 10% uczestników rozwinęło chorobę sercowo-naczyniową. To daje pracy sporą wagę, bo mówimy o długim horyzoncie i o twardych, klinicznie istotnych zdarzeniach, a nie tylko o jakimś pośrednim biomarkerze, który dobrze wygląda na wykresie.
Najważniejszy wynik był prosty: większa objętość tłuszczu wokół serca wiązała się z wyższym ryzykiem zdarzeń sercowo-naczyniowych nawet po uwzględnieniu tradycyjnych czynników ryzyka i wyniku wapnia wieńcowego. To bardzo istotne zastrzeżenie. Gdyby efekt znikał po skorygowaniu o klasyczne parametry, można by uznać, że tłuszcz osierdziowy tylko powtarza coś, co i tak już wiemy. Tu tak się nie stało.
Jeszcze ciekawsze było to, że osoby z najwyższą objętością tego tłuszczu miały podwyższone ryzyko niezależnie od poziomu wapnia wieńcowego. Innymi słowy, nawet jeśli patrzymy na klasyczny wynik skanu, dodatkowa informacja z tłuszczu przy sercu nadal coś wnosi. To właśnie ten moment, w którym wskaźnik przestaje być ozdobnym dodatkiem i zaczyna wyglądać jak realne uzupełnienie obrazu ryzyka.

Wapń w tętnicach to ważna informacja, ale nie jedyna
Ocena uwapnienia tętnic wieńcowych od dawna jest jednym z praktycznych narzędzi przewidywania ryzyka sercowo-naczyniowego. W uproszczeniu: im więcej zwapniałej blaszki miażdżycowej, tym bardziej rośnie podejrzenie, że naczynia nie są już w dobrym stanie. To bardzo użyteczne badanie, ale nie opisuje całej biologii ryzyka. Nie pokazuje wszystkiego, co dzieje się w otoczeniu serca i naczyń.
Nowa praca sugeruje, że tłuszcz osierdziowy może być jednym z tych brakujących elementów układanki. Nie zastępuje skali wapnia. Nie odbiera sensu klasycznym modelom ryzyka takim jak PREVENT. Ale dodaje kolejną warstwę informacji, która może być szczególnie cenna tam, gdzie decyzja o intensywniejszej profilaktyce nie jest oczywista. A to właśnie w takich strefach pośrednich medycyna najczęściej błądzi albo zwleka.
To trochę jak ocena domu przed remontem. Jedno badanie mówi, w jakim stanie są ściany nośne. Drugie pokazuje, czy wokół fundamentów nie zbiera się wilgoć, która za kilka lat zrobi większy problem. Dopiero razem zaczynają dawać pełniejszy obraz. Z sercem może być podobnie: wapń pokazuje jedną historię, tłuszcz wokół serca dopowiada kolejną.
Czytaj też: Ćwiczenia to nie wszystko, zbyt długi przestój grozi chorobami serca
Najbardziej przydatne może to być tam, gdzie dziś decyzje zapadają najmniej pewnie
Mayo Clinic wyraźnie zwraca uwagę, że największa praktyczna korzyść może dotyczyć osób z borderline lub pośrednim ryzykiem, czyli takich, u których lekarz nie ma pełnego komfortu, czy już wdrażać agresywniejszą profilaktykę, czy jeszcze obserwować. To bardzo ważna grupa, bo właśnie tam medycyna najbardziej potrzebuje dodatkowych podpowiedzi. Przy bardzo wysokim ryzyku decyzja bywa oczywista. Przy bardzo niskim też. Problem zaczyna się pośrodku.
Jeżeli AI-derived measurement tłuszczu osierdziowego rzeczywiście poprawia klasyfikację ryzyka w tej strefie, to może pomóc w bardziej sensownym wyłapywaniu osób, które dziś jeszcze wyglądają na “raczej spokojne”, ale biologicznie już nie są tak spokojne. To szczególnie ważne w profilaktyce, bo największe sukcesy kardiologii rzadko zaczynają się na oddziale intensywnej terapii. Zaczynają się kilka lat wcześniej, kiedy ktoś w porę dostał statynę, schudł, zaczął leczyć ciśnienie albo zmienił styl życia.

To nadal nie jest gotowa rewolucja. Są też pytania, na które dopiero trzeba odpowiedzieć
Żeby nie popaść w zbyt łatwy zachwyt, trzeba powiedzieć jasno: to jeszcze nie jest finał historii. Badacze sami zaznaczają, że potrzebne są kolejne prace, by ustalić, jak najlepiej włączyć ten pomiar do rutynowej praktyki oraz czy może on realnie prowadzić do lepszych decyzji terapeutycznych. To bardzo rozsądne zastrzeżenie. Między dobrym biomarkerem a prawdziwą zmianą w opiece klinicznej zawsze jest długa droga.
Pozostają też klasyczne pytania o wdrożenie. Jak algorytm poradzi sobie w różnych systemach obrazowania i różnych populacjach? Czy wynik będzie równie stabilny poza dużym ośrodkiem akademickim? Jak go zakomunikować lekarzowi, żeby był naprawdę użyteczny, a nie tylko dorzucał kolejny numer do raportu? W medycynie cyfrowej właśnie te pytania często rozstrzygają, czy obiecująca technologia stanie się codziennym narzędziem, czy tylko ciekawym artykułem.
