Endokrynol. Ped. 2015.14.2.51:55-66
DOI: 10.18544/EP-01.14.02.1557PDF

Możliwości wykorzystania sztucznych sieci neuronowych w modelowaniu zaburzeń endokrynologicznych i procesów wzrostowych

1Urszula Smyczyńska, 2Joanna Smyczyńska, 2Andrzej Lewiński,

1AGH Akademia Górniczo-Hutnicza; Katedra Automatyki i Inżynierii Biomedycznej
2Instytut Centrum Zdrowia Matki Polki w Łodzi; Klinika Endokrynologii i Chorób Metabolicznych


Słowa kluczowe: Sztuczne sieci neuronowe, modele predykcyjne, zaburzenia hormonalne

Streszczenie

Sztuczne sieci neuronowe (ANN) są obecnie dość popularnym narzędziem obliczeniowym, zaliczanym do metod tzw. sztucznej inteligencji. W pracy przedstawiono podstawowe zasady działania sztucznego neuronu, tworzenia sieci neuronowych oraz krótką charakterystykę najczęściej wykorzystywanych w medycynie rodzajów ANN (sieci jednokierunkowe, rekurencyjne). Omówiono proces uczenia ANN, który ma istotne znaczenie dla budowania modeli neuronowych, oraz podstawowe typy uczenia: z nauczycielem (uczenie nadzorowane) i bez nauczyciela (samouczenie). Przedstawiono zasadniczerodzaje problemów, jakie mogą rozwiązywać ANN, tj. zadania klasyfikacyjne i regresyjne. W drugiej części pracy dokonano przeglądu dotychczasowych zastosowań ANN w publikacjach z dziedziny endokrynologii i diabetologii oraz zaburzeń metabolicznych jak również w prognozowaniu procesów wzrostowych, z uwzględnieniem doniesień autorów polskich.


Wstęp Sztuczne sieci neuronowe (ANN, artificial neural networks) są obecnie dość popularnym narzędziem obliczeniowym, zaliczanym do metod tzw. sztucznej inteligencji. Pierwsze badania zmierzające do ich powstania prowadzono w latach 40. XX wieku, a polegały one na matematycznym modelowaniu działania komórek nerwowych. Ich pierwotnym celem była chęć usystematyzowania i wzbogacenia wiedzy o układzie nerwowym, a w szczególności mózgu, jednak z czasem okazało się, że uzyskane informacje można wykorzystać również w inny sposób, do zaawansowanego przetwarzania i analizy danych. Wiele spośród pierwszych ANN było realizowanych jako maszyny, np. służący do rozpoznawania znaków alfanumerycznych perceptron Rosenblatta, którego autor opisał wyniki swoich badań w obszernej książce [1]. Takie podejście było jednak kosztowne ze względu na konieczność wykorzystania wielu elementów elektronicznych ielektromechanicznych. Z tego powodu ANN prawdziwą popularność zyskały dopiero wtedy, gdy stało się możliwe ich efektywne modelowanie w formie programów komputerowych. Przy ich obecnej mocy obliczeniowej wiele eksperymentów można przeprowadzić na zwykłym komputerze osobistym, ponosząc znikome koszty, nawet jeśli potrzeba wielu prób, by osiągnąć zadowalający wynik. Dzięki temu stało się możliwe szerokie zastosowanie sieci neuronowych nie tylko w badaniach nad działaniem mózgu, ale także (a może przede wszystkim) do analizowania danych w tak zróżnicowanych dziedzinach, jak medycyna, ekonomia, automatyka czy nauki przyrodnicze. Nie zrezygnowano jednak z tworzenia bardziej skomplikowanych modeli poznawczych, spośród których wspomnimy badanie symulacyjne nad procesami zachodzącymi w mózgu, które mogą prowadzić do zaburzeń uwagi (autyzm, ADHD) [2]. W dalszej części pracy skoncentrujemy się na zdecydowanie prostszych modelach; przedstawimy ich budowę oraz zadania, jakie mogą realizować, a także odwołamy się do przykładów ich konkretnego zastosowania w medycynie. Ze względu na ilość opublikowanych badań nie jest oczywiście możliwe zaprezentowanie pełnego przeglądu. W samej bazie PubMed w ciągu ostatnich 10 lat rejestrowano rocznie ok. 500 nowych prac wykorzystujących ANN. Od komórki nerwowej do sztucznego neuronu Najprostszy model neuronu zbudowano w oparciu o kilka podstawowych faktów dotyczących budowy i funkcjonowania komórki nerwowej, które tu przypomnimy, aby wskazać analogię między biologicznym i sztucznym neuronem. Wiadomo, że komórka nerwowa w mózgu przez synapsy, umieszczone na dendrytach, otrzymuje sygnały od wielu innych komórek. W zależności od charakteru synapsy dany sygnał może mieć hamujący lub pobudzający wpływ na komórkę, a nadto siła poszczególnych sygnałów może być różna. W ciele komórki sygnały sumują się i jeśli to sumaryczne pobudzenie neuronu jest dostatecznie duże, to wzdłuż aksonu wysyłany jest impuls, który dociera do kolejnych komórek. Jeśli natomiast jest ono słabe, to na zasadzie „wszystko albo nic” żaden sygnał się nie pojawia. Uważa się, że siła bodźca pobudzającego neuron jest odzwierciedlana przez częstotliwość generowania kolejnych impulsów. Powyższe fakty przeniesiemy teraz na model neuronu (ryc. 1). Sygnały, które neuron otrzymuje z zewnątrz, są liczbami oznaczanymi przez xi, przy czym i to kolejne numery tych sygnałów. Aby odwzorować działanie synapsy, każdemu sygnałowi przypisujemy wagę wi, przez którą jest on mnożony. Umownie można przyjąć, że ujemna waga oznacza synapsę hamującą, a dodatnia pobudzającą, a sama wartość współczynnika wagowego reguluje siłę połączenia. Następnie w komórce zachodzi agregacja sygnałów, którą w modelu wyrażamy jako sumę sygnałów xi pomnożonych przez ich wagi. Dotychczasowe operacje dają nam następujący wzór, określający aktywację neuronu: Następnie neuron powinien odpowiednio reagować na opisane pobudzenie s. Najbardziej naturalnym rozwiązaniem wydaje się w tej sytuacji przekształcenie wartości s za pomocą funkcji progowej (ryc. 2, zielona linia), która daje na wyjściu neuronu (y) wartość 1 dla dużych wartości s (wyższych od pewnego progu) oraz 0 dla małych s (niższych od tego progu). W praktyce lepiej jednak stosować funkcję logistyczną (ryc. 2, czarna linia), która oprócz kształtu podobnego do funkcji progowej charakteryzuje się tym, że w przeciwieństwie do niej daje się ją zróżniczkować (czyli policzyć jej pochodną), co jest istotne dla procesu uczenia ANN. Przedstawiliśmy prosty, inspirowany biologicznie model neuronu. Nie jest on jednak jedyną wersją. Z czasem inżynierowie wymyślili, że równie przydatne mogą być inne neurony, bardziej różniące się od swoich biologicznych pierwowzorów. Na przykład bardzo użyteczne są neurony, w których zamiast mnożyć sygnały wejściowe (xi) przez wagi (wi), liczy się ich różnice, które potem zostają podniesione do kwadratu i zsumowane, co w formie matematycznej wygląda następująco: Można zauważyć, że powyższa suma ma wartość bliską 0, gdy wartości xi są bliskie wi. Jeśli następnie tak policzona aktywacja neuronu zostanie przekształcona za pomocą funkcji Gaussa (opisującej rozkład normalny i często używanej w badaniach medycznych), to przy sygnałach podobnych do wag otrzymamy dużą wartość sygnału wyjściowego yi, odpowiadającą szczytowi funkcji Gaussa. Dzięki temu taki neuron, zwany radialnym, nadaje się bardzo dobrze m.in. do rozpoznawania wzorców, które zapamiętywane są w formie współczynników wagowych. Budowanie sieci neuronowej Każdy model neuronowy ma formę sieci, czyli połączenia wielu neuronów. Najprostszym rozwiązaniem jest ułożenie neuronów w warstwy, a następnie połączenie każdego neuronu warstwy poprzedniej (konkretnie jego sygnału wyjściowego) z każdym neuronem warstwy następnej (jego wejściem), jak na ryc. 3. W takiej strukturze wyróżniamy: • warstwę wejściową, która przesyła sygnały do wszystkich neuronów kolejnej warstwy, • warstwę lub warstwy ukryte, które dokonują przekształceń sygnałów, ale ich wynik nie jest dostępny na zewnątrz sieci, • warstwę wyjściową, która również przekształca dane wejściowe, ale w odróżnieniu od warstw ukrytych udostępnia wynik swojego działania użytkownikowi sieci. Łatwo zauważyć, że w tego typu sieci informacja, zawarta w sygnałach wejściowych, przemieszcza się tylko w jednym kierunku – od wejścia do wyjścia, stąd taką sieć nazywamy jednokierunkową. Najbardziej typowym przykładem sieci jednokierunkowej jest perceptron wielowarstwowy (MLP, multilayer perceptron). Warstwy ukryte (zwykle 1 lub 2) i wyjściowa perceptronu zbudowane są z opisanych wcześniej neuronów o logistycznej funkcji aktywacji. Innym przykładem sieci jednokierunkowej jest sieć uogólnionej regresji (GRNN, generalized regression neural network). W GRNN są dwie warstwy ukryte: pierwsza zbudowana z dużej liczby neuronów radialnych, które rozpoznają podobieństwa w danych, a druga tzw. warstwa regresyjna z dwu neuronów sumujących (licznikowego i mianownikowego). Jedyny neuron warstwy wyjściowej oblicza iloraz wartości neuronów licznikowego i mianownikowego. Nieco podobną budowę do GRNN, choć inne zastosowanie, mają probabilistyczne sieci neuronowe (PNN, probabilistic neural network). W nich również występuje ukryta warstwa radialna (zbudowana z neuronów radialnych), dodatkowo charakteryzująca się tym, że liczba jej neuronów odpowiada wielkości zbioru danych, których użyto do zbudowania modelu. Bezpośrednio po niej następuje warstwa wyjściowa, taka że suma wszystkich jej sygnałów wynosi 1. Dlatego otrzymane wartości można traktować jako prawdopodobieństwa poszczególnych wyjść. Inne możliwości łączenia neuronów w sieci zakładają, że sygnały można przesyłać nie tylko od wejścia do wyjścia, ale również w kierunku przeciwnym, w postaci sprzężeń zwrotnych. Taką sieć nazywamy rekurencyjną, a jej przykład przedstawiony jest na ryc. 4, gdzie ciągła czarna linia pokazuje sprzężenie w obrębie jednego neuronu, linia przerywana między wyjściem jednego neuronu a wejściem drugiego, a linia kropkowana sprzężenie między wyjściem a wejściem całej sieci. Z racji obecności sprzężeń zwrotnych sieci rekurencyjne są układami dynamicznymi i często trudno przewidzieć, jak będą działać. Stąd w rozwiązywaniu praktycznych problemów są zdecydowanie mniej popularne niż bardziej przewidywalne sieci jednokierunkowe. Uczenie sieci neuronowych Użyteczny model neuronowy powstaje w procesie uczenia sieci, w którym można się niekiedy dopatrzeć analogii do uczenia się ludzi. Pewnym podobieństwem jest fakt, że sieci neuronowe uczą się na przykładach, a ściślej mówiąc na zbiorze przykładowych danych, który buduje się w sposób odpowiedni dla danej metody uczenia. W przypadku ANN występują zasadniczo dwa typy uczenia: z nauczycielem (uczenie nadzorowane) i bez nauczyciela (samouczenie); omówimy pokrótce obydwa. W metodzie z nauczycielem (którym dla sieci jest po prostu pewien komputerowy algorytm) zbiór danych uczących musi zawierać sygnały wejściowe i odpowiadające im oczekiwane sygnały wyjściowe. Mając już odpowiedni zbiór danych, chcemy, aby zawarte w nim informacje o badanym zjawisku zostały przeniesione do modelu neuronowego w postaci jego współczynników wagowych wi. Początkowo zupełnie nie wiadomo, jakie te współczynniki powinny być, zatem przypisuje się im niewielkie losowe wartości. Następnie na wejście sieci podaje się dane pierwszego przypadku uczącego i porównuje uzyskany wynik z oczekiwanym, od którego jest on zwykle na tym etapie dość daleki. Takie porównanie pozwala ustalić, jak bardzo sieć się pomyliła oraz jak zmodyfikować wagi, aby myliła się mniej. Następnie procedurę powtarza się z każdym przykładem ze zbioru uczącego. Gdy wykorzystane zostaną wszystkie przypadki, mówimy, że wykonana została epoka procesu uczenia. Zwykle jednak nie jest to jego koniec, a uzyskanie poprawnego wyniku wymaga w istocie wielu takich epok. Po każdej prezentacji pojedynczego przypadku (lub całej epoce, w zależności od konkretnego rozwiązania informatycznego) współczynniki wagowe są stopniowo korygowane. Uczenie kończy się, gdy błąd modelu osiąga akceptowalnie małą wartość lub przestaje maleć wraz z kolejnymi iteracjami (powtórzeniami).Czasami oprócz zbioru uczącego wyróżnia się także zbiór walidacyjny, zawierający przykłady tego samego zjawiska niewykorzystywane do uczenia. W takiej sytuacji błąd sieci liczony jest oddzielnie dla każdego ze zbiorów, a uczenie przerywane jest również w momencie, gdy błąd w zbiorze walidacyjnym zaczyna być wyraźnie większy niż w zbiorze uczącym. Takie zjawisko oznacza, że ANN nadmiernie dostosowała się do konkretnych danych uczących, raczej je „zapamiętując”, niż odkrywając interesujące badacza zależności. Samouczenie różni się od uczenia nadzorowanego przede wszystkim tym, że sieć nie korzysta ze znanych, oczekiwanych odpowiedzi, które mogą w ogóle nie istnieć. Działanie modelu polega w tym przypadku na wykrywaniu podobieństw w otrzymanych danych i grupowaniu przypadków. Zaletą samouczących sieci jest zdolność nie tylko do przypisania przypadków do grup, ale także do ustalenia, ile tych grup powinno być. Problemy rozwiązywane przez sieci neuronowe Zadania, jakie możemy postawić przed sieciami neuronowymi, dzielimy ogólnie na dwie grupy: klasyfikacyjne i regresyjne. W problemach klasyfikacyjnych stawiamy przed ANN zadanie przypisania konkretnych przypadków do odpowiednich zbiorów na podstawie podanych danych wejściowych. Gdy znamy poprawną klasyfikację dla pewnej liczby przypadków i chcemy, aby sieć umiała wykonać ją dla kolejnych, korzystamy z sieci uczonych z nauczycielem, np. MLP lub PNN. Jeśli natomiast wiemy, że nasze dane trzeba pogrupować, ale nie wiemy do końca, na jakiej zasadzie, stosujemy sieci samouczące. Z kolei problemy regresyjne polegają na odtwarzaniu pewnych funkcji, czyli obliczaniu wartości zmiennych wyjściowych odpowiadających konkretnym danym wejściowym. Przy tym stosując sieci neuronowe, np. MLP lub GRNN, nie trzeba zakładać żadnego konkretnego charakteru poszukiwanej funkcji. Użycie ANN jest szczególnie wskazane, gdy badane zjawisko jest nieliniowe i na tyle złożone, że nie możemy odgadnąć charakteru opisującej je matematycznej zależności. Ponadto ANN są wygodnym rozwiązaniem, gdy nie ma pewności, że wszystkie z potencjalnych zmiennych wejściowych mają istotne znaczenie dla rozwiązania. Faktycznie jeśli któreś z nich okazują się nieprzydatne, proces uczenia spowoduje przypisanie do nich znikomo niskich współczynników wagowych i zostaną one wyeliminowane z modelu. Należy jednak zaznaczyć, że włączenie dużej ilości zmiennych do modelu zwiększa liczbę połączeń, a co za tym idzie – ilość wag do wyznaczenia. Przy małym zbiorze uczącym i dużej liczbie połączeń w sieci może się okazać, że zawartość informacyjna danych jest zbyt mała, aby „wypełnić” wiedzą tak złożoną sieć i model nie będzie poprawnie działać. Warto jeszcze wspomnieć, że sieci neuronowe mogą korzystać na wejściu i wyjściu zarówno z danych ilościowych (np. liczbowe wyniki badań laboratoryjnych, wzrost, masa ciała), porządkowych (np. stadium choroby nowotworowej, stopień poparzenia), jak i jakościowych (np. płeć, grupa krwi). Pierwsze dwie kategorie wyrażane są liczbowo, w związku z czym można ich użyć bezpośrednio, co najwyżej po odpowiednim przeskalowaniu (często wykonywanym automatycznie przez dostępne oprogramowanie). Dane jakościowe także muszą zostać przekształcone do postaci liczbowej, ponieważ inaczej nie mogłyby zostać uwzględnione w obliczeniach. Przy tym możliwe są dwie strategie: • Każdą kategorię jakościową kodujemy inną liczbą na tym samym wejściu (lub wyjściu) sieci. Najczęściej stosuje się takie podejście, gdy mamy tylko dwie kategorie jakościowe, np. płeć męską kodując jako 0, a żeńską jako 1. • Każdej kategorii odpowiada jedno wejście (wyjście), które przyjmuje wartość 1 dla tej klasy i 0 dla pozostałych. Ta strategia jest odpowiednia przede wszystkim przy więcej niż dwu kategoriach jakościowych, gdy zastosowanie tylko jednej zmiennej dla nich wszystkich tworzyłoby ich sztuczne uszeregowanie. Zastosowanie ANN w medycynie Chociaż sieci neuronowe uważane są obecnie za nowoczesne narzędzie statystyczne, pierwsze publikacje dotyczące ich zastosowania w medycynie, w tym również w endokrynologii, pochodzą sprzed ponad 20 lat. W 1993 r. ukazała się praca autorów brytyjskich[3], w której podjęto próbę wykorzystania ANN w diagnostyce czynności tarczycy. Początkowo w procesie uczenia sieci wprowadzano wyniki sześciu testów diagnostycznych: stężenia tyroksyny całkowitej (T4) i wolnej (FT4), stężenie trijodotyroniny (T3), test wychwytu trijodotyroniny (T3U), stężenie tyreotropiny (TSH) metodą radioimmunologiczną (tj. metodą o znacznie mniejszej czułości niż stosowane obecnie oznaczenia) oraz stężenie globuliny wiążącej tyroksynę (TBG). Okazało się jednak, iż wystarczające jest wykorzystanie jedynie trzech spośród nich: T4, T3U oraz TSH. Na podstawie tych wyników sieci neuronowe dwu rodzajów (MLP oraz sieci z warstwą samouczącą) uzyskały wysoki odsetek poprawnych klasyfikacji pacjentów z niedoczynnością i nadczynnością tarczycy oraz zdrowych (95–98,1%).W tej pracy, poza jej wręcz historycznym znaczeniem, szczególnie w aspekcie wykorzystywanych badań diagnostycznych, istotne wydaje się uwzględnienie pacjentów, u których istniały okoliczności mogące zaburzać wyniki poszczególnych oznaczeń (np. ciąża, stosowanie estrogenów, niewydolność nerek, stosowanie leków przeciwpadaczkowych, thyreotoxicosisfactitia, genetycznie uwarunkowane zaburzenia syntezy TBG). Jak wykazali autorzy, nie obniżyło to dokładności neuronowej klasyfikacji. Również ponad 20 lat temu, na początku lat 90. XX w., lekarze z Zakładu Tyreologii Akademii Medycznej (obecnie Uniwersytetu Medycznego) w Łodzi opracowali oryginalny system analizy obrazu mikroskopowego w oparciu o mikroskop sprzężony z kamerą wideo i własne oprogramowanie[4]. W 1997 r. badacze ci zaprezentowali możliwość wykorzystania jednokierunkowych ANN do półautomatycznej analizy kompartmentów histologicznych w preparatach (szkiełkach) mikroskopowych. Opracowany program przeznaczony był pierwotnie do pomiaru względnych objętości koloidu, nabłonka i zrębu w tarczycy. Uzyskano 60% dokładność systemu w rozpoznawaniu kompartmentów, co związane było z nakładaniem się wzorców dla poszczególnych klas, uniemożliwiającym ich jednoznaczną i prawidłową klasyfikację w 100% przypadków. Niemniej zastosowanie omawianej metody istotnie skracało czas pomiarów i ułatwiało ocenę preparatów. Nowsze wersje tego programu pozwalały na przeprowadzanie pomiarów względnych objętości większej liczby przedziałów histologicznych w dowolnym narządzie. Na podkreślenie zasługuje fakt, że dostępne wówczas narzędzia statystyczne i systemy komputerowe były znacznie mniej zaawansowane niż obecnie (można by je porównać raczej z obecnie używanymi zaawansowanymi kalkulatorami niż komputerami, czy nawet smartfonami), a autorzy sami przygotowali oprogramowanie. Kolejne istotne doniesienie dotyczące możliwości wykorzystania ANN w diagnostyce chorób tarczycy pochodzi z 2013 r. Autorzy chińscy[5]wykorzystali sieć jednokierunkową (MLP) do rozróżniania łagodnych i złośliwych guzków tarczycy na podstawie ich cech sonograficznych. Istotnymi czynnikami prognostycznymi zmian złośliwych okazały się: kształt „wyższy niż szerszy”, nieregularny zarys zmiany, obniżona echogeniczność, lita struktura, obecność mikrozwapnień, brak „halo” na obwodzie zmiany. W badaniu tym uzyskano ponad 83% czułość i swoistość predykcji zmian złośliwych. W tym samym roku autorzy z Kliniki Endokrynologii i Chorób Metabolicznych Uniwersytetu Medycznego w Łodzi [6] przedstawili własne doświadczenie w prognozowaniu złośliwego charakteru guzków/zmian ogniskowych w tarczycy w oparciu o ich cechy sonograficzne, wskazując te same sześć czynników prognostycznych raka tarczycy, co autorzy chińscy, oraz – dodatkowo – centralne unaczynienie zmiany, zwracając jednocześnie uwagę, że istotne znaczenie prognostyczne mogą mieć również duże wymiary zmiany (powyżej 3 cm), jej szybki wzrost oraz cechy limfadenopatii (autorzy omawianej pracy nie włączyli tych parametrów do analizy statystycznej, ponieważ niemieli w swoim materiale tak dużych zmian, wykonywali większość badań ultrasonograficznych jednorazowo, bezpośrednio przed zabiegiem operacyjnym, jak również stwierdzili obecność nieprawidłowych węzłów chłonnych we wszystkich przypadkach zmian złośliwych). W pracy zaproponowano system punktacji, pozwalający na rozróżnienie zmian niskiego, średniego i wysokiego ryzyka. Wydaje się interesujące porównanie wyników predykcji za pomocą ANN i systemu punktowego w tym samym materiale. W 2005 r. autorzy niemieccy [7]przedstawili propozycję zastosowania nowoczesnych narzędzi statystycznych do predykcji występowania mutacji heterozygotycznych genu CYP21(tj. identyfikacji nosicieli najczęstszej postaci wrodzonego przerostu nadnerczy) na podstawie stężeń w surowicy wybranych hormonów steroidowych:17-OH progesteronu, 21‑deoksykortyzolu, dehydroepiandrosteronu, 17-OH pregnenolonu i kortyzolu. Badacze zdecydowali się na wykorzystanie analiz nieliniowych ze względu na nieliniowy charakter zależności występujących pomiędzy różnymi parametrami biologicznymi. W pracy użyto samoorganizujących ANN, metody wektorów nośnych (jest to jeden z iteracyjnych sposobów znajdowania optymalnego podziału przypadków na grupy) i metody k-najbliższych sąsiadów (polegającej na znalezieniu k znanych przypadków najpodobniejszych do nowego i zaklasyfikowaniu go do grupy, w której jest najwięcej z tych k przypadków). Uzyskano dokładność predykcji na poziomie 83%, podczas gdy przy wykorzystaniu modeli liniowych dokładność ta wynosiła jedynie 64%. W innej pracy, również sprzed 10 lat, inżynierowie z Politechniki Łódzkiej [8] przedstawili wyniki mogące znaleźć praktyczne zastosowanie – między innymi – u chorych z zespołem utraty soli w przypadku patologii nadnerczy. Badali oni możliwości wykorzystania metod sztucznej inteligencji, w tym ANN, w diagnostyce zaburzeń równowagi kwasowo-zasadowej i luki anionowej. Na podstawie analizy ośmiu parametrów, obejmujących: pH krwi, ciśnienie parcjalne dwutlenku węgla (pCO2), stężenie wodorowęglanów (HCO3), nadmiar lub niedobór zasad (BE) oraz stężenia sodu, potasu i chlorków, autorzy wyodrębnili 24 różne zaburzenia gospodarki kwasowo-zasadowej o różnym stopniu złożoności (kwasice i zasadowice oddechowe i metaboliczne, ich kombinacje oraz nieprawidłowe stężenia oznaczanych elektrolitów). W pracy wykazano przydatność wykorzystania zarówno ANN, jak i algorytmów zbudowanych w oparciu o metody programowania genetycznego oraz układów neuronowo-rozmytych (są to systemy łączące zalety ANN z regułami logiki rozmytej) w identyfikowaniu tych zaburzeń, przy czym największą przydatnością charakteryzowała się ostatnia z wymienionych metod. Autorzy z Uniwersytetu Medycznego w Białymstoku zastosowali ANN w prognozowaniu skuteczności procedury zapłodnienia pozaustrojowego IVF ICSI/ET (in vitro z mikroiniekcją plemnika do cytoplazmy komórki jajowej i transferem embrionu) [9]. Ze względu na zbyt niską skuteczność leczenia niepłodności metodami IVF uznano za konieczne zidentyfikowanie czynników, które mają największy wpływ na powodzenie leczenia. Zadanie to okazało się jednak zbyt skomplikowane do realizacji przy pomocy tradycyjnych metod statystycznych. Badacze zdecydowali się wykorzystać ANN jako narzędzie dające możliwość odkrywania dotychczas niewyjaśnionych, a przy tym złożonych zależności pomiędzy danymi (zmiennymi). Przy pomocy stworzonego modelu uzyskano 86,5% prawidłowych prognoz nieskuteczności leczenia i tylko 49,1% prawidłowych prognoz uzyskania ciąży, co ogranicza możliwość jego wykorzystania jedynie do predykcji przypadków negatywnych. Przy omawianiu wyników tej pracy należy zwrócić uwagę na fakt, że ta sama sieć neuronowa może wykazywać się różną przydatnością w zależności od postawionego jej zadania. Na ogół celem analiz dotyczących skuteczności leczenia jest identyfikacja przypadków pozytywnych (tzn. chorych, u których leczenie to będzie skuteczne). W przypadku niektórych procedur terapeutycznych, zwłaszcza szczególnie kosztownych i uciążliwych bądź obarczonych dużym ryzykiem powikłań, jak również w sytuacji możliwego wyboru jednej z kilku metod postępowania, wiedza a priori o ich potencjalnej nieskuteczności u konkretnego chorego (tj. prawidłowa identyfikacja przypadków negatywnych) może mieć istotne znaczenie praktyczne w momencie podejmowania decyzji dotyczących sposobu leczenia. Dla endokrynologów i diabetologów interesujące z praktycznego punktu widzenia mogą być badania dotyczące wykorzystania ANN w optymalizacji insulinoterapii u pacjentów z cukrzycą typu 1. Badacze z Grecji [10] stworzyli system dwu sieci neuronowych jednokierunkowych, z których pierwsza na podstawie danych wejściowych obejmujących poziomy glikemii, dawkowanie insuliny i występowanie objawów hipoglikemii podawała jako wartość wyjściową zapotrzebowanie na insulinę, które z kolei stanowiło parametr wejściowy dla drugiej sieci, szacującej optymalne dawkowanie insuliny w krótkim przedziale czasowym; praktyczne możliwości dostosowania dawkowania insuliny dla poszczególnych pacjentów przy zastosowaniu tego modelu okazały się jednak ograniczone. Kolejnym etapem prac było stworzenie spersonalizowanego systemu wspomagania dawkowania insuliny przy pomocy osobistej pompy insulinowej z wykorzystaniem rekurencyjnej sieci neuronowej (ze sprzężeniem zwrotnym) oraz nieliniowego sterownika predykcyjnego [11]. W zaproponowanym modelu dane wejściowe obejmowały wartości glikemii, przyjmowane posiłki oraz aktualne dawkowanie insuliny, na podstawie których dokonywano w ANN predykcji poziomów glikemii i w sterowniku ustalano optymalne dawkowanie insuliny, przy czym system ten umożliwiał uwzględnienie rodzaju posiłków bądź pozostawania na czczo, jak również innych zmiennych charakterystycznych dla indywidualnego pacjenta. Ta sama grupa naukowców opublikowała także wyniki badań nad zastosowaniem ANN w modelowaniu metabolizmu glukozy i insuliny u dzieci z cukrzycą typu 1 [12]. W tym badaniu na podstawie danych wejściowych, które obejmowały pomiary z systemu ciągłego monitorowania glikemii oraz informacje o przyjmowanych posiłkach i stosowanych dawkach insuliny, prognozowano wartości glikemii w krótkim przedziale czasowym. Porównano różne typy ANN, tj. sieci jednokierunkowe i rekurencyjne, uzyskując najdokładniejszą predykcję przy wykorzystaniu tego ostatniego narzędzia. Autorzy amerykańscy opublikowali kolejne prace dotyczące możliwości wykorzystania ANN do prognozowania poziomów glikemii u pacjentów z cukrzycą typu 1, u których wykorzystano system ciągłego monitorowania glikemii [13,14]. Pacjenci wprowadzali dodatkowo informacje dotyczące spożycia węglowodanów, dawkowania insuliny, trybu życia i stanu emocjonalnego. W pracy oceniającej możliwość predykcji glikemii w przedziale czasowym do 180 minut [13] autorzy stwierdzili, że dokładność prognozy zmniejsza się w sposób istotny wraz z wydłużeniem tego przedziału, niemniej uzyskane wyniki mogą być użyteczne nawet w odniesieniu do prognozy obejmującej okres 120–180 minut. W kolejnym doniesieniu badacze skupili się na prognozowaniu glikemii w przedziale czasowym do 75 minut [14], uzyskując model, który dawał 92,3% predykcji akceptowalnych z punktu widzenia klinicznego, w tym 62,3% predykcji prawidłowych oraz 30% predykcji akceptowalnych, tj. nieprowadzących do niekorzystnych decyzji terapeutycznych. Najpoważniejszym problemem było prognozowanie wyższych niż rzeczywiste poziomów glikemii w sytuacjach, w których w rzeczywistości dochodziło do hipoglikemii, co prawdopodobnie wynikało z niewielkiej liczby stanów hipoglikemii w analizowanym zbiorze danych; problem ten może być rozwiązany poprzez wprowadzenie większej liczby przypadków (stanów) hipoglikemii w zbiorze uczącym. Autorzy omawianych prac wskazują ponadto na kolejny kierunek badań, jakim może być „uczenie” sieci neuronowej w oparciu o dane dotyczące konkretnego pacjenta, co w przypadku tak złożonego zagadnienia, jakim jest optymalizacja, a tym samym indywidualizacja insulinoterapii, mogłoby mieć szczególnie istotne znaczenie. Efektem współpracy autorów z Włoch i Białorusi jest kolejna praca [15], mająca na celu identyfikację czynników prognostycznych niskiej masy kostnej u chorych z cukrzycą typu 1 z wykorzystaniem klasycznych narzędzi statystycznych (test χ2, jednoczynnikowa analiza wariancji, analiza korelacji, liniowa regresja wieloraka z kilkoma zmiennymi zależnymi, krzywe ROC)oraz przy zastosowaniuANN uczonych z nauczycielem. W pracy wykorzystano również nowatorską metodę oceny powiązań między zmiennymi – semantic connectivity map, co można tłumaczyć jako semantyczne mapy powiązań. Metoda ta graficznie prezentuje zmienne powiązane oraz siłę ich związków. W analizie wykorzystano dane dotyczące wieku, płci, wzrostu i masy ciała pacjentów, czasu trwania cukrzycy, dawkowania insuliny, obecności powikłań oraz wybranych wskaźników laboratoryjnych (hemoglobina glikowana, stężenie i klirens kreatyniny). Uzyskano zbliżoną dokładność predykcji niskiej masy kostnej przy wykorzystaniu klasycznych metod statystycznych (64%) i ANN (66% i 67% dla niskiej i wysokiej masy kostnej, odpowiednio). Opracowana mapa powiązań między zmiennymi wykazała m.in., że stężenie hemoglobiny glikowanej wiąże się z niską masą kostną pośrednio poprzez jego związek z powikłaniami cukrzycy (retinopatią i neuropatią). Autorzy japońscy [16] porównali przydatność ANNi wielorakiej regresji logistycznej do predykcji wystąpienia zespołu metabolicznego w ciągu 6 lat na podstawie danych klinicznych, wskaźnika insulinooporności (HOMA-IR) oraz stężenia adiponektyny w surowicy. Model ANN charakteryzował się wysoką czułością (93%) predykcji, podczas gdy czułość modelu wielorakiej regresji logistycznej była zdecydowanie zbyt niska (jedynie 27%), przy zbliżonej, wysokiej swoistości obu modeli (91% i 95%, odpowiednio). Należy w tym miejscu wspomnieć, że jakkolwiek w ostatnich latach samo pojęcie zespołu metabolicznego poddane zostało krytyce i przez część badaczy nie jest uznawane, pojawiają się nadal bardzo liczne doniesienia dotyczące tego zespołu. Wydaje się, że – mimo istniejących wątpliwości – rozpoznanie zespołu metabolicznego nie zostało ostatecznie zanegowane, a zatem uwzględnienie tej pracy w niniejszym opracowaniu wydaje się uzasadnione. W tym miejscu należy też wspomnieć, że w analizie złożonych i nie do końca poznanych zależności pomiędzy zmiennymi przewaga modeli neuronowych nad klasycznymi modelami regresji wielorakiej (MLR, multiple linear regression) polega przede wszystkim na tym, że model neuronowy może być zastosowany do odwzorowania zależności, których matematyczna forma nie jest znana, co nie jest możliwe w przypadku MLR, w której wzór matematyczny ustalany jest na samym początku, a dalsza procedura polega tylko na dobraniu właściwych współczynników. W przypadku najczęściej wykorzystywanych modeli liniowych zakłada się dodatkowo, że zależności pomiędzy analizowanymi zmiennymi mają charakter liniowy, a tak w rzeczywistości najczęściej nie jest. Poza tym przy zastosowaniu ANN nie ma potrzeby zadbania o to, by dane wejściowe spełniały jakiekolwiek założenia statystyczne, podczas gdy w modelach MLR niewskazane jest np. uwzględnienie silnie skorelowanych zmiennych niezależnych. Modele neuronowe nie wymagają również analizy rozkładu reszt (różnic między wartością zmiennej zależnej obliczoną przez model a rzeczywistą), co dla modeli MLR powinno być normalne, aby obliczone statystyki istotności modelu można było rzetelnie zinterpretować. Dla endokrynologów i diabetologów dziecięcych szczególnie interesujące może być doniesienie autorów włoskich [17]. Celem ich pracy było powiązanie wyników badań dotyczących głównych antyoksydantów osoczowych (kwas moczowy, kwas askorbinowy, retinol, koenzym Q10, likopen) i profilu kwasów tłuszczowych płytek krwi u dzieci z otyłością różnego stopnia. Badacze, ze względu na niejednoznaczne wyniki dotychczas opublikowanych prac, zdecydowali się na wykorzystanie ANN jako narzędzia, które jest „otwarte” na zrozumienie zjawisk skądinąd niewyjaśnionych. Przy wykorzystaniu ANN udało się stworzyć „mapy” pozwalające na klasyfikowanie dzieci na podstawie oceny markerów płytkowych kwasów tłuszczowych do grupy zwiększonego ryzyka choroby niedokrwiennej (kwasy: oleinowy, linolowy i arachidonowy) oraz do grupy ryzyka zaburzeń psychicznych, głównie depresji (kwasy: palmitynowy, linolowy i arachidonowy). Uzyskane wyniki wskazują również na ochronną funkcję wysokich poziomów kwasu stearynowego i wysokiego stopnia saturacji kwasów tłuszczowych u dzieci. Autorzy podkreślają jednak konieczność dalszych badań, prowadzonych zarówno w aspekcie biochemicznym, jak i psychiatrycznym. W kolejnych pracach dotyczących pacjentów z otyłością autorzy z Tajwanu [18, 19] wykorzystali ANN do predykcji skuteczności zabiegów chirurgii bariatrycznej w odniesieniu do uzyskanej redukcji masy ciała. W pracy z roku 2007 [18] model neuronowy zidentyfikował jako czynniki prognostyczne powodzenia leczenia: rodzaj zabiegu – ominięcie żołądkowe (w porównaniu z założeniem opaski żołądkowej regulowanej), niskie stężenie hemoglobiny glikowanej i wysokie stężenie triglicerydów przed zabiegiem. W pracy z 2009 r. [19], dotyczącej wyłącznie pacjentów leczonych za pomocą założenia opaski żołądkowej metodą laparoskopową, czynnikami prognostycznymi skuteczności terapii, zidentyfikowanymi przez ANN, okazały się: płeć żeńska, niższe stężenia insuliny i albumin oraz obecność określonych wariantów (alleli) analizowanych genów. Omawiając zagadnienia związane z otyłością nie można zapominać o jej powikłaniach. W tym kontekście warto wspomnieć o pracy autorów z Uniwersytetu Medycznego w Łodzi i Politechniki Łódzkiej [20], którzy wykorzystali ANN do klasyfikacji prawidłowych i patologicznych obrazów ściany aorty, uzyskanych przy pomocy ultrasonografii wewnątrznaczyniowej oraz badania histologicznego tego samego materiału. Spośród kilku zastosowanych technik analizy (klasyfikacja metodą najbliższych sąsiadów, liniowa analiza dyskryminacyjna, ANN) zastosowanie ANN okazało się najbardziej efektywnym rozwiązaniem, dając wysoki odsetek prawidłowych wyników zarówno dla obrazów histologicznych (87,5%), jak i dla obrazów ultrasonograficznych (79,2%). Inne ciekawe zastosowania ANN wiążą się z ich użyciem do oceny rytmów okołodobowych. Grupa badaczy z Austrii i Szwajcarii w pracy opublikowanej w 2012 r. [21] skupiła się na poszukiwaniu metody, która umożliwiłaby ocenę poszczególnych faz rytmu dobowego w warunkach rzeczywistych, bez konieczności pomiarów temperatury wewnętrznej ciała i bez wykonywania badań laboratoryjnych (w tym oznaczeń najczęściej wykorzystywanego markera, jakim jest melatonina). Zebrano dane dotyczące szeregu zmiennych fizjologicznych, behawioralnych i środowiskowych. Przy wykorzystaniu sieci MLP udało się stworzyć model, który rozpoznawał fazy rytmu dobowego z błędem predykcji wynoszącym 3±23 min. (średnia±SD) na podstawie jedynie dwu zmiennych wejściowych, tj. temperatury skóry i natężenia światła postrzeganego przez oko w paśmie odpowiadającym barwie niebieskiej. Model ten charakteryzował się znacznie większą dokładnością predykcji niż wcześniej opracowane przez ten sam zespół modele liniowej regresji wielorakiej, mimo że nie wykorzystywał żadnej ze zmiennych uwzględnianych w „tradycyjnych” modelach (które automatycznie wyeliminował jako parametry o małej istotności). Ponieważ badania prowadzone były w grupie zdrowych mężczyzn, autorzy planują ich rozszerzenie na populację z zaburzeniami rytmu snu i czuwania. Cofniemy się teraz o 15 lat wcześniej, czyli do 1997 r., kiedy to badacze niemieccy [22] podjęli próbę neuronowego modelowania dobowych profili wydzielania hormonu wzrostu (GH) u osób zdrowych i chorych na akromegalię. Zbudowany przez nich system składał się z kilku sieci MLP – „ekspertów”, uczonych przewidywania stężeń GH oraz dodatkowej sieci, która określała udział poszczególnych „ekspertów” w prognozie dla konkretnego przypadku. Autorzy zauważyli, że różne sieci były wybierane w zależności od tego, czy pacjent był chory, czy zdrowy, co pozwalało na automatyczną klasyfikację. Ponadto stwierdzili, że stężenie GH u chorych z akromegalią jest zauważalnie mniej przewidywalne niż u osób zdrowych. W roku 2009 naukowcy z Wielkiej Brytanii i Australii [23] badali możliwość wykrycia stosowania rekombinowanego GH (rhGH) jako dopingu sportowego, łącząc osiągnięcia proteomiki z wykorzystaniem ANN. Badanie prowadzono na kilku grupach mężczyzn, z których części podawano rhGH, natomiast pozostałym placebo. Pierwsza część pracy polegała na opracowaniu efektywnych i szybkich metod oznaczania stężenia dwóch biomarkerów stosowania rhGH – IGF-I oraz alfa-2 glikoproteiny bogatej w leucynę (LRG) – w dużej ilości próbek krwi. W tym celu wykorzystano połączenie ultrasprawnej chromatografii cieczowej z tandemową spektrometrią masową. Następnie wyznaczone stężenia IGF-I i LRC wprowadzano do sieci neuronowej, która miała nauczyć się odróżniania wyników badań osób przyjmującychrh GH i placebo. Czułość i swoistość opracowanej metody w teście na drugim, niezależnym zbiorze próbek wynosiły odpowiednio 100% i 96%. Ponadto stwierdzono, że uwzględnienie dwóch biomarkerów daje lepsze wyniki, niż można uzyskać w podobnych analizach wykonanych dla każdego z nich osobno. Zdaniem autorów metoda wymaga jeszcze dalszych badań, m.in. przeprowadzonych u kobiet, jednak może się w praktyce okazać skuteczniejsza w wykrywaniu nadużywania rhGH przez sportowców niż dotychczas stosowane testy. Autorom obecnego opracowania nie udało się znaleźć doniesień, w których ANN byłyby wykorzystywane do uzyskania prognozy wzrostowej u dzieci z zaburzeniami wzrastania czy też prognozy skuteczności terapii promujących wzrastanie (np. leczenia preparatami rhGH). Warto jednak w tym miejscu przytoczyć pracę ortodontów niemieckich [24], w której samoorganizujące mapy neuronowe (typ sieci samouczących) były zastosowane do określania wzorca wzrostu twarzoczaszki u nowych pacjentów na podstawie zgromadzonej bazy cefalogramów dzieci w wieku 7–15 lat, co ma istotne znaczenie przy planowaniu zabiegów z zakresu chirurgii szczękowo-twarzowej u dzieci. W piśmiennictwie dostępne są też publikacje dotyczące oceny wzrostu wewnątrzmacicznego, prognozowania masy płodu oraz identyfikacji czynników warunkujących wzrastanie płodu i jego zahamowanie. Autorzy włoscy [25, 26] zidentyfikowali kluczowe łożyskowe markery zahamowania wzrostu płodu (fetal growth restriction, FGR) na podstawie analizy stężeń insulinopodobnych czynników wzrostowych i ich białek wiążących oraz cytokin w lizatach tkanek łożyska, wykonanej przy pomocy ANN z nauczycielem oraz dwóch innych metod. Uzyskany model pozwolił na prawidłową identyfikację 92% przypadków FGR i 85% płodów z masą ciała odpowiednią do wieku ciążowego, przy czym najważniejszymi czynnikami skojarzonymi z FGR okazały się stężenia IGF-II, IGFBP-2 oraz interleukiny-6. W kolejnej pracy autorzy z Tajwanu[27] wykorzystali ANN jako narzędzie umożliwiające dokładniejsze oszacowanie masy płodu na podstawie jego oceny ultrasonograficznej, niż było to możliwe z zastosowaniem dotychczas używanych metod. W bieżącym numerze Endokrynologii Pediatrycznej przedstawiamy pierwsze wyniki naszych prac dotyczących możliwości wykorzystania ANN w prognozowaniu skuteczności terapii preparatami rhGH dzieci z somatotropinową niedoczynnością przysadki, uzyskane na podstawie analizy danych pacjentów leczonych rhGH w Klinice Endokrynologii i Chorób Metabolicznych Instytutu Centrum Zdrowia Matki Polki w Łodzi, którzy zakończyli terapię promującą wzrastanie. Modele neuronowe opracowane zostały przez współautorów z Katedry Automatyki i Inżynierii Biomedycznej Akademii Górniczo-Hutniczej w Krakowie. Na zakończenie warto wspomnieć, że w ostatnich latach autorzy z Uniwersytetu Jagiellońskiego i Akademii Górniczo-Hutniczej w Krakowie opublikowali prace dotyczące prognozowania poprawy słuchu po zabiegach tympanoplastyki u chorych z przewlekłym zapaleniem ucha środkowego [28, 29]. W pierwszej z omawianych prac [28] wykorzystano klasyfikacyjne ANN do predykcji poprawy słuchu po zabiegach rekonstrukcji łańcucha kosteczek słuchowych w zależności od wyników przedoperacyjnego badania klinicznego, nieprawidłowości ucha środkowego stwierdzonych śródoperacyjnie oraz przebiegu zabiegu operacyjnego. Uzyskano prawidłowe prognozowanie poprawy słuchu u wszystkich (100%) chorych, co wskazuje na to, że efekty leczenia operacyjnego tych chorych są przewidywalne, a ANN mogą stanowić efektywne narzędzie służące do prognozowania pooperacyjnej poprawy słuchu. W drugiej pracy [29] porównano wyniki predykcji skuteczności leczenia, potraktowanej jako zadanie klasyfikacyjne w odniesieniu do osiągnięcia założonej wartości progowej poprawy słuchu, uzyskane przy pomocy ANN i metody k-najbliższych sąsiadów. Wykazano przewagę zastosowania ANN, które prawidłowo zaklasyfikowały 84% przypadków, podczas gdy druga z analizowanych metod zidentyfikowała prawidłowo 75,8% przypadków. Ta sama grupa autorów przedstawiła interesujący przegląd możliwości ANN oraz ich dotychczasowych zastosowań w otolaryngologii [30].

Piśmiennictwo

1. Rosenblatt F.; Principles of neurodynamics: perceptrons and the theory of brain mechanisms; Spartan Books Washington D.C. 1962

2. Duch W., Dobosz K., Mikołajewski D.; Autism and ADHD – Two Ends of the Same Spectrum? [w:] Neural Information Processing SE – 78. Lecture Notes in Computer Science. Red.: Lee M., Hirose A., Hou Z.G. et al., Springer; Berlin Heidelberg 2011, 623-630

3. Sharpe P.K., Solberg H.E., Rootwelt K. et al.; Artificial neural networks in diagnosis of thyroid function from in vitro laboratory tests; Clin. Chem. 1993:39, 2248-2253

4. Klencki M., Lewiński A.; Karyometry Manager” ver 1.2 – the computer system for morphometric analysis of cell nuclei. 7th International Symposium on System-Modelling Control, Zakopane; Institute of Informatics Technical University of Łódź, Polish Cybernetical Society, Polish Society of Medical Informatics, 1993, 252-255

5. Zhu L.C., Ye Y.L., Luo W.H. et al.; A model to discriminate malignant from benign thyroid nodules using artificial neural network; PLoS One 2013:8, e82211

6. Adamczewski Z., Lewiński A.; The risk of malignancy of the thyroid nodule/focal lesion – an assessment by ultrasound, based on our own scoring system; Thyroid. Res. 2013:6, 1-2

7. Prank K., Schulze E., Eckert O. et al.; Machine learning approaches for phenotype-genotype mapping: predicting heterozygous mutations in the CYP21B gene from steroid profiles; Eur. J. Endocrinol. 2005:153, 301-305

8. Kacki E., Małolepszy A.; Comparison efficiency of the artificial intelligence methods for the diagnosis of acid – base and anion gap disorders; Stud. Health Technol. Inform. 2005:16, 235-240

9. Milewski R., Jamiołkowski J., Milewska Anna J. et al.; Prognosis of the IVF ICSI/ET procedure efficiency with the use of artificial neural networks among patients of the Department of Reproduction and Gynecological Endocrinology; Ginekol. Pol. 2009:80, 900-906

10. Mougiakakou S.G., Nikita K.S.; A neural network approach for insulin regime and dose adjustment in type 1 diabetes; Diabetes Technol. Ther. 2000:2, 381-389

11. Zarkogianni K., Vazeou A., Mougiakakou S.G. et al.; An insulin infusion advisory system based on autotuning nonlinear model-predictive control; IEEE Trans Biomed Eng 2011:58, 2467-2477

12. Mougiakakou S.G., Prountzou A., Iliopoulou D. et al.; Neural network based glucose – insulin metabolism models for children with Type 1 diabetes. Conf. Proc. Annu. Int. Conf. IEEE Eng; Med. Biol. Soc. 2006:1, 3545-3548

13. Pappada S.M., Cameron B.D., Rosman P.M.; Development of a neural network for prediction of glucose concentration in type 1 diabetes patients; J. Diabetes Sci. Technol. 2008:2, 792-801

14. Pappada S.M., Cameron B.D., Rosman P.M. et al.; Neural network-based real-time prediction of glucose in patients with insulin-dependent diabetes; Diabetes Technol. Ther. 2011:13, 135-141

15. Eller-Vainicher C., Zhukouskaya V.V., Tolkachev Y.V. et al.; Low bone mineral density and its predictors in type 1 diabetic patients evaluated by the classic statistics and artificial neural network analysis; Diabetes Care 2011:34, 2186-2191

16. Hirose H., Takayama T., Hozawa S. et al.; Prediction of metabolic syndrome using artificial neural network system based on clinical data including insulin resistance index and serum adiponectin; Comput. Biol. Med. 2011:41, 1051-1056

17. Caramia G., Cocchi M., Tonello L. et al.; Childhood obesity: recent advances and an experimental contribution; Pediatr. Med. Chir. 2008:30, 121-140

18. Lee Y.C., Lee W.J., Lee T.S. et al.; Prediction of successful weight reduction after bariatric surgery by data mining technologies; Obes. Surg. 2007:17, 1235-1241

19. Lee Y.C., Liew P.L., Lee W.J. et al.; Prediction of successful weight reduction after laparoscopic adjustable gastric banding; Hepatogastroenterology 2009:56, 1222-1226

20. Chrzanowski, Drozdz J., Strzelecki M. et al.; Application of neural networks for the analysis of intravascular ultrasound and histological aortic wall appearance-an in vitro tissue characterization study; Ultrasound Med. Biol. 2008:34, 103-113

21. Kolodyazhniy V., Späti J., Frey S. et al.; An improved method for estimating human circadian phase derived from multichannel ambulatory monitoring and artificial neural networks; Chronobiol. Int. 2012:29, 1078-1097

22. Prank K., Kloppstech M., Brabant G.; Neural networks in the analysis of episodic growth hormone release; Hum. Reprod. Update 1997:3, 215-234

23. Kay R.G., Barton C., Velloso C.P. et al.; High-throughput ultra-high-performance liquid chromatography/tandem mass spectrometry quantitation of insulin-like growth factor-I and leucine-rich alpha-2-glycoprotein in serum as biomarkers of recombinant human growth hormone administration; Rapid. Commun. Mass Spectrom. 2009:23, 3173-3182

24. Lux C.J., Stellzig A., Volz D. et al.; A neural network approach to the analysis and classification of human craniofacial growth; Growth Dev. Aging 1998:62, 95-106

25. Street M.E., Grossi E., Volta C. et al.; Placental determinants of fetal growth: identification of key factors in the insulin-like growth factor and cytokine systems using artificial neural networks; BMC Pediatr. 2008:8, 24-35

26. Street M.E., Buscema M., Smerieri A. et al.; Artificial Neural Networks and Evolutionary Algorithms as a systems biology approach to a data-base on fetal growth restriction; Prog. Biophys. Mol. Biol. 2013:113, 433-438

27. Cheng Y.C., Yan G.L., Chiu Y.H. et al.; Efficient fetal size classification combined with artificial neural network for estimation of fetal weight; Taiwan J. Obstet. Gynecol. 2012:51, 545-553

28. Szaleniec J., Wiatr M., Szaleniec M. et al.; Applicability of artificial neural networks in postoperative hearing improvement prognosis in patients with chronic otitis media; Przegląd Lek. 2009:66, 924-929

29. Szaleniec J., Wiatr M., Szaleniec M. et al.; Artificial neural network modelling of the results of tympanoplasty in chronic suppurative otitis media patients; Comput. Biol. Med. 2013:43, 16-22

30. Szaleniec J., Składzień J., Tadeusiewicz R. et al.; How can an otolaryngologist benefit from artificial neural networks?; Otolaryngol. Pol. 2012:66, 241-248

szukanie zaawansowane »

Podobne artykuły

Sztuczne sieci neuronowe – nowe narzędzie modelowania skuteczności l ...

Późne powikłania ze strony układu endokrynnego, wzrastanie i rozwój ...

Występowanie zaburzeń gospodarki węglowodanowej i lipidowej u dzieci ...

Zespół dysgenetycznych jąder: patogeneza i konsekwencje kliniczne ...

Kliniczne i psychologiczne konsekwencje odroczenia gonadektomii oraz ...

polski | english | Logowanie
ISSN: 1730-0282
e-ISSN: 1898-9373
TOWARZYSTWO|CZASOPISMO|REDAKCJA|REGULAMIN|PRENUMERATA|KONKURS|KONTAKT