Rozmowa z dr. hab. inż. Maciejem Jaworskim prof. PK

Maciej Jaworski. Fot.: Jan Zych
Sztuczna inteligencja budzi w ostatnim czasie gorące emocje. Aby przybliżyć ten fascynujący temat, także od strony naukowej i technicznej, rozmawialiśmy z dr. hab. inż. Maciejem Jaworskim, prof. PK w Katedrze Informatyki Politechniki Krakowskiej.
Zacznijmy od podstaw: na czym opiera się sztuczna inteligencja?
Teoretyczne podstawy, to oczywiście matematyka, statystyka, rachunek prawdopodobieństwa. Korzysta się z teorii, pochodzących nawet z XVIII wieku, jak na przykład twierdzenie Thomasa Bayesa. Częściowo są też obecne elementy neurobiologii, bo przecież wzorujemy się na sieciach rzeczywistych — biologicznych, które są jednak znacznie bardziej złożone i rozbudowane. Podstawą praktyczną jest informatyka — oprogramowanie, bo bez tego nie da się uruchomić algorytmów AI. Software musi mieć jeszcze odpowiedni hardware. Sztuczna inteligencja ruszyła z kopyta, dopiero gdy pojawiły się wystarczająco wydajne, szybkie karty graficzne GPU (Graphics Processing Unit) i okazało się, że można je wykorzystać do uczenia maszynowego. Był to istotny impuls rozwojowy.
Kiedy powstało pojęcie sztucznej inteligencji?
Wszystko zaczęło się od pionierskich prac Alana Turinga, jeszcze przed drugą wojną światową. Pierwsze sztuczne neurony tworzono pod koniec lat 40. Turing dostrzegał potencjał połączenia maszyn liczących i odpowiednich algorytmów. W 1950 r. w pracy „Computer Machinery and Intelligence” przedstawił sposób na znalezienie odpowiedzi na pytanie: „czy maszyna może myśleć?”. Test polegał na tym, że w trakcie rozmowy człowiek miał rozpoznać, oczywiście bez bezpośredniego kontaktu, czy rozmówca jest człowiekiem czy maszyną.
Termin „sztuczna inteligencja” został przedstawiony po raz pierwszy w 1956 r. przez naukowca Johna McCarthy’ego na konferencji w Darthmouth. W 1957 r. Frank Rosenblatt zasymulował działanie Perceptronu, systemu do rozpoznawania znaków alfanumerycznych, opartego na sieciach neuronowych. Nie istniały wtedy kamery cyfrowe ani układy scalone, więc w rzeczywistym Perceptronie z 1960 r. Rosenblatt wraz z Charlesem Wightmanem pomysłowo wykorzystali kilkaset fotokomórek oraz serwomechanizmy do sterowania potencjometrami, ustawiającymi wagi w poszczególnych warstwach sieci zbudowanej z 256 neuronów. Warto pamiętać, że drugi perceptron zbudował, już z wykorzystaniem tranzystorów, polski inżynier Jacek Karpiński. Końcówka lat 50. i lata 60. były bardzo ważne dla rozwoju sztucznej inteligencji: powstawały wtedy języki programowania, opracowano pierwsze metody uczenia maszynowego, systemy ekspertowe, chatboty.
Niestety, później nastąpiła tzw. „zima” lat 70., czyli okres stagnacji w pracach nad sztuczną inteligencją. Za przyczynę tego impasu uznana została książka „Perceptrons” z 1969 r., w której Marvin Minsky i Seymour Papert udowadniali, że koncepcja perceptronu opartego na sieciach neuronowych nie ma potencjału rozwojowego. Co ciekawe, taki cykl aktywności badań nad sztuczną inteligencją powtarzał się później wielokrotnie.
Jak wyglądała sytuacja sztucznej inteligencji w czasach nam bliższych?
Dopiero w latach 80. odrodziło się zainteresowanie i, co istotne, finansowanie, sztucznej inteligencji. Wymyślono wtedy efektywny algorytm do uczenia wielowarstwowych sieci. To jest słynny back propagation, czyli algorytm wstecznej propagacji błędów. To „odmroziło” zainteresowanie sieciami neuronowymi. Oczywiście, równolegle do sieci neuronowych rozwijały się inne narzędzia, bardziej statystyczne: metody regresji, drzewa decyzyjne itd. Na rynek trafiły pierwsze komercyjne systemy ekspertowe. Pewien zastój w rozwoju sieci neuronowych (i finansowaniu badań) nastąpił po 1987 r., kiedy traktowano je jako nieprzynoszącą spodziewanych zysków ciekawostkę.
Potem nastąpiła era deep learning, czyli głębokiego uczenia. Wielkie firmy zajęły się wdrażaniem sztucznej inteligencji do swoich produktów: pojawiło się rozpoznawanie mowy w Windows, social media zaczęły wykorzystywać algorytmy AI do pozycjonowania reklam. Prawdziwym przełomem był 2007 r., w którym Geoffrey Hinton w sprytny sposób rozwiązał problem uczenia bardzo głębokich, wielowarstwowych sieci neuronowych. Pomagał też szybki rozwój sprzętu, zwłaszcza kart graficznych. W efekcie od 2012 r. głębokie sieci neuronowe zaczęły wygrywać w corocznych konkursach rozpoznawania obrazów. Sieć ResNet w 2015 r. pod względem skuteczności rozpoznawania przewyższyła przeciętnego człowieka. Oprócz klasyfikacji całych obrazów AI zyskała możliwość segmentacji semantycznej, czyli grupowania przedstawionych na obrazie elementów i ich opisywania. Powstawały coraz to nowe architektury. Po sieciach konwolucyjnych wymyślono modele do generowania danych, czyli generatywną AI. Nie ma jeszcze nawet ustalonej polskiej nazwy na Generative Adversarial Network (GAN). Działają w niej dwie, rywalizujące ze sobą sieci. Pierwsza jest generatorem, który na podstawie jakiegoś wejściowego szumu stara się wygenerować nowe dane. Są one przesyłane wraz z prawdziwymi danymi do drugiej sieci — dyskryminatora. Jego zadaniem jest rozróżniać dane wygenerowane od prawdziwych. Po odpowiednio długim procesie uczenia generator dochodzi do takiej biegłości w generowaniu danych, że dla dyskryminatora są one nie do odróżnienia od zbioru uczącego. Może to służyć do tworzenia obrazów, których styl wzoruje się na innych obrazach — „przeszczepiają” z nich tekstury, charakterystyczne cechy. Innym modelem do generowania niepokojąco realistycznie wyglądających, ale zupełnie nieprawdziwych obrazów, jest sieć dyfuzyjna, z której korzysta np. Midjourney.

Co jest najnowszym trendem?
Są to modele dyfuzyjne oraz transformery. Te drugie to modele głównie do przetwarzania języka naturalnego, takie jak np. ChatGPT. To dość złożona struktura różnych modułów, a wszystkie te rozwiązania często łączy się w większe systemy, które ze sobą współpracują. Jest tu jeszcze pole do rozwoju, a co będzie kolejnym przełomowym punktem? Trudno powiedzieć. Nawet eksperci w tej dziedzinie mylą się w przewidywaniach. Duże nadzieje wiąże się z wykorzystaniem komputerów kwantowych, które w pewnych zastosowaniach obliczeniowych są bezkonkurencyjne. Inny przyszłościowy kierunek to impulsowe sieci neuronowe (spiking neural network). Są inspirowane biologicznymi sieciami neuronowymi.
Jaka jest definicja sztucznej inteligencji?
Są definicje cząstkowe, nie ma ścisłej definicji, z którą wszyscy by się zgodzili. Sztuczną inteligencję uściśla się raczej przez wykazanie własności, które powinien mieć odpowiedni system. Może to być zdolność uczenia się, aczkolwiek nie zawsze. Wymienia się czasem wnioskowanie na podstawie danych, zdolność adaptacji do nowych sytuacji, nowych zagadnień. John McCarthy, twórca pojęcia, pisał o „maszynach o działaniu podobnym do przejawów ludzkiej inteligencji”, a inne definicje „miękkie” mówią o „systemach służących do rozwiązywania problemów, do których człowiek używa inteligencji”.
Na swoich wykładach mówię, że inteligencję można definiować jeszcze inaczej, odwołując się np. do zagadnień z teorii informacji. Inteligencja jest to zdolność do kompresowania informacji, by można ją było następnie odtworzyć, najlepiej bez żadnych strat. Ta definicja jest o tyle dobra, że pozwala inteligencję mierzyć — można przecież wyliczyć stopień kompresji. Trwa nawet rywalizacja o Nagrodę Huttera za kompresję pliku zawierającego 1 GB danych tekstowych z Wikipedii — najlepszy wynik zszedł poniżej 112 MB. Niektórzy zauważają jednak, że nie wszystkie aspekty inteligencji wiążą się z kompresją danych, jak w przypadku inteligencji emocjonalnej. Być może w przyszłości okaże się, że i ona podpada pod takie rozumowanie?
Jaki jest podział sztucznej inteligencji?
Sztuczna inteligencja określana jest różnymi przymiotnikami: słaba i wąska oraz silna i szeroka. Obecnie, mimo ogromnych możliwości w dziedzinie rozpoznawania obrazów, przetwarzania języka i ogólnie analizy danych, jest jeszcze na poziomie słabym i w ograniczonym przez człowieka zakresie, stąd nazywa się ją wąską. Jest po prostu systemem, który wyręcza człowieka w myśleniu przy realizowaniu jakiegoś konkretnego zadania.
Dopiero AGI (Artificial General Intelligence) miałaby być docelową, silną i szeroką, autonomiczną poznawczo i decyzyjnie. Przymiotnik „szeroka” w odniesieniu do sztucznej inteligencji odnosi się do tego, że ma to być układ wielomodalny, który służy do podejmowania decyzji na podstawie wielu różnych czynników. Urzeczywistnienie AGI ma spowodować powstanie systemu dorównującego człowiekowi zdolnościami intelektualnymi.
Kiedy powstanie Artificial General Intelligence?
Droga wydaje się daleka, ale zmierzamy w tym kierunku. Największym graczem jest chyba OpenAI — z aplikacją ChatGPT można porozmawiać głosowo, ostatnio nawet AI widzi przez kamerkę otoczenie… więc dodaje się teraz kolejne modalności. Być może wyznacznikiem AGI będzie zdolność stawiania sobie zadań i wymyślania sposobów ich realizacji. Niektórzy twierdzą, że to sprawa 3–4 lat; że nie potrzeba nic ponad to, czym dysponujemy, tylko większej skali. Wymaga to więc większych i lepszych zasobów, nakładów finansowych i czasu na naukę — nie wiadomo jednak, czy istnieją obecnie firmy zdolne osiągnąć to samodzielnie. Możliwe, że projekt Stargate, łączący wysiłki gigantów IT z budżetem 500 miliardów dolarów rozłożonym na 4 lata, przyczyni się do kolejnego przełomu i powstania AGI.
Kto jest obecnie liderem w rozwoju AI?
Jest tylko dwóch głównych — USA i Chiny. Prywatne firmy amerykańskie mogą sobie pozwolić na wielomilionowe inwestycje w tworzenie i nauczanie sieci. Zajmuje to kilka miesięcy, przykładowo ChatGPT-3 miał do nauki 45 TB danych, pochodzących z Wikipedii, zbiorów książek oraz efektów przeszukiwania stron internetowych. Nauka i ustawienie 175 miliardów parametrów sieci zajęły 4 miesiące, w czasie których wykonano 300 tryliardów pojedynczych operacji, tzw. FLOPS-ów. Koszt nauki ocenia się na miliony dolarów. Nowsze modele są jeszcze bardziej obszerne, a co za tym idzie ich koszty mocno rosną i spekuluje się, że koszt ChatGPT-4 przekroczył 100 milionów dolarów. Kosztowne jest też utrzymanie olbrzymiej infrastruktury serwerów. Dużym wyzwaniem technicznym jest zapewnienie zasilania i chłodzenia centrów obliczeniowych, rozważana jest nawet budowa elektrowni na zaspokojenie rosnących potrzeb sztucznej inteligencji.
Czy to tylko sprawa nakładów?
Stany Zjednoczone od lat ściągają talenty z różnych stron świata: Chińczyków, Hindusów, a także Polaków, gdyż wielu dobrych specjalistów pochodzi również z Europy Wschodniej. Rozwój sztucznej inteligencji, deep learning itd. tak naprawdę następuje w wielkich korporacjach. Mają one swoje laboratoria przeznaczone na badania nad AI. I przyciągają wybitnych uniwersyteckich badaczy z całego świata. Osoby, które najwięcej wnoszą do rozwoju, zwykle pracują w jednej z wielkich korporacji i dodatkowo na renomowanym uniwersytecie.

Jakie są silne strony sztucznej inteligencji?
Przede wszystkim potrafi analizować ogromne zbiory, których człowiek sam czy w zespole nigdy nie byłby w stanie odpowiednio szybko opracować i dostrzec jakieś zależności czy prawidłowości pomiędzy danymi. AI robi to bardzo szybko i wszechstronnie. Człowiek nie może konkurować z obecnie dostępnymi mocami obliczeniowymi. Wystarczy, że dane są w postaci cyfrowej: tekst, obrazy, dźwięki, zapis EKG itd. Póki co systemy sztucznej inteligencji są wysoko specjalizowane, czyli świetnie potrafią robić jedno zadanie i (jeszcze) nie są tak wszechstronne jak ludzie. Do rozwiązywania bardziej złożonych problemów muszą mieć bardziej złożone architektury modeli, co jednak potęguje problem wyjaśnialności.
Czym jest wyjaśnialność?
To możliwość wyjaśniania, dlaczego algorytm wnioskuje w ten, a nie inny sposób. Większość modeli AI traktuje się jak „czarne skrzynki”, z jednej strony podaje się jakieś zapytanie, a z drugiej strony wypada wynik, zazwyczaj dobry. Dlaczego dla konkretnych danych wynik jest taki, a nie inny, nie zawsze możemy wyjaśnić. W przypadku drzew decyzyjnych można prześledzić ścieżkę poszczególnych decyzji, jednak w przypadku sieci neuronowych mamy miliardy wag i bardzo trudno prześledzić tok procesu decyzyjnego. Problem wyjaśnialności ma swoje odbicie w aktach prawnych, które kładą duży nacisk na transparentność systemów AI.
Czy unijne akty dotyczące AI uchronią nas przed negatywnymi konsekwencjami?
Mnie się wydaje, że te ustawy, niestety, spowodują zahamowanie rozwoju AI w Unii Europejskiej. Nie wiem, czy wiele pomogą, bo AI to problem globalny. Nawet jeśli my narzucimy jakieś regulacje, to nie znaczy, że w innym miejscu nie powstanie rozwiązanie, którego się obawiamy. Europa przoduje w tych regulacjach, mimo że z badaniami pozostajemy daleko w tyle. Czy nie lepiej, jeszcze bez tych ograniczeń, chociaż zbliżyć do topowych graczy, by dopiero wtedy coś regulować?
Jak sztuczna inteligencja wpływa na naukę?
Nie widzę żadnych ograniczeń w zastosowaniu AI, w zasadzie jest już wszędzie stosowana. Świetnie spisuje się w eksperymentach fizycznych, w analizie niekiedy ogromnych zbiorów danych, pochodzących np. z detektorów cząstek, pomagając wyłapywać najbardziej interesujące zdarzenia. Najsłynniejszym wydarzeniem jest Nagroda Nobla uzyskana z pomocą narzędzia Google AlphaFold do przewidywania trzeciorzędowej struktury przestrzennej białek. To bardzo ważne zagadnienie w medycynie, gdyż może pozwolić na tworzenie nowych leków i metod leczenia. Jest to żmudne i czasochłonne zajęcie dla człowieka, który osiąga średnią wydajność 3 struktur na 1 doktorat. Przełomem było użycie w 2021 r. wyspecjalizowanego narzędzia AI — w ciągu 3 miesięcy stworzyło bazę 365 tys. białek 20 organizmów. Rok później baza osiągnęła 200 mln struktur pochodzących z miliona gatunków. Ten postęp w badaniach nagrodzono Nagrodą Nobla w dziedzinie chemii za „obliczeniowe projektowanie białek”. Otrzymali ją: David Baker, Demis Hassabis i John M. Jumper. Dwaj ostatni pracują w Google DeepMind.
Nagrodą Nobla związaną z AI, tym razem w fizyce, uhonorowano wspomnianego wcześniej Geoffreya Hintona, wraz z Johnem J. Hopfieldem za „fundamentalne odkrycia i wynalazki, które umożliwiły uczenie maszynowe sztucznych sieci neuronowych”. W sieciach neuronowych zastosowali metody fizyki statystycznej, traktując neurony jako zbiory cząstek. Wydaje mi się, że z czasem każda praca naukowa tak czy inaczej będzie związana z użyciem narzędzi sztucznej inteligencji, wykorzystuje się je nawet do dowodzenia twierdzeń. Być może nadchodzi czas ufundowania nowej kategorii Nagrody Nobla?
Jak Politechnika Krakowska zajmuje się rozwojem AI?
Na pewno są to zastosowania medyczne, które rzeczywiście są u nas rozwijane. Na PK dziekan WIiT ma grupę badawczą, która się tym zajmuje. Dzięki współpracy ze wieloma szpitalami czy np. Instytutem Kardiologii powstaje wiele publikacji. Najbardziej przyczyniamy się do rozwoju kadry — uczymy przecież studentów. Podstawy to matematyka, informatyka, mamy zajęcia na przykład dotyczące głębokich sieci neuronowych, implementujemy różne modele, oczywiście na miarę możliwości naszej infrastruktury. Mamy wiele prac dyplomowych na ten temat, studenci np. wykorzystują publicznie dostępny zbiór danych medycznych i uczą sieć, żeby rozpoznawała choroby. I całkiem nieźle to wychodzi.
Politechnika Krakowska wspomaga też polskie projekty wykorzystujące AI. Przykładem jest stworzenie unikalnej technologii nieinwazyjnej diagnostyki medycznej firmy Hemolens Diagnostics, uhonorowanej „AI Visionary Award” podczas ubiegłorocznego Forum Ekonomicznego w Karpaczu.
Na co mogą liczyć studenci politechniki, którzy chcą zdobywać wiedzę i umiejętności w dziedzinie AI?
Prowadzimy specjalność data science na drugim stopniu studiów, nastawioną właściwie na tego typu zagadnienia, choć są też tam statystyczne metody analizy danych itd. Mamy jeszcze specjalność systemy inteligentne i rozszerzona rzeczywistość (SIiRR). Studenci mogą liczyć na zrealizowanie prostego projektu w ramach pracy dyplomowej, inżynierskiej czy magisterskiej. Dysponujemy kilkoma serwerami obliczeniowymi, więc jeśli student ma interesujący pomysł, troszkę więcej danych i chce większą sieć stworzyć, to zwykle otrzymuje dostęp do takiego serwera z kilkoma GPU i na nim taką sieć zapuszcza i uczy ją — znacznie szybciej niż na swoim laptopie.
Co zarekomendować Polsce, by przyspieszyć rozwój AI?
Najlepiej, aby polskim przedsiębiorcom i naukowcom nie rekomendować niczego odgórnie, tylko po prostu pozwolić im działać i nie przeszkadzać. Pochylmy się nad projektami zaproponowanymi przez Grupę Roboczą ds. AI. Propozycja skupienia się na rozwoju małych modeli językowych wydaje się sensowna w polskich warunkach. Po pierwsze, nie wymaga wielkich zasobów infrastrukturalnych. Mają być to mniejsze modele, ale wyspecjalizowane w konkretnych zadaniach. Mogą być połączone ze sobą w strukturach wieloagentowych, w których poszczególne modele współpracują ze sobą, wymieniają się informacjami, tworzą razem coś w rodzaju roju. Ma to dużo wspólnego z rozproszoną federacyjną siecią AI — różne dane są w różnych miejscach infrastruktury, są tam wstępnie przetwarzane w edge processing (procesowanie krawędziowe). Chyba najbardziej ambitny, ale też z najmniejszymi szansami na sukces, wydaje się projekt dotyczący produkcji procesora o niskim poborze mocy. Procesory ASIC (Application-specific integrated circuit), czyli specjalizowane układy scalone, są zaprojektowane do realizacji konkretnych zadań (są ograniczone do jednego zadania, ale wykonują je bardzo wydajnie, może to być np. tak wyuczona sieć neuronowa).
Polska ma pewne doświadczenie w projektowaniu takich układów scalonych, ale ich produkcja to bardzo ambitne zadanie. Za komentarz wystarczy fakt, że wytwórnie układów scalonych znajdują się jedynie w kilku miejscach na świecie.

Jakie są możliwości zwiększenia potencjału AI?
W każdej chwili ktoś może wymyślić nową architekturę, która zmieni reguły gry. Będzie na przykład działać lepiej niż te transformery, które teraz stosuje się do przetwarzania języka naturalnego. Jeśli nowa rewolucyjna technologia nie zostanie wdrożona, jedyne co możemy robić, to optymalizować algorytmy, które już są, by były bardziej wydajne. Druga sprawa to dane: ważne, by było ich coraz więcej, żeby były coraz lepsze, coraz bardziej uporządkowane i zawierały jak najmniej błędów.
Kto ponosi odpowiedzialność za skutki działań AI?
Obecnie odpowiada albo użytkownik, albo projektant. Jeśli szkoda wynikła z wadliwego działania systemu AI — odpowiada jego twórca, projektant. Jeśli wykaże się, że system działał prawidłowo, ale użytkownik źle go wykorzystał — odpowiada użytkownik. Co będzie, gdy doczekamy się AGI, systemu, który mógłby zyskać osobowość prawną — jak miałby odpowiadać za siebie i swoje postępowanie? W jaki sposób miałoby to być realizowane? Jaka miałaby być sankcja dla systemu AGI za złe postępowanie?
Czy jest możliwy bunt AGI i czy jest nieunikniony?
Wśród ekspertów zdania są podzielone. Z jednej strony mamy na przykład profesora Tadeusiewicza z AGH, zdecydowanie nie podzielającego panicznych wizji buntu AI. Są też opinie, że sztuczna inteligencja to tylko narzędzie, niektórzy lekceważąco nazywają ją „papugą stochastyczną”, która wcale nie myśli, a jedynie przewiduje prawdopodobieństwo pojawienia się kolejnego słowa.
Natomiast na drugim biegunie jest na przykład wymieniony wcześniej Geoffrey Hinton, który widzi niebezpieczeństwo utraty kontroli nad AI. Dał temu wyraz w 2023 r., rezygnując z pracy w Google — był to protest przeciwko nowej polityce firmy wobec AI. Wcześniej w reakcji na kolejną wersję ChataGPT grupa 1000 ekspertów AI wzywała do wprowadzenia półrocznego moratorium na rozwój nowych systemów. Pół roku może się wydawać krótkim okresem, ale obecnie w tej branży, to jedna generacja systemu.
Już 10 lat temu wystosowano list otwarty wzywający do zajęcia się problemem autonomicznych robotów bojowych, bo nie jest to sprawa tylko teoretyczna, o czym świadczą trwające konflikty zbrojne.
Czy rozważa się wprowadzenie jakiegoś bezpiecznika czy wyłącznika AI?
Można, oczywiście, podywagować. Jeśli AI będzie bardzo inteligentna, to być może będzie umiała się zreplikować (a już teraz są doniesienia o takiej możliwości), a następnie „zaszyć się” w pewnym miejscu sieci i w ten sposób obejść nawet fizyczne bezpieczniki czy wyłączniki. Wydaje się więc, że może nie być stuprocentowego zabezpieczenia na taką ewentualność.
W literaturze znane są też tezy szwedzkiego filozofa Nicka Bostroma o konwergencji celów pomocniczych. Według nich AGI będzie intensywnie i twórczo dążyć do swojego celu finalnego, realizując po drodze tzw. instrumentalne cele, które nie zawsze musiałyby być w zgodzie z naszymi interesami. System wykazywałby się kreatywnością w poszukiwaniu alternatywnych sposobów realizacji celu. Ta przewyższająca nas kreatywność mogłaby stanowić zagrożenie. Z drugiej strony, to właśnie kreatywność sztucznej inteligencji, w połączeniu z nowymi możliwościami rozwiązywania problemów, może być dla ludzkości ogromną szansą.
Dziękuję za rozmowę.

Dr hab. inż. Maciej Jaworski, prof. PK jest absolwentem fizyki na Uniwersytecie Jagiellońskim (2009 r.) oraz informatyki w Akademii Górniczo-Hutniczej (2011 r.). Doktorat obronił w 2015 r. na Politechnice Częstochowskiej. W 2019 r. uzyskał stopień doktora habilitowanego za prace dotyczące sieci neuronowych i drzew decyzyjnych. Od marca 2021 r. zatrudniony na stanowisku profesora uczelni w Katedrze Informatyki na Politechnice Krakowskiej. Do końca 2022 r. był kierownikiem tejże katedry.
Autor i współautor ponad 60 publikacji naukowych na temat uczenia maszynowego, eksploracji strumieni danych i sieci neuronowych; współautor monografii „Stream data mining: algorithms and their probabilistic properties” (Springer, 2020).