Zastosowanie machine learning w predykcji usterek

Rosnąca złożoność systemów produkcyjnych oraz nacisk na maksymalną dostępność parku maszynowego sprawiają, że tradycyjne podejścia do utrzymania ruchu stają się niewystarczające. Zamiast reagować na awarie, coraz więcej przedsiębiorstw dąży do ich przewidywania i zapobiegania. Kluczową rolę zaczyna odgrywać tu machine learning, który pozwala wychwycić wzorce ukryte w danych sensorowych, logach sterowników PLC, zapisach serwisowych czy systemach SCADA. Dzięki temu możliwe jest wdrożenie strategii predykcyjnego utrzymania ruchu (Predictive Maintenance), ograniczenie nieplanowanych przestojów i optymalizacja kosztów eksploatacji maszyn.

Podstawy wykorzystania machine learning w predykcji usterek maszyn

Predykcja usterek z wykorzystaniem sztucznej inteligencji polega na budowaniu modeli, które na podstawie historycznych i bieżących danych potrafią oszacować prawdopodobieństwo wystąpienia awarii lub osłabienia stanu technicznego konkretnych elementów maszyny. W przemyśle maszynowym oznacza to analizę zachowania takich obiektów jak obrabiarki CNC, sprężarki, przekładnie, pompy, silniki elektryczne, linie montażowe czy roboty przemysłowe.

Kluczowe jest zrozumienie, że model machine learning nie działa w próżni – stanowi element szerszego ekosystemu obejmującego:

  • warstwę akwizycji danych (czujniki, sterowniki PLC, systemy SCADA, MES),
  • warstwę przetwarzania (bramy IoT, serwery przemysłowe, chmura obliczeniowa),
  • warstwę analityczną (algorytmy machine learning, systemy klasy APM, CMMS),
  • warstwę prezentacji i integracji z procesem (HMI, raporty, alarmy, rekomendacje działań serwisowych).

W praktyce przemysłowej wyróżnia się kilka głównych kategorii zastosowań machine learning w kontekście usterek:

  • Predykcja czasu do awarii (Remaining Useful Life, RUL) dla wybranych komponentów,
  • Wczesna detekcja odchyleń od normalnej pracy (anomaly detection),
  • Klasyfikacja typu usterki (diagnostyka: co się psuje i w jaki sposób),
  • Rekomendacje dotyczące optymalnego momentu przestoju i zakresu konserwacji.

Dobór konkretnego algorytmu zależy od charakteru procesu, dostępności danych i wymagań biznesowych. W przemyśle stosuje się zarówno metody nadzorowane (wymagające opisanych przypadków awarii), jak i nienadzorowane, przydatne szczególnie wtedy, gdy zdarzenia uszkodzeniowe są rzadkie, a etykietowanie danych – kosztowne.

Źródła danych i ich przygotowanie do modeli predykcyjnych

Skuteczność predykcji usterek w ogromnym stopniu zależy od jakości i kompletności danych. W typowym zakładzie produkcyjnym informacje potrzebne do budowy modelu są rozproszone pomiędzy różnymi systemami i warstwami automatyki. Integracja i uporządkowanie tych zasobów staje się jednym z najbardziej wymagających etapów całego projektu.

Akwizycja danych z maszyn

Podstawowym źródłem danych są czujniki fizyczne oraz sygnały pochodzące z układów sterowania. Należą do nich m.in.:

  • Czujniki drgań (akcelerometry) montowane na łożyskach, obudowach silników, korpusach przekładni – szczególnie ważne w diagnostyce napędów wirujących.
  • Czujniki temperatury (termopary, PT100, sensory półprzewodnikowe) umieszczane na uzwojeniach, łożyskach, korpusach, w oleju smarującym.
  • Czujniki ciśnienia i przepływu w układach hydraulicznych i pneumatycznych.
  • Czujniki prądu i napięcia w obwodach zasilania silników elektrycznych, falowników, napędów serwo.
  • Enkodery i czujniki położenia, pozwalające monitorować dokładność pozycjonowania osi.
  • Dane binarne ze sterowników PLC (stany wejść/wyjść, sygnały przeciążenia, błędy napędów).

W wielu przypadkach wartościowe informacje można również pozyskać z wyższych warstw systemu produkcyjnego:

  • Logi alarmów i zdarzeń ze sterowników PLC oraz systemów SCADA,
  • Dane z systemów MES/ERP (czasy cykli, liczba sztuk, zmiany asortymentu, partie produkcyjne),
  • Historie zleceń serwisowych z CMMS (zakres naprawy, wymienione części, opisy problemów).

Wdrożenie rozwiązań machine learning wymaga ujednolicenia tych danych: dopasowania znaczników czasowych, normalizacji jednostek, usunięcia duplikatów. Konieczne jest też zapewnienie odpowiedniej częstotliwości próbkowania – zbyt wolna akwizycja może uniemożliwić wykrycie szybkich zjawisk, zbyt szybka natomiast niepotrzebnie obciąży infrastrukturę i utrudni analizę.

Przygotowanie danych i inżynieria cech

Zanim dane trafią do modelu, muszą zostać przekształcone w postać nadającą się do uczenia. Proces ten obejmuje kilka etapów:

  • Filtrowanie i czyszczenie – usuwanie błędnych wartości, uzupełnianie braków (np. interpolacja), eliminacja szumów i zakłóceń.
  • Synchronizacja sygnałów – wyrównanie czasowe danych z wielu czujników tak, aby reprezentowały ten sam stan maszyny.
  • Segmentacja – podział sygnałów ciągłych na okna czasowe odpowiadające konkretnym cyklom pracy, fazom rozruchu, hamowania itp.
  • Ekstrakcja cech – obliczanie statystyk (średnia, odchylenie, kurtoza, RMS), cech częstotliwościowych (FFT, pasma drgań), wskaźników energetycznych, liczby impulsów, trendów.
  • Agregacja informacji kontekstowych – np. typ produktu, operator, zmiana, parametry zadane na panelu HMI, które mogą wpływać na obciążenie maszyny.

W tradycyjnych podejściach duża część inżynierii cech opiera się na wiedzy ekspertów: diagnostów wibracyjnych, automatyków, mechaników. To oni wskazują, które pasma częstotliwości są powiązane z konkretnymi defektami łożysk, jakie wartości prądów mogą świadczyć o niewyważeniu, czy które kombinacje alarmów są szczególnie niebezpieczne. Nowoczesne algorytmy, w tym głębokie sieci neuronowe, potrafią część tej pracy wykonać automatycznie, ale w przemyśle wciąż ogromne znaczenie ma połączenie wiedzy domenowej z możliwościami obliczeniowymi.

Etykietowanie danych zdarzeniami awaryjnymi

Aby model mógł się nauczyć rozpoznawać symptomy zbliżającej się usterki, musi mieć dostęp do przykładów takich sytuacji w danych historycznych. W praktyce oznacza to konieczność:

  • Zidentyfikowania w historii wszystkich awarii i istotnych usterek,
  • Określenia przedziałów czasowych przed awarią, w których pojawiały się symptomy (okna wczesnego ostrzegania),
  • Oznaczenia danych z tego okresu jako „zagrożone”, a danych z czasów stabilnej pracy jako „normalne”.

To zadanie bywa złożone, ponieważ wpisy serwisowe są często niejednolite, pisane w formie opisowej, zawierają skróty i nazwy potoczne. Coraz częściej do ich analizy wykorzystuje się metody przetwarzania języka naturalnego, które pomagają automatycznie kategoryzować zdarzenia i łączyć je z odpowiednimi maszynami oraz sygnałami. Niewłaściwe przypisanie etykiet może prowadzić do nauki błędnych wzorców, dlatego etap ten wymaga ścisłej współpracy zespołów utrzymania ruchu, IT i specjalistów data science.

Kluczowe algorytmy predykcji usterek i ich zastosowania w przemyśle maszynowym

W predykcyjnym utrzymaniu ruchu nie ma jednego uniwersalnego algorytmu, który sprawdza się zawsze i wszędzie. Każdy typ maszyny, danych i celu analizy może wymagać innego podejścia. Niemniej można wyróżnić grupy metod szczególnie często stosowanych w aplikacjach przemysłowych.

Modele nadzorowane do predykcji awarii

Gdy dysponujemy dobrze opisanymi danymi historycznymi, w których zaznaczono momenty usterek, możliwe jest zastosowanie klasycznych modeli nadzorowanych. Do najpopularniejszych należą:

  • Drzewa decyzyjne i lasy losowe – łatwe do interpretacji, dobrze radzą sobie z danymi o mieszanym charakterze (sygnały liczbowe, kategorie, flagi binarne).
  • Gradient boosting (np. XGBoost, LightGBM) – bardzo skuteczne w zadaniach klasyfikacji i regresji, często osiągają wysoką jakość prognoz przy rozsądnych zasobach obliczeniowych.
  • Modele regresyjne do szacowania czasu do awarii – pozwalają prognozować RUL, uwzględniając zarówno aktualny stan, jak i historię obciążenia.
  • Sieci neuronowe (MLP, CNN, LSTM) – przydatne zwłaszcza przy sygnałach czasowych o złożonej strukturze, takich jak przebiegi wibracyjne czy prądowe.

Przykładowo, w układach napędowych obrabiarek CNC bardzo dobrze sprawdzają się modele gradient boosting, które na podstawie cech wyliczonych z sygnałów drgań i prądu silnika potrafią sklasyfikować stan łożyska jako zdrowe, zużyte lub krytycznie uszkodzone. W sprężarkach śrubowych czy pompach sieci neuronowe LSTM (Long Short-Term Memory) mogą analizować długie sekwencje pomiarów, wychwytując powolne zmiany prowadzące do spadku sprawności lub zatarcia.

Metody nienadzorowane i detekcja anomalii

W wielu zakładach przypadki awarii są na tyle rzadkie, że trudno zbudować obszerny i dobrze opisany zbiór uczący. W takich sytuacjach stosuje się metody nienadzorowane, które uczą się „normalnego” zachowania maszyny, a następnie wykrywają odstępstwa od tego wzorca. Do najczęściej używanych podejść należą:

  • Klasteryzacja (np. k-means, DBSCAN) w przestrzeni cech – pozwala grupować podobne stany pracy, a nietypowe punkty traktować jako potencjalne anomalie.
  • Modele gęstości (np. Gaussian Mixture Models) – wykrywają obszary o niskim prawdopodobieństwie wystąpienia danych.
  • Metody izolacji anomalii (Isolation Forest) – szczególnie przydatne przy dużej liczbie cech i niejednorodnych danych.
  • Autoenkodery – sieci neuronowe uczące się kompresji i rekonstrukcji danych; duży błąd rekonstrukcji sygnalizuje nietypowy stan.

W kontekście maszyn obrabiających metale, takich jak tokarki czy frezarki, metody detekcji anomalii mogą być wykorzystane do monitorowania zużycia narzędzi skrawających. Model uczony na sygnałach wibracyjnych i poborze prądu podczas prawidłowego skrawania rozpoznaje później moment, w którym pojawia się nietypowy wzorzec – oznaka stępienia narzędzia, wibracji samowzbudnych czy niewłaściwego mocowania detalu.

Modele sekwencyjne i analiza sygnałów czasowych

Większość zjawisk technicznych w maszynach ma charakter dynamiczny, dlatego efektywna predykcja usterek wymaga uwzględnienia kontekstu czasowego. Oprócz klasycznych metod, takich jak filtry Kalmana czy modele ARIMA, rośnie znaczenie nowoczesnych sieci sekwencyjnych:

  • LSTM i GRU – umożliwiają modelowanie długich zależności czasowych, np. wpływu długotrwałego przeciążenia na przyspieszone zużycie elementów.
  • 1D CNN – konwolucyjne sieci neuronowe stosowane do wykrywania wzorców lokalnych w sygnałach (uderzenia, krótkie impulsy związane z defektami).
  • Architektury hybrydowe (CNN + LSTM) – łączą zalety detekcji wzorców lokalnych z pamięcią długoterminową, co jest szczególnie użyteczne w analizie drgań i akustyki.

Typowym zastosowaniem jest analiza sygnałów z czujników drgań w przekładniach i łożyskach tocznych. Modele sekwencyjne potrafią wykryć narastanie amplitudy w określonych pasmach częstotliwości, pojawianie się regularnych impulsów związanych z uszkodzeniem bieżni lub elementów tocznych oraz zmiany charakteru obwiedni sygnału. W efekcie możliwe jest określenie, na jak wczesnym etapie rozwoju znajduje się defekt oraz ile czasu pozostało do konieczności wymiany elementu, zanim dojdzie do awarii katastrofalnej.

Interpretowalność modeli i zaufanie użytkowników

W środowisku przemysłowym kluczowe znaczenie ma zaufanie do systemu predykcji. Inżynierowie utrzymania ruchu nie mogą polegać na czarnej skrzynce, która generuje alarmy bez wyjaśnienia. Dlatego coraz większy nacisk kładzie się na interpretowalność modeli. Wykorzystuje się do tego m.in.:

  • Znaczenia cech (feature importance) w modelach drzewiastych – pozwalające zrozumieć, które sygnały w największym stopniu wpływają na ocenę ryzyka awarii.
  • Metody lokalnej interpretacji (LIME, SHAP) – wyjaśniające, dlaczego w danym przypadku model podjął określoną decyzję.
  • Wizualizacje trendów i map cieplnych – prezentujące, jak zmieniały się kluczowe parametry w okresie poprzedzającym ostrzeżenie.

Dzięki temu możliwe jest nie tylko wcześniejsze wykrycie problemu, ale również zrozumienie jego przyczyny. Na przykład, jeśli model sygnalizuje wysokie ryzyko uszkodzenia silnika, a kluczowymi cechami okazują się rosnące w czasie wibracje w określonym paśmie oraz sporadyczne skoki prądu rozruchowego, inżynier może powiązać to z niewyważeniem wirnika, niewspółosiowością lub degradacją mocowania.

Integracja systemów predykcyjnych z utrzymaniem ruchu i produkcją

Nawet najlepszy model machine learning pozostanie jedynie ciekawostką, jeśli nie zostanie odpowiednio włączony w codzienne funkcjonowanie zakładu produkcyjnego. Sukces projektu predykcyjnego utrzymania ruchu zależy od sposobu, w jaki wnioski z analizy danych są przekładane na realne decyzje i działania serwisowe.

Od prognozy do działania: przepływ informacji

Pełny łańcuch przetwarzania informacji w systemie predykcji usterek obejmuje zazwyczaj następujące etapy:

  • Odczyt bieżących danych z czujników i systemów sterowania.
  • Wstępne przetwarzanie na poziomie bramy IoT lub serwera – filtracja, agregacja, wyliczanie cech.
  • Przekazanie przetworzonych danych do silnika analitycznego, w którym działa model machine learning.
  • Ocena stanu maszyn w określonych interwałach (np. co minutę, co cykl produkcyjny) oraz wyznaczenie wskaźników ryzyka.
  • Generowanie alarmów, powiadomień i rekomendacji, gdy ryzyko przekroczy zdefiniowany próg.
  • Automatyczne tworzenie zleceń w systemie CMMS, przypisywanie ich do odpowiednich zespołów i monitorowanie realizacji.

Istotne jest dostosowanie progów alarmowych do specyfiki procesu i tolerancji na ryzyko. Zbyt czuły system będzie generował wiele fałszywych alarmów, co doprowadzi do znużenia użytkowników i spadku zaufania. Zbyt mała czułość może z kolei spowodować przeoczenie wczesnych symptomów krytycznych usterek. Dlatego optymalizacja progów, a czasem dynamiczne ich dostosowywanie na podstawie bieżących warunków, jest jednym z elementów ciągłego doskonalenia systemu.

Współpraca z zespołem utrzymania ruchu

Skuteczne wdrożenie predykcji usterek wymaga ścisłej współpracy pomiędzy specjalistami data science a praktykami utrzymania ruchu, mechanikami, elektronikami i technologami. Ich wiedza praktyczna jest niezbędna na wielu etapach:

  • Dobór lokalizacji czujników i częstotliwości pomiarów.
  • Interpretacja cech fizycznych zjawisk (np. charakterystyczne częstotliwości dla różnych defektów łożysk).
  • Ocenianie realnej krytyczności wykrytych anomalii – nie każde odchylenie wymaga natychmiastowej interwencji.
  • Weryfikacja alarmów w praktyce i przekazywanie informacji zwrotnej do zespołu odpowiedzialnego za modele.

Niebagatelną rolę odgrywa też szkolenie pracowników. Operatorzy maszyn i służby utrzymania ruchu muszą rozumieć, w jaki sposób interpretować komunikaty systemu oraz jakie działania zalecane są w odpowiedzi na określone typy ostrzeżeń. Dobrze zaprojektowany interfejs użytkownika, prezentujący nie tylko informację o ryzyku, ale również kontekst (historię trendu, wpływ na OEE, propozycję okna serwisowego), ułatwia akceptację rozwiązania.

Przekształcenie strategii utrzymania ruchu

Wprowadzenie predykcyjnych modeli awaryjności często pociąga za sobą zmianę całej filozofii utrzymania ruchu. Zamiast dominującej strategii reaktywnej („naprawiamy, gdy się zepsuje”) lub wyłącznie prewencyjnej („wymieniamy według harmonogramu”) pojawia się podejście oparte na stanie rzeczywistym maszyny. Pozwala to:

  • Zmniejszyć ilość niepotrzebnych wymian części, które nadal mogłyby pracować bezpiecznie.
  • Planować przestoje konserwacyjne w oknach o najmniejszym wpływie na produkcję.
  • Lepiej zarządzać zapasami części zamiennych – zamawiać je z wyprzedzeniem, ale bez nadmiernego magazynowania.
  • Ograniczyć liczbę awarii katastrofalnych, które często powodują uszkodzenia wtórne i długotrwałe przestoje.

Dla działów produkcyjnych oznacza to poprawę wskaźnika OEE, większą stabilność harmonogramów oraz możliwość elastyczniejszego reagowania na zmiany popytu. W dłuższej perspektywie rośnie również świadomość stanu technicznego całego parku maszynowego, co ułatwia decyzje inwestycyjne i modernizacyjne.

admin

Portal przemyslowcy.com jest idealnym miejscem dla osób poszukujących wiadomości o nowoczesnych technologiach w przemyśle.

Powiązane treści

Strategie automatyzacji w firmach średniej wielkości

Rozwój automatyzacji w firmach średniej wielkości z sektora przemysłu maszynowego stał się jednym z kluczowych czynników utrzymania konkurencyjności, stabilności marż oraz zdolności do szybkiego reagowania na zmiany popytu. Przedsiębiorstwa, które…

Nowe wymagania certyfikacyjne dla producentów maszyn

Dynamiczne zmiany regulacyjne w Unii Europejskiej, rosnące wymagania w obszarze bezpieczeństwa oraz presja na cyfryzację produkcji sprawiają, że producenci maszyn muszą całkowicie przeanalizować swoje podejście do projektowania, dokumentowania i wprowadzania…

Może cię zainteresuje

Indie jako rosnący rynek petrochemiczny

  • 8 kwietnia, 2026
Indie jako rosnący rynek petrochemiczny

TM25S – Techman Robot – przemysł ciężki – robot

  • 8 kwietnia, 2026
TM25S – Techman Robot – przemysł ciężki – robot

Zastosowanie grafenu w komponentach lotniczych

  • 8 kwietnia, 2026
Zastosowanie grafenu w komponentach lotniczych

Zastosowanie machine learning w predykcji usterek

  • 8 kwietnia, 2026
Zastosowanie machine learning w predykcji usterek

Węglan wapnia – minerały – zastosowanie w przemyśle

  • 8 kwietnia, 2026
Węglan wapnia – minerały – zastosowanie w przemyśle

Jakie są najważniejsze kierunki rozwoju przemysłu spożywczego

  • 8 kwietnia, 2026
Jakie są najważniejsze kierunki rozwoju przemysłu spożywczego