Analitycy już nie będą potrzebni? Zastąpi ich zautomatyzowane uczenie maszynowe

Metoda analizy danych: zautomatyzowane uczenie maszynowe Weidmüller

Uczenie maszynowe (ang. machine learning) wykorzystuje mechanizmy sztucznej inteligencji do przeprowadzania analizy dużych zbiorów danych zbieranych z maszyn i urządzeń. To jednak nie jedyna technologia, która w ostatnim czasie rozpala serca i umysły producentów maszyn. Coraz większego znaczenia nabiera także jej najnowszy wariant – zautomatyzowane uczenie maszynowe.

    • Zaimplementowana w oprogramowaniu do zautomatyzowanego uczenia maszynowego sztuczna inteligencja coraz powszechniej wkracza na rynek maszyn i urządzeń.
    • Duża efektywność zautomatyzowanego uczenia maszynowego ma swoje źródła w sukcesywnym zacieśnianiu zakresu wyszukiwania.
    • Im więcej aplikacji musi obsłużyć uczenie maszyny, tym bardziej uniwersalne, tj. słabiej dopasowane do specyfiki danych, będą jego algorytmy.

>>Przedsiębiorcy wciąż nie rozumieją idei Machine Learning<<

Od kilku lat możliwości sztucznej inteligencji skutecznie rozpalają wyobraźnię inżynierów i budowniczych maszyn. Jej wykorzystanie w procesach zbierania i przetwarzania danych maszynowych zapewnia bowiem wzrost efektywności i produktywności całego przedsiębiorstwa. Podstawowym narzędziem wykorzystywanym w tym procesie są algorytmy uczenia maszynowego (Machine Learning – ML). I choć ich wdrożenie technicznie nie jest łatwe, zapewnia ono inteligentnym fabrykom bardzo konkretne korzyści.

Analiza danych kierowana

Maszyny, urządzenia i procesy produkcyjne generują bezustannie ogromne ilości danych. Ich zbieranie to jednak tylko połowa sukcesu: szansę na uzyskanie przewagi konkurencyjnej będą miały w przyszłości tylko te przedsiębiorstwa, które na podstawie owych danych wypracują konkretną wartość dodaną. A to wymaga wdrożenia mechanizmów ich zaawansowanej analizy. Odpowiednio wykorzystane, dane maszynowe i procesowe mogą wówczas posłużyć np. do implementacji koncepcji konserwacji predykcyjnej, w której maszyna przejmuje rolę serwisanta i sama informuje o tym, kiedy należy wymienić daną część eksploatacyjną. Dzięki temu producenci maszyn będą mogli w przyszłości oferować zupełnie nowe usługi bazujące na danych, a także wdrożyć nowe modele relacji z klientem. Ten zaś zyska podwójnie – zwiększając produktywność i obniżając koszty funkcjonowania zakładu.

Przykładem systemu umożliwiającego efektywną analizę dużych zbiorów danych może być oprogramowanie wyposażone w algorytmy zautomatyzowanego uczenia maszynowego bazujące na sztucznej inteligencji. Jego obsługa jest na tyle prosta i ustandaryzowana, że poradzą sobie z nią technolodzy niedysponujący zaawansowaną wiedzą z zakresu analizy danych. W procesie tzw. „analizy kierowanej” (Guided Analytics) narzędzie przeprowadza użytkownika krok po kroku przez procedurę tworzenia, modyfikacji i uruchomienia algorytmów uczenia maszynowego – wszystko po to, by skrócić czasy przestojów i liczbę błędów, zoptymalizować utrzymanie ruchu oraz zwiększyć produktywność. Pomaga zebrać całą wiedzę dotyczącą działania maszyn i procesów, a następnie przekształcić ją i zapisać w formie gotowej aplikacji z zakresu uczenia maszynowego.

Zautomatyzowane uczenie maszynowe ma cały szereg potencjalnych zastosowań – od identyfikacji i klasyfikacji nieprawidłowości po tworzenie prognoz i scenariuszy. Punktem wyjścia do realizacji tych procesów jest jednak zawsze analiza danych oraz ich odpowiednie powiązanie i skorelowanie. W przypadku maszyn i urządzeń danych tych jest całkiem sporo. Aby jednak móc na ich podstawie wygenerować wartość dodaną, trzeba je odpowiednio przetworzyć, a następnie opracować bazujące na nich modele ML.

Tworzenie i wybór modelu Machine Learning

Software taki ma w swojej ofercie m.in. firma Weidmüller. Oprogramowanie to składa się generalnie z dwóch modułów: Modell Builder i AutoML. Pierwszy z nich służy do projektowania modeli uczenia maszynowego dysponujących możliwością identyfikacji i klasyfikacji nieprawidłowości oraz prognozowania błędów. Na tym etapie decydujące znaczenie ma doświadczenie technologów danego procesu: to oni najlepiej wiedzą, jak powinna zachowywać się dana maszyna czy urządzenie, a jakie zachowanie można uznać za nieprawidłowe. Są także w stanie na podstawie zestawu parametrów stwierdzić występowanie odchyłek od „normalnego” trybu pracy oraz odnaleźć je i sklasyfikować na potrzeby modelu ML.

Zbiór uzyskanych w ten sposób danych stanowi bazę, na podstawie której program automatycznie generuje zestaw modeli uczenia maszynowego. W warstwie technicznej niewiele różnią się one od rozwiązań opracowywanych ręcznie przez analityków danych. Jest ich jednak więcej: oprogramowanie proponuje użytkownikowi zawsze kilka alternatywnych opcji bazujących na różnych algorytmach i parametrach. Zadaniem użytkownika jest zaś wybór tego z nich, który najlepiej sprawdzi się w danej aplikacji. Decydującym kryterium może być tu zarówno jakość dopasowania do danych, jak i czas wykonania lub zastosowane parametry. Na koniec wybrany model jest eksportowany i zapisywany w środowisku programistycznym maszyny.

Pałeczkę przejmuje teraz oprogramowanie AutoML, którego podstawową funkcją jest wykonanie modelu w środowisku czasu rzeczywistego maszyny (on premise) lub w chmurze.

Wartość dodana algorytmów uczenia maszynowego

Wraz z postępem w rozwoju aplikacji wykorzystujących algorytmy uczenia maszynowego rosną także możliwości owych algorytmów. Jednocześnie jednak utrudnia to ich tworzenie, implementację i obsługę – zwłaszcza bez posiadania specjalistycznej wiedzy z zakresu analizy danych. Innymi słowy: opracowanie modelu ML jest z reguły czasochłonne, a jego wdrożenie generuje spore koszty. Co do zasady wymaga bowiem przygotowania studium wykonalności projektu, tzw. Proof of Concepts (PoC), obejmującego m.in. ocenę możliwości uzyskania założonych wyników oraz rentowności całego przedsięwzięcia.
 
Automatyzacja tych procesów zapewnia znaczne oszczędności czasu zarówno na etapie tworzenia, jak też porównywania modeli Machine Learning i efektywności ich odpowiedzi, co z kolei znacznie skraca czas ich wdrażania i racjonalizuje zużycie zasobów. Dodatkową korzyścią dla użytkownika są także regularne aktualizacje, które zapewniają dostęp do najnowszych rozwiązań z zakresu uczenia maszynowego. Największą zaletą narzędzia jest jednak możliwość automatyzacji samej analizy danych, dzięki czemu przedsiębiorstwo nie musi już zatrudniać zewnętrznej firmy analitycznej ani powoływać zespołu specjalistów ds. analizy danych z własnych szeregów. Wymaga ona bowiem jedynie zaangażowania technologa danego procesu, który uzupełnia dane zawarte w programie o wiedzę i doświadczenia z pracą z konkretną maszyną.

Wiedza ta bezpośrednio determinuje tworzenie modelu ML, a jednocześnie – połączona z możliwościami analitycznymi narzędzia – oferuje świetne rezultaty bez konieczności przeprowadzania dodatkowych szkoleń czy innych form kształcenia. Przygotowanie modelu ML trwa zaledwie godzinę, a to oznacza, że już w kolejnej godzinie może on przejąć zadanie automatycznej identyfikacji nieprawidłowości.

W poszukiwaniu kompromisu modelu uczenia maszynowego

Czy to oznacza, że to samo rozwiązanie można zastosować w każdej aplikacji z równie dużą dozą pewności, że przyniesie ono oczekiwane rezultaty? Nie do końca. Nawet jeśli cały czas pracujemy z danymi opartymi na szeregach czasowych i popularnymi algorytmami uczenia maszynowego, efektywność opracowywanych modeli będzie zależała w dużej mierze od sukcesywnego zawężania zakresu wyszukiwania. A jest to tym trudniejsze, im szerszy jest zakres zastosowań danego modelu. W praktyce oznacza to konieczność znalezienia kompromisu między uniwersalnością a specyfikacją, tj. między zakresem zastosowań modelu a jakością jego dopasowania do danych przy uwzględnieniu ograniczonych zasobów mocy obliczeniowej. Przykładowo, monitorowanie pracy układu chłodzenia na bazie danych z systemu sterowania wymaga zupełnie innego podejścia niż kontrola stanu łożysk na podstawie pomiarów drgań. Najlepsze rezultaty uzyskamy, jeśli procesy zautomatyzowanego uczenia maszynowego dostosujemy precyzyjnie do danej aplikacji, nie popadając jednocześnie w drobiazgowość.

Takie specyficzne modele Machine Learning sprawdzą się np. w przypadku monitoringu układnic magazynowych w intralogistyce czy zespołów pomp, sprężarek i wentylatorów. To właśnie tu najpełniej ujawniają się ich zalety – począwszy od redukcji liczby błędów wynikających z ręcznej analizy danych, a na oszczędności czasu skończywszy.

Co istotne, wyniki owego monitoringu można w łatwy sposób wyprowadzić z algorytmu. Dzięki temu użytkownik zyskuje możliwość dalszej optymalizacji modeli i wyników samego monitoringu, np. przez stałe dopracowywanie inżynierii cech lub dodawanie nowych adnotacji uwzględniających szczególnie istotne zdarzenia w puli gromadzonych danych.

Jako element szerszego portfolio narzędzi IoT programy do zautomatyzowanego uczenia maszynowego ułatwiają przedsiębiorstwom wdrożenie Przemysłowego Internetu Rzeczy – i to zarówno w nowych, jak też w już istniejących maszynach. W systemach IIoT rozwiązania z zakresu zbierania, wstępnego przetwarzania i przesyłu danych tworzą podstawową infrastrukturę analityczną, tj. umożliwiają logiczne połączenie i ocenę zgromadzonych informacji.

Trzeba przy tym pamiętać, że cyfryzacja nie jest celem samym w sobie. Powinna ona zawsze oferować konkretną wartość dodaną – czy to zwiększenie dostępności maszyn dzięki stałej kontroli ich stanu, czy też wzrost efektywności pracy techników serwisowych dzięki wdrożeniu systemu zdalnego serwisowania. To jednak nie wszystko: z wykorzystaniem sztucznej inteligencji można, nie będąc analitykiem danych, tworzyć nowe modele biznesowe oparte na danych.

Wdrożenie AML (Automated Machine Learning) w kilku krokach

Oprogramowanie do zautomatyzowanego uczenia maszynowego samodzielnie tworzy modele ML (algorytmy), a także automatycznie wybiera ten z nich, który pozwala najlepiej określić stan maszyn czy zdefiniować kryteria operacyjne. Proces ten można podzielić na sześć etapów: wstępne przetwarzanie danych, inżynierię cech, wstępny wybór modelu, uczenie i optymalizację modelu, wyjaśnialność modelu oraz jego wdrożenie. Pierwszy krok polega na konwersji danych do formy użytecznej dla modeli ML. Na tym etapie każdy wchodzący do systemu zbiór danych jest poddawany automatycznej procedurze oczyszczania dostosowanej do jego typu (dane numeryczne lub jakościowe szeregi czasowe) oraz filtrowany pod kątem najważniejszych zdarzeń.

Drugi etap – inżynieria cech (feature engineering) – polega na wyekstrahowaniu z powyższego zbioru danych tych z nich, które mają szczególnie dużą wartość informacyjną (tzw. cech). Przykładowo, w wielu aplikacjach z zakresu analizy danych istotna jest nie tyle absolutna wartość odczytana przez dany czujnik, np. temperatura czy moment obrotowy silnika, co zmienność owych wartości w czasie. W kolejnym kroku na podstawie analizy statystycznej z zestawu automatycznie zebranych cech odfiltrowywane są te, które zawierają informacje mogące w największym stopniu przyczynić się do podjęcia przez model ML właściwej decyzji. To zdecydowanie ułatwia ograniczenie zakresu wyszukiwania, a tym samym i optymalizację (uczenie) modelu ML oraz skraca czas wykonywania obliczeń z wykorzystaniem dostępnej mocy obliczeniowej.

Trzeci krok polega na wstępnej selekcji modelu ML: z zestawu dostępnych algorytmów ML wybierane są te, które w szeregach czasowych stosowanych w przemyśle przynoszą z reguły najlepsze rezultaty. Ich dobór może być bardzo różny, w zależności od charakterystyki danych wejściowych oraz specyfiki samej aplikacji (identyfikacja odchyleń, klasyfikacja błędów, prognozowanie błędów, kontrola jakości procesu). Wybrane modele są następnie uczone i optymalizowane.

W procesie tym model uczenia maszynowego w interakcji z najróżniejszymi algorytmami optymalizującymi uczy się statystycznych cech testowego zbioru danych, zaś cechy te są równolegle kontrolowane przy wykorzystaniu kolejnego testowego zbioru danych. Aby jeszcze lepiej zoptymalizować modele, do zbioru danych dobierane są tzw. hiperparametry, które definiują architekturę i zachowanie modelu ML. Dzięki temu specjalizuje się on w analizie określonego typu informacji oraz realizacji konkretnego zadania analitycznego.

Po optymalizacji przychodzi czas na wyjaśnialność, tj. określenie, które cechy wejściowe (czujniki) w największym stopniu wpływają na odpowiedź udzielaną przez model. Proces ten pozwala ocenić, czy modele nauczyły się tego, co powinny, oraz określić, które dane pomiarowe są istotne dla danego modelu i w związku z tym powinny zostać zarchiwizowane, a które nie przedstawiają dla niego żadnej wartości. Ocena taka umożliwia obniżenie kosztów transferu i przechowywania danych. Ostatnim etapem jest wdrożenie modelu, które sprowadza się do jego transformacji do postaci zamkniętej, umożliwiającej jego wszechstronne zastosowanie np. bezpośrednio w oprogramowaniu maszyny.

Silke Lödige i Reinhold Schäfer
***
Silke Lödige pracuje w firmie Weidmüller Interface GmbH & Co. KG.

O Autorze

MM Magazyn Przemysłowy jest tytułem branżowym typu business to business, w którym poruszana jest tematyka z różnych najważniejszych sektorów przemysłowych. Redakcja online MM Magazynu Przemysłowego  przygotowuje i publikuje na stronie artykuły techniczne, nowości produktowe oraz inne ciekawe informacje ze świata przemysłu i nie tylko.

Tagi artykułu

Zobacz również

Chcesz otrzymać nasze czasopismo?

Zamów prenumeratę