Przewiduje się wyposażenie systemu INSTEPRO w następujące moduły funkcjonalne:
1. Platformę interfejsów, transmisji danych, koordynacji i nadzoru, usług MES
2. Moduł eksploracji danych procesowych
2.1. Inteligentna identyfikacja modeli statycznych z selekcją danych
2.2. Identyfikacja dynamiczna obiektów liniowych.
2.3. Analiza zdarzeń w szeregach zmiennych procesowych
2.4. Podsystem zaawansowanej analizy diagnostycznej
3. Moduł symulatora dynamicznych procesów nieliniowych
4. Niestandardowe algorytmy regulacyjne
5. Moduł optymalizacyjny procesów
1. Platforma interfejsów, transmisji danych, koordynacji i nadzoru
Moduł platformy interfejsów, transmisji danych, koordynacji i nadzoru będzie stanowił warstwę
pośredniczącą pomiędzy warstwą sterowania bezpośredniego (cyfrowego), a warstwą koordynacji i
nadzoru, która z jednej strony będzie realizowała podstawowe usługi:
• integracji z automatyką procesową
• integracji z modułami produkcyjnymi ERP,
• koordynacji, nadzoru i komunikacji pozostałych modułów w ramach INSTEPRO,
• usługi MES
Jako system informatyczny - pośredniczący, INSTEPRO:
• Czuwa nad całością procesu komunikacji i wymiany danych pomiędzy platformą danych, a warstwą ERP,
• Reaguje na zdarzenia zachodzące w procesie produkcyjnym (procesowej bazie danych systemu SCADA),
na ich podstawie inicjuje przesłanie odpowiednich danych między integrowanymi systemami).
• Nadzoruje proces komunikacji oraz sprawdza zgodność i poprawność przesłania każdej partii danych.
• Kontroluje stan połączenia z integrowanymi systemami.
• Zapisuje historię procesu komunikacji
• Uruchamia dodatkowe moduły, w tym zaawansowane usługi sterowania i monitoruje ich realizację
Podstawowym założeniem, realizowanym i nadzorowanym przez Moduł Platformy Interfejsów jest, aby działanie
INSTEPRO nie pływało w żaden sposób na poprawność działania systemów nadrzędnych i podrzędnych
(gwarantowane dostarczanie komunikatów). W ramach przewidywanej funkcjonalności MES (moduł
eksploracji danych procesowych), wybrane informacje będą przez INSTEPRO przetwarzane i wiązane w
odpowiedni sposób oraz udostępniane w przejrzystych zestawieniach pracownikom zarządzającym produkcją
i innym osobom z odpowiednimi uprawnieniami dostępu. Za ich pomocą można wnikliwie kontrolować w
czasie rzeczywistym proces produkcyjny i logistyczny przez analizę zda-rzeń od momentu przyjęcia
surowców przez wszystkie ruchy magazynowe, zapotrzebowania na produkcję, wyda-nia na produkcję,
konsumpcję do danych zleceń, wytworzenie wyrobów gotowych, przekazanie na magazyn wyro-bów, przez
dalsze zarządzanie ruchami magazynowymi, lokalizacją magazynową i kompletacją wysyłek. System poza
zdarzeniami będzie rejestrował czas i osoby odpowiedzialne za dane operacje i wiąże je ze zdarzeniami.
Wśród różnorodnych sytuacji, które można za pomocą systemu INSTEPRO sprawniej ewidencjonować są również
takie zdarzenia jak przestoje maszyn, awarie, wszelkiego rodzaju zmiany – półproduktów, surowców, części,
innych materiałów, pracowników, a także urządzeń, narzędzi, odpadów itp.
2. Eksploracja danych procesowych
Moduł eksploracji danych procesowych ma na celu pełniejsze wykorzystanie zasobów informacji zawartych
w bazie czasu rzeczywistego i bazach archiwalnych systemu sterowania. Komputerowe systemy nadzorowania
procesów SCADA rejestrują synchronicznie zmienne procesowe ciągłe z dużą częstością (na ogół co 1s.)
oraz asynchronicznie informacje o istotnych zdarzeniach procesowych. Dane te są wykorzystywane do
wizualizacji procesu, rzadziej i w niewielkim zakresie czasowym - do analiz statystycznych (pakiety
Statistical Process Control) oraz sporadycznie – do analiz diagnostycznych w trybie off-line (w
przypadku wystąpienia poważniejszych nieprawidłowości).
W chwili obecnej istnieje wiele metod zaawansowanej, algorytmicznej analizy dużych zbiorów danych
(tzw. drą-żenie danych i odkrywanie wiedzy – ang. Data Mining and Knowledge Discovery), które są coraz
powszechniej-szym narzędziem wspomagania zarządzania, diagnostyki medycznej itp. Są one ukierunkowane na
agregację informacji poprzez poszukiwanie skupień (grupowanie obiektów/sytuacji podobnych), klasyfikację,
segmentację szeregów czasowych, wykrywanie danych nietypowych (detekcja zdarzeń), a następnie modelowanie
procesów (drzewa decyzyjno-regresyjne, ang. decision-regression trees), diagnostykę, syntezę reguł obsługi
zdarzeń (np. analiza koszykowa).
W przypadku systemów sterowania wykorzystywane bazy danych są homogeniczne, co ułatwia zadanie eksploracji
i sprowadza je głównie do wykorzystania algorytmów statystycznej analizy danych, segmentacji szeregów czasowych,
rozpoznawania obrazów (grupowanie, klasyfikacja, detekcja anomalii) i modelowania matematycznego (ang. Industrial
Data Mining).
Zespół wykonawców projektu zajmuje się od szeregu lat rozwijaniem takich algorytmów. Badania prowadzone na
danych procesowych (w laboratoriach KA AGH i zebranych na instalacjach przemysłowych) oraz na szeregach finansowych
wskazują na duże możliwości usprawnienia sterowania i nadzorowania procesów przez wykorzystanie takich algorytmów.
W szczególności prace naukowe zespołu koncentrowały się na konstrukcji algorytmów segmentacji szeregów i usprawnieniu
metod detekcji zdarzeń w szeregach czasowych, agregacji informacji z wy-korzystaniem transformacji falkowych, metodach
grupowania, wykorzystaniu sieci neuronowych, doskonaleniu algorytmów modelowania regresyjnego (wykorzystanie
technik filtracji, ortogonalizacji wejść uogólnionych modelu i analizy komponentów głównych, analizy
stacjonarności procesów).
W ramach projektu przewiduje się opracowanie i wykonanie prototypowego oprogramowania następujących
pakietów eksploracji danych procesowych:
a. inteligentnej identyfikacji modeli statycznych z selekcją danych,
b. identyfikacji dynamicznej obiektów jednowymiarowych liniowych.
c. analizy zdarzeń w szeregach zmiennych procesowych
d. zaawansowanej analizy diagnostycznej
Pakiet a) będzie zawierał algorytmy:
• segmentacji szeregów czasowych, wykrywające okresy stacjonarności z wykorzystaniem
metod największej wiarygodności (algorytm Page-Hinkleya oparty na testach stosunku funkcji wiarygodności
(ang. Likelihood Ratio, LR) oraz oryginalnych filtrów wykorzystujących wieloaspektowe testy statystyczne);
• detekcji stanów stacjonarnych instalacji i identyfikacji opóźnień w torach wejścia/wyjścia (na podstawie
kompleksowej analizy wyników segmentacji), weryfikacji przydatności i rejestracji danych uśrednionych oraz ich parametrów
statystycznych;
• grupowania i klasyfikacji punktów pracy na podstawie wyników segmentacji i innych dostępnych danych
• redukcji liczby istotnych wejść uogólnionych metodą analizy komponentów głównych;
• identyfikacji modeli regresyjnych, ich walidacji oraz grupowania
• modelowania nieparametrycznego wielowymiarowych zależności (przeznaczonych do optymalizacji receptur,
estymacji złożonych wskaźników jakości produkcji w poszczególnych klasach punktów pracy itp.)
• regresji logistycznej do prognozowania prawdopodobieństw warunkowych wyjść dyskretnych (w szczególności
dla potrzeb kontroli jakości wyrobów) na podstawie wartości wejść ciągłych i dyskretnych (obciążenie instalacji,
skład surowca, dostawca, wykonawca, kod sytuacji procesowej) i odpowiadających im klas jakościowych wartości
najważniejszych wyjść (klasy typu: produkcja trafiona/nietrafiona, wyrób dobry/wadliwy /reklamowany)
Pakiet b) będzie wykorzystywał wyniki procedur pakietu a) (segmentacji, ortogonalizacji, analizy istotności
czynników zależności regresyjnych) w następujących algorytmach:
• doboru (rejestracji) danych do identyfikacji modeli dynamicznych, poprzez analizę istotności pobudzeń
obiektu w okresach niestacjonarności poszczególnych wejść i wyjść oraz rejestracji ich wzajemnych opóźnień,
z uwzględnieniem wyników klasyfikacji punktów pracy (dane będą adresowane do modeli dla odpowiednich klas);
• identyfikacji modeli typu ARMAX i ARIMAX, w tym z nieliniową częścią statyczną (modele Hammersteina)
dla poszczególnych klas punktów pracy
• weryfikacji uzyskanych modeli w oparciu o opracowane reguły akceptacji modeli.
Pakiet c) będą stanowić procedury wieloaspektowej analizy residuów segmentacji (dla wejść) oraz modeli
procesu (dla wyjść) wykorzystujące metody statystyczne i widmowe do wykrywania nietypowych odchyłek (zdarzeń
procesowych), przewidywania istotnych zmian parametrów statystycznych szeregów czasowych oraz weryfikacji
adekwatności modeli regresyjnych (z wykorzystaniem oryginalnych, uogólnionych metod stosunku funkcji wiarygodności
LR i transformacji falkowych). Wyniki detekcji będą sygnalizowane w ramach monitoringu procesu, a także będą
służyć do uruchamiania procedur adaptacji modeli.
Pakiet d) będzie wykorzystywał wyniki procedur (a-c) w celu prowadzenia kompleksowej analizy diagnostycznej obiektu
sterowania i całego systemu produkcyjnego. Zostaną tu zaimplementowane najlepsze algorytmy obserwacji stanu i
identyfikacji parametrów w oparciu o modele procesów. Przewiduje się również klasyfikację sytuacji procesowych
opartej na analizach komponentów głównych (PCA). Działanie tego pakietu pozwoli na eliminację inflacji alarmów
oraz agregację informacji o efektywności sterowania umożliwiającą konstrukcję prostych reguł (tablic decyzyjnych)
wykrywania i obsługi niesprawności procesów (w szczególności sytuacji awaryjnych).
3. Moduł symulatora dynamicznych procesów nieliniowych
Dla wielu procesów ciągłych istnieje możliwość skonstruowania teoretycznych modeli przyczynowo-skutkowych
w postaci skończenie wymiarowego układu równań stanu i wyjść. Daje to możliwości precyzyjnej symulacji
procesu w czasie rzeczywistym (np. dla potrzeb diagnostyki, adaptacji ograniczeń alarmowych), algorytmicznej
adaptacji modeli nieliniowych przez ich aproksymację zależnościami liniowymi na podstawie symulowanych odpowiedzi
na określone wymuszenia, a także prowadzenia symulacyjnych analiz konsekwencji stosowania różnych scenariuszy
sterowania, czy analiz Monte-Carlo wrażliwości procesu na różne zakłócenia losowe.
Model teoretyczne w przestrzeni stanu są w zdecydowanej większości przypadków nieliniowe. Ich implementacja
wymaga zatem opracowania dedykowanych procedur obliczania pochodnych stanu i wartości wyjść, a także dedykowanych
metod wyznaczania stanów równowagowych. Prototypy takich procedur mogą być przygotowane w środowisku MATLAB-SIMULINK,
ale docelowo powinny być zakodowane w kompilowanym języku procedural-nym (np. C lub C++) i umieszczone w środowisku
obliczeniowym systemu sterowanie (dostęp do danych proce-sowych, automatyczna adaptacja do zmieniającej się struktury
powiązań podprocesów). Pozwala to wyeliminować konieczność zakupu pakietu MATLAB (na ogół nieprzydatnego dla
użytkownika końcowego) i przyspiesza obli-czenia (szczególnie w wielowariantowych badaniach symulacyjnych Monte-Carlo).
Kodowanie takich procedur wiąże się z dużym ryzykiem błędów (często trudnych do wykrycia w środowisku MATLAB), które muszą być wyeliminowane na etapie testowania pakietu symulacyjnego w docelowym środowisku obliczeniowym.
Zespół wykonawców projektu posiada duże doświadczenie badawcze w modelowaniu systemów dynamicznych i ich symulacji,
a także możliwość testowania oprogramowania na instalacjach laboratoryjnych. Doświadczenia te zamierza się
wykorzystać w oferowanym pakiecie symulacyjnym.
Pakiet symulatora dynamicznego będzie się składał z:
a) modułu zarządzającego (komunikacja z systemem sterowania, w tym dostęp do danych, koordynacja obliczeń);
b) interfejsu operatorskiego umożliwiającego konfigurację modelu, weryfikację poprawności merytorycznej
oprogramowania, generowanie scenariuszy sterowania, zlecanie zadań obliczeniowych off-line, uruchamianie
symulacji w czasie rzeczywistym;
c) biblioteki uniwersalnych procedur do:
• generowania standardowych przebiegów czasowych wejść (skok jednostkowy, sygnały losowe, harmoniczne
• rozwiązywania układów równań różniczkowych,
• rozwiązywania układów równań algebraicznych dla stanów równowagowych,
• linearyzacji metodą Taylora i metodą aproksymacji odpowiedzi skokowych,
• obserwacji stanu na podstawie modeli zlinearyzowanych
d) bibliotek zawierających zwarte zestawy dedykowanych procedur modelu o dowolnych powiązaniach wzajemnych
(dołączanych oddzielnie dla każde modelowanego procesu, tj. dla każdego układu równań różniczkowych i równań wyjść)
Interfejs b) będzie zawierał m.in. procedury ekspertowej weryfikacji poprawności merytorycznej modelu, tj.
poprawności powiązań równań modelu, prawidłowości specyfikacji źródeł danych, poprawności komunikacji z bazą
danych systemu. Umożliwi to stosunkowo łatwe wyeliminowanie błędów merytorycznych oprogramowania przed testami
obiektowymi.
System umożliwi łatwe dołączanie biblioteki (d) dla konkretnego procesu i skonfigurowanie jej powiązań z modelami
innych procesów. Pozwoli to na symulację złożonych wielopoziomowych procesów, a tym samym ułatwi m.in. syntezę
modeli uproszczonych dla potrzeb sterowania statycznego i dynamicznego (aproksymacja zależności równowagowych,
aproksymacja odpowiedzi skokowych, konstrukcja odpornych modeli liniowych w przestrzeni stanu).
Moduł uruchomiony w trybie off-line będzie mógł być wykorzystywany w trybie on-line (symulacja w czasie
rzeczywistym).
Pakiet może być również skonfigurowany jako niezależny system do symulacji złożonych układów technicznych
skończenie wymiarowych (m.in. dla dyskretyzowanych, przestrzennie prostszych układów o parametrach rozłożonych).
4. Niestandardowe algorytmy regulacyjne
Proponowany zespół wykonawców projektu zajmuje się od ponad dwudziestu lat syntezą złożonych układów regulacji,
w tym wielopoziomowych kaskad regulatorów jednopętlowych (SISO) i regulatorów wielowymiarowych. W szczególności
prowadzono szerokie badania jedno i wielowymiarowej regulacji predykcyjnej obiektów liniowych i nieliniowych.
Badania te wskazują na ewidentne korzyści jakie może dać wykorzystanie tej nowoczesnej techniki regulacyjnej
w przemyśle chemicznym, metalurgicznym, w ciepłownictwie, biotechnologii i innych (poprawa jakości i elastyczności
sterowania, minimalizacja strat związanych ze zmianami punktu pracy, zwiększenie odporności układu sterowania).
W ramach projektu przewiduje się implementację następujących algorytmów
a) regulacji predykcyjnej obiektów liniowych bez ograniczeń w tzw. postaci analitycznej DMC;
b) uogólnionej regulacji predykcyjnej bez ograniczeń, z elastycznym kwadratowym wskaźnikiem jakości;
c) regulacji predykcyjnej z ograniczeniami i kwadratowym wskaźnikiem jakości
d) regulacji predykcyjnej z ograniczeniami i liniowym wskaźnikiem jakości
e) nadzorowania jakości sterowania i adaptacji modeli matematycznych
Procedury (a-d) będą wykorzystywały modele matematyczne dynamiki procesu identyfikowane w pakiecie 1a, natomiast
w procedurach e) będą wykorzystane wyniki analiz prowadzonych przez procedury pakietu 1d.
Ponadto do planowanego pakietu regulacji będą dołączone procedury obliczania nastaw regulatorów jednopętlowych
wg różnych kryteriów, z wykorzystaniem prostych modeli dynamiki procesu oraz interfejsy operatorskie ułatwiające
konfigurację złożonych układów regulacji (wielopoziomowe kaskady, zintegrowane układy wielowy-miarowe) oraz
kontrolę poprawności ich pracy.
5. Moduł optymalizacji procesów
Procedury te będą umożliwiały dobór sterowania nadrzędnego, realizującego utrzymanie wskaźników jakości procesu
na wartościach ekstremalnych, w warunkach zmiennych parametrów procesu lub zakłóceń (mierzonych lub estymowanych).
Moduł będzie zintegrowany z modułem eksploracji danych procesowych i modułem symulacji. W szczególności, moduł
optymalizacyjny umożliwi:
a) zdefiniowanie lub wybór wskaźników jakości i wskazanie zmiennych decyzyjnych, dla modeli zidentyfikowanych
z wykorzystaniem narzędzi opracowanych w ramach Podzadania 2 (punkt a) i symulowanych z wykorzystaniem narzędzi,
uzyskanych jako wynik Podzadania 3,
b) zdefiniowanie ograniczeń procesu, z ich klasyfikacją i skalowaniem,
c) wyliczanie wartości wskaźników jakości i ograniczeń w punktach pracy procesu a także aproksymację składowych
gradientów i wskaźników szacujących stopień spełnienia ograniczeń procesowych,
d) przeprowadzenie poszukiwania wartości zmiennych decyzyjnych z użyciem algorytmu wykorzystującego metody
pierwszego rzędu (np. SQP) lub metodę zerowego rzędu z grupy heurystycznych algorytmów, takich jak np. obliczenia ewolucyjne,
e) dostarczy procedury ekspertowej umożliwiającej weryfikację poprawności uzyskiwanych wyników, np. graficznej
ilustracji poprawy wskaźnika jakości, analizy powtarzalności rozwiązań, badanie wrażliwości na zmiany parametrów
modelu, analiza poprawności komunikacji z bazą danych systemu.