1. € 6,20,- / SFr 12,- xxxxxxxxxxx 2005 · E 10811 3/2005
Starke Einheit
Warum Thomas Bad-
stieber auf sein
CAD-Tool schwört
Mode-Design
Den Schnitt
durch CAD-Hilfe
vergoldet
Heft im Heft!
digitalPLANT über
Projektmanagement
im Anlagenbau
www.cadplus.de € 6,20,- / SFr 12,- Februar / März 2006 · E 10811 2/2006
Raus aus der Masse
Nachgefragt:
Was bei PLM anders werden muss
Das andere PLM
für die flexible,
schlanke Entwicklung
2. Der Umgang mit komplexen Syste-
men beruht bisher auf zwei Prinzi-
pien: Das bekannte „kiss“ (keep it simple
and stupid), was bedeutet, Komplexität ver-
meiden, und dem weniger bekannten
„destruct“ (define, structure, react), also
Systeme zu strukturieren und zu überwa-
chen. Nach dem Ansatz „destruct“ ist heu-
te das übliche Vorgehen die Zerlegung ei-
nes Gesamtprozesses in einfachere Subpro-
zesse und Komponenten und eine dafür
passende Definition und Überwachung von
Parametern beziehungsweise Stellgrößen.
Je komplizierter die Systeme und Prozes-
se jedoch werden, desto wirkungsloser ist
ihre Regelung auf der Ebene der Kompo-
nenten oder Subprozesse. Denn je mehrVa-
riable in einen Prozess eingreifen, desto we-
niger „kritische“ Variablen gibt es, die als
Führungsgröße dienen könnten. Je weniger
eine Variable dominiert, desto mehr basiert
das Gesamtsystem auf dem Zusammenspiel
vielerVariablen. Bei dieser Kopplung können
bereits kleine, unwillkürliche Störungen das
Gesamtsystem dramatisch verändern – ein
Effekt übrigens, den wir täglich in Politik und
Wirtschaft beobachten können.
Bei Systemen mit Hunderten, Tausenden
von Variablen und Komponenten verlieren
übliche Ziele wie optimaler Wirkungsgrad
oder Beherrschbarkeit an Bedeutung, da die
Komplexität eine derartige Reduktion verei-
telt. Der Begriff der „Robustheit“ des Ge-
samtprozesses gegenüber Abweichungen in
den Eingangsgrößen tritt an die Stelle des
optimalen Wirkungsgrads. Doch was ist un-
ter Robustheit zu verstehen? Lässt sie sich
messen? Die herkömmliche Definition von
Robustheit misst die Breite einer Wahr-
scheinlichkeitsverteilung eines Ausgangspa-
rameters alsAntwort auf Störungen der Ein-
gangsparameter. Danach hat ein robustes
System eine schmale, ein nicht robustes Sys-
tem eine breiteVerteilung, in jedem Fall aber
nur ein Maximum („unimodal“).
In der Verfahrenstechnik begegnet man
häufig hoch nicht-linearen Prozessen und
multiphysikalischen Aufgabenstellungen. Ein
Ausdruck dessen sind mehrere Maxima in
der Wahrscheinlichkeitsverteilung der Aus-
gangsparameter („multimodal“). Eine Stö-
rung kann einen spontanen Sprung von ei-
nem Maximum zum anderen, also von einem
Systemzustand zum anderen bewirken.
Knoten im Zustandsraum. Robust-
heit definiert sich damit aus der Form der
Wahrscheinlichkeitsverteilung (multimodal
versus unimodal) und nicht aus der Breite
der Verteilung der Ausgangsvariablen. Im all-
gemeinen Fall eines komplexen Systems mit
vielen Ein- und Ausgangsgrößen spannen
diese einen multidimensionalen (Zustands-)
Raum auf, in dem jeder Punkt einen Zustand
des Systems definiert. Entsprechend dem
vorigen Beispiel kann es darin natürlich sehr
viele Maxima in derVerteilung derAusgangs-
parameter geben.
Komplexe Systeme können auf Grund
scheinbar trivialer interner oder externer
Ereignisse ihren Zustand massiv ändern, da
diese durch die internen Abhängigkeiten auf
unzählbar viele Arten weitergeleitet und
verstärkt werden können. Daher ist es not-
wendig, die Komplexität eines Systems zu
verstehen und daraus zu lernen.
Herkömmliche Methoden zur Messung
der Komplexität betrachten einfach den
Graphen des Prozesses und bestimmen des-
sen Eigenschaften, zum Beispiel Rückkopp-
lungsschleifen. Diese sind allerdings in der
Regel eher Gegenstand akademischer Be-
trachtungen. Die Firma Ontonix SRL hat in-
novative Methoden auf der Basis von Mon-
te-Carlo-Simulationstechniken entwickelt,
die über die Topologiebetrachtung dieser
Graphen und das einfache Berechnen von
Streuungen oder Ausfallwahrscheinlichkei-
ten hinausgehen. Im Prinzip wird dabei
durch die Variation der Eingangsparameter
über ihren gesamten Wertebereich die Ver-
teilung der Ausgangsparameter im Zu-
standsraum „pixelweise“ dargestellt und an-
schließend analysiert. Statt einer Computer-
simulation können auch reale Messdaten aus
dem betrachteten Prozess als Basis für die-
se Auswertung dienen.
Gut ausgeleuchtet. Richtig angewandt,
werden diese Methoden zu einem Kernele-
ment im Verständnis von Komplexität und
Robustheit eines Systems oder Prozesses.
Die Software OntoSpace von Ontonix ist
die erste Software ihrer Art, die es ermög-
licht, die Art und Struktur der Komplexität
eines Systems zu erfassen und dadurch sei-
ne Robustheit zu quantifizieren. Ähnlich wie
durch eine Fourier-Analyse aus einem Signal
die dominanten Schwingungszustände eines
Systems ermittelt werden können, kann On-
toSpace die dominanten Systemzustände
(„Modalwerte“) aus der Verteilungsfunktion
im Zustandsraum ermitteln und in Entschei-
dungsgrafiken („Decision Maps“) darstellen.
Für jeden dieser Graphen lassen sich dann
Fragen beantworten wie:
q Wie komplex ist dieser Prozesszustand?
q Wie störanfällig ist dieser Prozesszu-
stand?
q An welcher Stelle des Prozesses ist die
größte Wahrscheinlichkeit einesVersagens?
q An welcher Stelle des Prozesses ist die
höchste Störanfälligkeit?
q Wie versagt der Prozess am wahrschein-
lichsten?
q Wie lässt sich die Komplexität des Pro-
zesses reduzieren?
Decision Maps bilden einen Satz von ver-
wandten Regeln, die das Verhalten des Sys-
X digitalPLANT Business+Engineering 2/2006
WHITE PAPER
Komplexe Systeme verstehen lernen
Prozesse und Systeme beste-
hen aus einem teilweise nicht
unmittelbar überschaubaren
Zusammenspiel vielfältiger
Abhängigkeiten. Eine Anlage,
beispielsweise ein Kernkraft-
werk, ist hierzu ein Beispiel
für ein „technisch“ komplexes
System. Ein anderes Exempel
ist eine Volkswirtschaft für
„natürlich“ komplexe Prozes-
se.Während eine Anlage nach
einem Plan errichtet wurden,
sind Wirtschaftsprozesse aus
sich selbst entstanden. Die
Herausforderung besteht dar-
in, das zugrunde liegende
Wechselspiel genau zu verste-
hen und auf einen bestimm-
ten Nutzen hin zu optimieren.
Intuition jedenfalls ist dabei
oftmals ein schlechter Lehr-
meister.
Die Helium-Test-Einrichtung (HTF) im
südafrikanischen Pelindaba wird den vollstän-
digen Heliumkreislauf des neuen Kernkraft-
werks PBMR auf Herz und Nieren prüfen.
PBMR nutzt Kugeln (60 Millimeter
Durchmesser), die mit Urandioxid angerei-
chert und mit Siliziumkarbid überzogen
sind (1).
Bilder(2):PBMR
3. Die nächste Ausgabe erscheint zusammen
mit CADplus am 11. April 2006
Die Achema 2006 vom 15. bis
19. Mai in Frankfurt am Main
wird auf deutlich bessere glo-
bale wirtschaftliche und politi-
sche Rahmenbedingungen tref-
fen als ihreVorgängerveranstal-
tung im Jahre 2003. Dies zu-
mindest ist die Meinung des
Veranstalters Dechema e.V. .
Auf der Aussteller- wie der Be-
sucherseite zeichnet sich welt-
weit ein ungebrochen großes
Interesse ab, zumal die Pro-
zessindustrien in allen aufstre-
benden Industrienationen ei-
nen Schwerpunkt bilden. Wir
berichten über die Auftritte
der wichtigsten Systemanbieter
im Plant-Engineering-Umfeld.
In digitalPLANT 3/2006 wartet folgendes Thema auf Sie:
Drehscheibe Frankfurt am Main
Längst laufen die Vorbereitungen für die Achema-Auftritte
bei den Systemanbietern auf Hochtouren
Bild:Dechema/Stettin
Weltforum
der Prozessindustrie
tems in dem entsprechenden Zustand be-
stimmen. Ein Beispiel für einen derartigen
Plot ist der hier gezeigte, der im Rahmen
der Entwicklungsarbeiten für den geplanten
Kugelhaufenreaktor in Südafrika von der Fir-
ma Pebble Bed Modular Reactor (1) erstellt
wurde. Mit dem Bau der Anlage soll im kom-
menden Jahr begonnen werden. Die Anlage
wurde zunächst mit dem Programm Flow-
nex (2) modelliert. Mit diesem Modell wur-
de anschließend eine Monte-Carlo-Simula-
tion durchgeführt, bei der die Parameter-
werte stochastisch variiert wurden. Dieses
Vorgehen erlaubt eine Risikoanalyse der An-
lage inklusive der Bestimmung von Redun-
danzen und des sogenannten Fail-Safe-Ver-
haltens. Die roten Punkte („connectors“) il-
lustrieren Relationen zwischen den Varia-
blen des Systems. Jede Relation korrespon-
diert mit einer Regel, die durch ihre Wich-
tung oder Stärke charakterisiert ist.
Wenn sich der Nutzer der Software durch
den Zustandsraum „bewegt“, kann sich die
Topologie der Modalwerte verändern und
neue Variablen können an Bedeutung gewin-
nen, während andere ihren Einfluss einbüßen
oder die Stärke der Regeln sich verändert.
Die Leistungsfähigkeit von OntoSpace
liegt in seiner Fähigkeit, das oft nicht-intuiti-
veVerhalten von Systemen aufzudecken.Tat-
sächlich erhöht sich die Zahl der Modalwer-
te, die nicht-intuitives oder gefährliches Ver-
halten repräsentieren, mit der Erhöhung der
Komplexität rasant.
Realismus oder Präzision. Um Risiken
vorherzusagen und steuernd eingreifen zu
können, ist es von höchster Wichtigkeit, ein
derart gefährliches Verhalten zu erkennen,
bevor es sich in der Realität einstellt. Dabei
ist eine hohe Komplexität nicht unbedingt
mit einer hohen Zahl von Systemkompo-
nenten gleichzusetzen. So wie Komplexität
von uns verstanden wird, sind viele Kompo-
nenten nur eine notwendige, nicht aber eine
hinreichende Bedingung.Tatsächlich können
auch einfache, autonome Agenten in ihrer
Kombination zu erstaunlich komplexemVer-
halten fähig sein.
Die vom Menschen formulierten Gesetze
wie das Zweite Newtonsche Axiom geben
die wahre Natur nur angenähert wieder. Si-
cherheitszuschläge wurden daher ange-
wandt, um diese „stochastische Unruhe“ zu
überdecken und wieder zu einer determi-
nistischen Beschreibung zurückzukehren.
Doch gibt es immer etwas, was bei diesem
Kalkül unter den Tisch fällt. Daher kann
nicht ausgeschlossen werden, dass eine un-
vorhergesehene Kombination an Faktoren
zu einer Katastrophe führt.
Heute beginnen wir zu verstehen, dass
zugrunde liegende beschreibende Modelle
nicht exakt sein müssen. Schließlich ist auch
die Natur nicht „exakt“. Diese Erkenntnis
setzt sich inzwischen bei Berechnungsinge-
nieuren mehr und mehr durch. Die Berück-
sichtigung der Unsicherheit bei den Parame-
tern eines Computermodells, wie es das
Tool MSC.Robust Design (3) als Ergänzung
zu MSC.Nastran erlaubt, steigert die Aussa-
gekraft der Modelle ganz enorm. Übrigens
basiert MSC.Robust Design auf der Techno-
logie von Ontonix.
In der Prozessindustrie steht diese Ent-
wicklung noch am Anfang. Doch die enor-
men Bilanzwerte, die Anlagen hier darstel-
len, das große Schadenspotenzial im Fall ei-
nes Versagens – nicht nur bei nuklearen An-
lagen – wird sicher auch hier ein Umdenken
sowohl bei Anlagenbauern als auch bei Anla-
genbetreibern bewirken und dafür sorgen,
dass die naturgegebene Unsicherheit der re-
alen Welt sich auch in deren digitalen Abbil-
dern wiederfindet und sich minimieren lässt.
Der Ansatz von Ontonix ist dafür ein gang-
barer Weg.
JACEK MARCZYK
(1) www.pbmr.com
(2) www.flownex.com
(3) CADplus 3/2004, Feldhaus, U., „Den
Nagel auf den Kopf treffen“, Göller,
Baden-Baden
Weitere Informationen zu hier
vorgestellten Lösung unter
www.ontonix.com
INFOCORNER
Entscheidungsgrundlage. Eine Decision Map entspricht einem möglichen Modalwert eines
Prozesses. Bei komplexen Prozessen kann es bis zu mehrere hundert Modalwerte geben. Dun-
kelrot sind die sogenannten Hubs oder kritischen Variablen gekennzeichnet, die besonders viele
Verbindungen aufweisen. Die Zahl der Hubs ist ein direktes Maß für die Robustheit des Systems.
Quelle:Ontonix,PBMR2006
digitalPLANT Business+Engineering 2/2006 XI