SlideShare uma empresa Scribd logo
1 de 3
Baixar para ler offline
€ 6,20,- / SFr 12,- xxxxxxxxxxx 2005 · E 10811 3/2005
Starke Einheit
Warum Thomas Bad-
stieber auf sein
CAD-Tool schwört
Mode-Design
Den Schnitt
durch CAD-Hilfe
vergoldet
Heft im Heft!
digitalPLANT über
Projektmanagement
im Anlagenbau
www.cadplus.de € 6,20,- / SFr 12,- Februar / März 2006 · E 10811 2/2006
Raus aus der Masse
Nachgefragt:
Was bei PLM anders werden muss
Das andere PLM
für die flexible,
schlanke Entwicklung
Der Umgang mit komplexen Syste-
men beruht bisher auf zwei Prinzi-
pien: Das bekannte „kiss“ (keep it simple
and stupid), was bedeutet, Komplexität ver-
meiden, und dem weniger bekannten
„destruct“ (define, structure, react), also
Systeme zu strukturieren und zu überwa-
chen. Nach dem Ansatz „destruct“ ist heu-
te das übliche Vorgehen die Zerlegung ei-
nes Gesamtprozesses in einfachere Subpro-
zesse und Komponenten und eine dafür
passende Definition und Überwachung von
Parametern beziehungsweise Stellgrößen.
Je komplizierter die Systeme und Prozes-
se jedoch werden, desto wirkungsloser ist
ihre Regelung auf der Ebene der Kompo-
nenten oder Subprozesse. Denn je mehrVa-
riable in einen Prozess eingreifen, desto we-
niger „kritische“ Variablen gibt es, die als
Führungsgröße dienen könnten. Je weniger
eine Variable dominiert, desto mehr basiert
das Gesamtsystem auf dem Zusammenspiel
vielerVariablen. Bei dieser Kopplung können
bereits kleine, unwillkürliche Störungen das
Gesamtsystem dramatisch verändern – ein
Effekt übrigens, den wir täglich in Politik und
Wirtschaft beobachten können.
Bei Systemen mit Hunderten, Tausenden
von Variablen und Komponenten verlieren
übliche Ziele wie optimaler Wirkungsgrad
oder Beherrschbarkeit an Bedeutung, da die
Komplexität eine derartige Reduktion verei-
telt. Der Begriff der „Robustheit“ des Ge-
samtprozesses gegenüber Abweichungen in
den Eingangsgrößen tritt an die Stelle des
optimalen Wirkungsgrads. Doch was ist un-
ter Robustheit zu verstehen? Lässt sie sich
messen? Die herkömmliche Definition von
Robustheit misst die Breite einer Wahr-
scheinlichkeitsverteilung eines Ausgangspa-
rameters alsAntwort auf Störungen der Ein-
gangsparameter. Danach hat ein robustes
System eine schmale, ein nicht robustes Sys-
tem eine breiteVerteilung, in jedem Fall aber
nur ein Maximum („unimodal“).
In der Verfahrenstechnik begegnet man
häufig hoch nicht-linearen Prozessen und
multiphysikalischen Aufgabenstellungen. Ein
Ausdruck dessen sind mehrere Maxima in
der Wahrscheinlichkeitsverteilung der Aus-
gangsparameter („multimodal“). Eine Stö-
rung kann einen spontanen Sprung von ei-
nem Maximum zum anderen, also von einem
Systemzustand zum anderen bewirken.
Knoten im Zustandsraum. Robust-
heit definiert sich damit aus der Form der
Wahrscheinlichkeitsverteilung (multimodal
versus unimodal) und nicht aus der Breite
der Verteilung der Ausgangsvariablen. Im all-
gemeinen Fall eines komplexen Systems mit
vielen Ein- und Ausgangsgrößen spannen
diese einen multidimensionalen (Zustands-)
Raum auf, in dem jeder Punkt einen Zustand
des Systems definiert. Entsprechend dem
vorigen Beispiel kann es darin natürlich sehr
viele Maxima in derVerteilung derAusgangs-
parameter geben.
Komplexe Systeme können auf Grund
scheinbar trivialer interner oder externer
Ereignisse ihren Zustand massiv ändern, da
diese durch die internen Abhängigkeiten auf
unzählbar viele Arten weitergeleitet und
verstärkt werden können. Daher ist es not-
wendig, die Komplexität eines Systems zu
verstehen und daraus zu lernen.
Herkömmliche Methoden zur Messung
der Komplexität betrachten einfach den
Graphen des Prozesses und bestimmen des-
sen Eigenschaften, zum Beispiel Rückkopp-
lungsschleifen. Diese sind allerdings in der
Regel eher Gegenstand akademischer Be-
trachtungen. Die Firma Ontonix SRL hat in-
novative Methoden auf der Basis von Mon-
te-Carlo-Simulationstechniken entwickelt,
die über die Topologiebetrachtung dieser
Graphen und das einfache Berechnen von
Streuungen oder Ausfallwahrscheinlichkei-
ten hinausgehen. Im Prinzip wird dabei
durch die Variation der Eingangsparameter
über ihren gesamten Wertebereich die Ver-
teilung der Ausgangsparameter im Zu-
standsraum „pixelweise“ dargestellt und an-
schließend analysiert. Statt einer Computer-
simulation können auch reale Messdaten aus
dem betrachteten Prozess als Basis für die-
se Auswertung dienen.
Gut ausgeleuchtet. Richtig angewandt,
werden diese Methoden zu einem Kernele-
ment im Verständnis von Komplexität und
Robustheit eines Systems oder Prozesses.
Die Software OntoSpace von Ontonix ist
die erste Software ihrer Art, die es ermög-
licht, die Art und Struktur der Komplexität
eines Systems zu erfassen und dadurch sei-
ne Robustheit zu quantifizieren. Ähnlich wie
durch eine Fourier-Analyse aus einem Signal
die dominanten Schwingungszustände eines
Systems ermittelt werden können, kann On-
toSpace die dominanten Systemzustände
(„Modalwerte“) aus der Verteilungsfunktion
im Zustandsraum ermitteln und in Entschei-
dungsgrafiken („Decision Maps“) darstellen.
Für jeden dieser Graphen lassen sich dann
Fragen beantworten wie:
q Wie komplex ist dieser Prozesszustand?
q Wie störanfällig ist dieser Prozesszu-
stand?
q An welcher Stelle des Prozesses ist die
größte Wahrscheinlichkeit einesVersagens?
q An welcher Stelle des Prozesses ist die
höchste Störanfälligkeit?
q Wie versagt der Prozess am wahrschein-
lichsten?
q Wie lässt sich die Komplexität des Pro-
zesses reduzieren?
Decision Maps bilden einen Satz von ver-
wandten Regeln, die das Verhalten des Sys-
X digitalPLANT Business+Engineering 2/2006
WHITE PAPER
Komplexe Systeme verstehen lernen
Prozesse und Systeme beste-
hen aus einem teilweise nicht
unmittelbar überschaubaren
Zusammenspiel vielfältiger
Abhängigkeiten. Eine Anlage,
beispielsweise ein Kernkraft-
werk, ist hierzu ein Beispiel
für ein „technisch“ komplexes
System. Ein anderes Exempel
ist eine Volkswirtschaft für
„natürlich“ komplexe Prozes-
se.Während eine Anlage nach
einem Plan errichtet wurden,
sind Wirtschaftsprozesse aus
sich selbst entstanden. Die
Herausforderung besteht dar-
in, das zugrunde liegende
Wechselspiel genau zu verste-
hen und auf einen bestimm-
ten Nutzen hin zu optimieren.
Intuition jedenfalls ist dabei
oftmals ein schlechter Lehr-
meister.
Die Helium-Test-Einrichtung (HTF) im
südafrikanischen Pelindaba wird den vollstän-
digen Heliumkreislauf des neuen Kernkraft-
werks PBMR auf Herz und Nieren prüfen.
PBMR nutzt Kugeln (60 Millimeter
Durchmesser), die mit Urandioxid angerei-
chert und mit Siliziumkarbid überzogen
sind (1).
Bilder(2):PBMR
Die nächste Ausgabe erscheint zusammen
mit CADplus am 11. April 2006
Die Achema 2006 vom 15. bis
19. Mai in Frankfurt am Main
wird auf deutlich bessere glo-
bale wirtschaftliche und politi-
sche Rahmenbedingungen tref-
fen als ihreVorgängerveranstal-
tung im Jahre 2003. Dies zu-
mindest ist die Meinung des
Veranstalters Dechema e.V. .
Auf der Aussteller- wie der Be-
sucherseite zeichnet sich welt-
weit ein ungebrochen großes
Interesse ab, zumal die Pro-
zessindustrien in allen aufstre-
benden Industrienationen ei-
nen Schwerpunkt bilden. Wir
berichten über die Auftritte
der wichtigsten Systemanbieter
im Plant-Engineering-Umfeld.
In digitalPLANT 3/2006 wartet folgendes Thema auf Sie:
Drehscheibe Frankfurt am Main
Längst laufen die Vorbereitungen für die Achema-Auftritte
bei den Systemanbietern auf Hochtouren
Bild:Dechema/Stettin
Weltforum
der Prozessindustrie
tems in dem entsprechenden Zustand be-
stimmen. Ein Beispiel für einen derartigen
Plot ist der hier gezeigte, der im Rahmen
der Entwicklungsarbeiten für den geplanten
Kugelhaufenreaktor in Südafrika von der Fir-
ma Pebble Bed Modular Reactor (1) erstellt
wurde. Mit dem Bau der Anlage soll im kom-
menden Jahr begonnen werden. Die Anlage
wurde zunächst mit dem Programm Flow-
nex (2) modelliert. Mit diesem Modell wur-
de anschließend eine Monte-Carlo-Simula-
tion durchgeführt, bei der die Parameter-
werte stochastisch variiert wurden. Dieses
Vorgehen erlaubt eine Risikoanalyse der An-
lage inklusive der Bestimmung von Redun-
danzen und des sogenannten Fail-Safe-Ver-
haltens. Die roten Punkte („connectors“) il-
lustrieren Relationen zwischen den Varia-
blen des Systems. Jede Relation korrespon-
diert mit einer Regel, die durch ihre Wich-
tung oder Stärke charakterisiert ist.
Wenn sich der Nutzer der Software durch
den Zustandsraum „bewegt“, kann sich die
Topologie der Modalwerte verändern und
neue Variablen können an Bedeutung gewin-
nen, während andere ihren Einfluss einbüßen
oder die Stärke der Regeln sich verändert.
Die Leistungsfähigkeit von OntoSpace
liegt in seiner Fähigkeit, das oft nicht-intuiti-
veVerhalten von Systemen aufzudecken.Tat-
sächlich erhöht sich die Zahl der Modalwer-
te, die nicht-intuitives oder gefährliches Ver-
halten repräsentieren, mit der Erhöhung der
Komplexität rasant.
Realismus oder Präzision. Um Risiken
vorherzusagen und steuernd eingreifen zu
können, ist es von höchster Wichtigkeit, ein
derart gefährliches Verhalten zu erkennen,
bevor es sich in der Realität einstellt. Dabei
ist eine hohe Komplexität nicht unbedingt
mit einer hohen Zahl von Systemkompo-
nenten gleichzusetzen. So wie Komplexität
von uns verstanden wird, sind viele Kompo-
nenten nur eine notwendige, nicht aber eine
hinreichende Bedingung.Tatsächlich können
auch einfache, autonome Agenten in ihrer
Kombination zu erstaunlich komplexemVer-
halten fähig sein.
Die vom Menschen formulierten Gesetze
wie das Zweite Newtonsche Axiom geben
die wahre Natur nur angenähert wieder. Si-
cherheitszuschläge wurden daher ange-
wandt, um diese „stochastische Unruhe“ zu
überdecken und wieder zu einer determi-
nistischen Beschreibung zurückzukehren.
Doch gibt es immer etwas, was bei diesem
Kalkül unter den Tisch fällt. Daher kann
nicht ausgeschlossen werden, dass eine un-
vorhergesehene Kombination an Faktoren
zu einer Katastrophe führt.
Heute beginnen wir zu verstehen, dass
zugrunde liegende beschreibende Modelle
nicht exakt sein müssen. Schließlich ist auch
die Natur nicht „exakt“. Diese Erkenntnis
setzt sich inzwischen bei Berechnungsinge-
nieuren mehr und mehr durch. Die Berück-
sichtigung der Unsicherheit bei den Parame-
tern eines Computermodells, wie es das
Tool MSC.Robust Design (3) als Ergänzung
zu MSC.Nastran erlaubt, steigert die Aussa-
gekraft der Modelle ganz enorm. Übrigens
basiert MSC.Robust Design auf der Techno-
logie von Ontonix.
In der Prozessindustrie steht diese Ent-
wicklung noch am Anfang. Doch die enor-
men Bilanzwerte, die Anlagen hier darstel-
len, das große Schadenspotenzial im Fall ei-
nes Versagens – nicht nur bei nuklearen An-
lagen – wird sicher auch hier ein Umdenken
sowohl bei Anlagenbauern als auch bei Anla-
genbetreibern bewirken und dafür sorgen,
dass die naturgegebene Unsicherheit der re-
alen Welt sich auch in deren digitalen Abbil-
dern wiederfindet und sich minimieren lässt.
Der Ansatz von Ontonix ist dafür ein gang-
barer Weg.
JACEK MARCZYK
(1) www.pbmr.com
(2) www.flownex.com
(3) CADplus 3/2004, Feldhaus, U., „Den
Nagel auf den Kopf treffen“, Göller,
Baden-Baden
Weitere Informationen zu hier
vorgestellten Lösung unter
www.ontonix.com
INFOCORNER
Entscheidungsgrundlage. Eine Decision Map entspricht einem möglichen Modalwert eines
Prozesses. Bei komplexen Prozessen kann es bis zu mehrere hundert Modalwerte geben. Dun-
kelrot sind die sogenannten Hubs oder kritischen Variablen gekennzeichnet, die besonders viele
Verbindungen aufweisen. Die Zahl der Hubs ist ein direktes Maß für die Robustheit des Systems.
Quelle:Ontonix,PBMR2006
digitalPLANT Business+Engineering 2/2006 XI

Mais conteúdo relacionado

Semelhante a CAD_Plus

PhD_Thesis_Marko_Tanaskovic
PhD_Thesis_Marko_TanaskovicPhD_Thesis_Marko_Tanaskovic
PhD_Thesis_Marko_Tanaskovic
Marko Tanaskovic
 
Jettainer_FE_Stand_17.02
Jettainer_FE_Stand_17.02Jettainer_FE_Stand_17.02
Jettainer_FE_Stand_17.02
Wolfgang Hennes
 
00 Einleitung und Übersicht zur COMLINE Cloud Service Plattform - CSP
00 Einleitung und Übersicht zur COMLINE Cloud Service Plattform - CSP00 Einleitung und Übersicht zur COMLINE Cloud Service Plattform - CSP
00 Einleitung und Übersicht zur COMLINE Cloud Service Plattform - CSP
Christian Guenther
 
Fehlererkennung und Optimierung von Produktionsprozessen
Fehlererkennung und Optimierung von ProduktionsprozessenFehlererkennung und Optimierung von Produktionsprozessen
Fehlererkennung und Optimierung von Produktionsprozessen
Thomas Schulz
 
Methodenstreit im Datenqualitätsmanagement
Methodenstreit im DatenqualitätsmanagementMethodenstreit im Datenqualitätsmanagement
Methodenstreit im Datenqualitätsmanagement
Vizlib Ltd.
 

Semelhante a CAD_Plus (20)

Die Prüfung von Algorithmen - Mario Kündig - April 2020
Die Prüfung von Algorithmen - Mario Kündig - April 2020Die Prüfung von Algorithmen - Mario Kündig - April 2020
Die Prüfung von Algorithmen - Mario Kündig - April 2020
 
Zeitreihen in Apache Cassandra
Zeitreihen in Apache CassandraZeitreihen in Apache Cassandra
Zeitreihen in Apache Cassandra
 
Eine kleine praktische Philosophie über das Requirements Engineering
Eine kleine praktische Philosophie über das Requirements EngineeringEine kleine praktische Philosophie über das Requirements Engineering
Eine kleine praktische Philosophie über das Requirements Engineering
 
Aktienkurse vorhersagen: Big Data als Lösung
Aktienkurse vorhersagen: Big Data als LösungAktienkurse vorhersagen: Big Data als Lösung
Aktienkurse vorhersagen: Big Data als Lösung
 
Abschlussbericht des Projekts Viprof
Abschlussbericht des Projekts ViprofAbschlussbericht des Projekts Viprof
Abschlussbericht des Projekts Viprof
 
[10] Nup 07 4
[10] Nup 07 4[10] Nup 07 4
[10] Nup 07 4
 
AMSYS Life Cycle Management (LCM) Client - Obsoleszenz Management Software
AMSYS Life Cycle Management (LCM) Client - Obsoleszenz Management SoftwareAMSYS Life Cycle Management (LCM) Client - Obsoleszenz Management Software
AMSYS Life Cycle Management (LCM) Client - Obsoleszenz Management Software
 
Steht alles im Wiki? Das kleine 1x1 der Architekturdokumentation
Steht alles im Wiki? Das kleine 1x1 der ArchitekturdokumentationSteht alles im Wiki? Das kleine 1x1 der Architekturdokumentation
Steht alles im Wiki? Das kleine 1x1 der Architekturdokumentation
 
PhD_Thesis_Marko_Tanaskovic
PhD_Thesis_Marko_TanaskovicPhD_Thesis_Marko_Tanaskovic
PhD_Thesis_Marko_Tanaskovic
 
NETCONF & YANG
NETCONF & YANGNETCONF & YANG
NETCONF & YANG
 
Kybernetik im Changemanagement
Kybernetik im ChangemanagementKybernetik im Changemanagement
Kybernetik im Changemanagement
 
Jettainer_FE_Stand_17.02
Jettainer_FE_Stand_17.02Jettainer_FE_Stand_17.02
Jettainer_FE_Stand_17.02
 
proceedings
proceedingsproceedings
proceedings
 
proceedings
proceedingsproceedings
proceedings
 
00 Einleitung und Übersicht zur COMLINE Cloud Service Plattform - CSP
00 Einleitung und Übersicht zur COMLINE Cloud Service Plattform - CSP00 Einleitung und Übersicht zur COMLINE Cloud Service Plattform - CSP
00 Einleitung und Übersicht zur COMLINE Cloud Service Plattform - CSP
 
Produktfolder Periotheus Suite (de)
Produktfolder Periotheus Suite (de)Produktfolder Periotheus Suite (de)
Produktfolder Periotheus Suite (de)
 
Fehlererkennung und Optimierung von Produktionsprozessen
Fehlererkennung und Optimierung von ProduktionsprozessenFehlererkennung und Optimierung von Produktionsprozessen
Fehlererkennung und Optimierung von Produktionsprozessen
 
Verbesserung des Risikomanagements für Medizinprodukte
Verbesserung des Risikomanagements für MedizinprodukteVerbesserung des Risikomanagements für Medizinprodukte
Verbesserung des Risikomanagements für Medizinprodukte
 
Methodenstreit im Datenqualitätsmanagement
Methodenstreit im DatenqualitätsmanagementMethodenstreit im Datenqualitätsmanagement
Methodenstreit im Datenqualitätsmanagement
 
[7] Nu P 04 1
[7] Nu P 04 1[7] Nu P 04 1
[7] Nu P 04 1
 

Mais de Jacek Marczyk

Mais de Jacek Marczyk (10)

HBRP Complexity
HBRP ComplexityHBRP Complexity
HBRP Complexity
 
Articolo_ABI_v1
Articolo_ABI_v1Articolo_ABI_v1
Articolo_ABI_v1
 
INVESTIRE_Rating
INVESTIRE_RatingINVESTIRE_Rating
INVESTIRE_Rating
 
COSMOS_Data_Sheet
COSMOS_Data_SheetCOSMOS_Data_Sheet
COSMOS_Data_Sheet
 
USA_ISR_Poster
USA_ISR_PosterUSA_ISR_Poster
USA_ISR_Poster
 
Engineering_Mag_Toulouse
Engineering_Mag_ToulouseEngineering_Mag_Toulouse
Engineering_Mag_Toulouse
 
aiaamdo
aiaamdoaiaamdo
aiaamdo
 
pam_1997
pam_1997pam_1997
pam_1997
 
NW_Complexity_article
NW_Complexity_articleNW_Complexity_article
NW_Complexity_article
 
NAFEMS_Complexity_CAE
NAFEMS_Complexity_CAENAFEMS_Complexity_CAE
NAFEMS_Complexity_CAE
 

CAD_Plus

  • 1. € 6,20,- / SFr 12,- xxxxxxxxxxx 2005 · E 10811 3/2005 Starke Einheit Warum Thomas Bad- stieber auf sein CAD-Tool schwört Mode-Design Den Schnitt durch CAD-Hilfe vergoldet Heft im Heft! digitalPLANT über Projektmanagement im Anlagenbau www.cadplus.de € 6,20,- / SFr 12,- Februar / März 2006 · E 10811 2/2006 Raus aus der Masse Nachgefragt: Was bei PLM anders werden muss Das andere PLM für die flexible, schlanke Entwicklung
  • 2. Der Umgang mit komplexen Syste- men beruht bisher auf zwei Prinzi- pien: Das bekannte „kiss“ (keep it simple and stupid), was bedeutet, Komplexität ver- meiden, und dem weniger bekannten „destruct“ (define, structure, react), also Systeme zu strukturieren und zu überwa- chen. Nach dem Ansatz „destruct“ ist heu- te das übliche Vorgehen die Zerlegung ei- nes Gesamtprozesses in einfachere Subpro- zesse und Komponenten und eine dafür passende Definition und Überwachung von Parametern beziehungsweise Stellgrößen. Je komplizierter die Systeme und Prozes- se jedoch werden, desto wirkungsloser ist ihre Regelung auf der Ebene der Kompo- nenten oder Subprozesse. Denn je mehrVa- riable in einen Prozess eingreifen, desto we- niger „kritische“ Variablen gibt es, die als Führungsgröße dienen könnten. Je weniger eine Variable dominiert, desto mehr basiert das Gesamtsystem auf dem Zusammenspiel vielerVariablen. Bei dieser Kopplung können bereits kleine, unwillkürliche Störungen das Gesamtsystem dramatisch verändern – ein Effekt übrigens, den wir täglich in Politik und Wirtschaft beobachten können. Bei Systemen mit Hunderten, Tausenden von Variablen und Komponenten verlieren übliche Ziele wie optimaler Wirkungsgrad oder Beherrschbarkeit an Bedeutung, da die Komplexität eine derartige Reduktion verei- telt. Der Begriff der „Robustheit“ des Ge- samtprozesses gegenüber Abweichungen in den Eingangsgrößen tritt an die Stelle des optimalen Wirkungsgrads. Doch was ist un- ter Robustheit zu verstehen? Lässt sie sich messen? Die herkömmliche Definition von Robustheit misst die Breite einer Wahr- scheinlichkeitsverteilung eines Ausgangspa- rameters alsAntwort auf Störungen der Ein- gangsparameter. Danach hat ein robustes System eine schmale, ein nicht robustes Sys- tem eine breiteVerteilung, in jedem Fall aber nur ein Maximum („unimodal“). In der Verfahrenstechnik begegnet man häufig hoch nicht-linearen Prozessen und multiphysikalischen Aufgabenstellungen. Ein Ausdruck dessen sind mehrere Maxima in der Wahrscheinlichkeitsverteilung der Aus- gangsparameter („multimodal“). Eine Stö- rung kann einen spontanen Sprung von ei- nem Maximum zum anderen, also von einem Systemzustand zum anderen bewirken. Knoten im Zustandsraum. Robust- heit definiert sich damit aus der Form der Wahrscheinlichkeitsverteilung (multimodal versus unimodal) und nicht aus der Breite der Verteilung der Ausgangsvariablen. Im all- gemeinen Fall eines komplexen Systems mit vielen Ein- und Ausgangsgrößen spannen diese einen multidimensionalen (Zustands-) Raum auf, in dem jeder Punkt einen Zustand des Systems definiert. Entsprechend dem vorigen Beispiel kann es darin natürlich sehr viele Maxima in derVerteilung derAusgangs- parameter geben. Komplexe Systeme können auf Grund scheinbar trivialer interner oder externer Ereignisse ihren Zustand massiv ändern, da diese durch die internen Abhängigkeiten auf unzählbar viele Arten weitergeleitet und verstärkt werden können. Daher ist es not- wendig, die Komplexität eines Systems zu verstehen und daraus zu lernen. Herkömmliche Methoden zur Messung der Komplexität betrachten einfach den Graphen des Prozesses und bestimmen des- sen Eigenschaften, zum Beispiel Rückkopp- lungsschleifen. Diese sind allerdings in der Regel eher Gegenstand akademischer Be- trachtungen. Die Firma Ontonix SRL hat in- novative Methoden auf der Basis von Mon- te-Carlo-Simulationstechniken entwickelt, die über die Topologiebetrachtung dieser Graphen und das einfache Berechnen von Streuungen oder Ausfallwahrscheinlichkei- ten hinausgehen. Im Prinzip wird dabei durch die Variation der Eingangsparameter über ihren gesamten Wertebereich die Ver- teilung der Ausgangsparameter im Zu- standsraum „pixelweise“ dargestellt und an- schließend analysiert. Statt einer Computer- simulation können auch reale Messdaten aus dem betrachteten Prozess als Basis für die- se Auswertung dienen. Gut ausgeleuchtet. Richtig angewandt, werden diese Methoden zu einem Kernele- ment im Verständnis von Komplexität und Robustheit eines Systems oder Prozesses. Die Software OntoSpace von Ontonix ist die erste Software ihrer Art, die es ermög- licht, die Art und Struktur der Komplexität eines Systems zu erfassen und dadurch sei- ne Robustheit zu quantifizieren. Ähnlich wie durch eine Fourier-Analyse aus einem Signal die dominanten Schwingungszustände eines Systems ermittelt werden können, kann On- toSpace die dominanten Systemzustände („Modalwerte“) aus der Verteilungsfunktion im Zustandsraum ermitteln und in Entschei- dungsgrafiken („Decision Maps“) darstellen. Für jeden dieser Graphen lassen sich dann Fragen beantworten wie: q Wie komplex ist dieser Prozesszustand? q Wie störanfällig ist dieser Prozesszu- stand? q An welcher Stelle des Prozesses ist die größte Wahrscheinlichkeit einesVersagens? q An welcher Stelle des Prozesses ist die höchste Störanfälligkeit? q Wie versagt der Prozess am wahrschein- lichsten? q Wie lässt sich die Komplexität des Pro- zesses reduzieren? Decision Maps bilden einen Satz von ver- wandten Regeln, die das Verhalten des Sys- X digitalPLANT Business+Engineering 2/2006 WHITE PAPER Komplexe Systeme verstehen lernen Prozesse und Systeme beste- hen aus einem teilweise nicht unmittelbar überschaubaren Zusammenspiel vielfältiger Abhängigkeiten. Eine Anlage, beispielsweise ein Kernkraft- werk, ist hierzu ein Beispiel für ein „technisch“ komplexes System. Ein anderes Exempel ist eine Volkswirtschaft für „natürlich“ komplexe Prozes- se.Während eine Anlage nach einem Plan errichtet wurden, sind Wirtschaftsprozesse aus sich selbst entstanden. Die Herausforderung besteht dar- in, das zugrunde liegende Wechselspiel genau zu verste- hen und auf einen bestimm- ten Nutzen hin zu optimieren. Intuition jedenfalls ist dabei oftmals ein schlechter Lehr- meister. Die Helium-Test-Einrichtung (HTF) im südafrikanischen Pelindaba wird den vollstän- digen Heliumkreislauf des neuen Kernkraft- werks PBMR auf Herz und Nieren prüfen. PBMR nutzt Kugeln (60 Millimeter Durchmesser), die mit Urandioxid angerei- chert und mit Siliziumkarbid überzogen sind (1). Bilder(2):PBMR
  • 3. Die nächste Ausgabe erscheint zusammen mit CADplus am 11. April 2006 Die Achema 2006 vom 15. bis 19. Mai in Frankfurt am Main wird auf deutlich bessere glo- bale wirtschaftliche und politi- sche Rahmenbedingungen tref- fen als ihreVorgängerveranstal- tung im Jahre 2003. Dies zu- mindest ist die Meinung des Veranstalters Dechema e.V. . Auf der Aussteller- wie der Be- sucherseite zeichnet sich welt- weit ein ungebrochen großes Interesse ab, zumal die Pro- zessindustrien in allen aufstre- benden Industrienationen ei- nen Schwerpunkt bilden. Wir berichten über die Auftritte der wichtigsten Systemanbieter im Plant-Engineering-Umfeld. In digitalPLANT 3/2006 wartet folgendes Thema auf Sie: Drehscheibe Frankfurt am Main Längst laufen die Vorbereitungen für die Achema-Auftritte bei den Systemanbietern auf Hochtouren Bild:Dechema/Stettin Weltforum der Prozessindustrie tems in dem entsprechenden Zustand be- stimmen. Ein Beispiel für einen derartigen Plot ist der hier gezeigte, der im Rahmen der Entwicklungsarbeiten für den geplanten Kugelhaufenreaktor in Südafrika von der Fir- ma Pebble Bed Modular Reactor (1) erstellt wurde. Mit dem Bau der Anlage soll im kom- menden Jahr begonnen werden. Die Anlage wurde zunächst mit dem Programm Flow- nex (2) modelliert. Mit diesem Modell wur- de anschließend eine Monte-Carlo-Simula- tion durchgeführt, bei der die Parameter- werte stochastisch variiert wurden. Dieses Vorgehen erlaubt eine Risikoanalyse der An- lage inklusive der Bestimmung von Redun- danzen und des sogenannten Fail-Safe-Ver- haltens. Die roten Punkte („connectors“) il- lustrieren Relationen zwischen den Varia- blen des Systems. Jede Relation korrespon- diert mit einer Regel, die durch ihre Wich- tung oder Stärke charakterisiert ist. Wenn sich der Nutzer der Software durch den Zustandsraum „bewegt“, kann sich die Topologie der Modalwerte verändern und neue Variablen können an Bedeutung gewin- nen, während andere ihren Einfluss einbüßen oder die Stärke der Regeln sich verändert. Die Leistungsfähigkeit von OntoSpace liegt in seiner Fähigkeit, das oft nicht-intuiti- veVerhalten von Systemen aufzudecken.Tat- sächlich erhöht sich die Zahl der Modalwer- te, die nicht-intuitives oder gefährliches Ver- halten repräsentieren, mit der Erhöhung der Komplexität rasant. Realismus oder Präzision. Um Risiken vorherzusagen und steuernd eingreifen zu können, ist es von höchster Wichtigkeit, ein derart gefährliches Verhalten zu erkennen, bevor es sich in der Realität einstellt. Dabei ist eine hohe Komplexität nicht unbedingt mit einer hohen Zahl von Systemkompo- nenten gleichzusetzen. So wie Komplexität von uns verstanden wird, sind viele Kompo- nenten nur eine notwendige, nicht aber eine hinreichende Bedingung.Tatsächlich können auch einfache, autonome Agenten in ihrer Kombination zu erstaunlich komplexemVer- halten fähig sein. Die vom Menschen formulierten Gesetze wie das Zweite Newtonsche Axiom geben die wahre Natur nur angenähert wieder. Si- cherheitszuschläge wurden daher ange- wandt, um diese „stochastische Unruhe“ zu überdecken und wieder zu einer determi- nistischen Beschreibung zurückzukehren. Doch gibt es immer etwas, was bei diesem Kalkül unter den Tisch fällt. Daher kann nicht ausgeschlossen werden, dass eine un- vorhergesehene Kombination an Faktoren zu einer Katastrophe führt. Heute beginnen wir zu verstehen, dass zugrunde liegende beschreibende Modelle nicht exakt sein müssen. Schließlich ist auch die Natur nicht „exakt“. Diese Erkenntnis setzt sich inzwischen bei Berechnungsinge- nieuren mehr und mehr durch. Die Berück- sichtigung der Unsicherheit bei den Parame- tern eines Computermodells, wie es das Tool MSC.Robust Design (3) als Ergänzung zu MSC.Nastran erlaubt, steigert die Aussa- gekraft der Modelle ganz enorm. Übrigens basiert MSC.Robust Design auf der Techno- logie von Ontonix. In der Prozessindustrie steht diese Ent- wicklung noch am Anfang. Doch die enor- men Bilanzwerte, die Anlagen hier darstel- len, das große Schadenspotenzial im Fall ei- nes Versagens – nicht nur bei nuklearen An- lagen – wird sicher auch hier ein Umdenken sowohl bei Anlagenbauern als auch bei Anla- genbetreibern bewirken und dafür sorgen, dass die naturgegebene Unsicherheit der re- alen Welt sich auch in deren digitalen Abbil- dern wiederfindet und sich minimieren lässt. Der Ansatz von Ontonix ist dafür ein gang- barer Weg. JACEK MARCZYK (1) www.pbmr.com (2) www.flownex.com (3) CADplus 3/2004, Feldhaus, U., „Den Nagel auf den Kopf treffen“, Göller, Baden-Baden Weitere Informationen zu hier vorgestellten Lösung unter www.ontonix.com INFOCORNER Entscheidungsgrundlage. Eine Decision Map entspricht einem möglichen Modalwert eines Prozesses. Bei komplexen Prozessen kann es bis zu mehrere hundert Modalwerte geben. Dun- kelrot sind die sogenannten Hubs oder kritischen Variablen gekennzeichnet, die besonders viele Verbindungen aufweisen. Die Zahl der Hubs ist ein direktes Maß für die Robustheit des Systems. Quelle:Ontonix,PBMR2006 digitalPLANT Business+Engineering 2/2006 XI