LVaiZg:kZgh]Z^b=gh\#c\#9g#]#X#bjai#LVaiZg:kZgh]Z^b GLI=6VX]Zc AVWdgVidg^jb[gLZg`oZj\bVhX]^cZcjcY7Zig...
314 downloads
1751 Views
5MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
LVaiZg:kZgh]Z^b=gh\#c\#9g#]#X#bjai#LVaiZg:kZgh]Z^b GLI=6VX]Zc AVWdgVidg^jb[gLZg`oZj\bVhX]^cZcjcY7Zig^ZWhaZ]gZ HiZ^cWVX]hig#*( *'%,)6VX]Zc l#ZkZgh]Z^b5loa#gli]"VVX]Zc#YZ Egd[#9g#">c\#9^ea#"L^gi#>c\# Info. an Rotorkonstr. Status = Freigabe Freigabe: 12.12.04 --> Info. an Arbeitsplanung Änderung Nennleistung Durch. Welle >60 mm Wahrschl. hoch --> Info. an Einkaufsabtl. Zeitraum Okt. 04
Überwachung
Info. Abt. Durch. Konstr. Gesch. Wahrschl.
= = = = = =
Informationen Abteilung Durchmesser Konstrukteur Geschwindigkeit Wahrscheinlichkeit
Abb. 3.22 Aufbau des Komponentenagenten
Die Softwareprogramme können durch die CORBA-Schnittstelle des AgentPDM auf das Produktdatenmodell zugreifen. Dabei stehen nicht nur die einfachen Datenzugriffe wie Lesen oder Schreiben, sondern auch bestimmte Funktionen (z.B. Beschaffung der Produktstruktursicht in Abhängigkeit von dem beteiligen Projektteam, s. Kap. 4.4) zur Verfügung. Zudem bietet das Agent-PDM eine in
64
3 Organisation und Informationsmanagement
Java implementierte Benutzeroberfläche (Front-End), auf der die Produktdaten strukturiert visualisiert werden. Daraus ergeben sich verschiedene Integrationsebenen, je nach Integrationsbedarf und Applikationsumgebung (Abb. 3.23). Auf Ebene 1, der einfachsten Ebene, wird der Browser des Agent-PDM für eine manuelle Datenverarbeitung durch den zuständigen Mitarbeiter verwendet, wobei die wichtigen Daten in die Applikation eingegeben werden. Auf der zweiten Ebene wird eine rechnerinterpretierbare Integration auf Softwareebene möglich. Dabei können die Produktdaten mithilfe der lokalen Software modifiziert werden. Hierfür ist eine Übermittlung der Objektreferenz (d.h. Informationen über den Zugriff auf ein Datenbankobjekt) an den Komponentenagenten erforderlich, bei jeder Anwendung muss zudem der aktuelle Zustand der Informationen durch die Objektreferenz abgefragt werden. Um die aktuellen Informationen des Produktdatenmodells automatisch zu beschaffen, ist die Integration auf der dritten Ebene notwendig. Dabei soll die lokale Software eine entsprechende Sensor-Klasse implementieren, welche die in einer Interface-Definition-Language (IDL) definierte CORBA-Schnittstelle ist. Soll eine Änderung der Produktdaten vorgenommen werden, wird die aktuelle Information an die sensor-implementierten Klassen weitergeleitet. Diese Integrationsebene wird z.B. beim Projektmanagement eingesetzt, so dass der Projektplan hinsichtlich der aktuell verfügbaren Ressourcen immer neu erstellt werden kann.
human-
rechner-interpretierbar
Ebene 4. Oberfläche
3. Datenlink 2. Datenlink
1. Verweis
Vorteile
technische Ansprüche
• Arbeitsrationalisierung
• einheitliche Programmsprache • Programmabruf oder Plug-in
• Aktuelle Information durch Änderungsmanagement
• Implementierung der vom Sensor geerbten Klasse
• Editieren der Information
• Beschaffung der Objektreferenz von CORBA Objekt
• Realisierung ist einfach • Lesen der Information
• Installation von Front-End
Agent-PDM Agent-PDM: Agentenorientiertes Produktdatenmanagementsystem
Abb. 3.23. Integrationsebenen der Softwaresysteme
Informationsbeschaffung und Änderungsbenachrichtigung Um die hohe Dynamik der Produktentwicklungsprozesse zu beherrschen, werden Aufgaben mit den relevanten Produktdaten und den beteiligten Mitarbeiten verknüpft. Durch diese Verknüpfung kann ein beteiligter Mitarbeiter auf die relevanten Produktdaten zugreifen und erhält die für seinen Arbeitsprozess
3.2 Datenmanagement im Entwicklungsprozess
65
notwendigen Informationen. Außerdem können Arbeitsergebnisse abgelegt werden und sind so schnell abrufbar. In einer Aktionsliste werden benutzerspezifische Kommunikationsregeln definiert, um eine Informationsüberflutung zu verhindern. Diese ermöglichen eine gezielte Weiterleitung der Informationen über die Produktdaten an den betreffenden Mitarbeiter (Abb. 3.24). Beachtete Produktdaten
Kommunikationsmittel
Empfänger
Verknüpfung mit Aufgabe
Trigger
Abb. 3.24. Konfiguration der Kommunikationsregeln
Die Kommunikationsregeln verbinden die beobachteten Produktdateninformationen (Input) direkt mit bestimmten Personen wie z.B. dem Projektleiter, ggf. den Aufgaben und eventuell mit den durch Mitarbeit an den Aufgaben beteiligten Personen (Output). Dabei werden die Metainformationen (Status der Daten: freigegeben oder weitere Änderung notwendig) sowie Attribute der Produktkomponente beachtet. Die entsprechenden Informationen werden weitergeleitet, wenn gewisse vordefinierte Bedingungen erfüllt sind. Im Prototypsystem werden Statusänderungen zur Freigabe und der Eintritt in einen definierten Wertbereich für die Einstellung der Bedingungen unterstützt. Schließlich wird der Kommunikationsinhalt (eine Text-Nachricht) dem Adressaten durch ein Medium (durch ein AgentPDM oder per E-Mail) übermittelt.
66
3 Organisation und Informationsmanagement
Aufgabendelegation Beim Projektmanagement, in dem die Arbeitsprozesse im Voraus von oben nach unten verwaltet werden, beobachten die verantwortlichen Manager eines jeden Projektes die Arbeitsflüsse ihrer Projektteams. In den frühen Phasen der Produktentwicklung sind allerdings die meisten Arbeitsflüsse noch unbekannt. Darüber hinaus werden Aufgaben oft auf die Sachbearbeiterebene delegiert (Abb. 3.25). Eine solche Delegierung erfolgt häufig nicht nur zum Ausgleich von Kapazitätslücken, sondern auch zur Weiterbildung der Mitarbeiter (Blair 1992, S. 165). Dabei ist es schwierig zu verfolgen, in welchem Arbeitsstatus sich die aktuellen Kooperationspartner befinden oder wie weit das Projekt fortgeschritten ist. Die Kommunikation zwischen den Teammitgliedern muss deshalb nicht nur vom Standpunkt des Projektmanagers aus, wie bei konventionellen Workflow-Management-Systemen, sondern auch aus Sicht der Mitarbeiter unterstützt werden. Daher wurden eine innovative Methode sowie Informationstechnologien, die dynamische und verteilte, vernetzte Kommunikationsprozesse unterstützen, benötigt. Es wurde ein aufgabenorientiertes Kollaborationsmodell konzipiert, das die Aufgabendelegation auf der Sachbearbeiterebene modelliert. Eine Aufgabe wird darin mit einem Aufgabenagenten umgesetzt, der im Fall einer Kooperation vom Mitarbeiter erzeugt und ggf. vorläufig delegiert wird. Aufgaben mit dem gleichen Ziel werden nicht als identische Aufgaben behandelt, wenn der zugeordnete Mitarbeiter unterschiedlich ist. Eine Analyse der Struktur und des Statustransits in der Aufgabendelegation anhand der Theorie der Sprechakte (Language Action Ansatz) (Medina-Mora et al. 1992, S. 282) ergibt drei grundsätzliche Transitphasen des Aufgabenagenten (Abb. 3.26).
Aktivitäten Linerführung auslegen
Antriebe auslegen
FESimulation
Schlitten auslegen
Phase 1: Verhandlung (Annahme / Zurückgabe)
Verantwort -lichter Frage ! An wen?
Phase 3 : Prüfung (Übergabe der Aufgaben )
flexible Kollaboration durch Delegation
Abb. 3.25. Flexible Kollaboration
Abb. 3.26. Status des Aufgabenagenten
Phase 2 : Durchführung (Durchführung der Arbeit )
3.2 Datenmanagement im Entwicklungsprozess
67
In der ersten Phase (Verhandlung) wird entschieden, ob die Aufgabe angenommen wird oder an den Delegierenden zurückgegeben werden soll. In der prototypischen Umsetzung entscheidet dies der Anwender, der vom Aufgabenagenten danach gefragt wird. Durch eine Erweiterung wäre es auch möglich, dass der Aufgabenagent auf einen Mitarbeiterkalender im PDM-System zugreift und die Mitarbeiterkapazitäten prüft. Nach der Annahme der Aufgabe beginnt die zweite Phase (Durchführung), in der die Arbeit durchgeführt wird. Dabei wird der Zugang zu den Produktdaten sowie zu Referenzen und Dokumenten (HTML (Hyper Text Mark-up Language)- oder Text-Datei), die für die Durchführung der Aufgabe notwendig sind, freigegeben. In der dritten Phase (Prüfung) wird vom Anwender entschieden, ob das Aufgabenziel erfüllt ist oder ob noch eine weitere Delegation erforderlich ist. Bei der Aufgabendelegation ergeben sich in der Arbeitsgruppe zwei Delegationsformen: a. Die Rückgabe des Aufgabenergebnisses ist erforderlich. b. Die Rückgabe des Aufgabenergebnisses ist nicht erforderlich. Der Fall a ergibt sich z.B., wenn das Arbeitsergebniss geprüft werden soll oder wenn nur eine Teilaufgabe delegiert wurde. Nachdem der verantwortliche Mitarbeiter das erforderliche Ergebnis bekommt, kann er weiter an seiner Aufgabe arbeiten. Der Fall b ergibt sich bei der kompletten Übernahme einer Aufgabe. Zudem wird auch die Delegation eines Aufgabenteils diesem Fall zugeordnet, wenn die Rückgabe des Ergebnisses nicht notwendig ist. Die Delegation im Fall a wird in der zweiten Phase der Aufgabenbearbeitung (Abb. 3.27, rechts) durchgeführt, während die Delegation im Fall b von der dritten Phase (Abb. 3.27, links) abgeleitet wird. Im Fall b ist der Arbeitsprozess eines Aufgabenagenten beendet, so dass dieser keine Rückgabe erhalten kann. Die Verantwortung für die vorübergehend delegierten (d.h. in Phase 2 delegierten) Aufgaben behält der Bearbeiter auf der oberen Arbeitsflussebene, um die bisherige Anordnung innerhalb des Teams beizubehalten. Im Beispiel von Abb. 3.27 rechts hat der Bearbeiter von Aufgabe A die Kontrolle über die untergeordneten Arbeitsflüsse der Bearbeiter von Aufgabe B und C. Einerseits ist die weitere Delegation ohne Übernahme der Verantwortung (d.h. die Delegation aus Phase 3) nur mit Zustimmung des Bearbeiters der Aufgabe A erlaubt. Andererseits kann der Mitarbeiter, der an Aufgabe A arbeitet, die Aufgaben B und C sowie die sich daraus ergebenden Aufgabenflüsse kontrollieren und gegebenenfalls stoppen. Delegation aus Phase 2
B Delegation aus Phase 3
B
A B
A
?
Teilaufgabe wird nicht an A zurückgegeben
Der Aufgabenagent D liefert das Ergebnis an A
A
C
C Rückgabe der Teilaufgabe
Abb. 3.27. Delegation der Aufgaben
D
Abb. 3.28. Autonomes Verhalten
68
3 Organisation und Informationsmanagement
Die Aufgabenagenten können sich autonom verhalten, d.h. sie können sich ohne explizite Angabe über ihren Zielort bewegen. Dies wird bei der vorübergehenden Delegation aus Phase 2 angewendet, wobei ein Aufgabenagent an den in Phase 2 wartenden Bearbeiter zurückgehen muss. In Abb. 3.28 ist ein Beispiel hierfür dargestellt. Aufgabe B wird vom Bearbeiter der Aufgabe A in Phase 2 delegiert, die Aufgaben C und D werden mit Genehmigung des verantwortlichen Mitarbeiters (Aufgabe A) weiter abgeleitet. Der Bearbeiter von D stellt fest, dass das Aufgabenziel bereits erfüllt ist und keine weitere Delegation notwendig ist. Wenn der Ablaufprozess der Aufgabe D wie in diesem Fall beendet ist, geht D automatisch an A zurück. Hierbei muss der Bearbeiter von D nicht wissen, woher seine Aufgabe gekommen ist. Die Aufgabenagenten speichern die Delegationshistorie in einem Wissensmodul. Sie beinhaltet Datum und Ort der Delegation sowie bei welchem Kooperationstyp die Delegation durchgeführt wird (Parallelisierung durch Aufgabenteilung oder komplette Übernahme einer Projektaufgabe). Von einem Aufgabenagenten, der sich entweder in der dritten Phase befindet oder der in der zweiten Phase eine vorübergehende Delegation der Aufgabe durchgeführt hat, können weitere delegierte Aufgabenagenten verfolgt werden. Die delegierten Aufgaben befinden sich auf den dezentralen Computern der Mitarbeiter. Die Agenten können sich auf der Agentenplattform beliebig bewegen und mit anderen Agenten kommunizieren. Durch diese Kommunikation zwischen Aufgabenagenten, beruhend auf der Delegationshistorie, werden die Aufgabenspuren verbunden, so dass die Beziehungen zwischen unterschiedlichen Aufgaben visualisiert werden können. Die Aufgaben werden als Kreise mit drei Phasen dargestellt. Die von der betrachteten Aufgabe delegierten Unteraufgaben werden visualisiert, wobei berücksichtigt wird, dass die Mitarbeiter die Verantwortung für die untergeordneten Projektaufgaben haben. Deshalb werden ihnen genau die für sie relevanten Aufgaben angezeigt. Der Arbeitsfortschritt wird den drei Phasen entsprechend dargestellt, die zeigen, an welcher Stelle sich der Arbeitsprozess befindet (Abb. 3.29). Durch eine Erweiterung des Prototyps wäre es möglich, den Zustand eines Aufgabenagenten durch die Angabe eines Zeitplans weiter zu detaillieren. Dabei ist eine explizite Eingabe des Fortschritts durch die Mitarbeiter notwendig. Bei der Auswahl einer Aufgabe stehen detaillierte Informationen über die Aufgabe (Projektziel, relevante Ressourcen, Anfangsdatum usw.) zur Verfügung. Zudem kann ein Kommunikationslink zu den Mitarbeitern geöffnet werden, durch den das Senden von Nachrichten möglich ist. Durch eine Erweiterung dieses Kommunikationslinks soll eine synchrone Kommunikation, z.B. die Eröffnung einer Fernkonferenz, möglich werden. Bei der dynamischen Kooperation ändern sich häufig die beteiligten Mitarbeiter, wodurch der Kooperationsfluss auf der Mitarbeiterebene aufgrund einer verstärkten Delegation der Aufgaben erweitert wird. Um die dynamische Informationsdistribution zu unterstützen, können bei der Definition der Kommunikationsregeln Kommunikationstrigger mit den Aufgaben verknüpft werden (Abb. 3.24).
3.2 Datenmanagement im Entwicklungsprozess
69
Diese Aufgabe empfängt eine Nachricht nach einer Kommunikationsregel
Einfache Information über Aufgaben (Benutzer, Aufgabennamen, Projektnamen)
Erhalten der Nachricht
Abb. 3.29. Informationsdistribution mithilfe der Delegationsspur der Aufgaben
Eine flexible Delegation der Aufgaben wird im Agent-PDM unterstützt. Dadurch ist es möglich, nicht nur den Mitarbeiter zu benachrichtigen, der bei der Definition der Regel an der Aufgabe beteiligt war, sondern die Informationen auch an die aktuell beteiligten Mitarbeiter weiterzuleiten. In Abb. 3.29 wird die dynamische Informationsdistribution mithilfe der Aufgabenspur im Aufgabendelegationsmodul dargestellt. Einbindung des IPPM in das Agent-PDM Um die Informationsbereitstellung und -beschaffung innerhalb der Entwicklungsprozesse unterstützen zu können, ist es erforderlich, eine Schnittstelle zur Verbindung der Anwendungsplattformen von IT-Systemen verschiedener Unternehmensbereiche mit dem IPPM über das Agent-PDM zu definieren. Für eine solche Verbindung kann die CORBA-Schnittstelle genutzt werden (Abb. 3.30). Die Produkt- und Prozessdaten werden anhand des IPPM im Agent-PDM abgebildet, wodurch sie objektorientiert verwaltet werden. Auf diese Weise stehen relevante Informationen z.B. bei Änderungen im Entwicklungsprojekt rechzeitig für die Anwender (Projektmitarbeiter) zur Verfügung. Mithilfe dieser Funktion im AgentPDM werden den Anwendern alle Änderungsinformationen innerhalb des Projekts in Form einer Nachricht (per E-Mail) mitgeteilt. Das Anwendungsbeispiel wird in Kap. 3.2.3 erläutert.
70
3 Organisation und Informationsmanagement
Entwicklungsprozesskette
IT-Systeme
Anwendungsplattform der Unternehmensbereiche
CORBA Agent-PDM CORBA IPPM
CORBA: Common Object Request Broker Architecture IPPM: Integriertes Produkt- und Prozessdatenmodell IT: Information Technology Agent-PDM: Agentenorientiertes Produktdatenmanagementsystem
Abb. 3.30. Integrationsschnittstelle zwischen IPPM und Agent-PDM
3.2.3 Applikationsmöglichkeiten Zur Visualisierung des aufgebauten Datenmodells kann der Browser des AgentPDM verwendet werden. Für eine zügige Informationsdistribution zwischen den beteiligten Mitarbeitern in den unterschiedlichen Abteilungen (z.B. Marketing, Konstruktion, Fertigung) können Kommunikationsregeln verwendet werden (Abb. 3.31). Da mithilfe der Metainformationen mögliche Änderungen einer Information verwaltet werden können, hat der Mitarbeiter eine Grundlage, auf der er entscheiden kann, ob eine bereits existierende Information von ihm genutzt werden kann. Wenn z.B. der geforderte Toleranzbereich eines zu fertigenden Bauteils innerhalb des möglichen Bereiches einer vorhandenen Maschine liegt, kann der Mitarbeiter in der Fertigungsplanung bereits eine Arbeitsplanung mit der Maschine erstellen. Wenn eine Metainformation zeigt, dass der Toleranzbereich nach der Festlegung der Produktkosten höher gesetzt werden kann, ist der Mitarbeiter in der Fertigungsplanung fähig zu entscheiden, ob bzw. dass er seine Aufgabe erst nach der Freigabe der Daten beginnen soll. Der Datenaustausch zwischen den Softwaresystemen, die während der Produktentwicklung verwendet werden, kann mithilfe der CORBA-Schnittstelle des Agent-PDM stattfinden. Da CORBA eine standardisierte Kommunikationsarchitektur ist, bietet das Agent-PDM eine Möglichkeit zur Integration von Systemen und Produktdatenmodell. Zudem wird eine flexible Zusammenarbeit durch die Aufgabendelegation im Agent-PDM unterstützt, indem die beteiligten Mitarbeiter auf der Mitarbeiterebene die Arbeitsflüsse ergänzen können. Dabei kann ein Mitarbeiter z.B. wegen zeitlicher Kapazitätsprobleme oder wegen geringer Erfahrung in diesem Aufgabenbereich seine Aufgabe an einen geeigneteren Mitarbeiter delegieren. Wenn eine Aufgabe bisher noch nicht durchgeführt wurde, ist es schwierig, ihre Teilaufgaben konkreten Mitarbeitern zuzuordnen.
3.2 Datenmanagement im Entwicklungsprozess
IPPM
71
Anwender
Agent-PDM Empfang der Nachricht
Produktdaten Aufgabe
Getriebe Instanziierung
Komponentenagent
z.B. Getriebekonstruktion
Aktuell zuständiger Mitarbeiter
Aktionsliste
Attributliste
Änderung Gewicht --> Info an Durch. Außen < 750 mm MetaVertriebmanager Gewicht < 300 kg information Status = Freigabe Werkstoff GG50 --> Info an Arbeitsplanung Stand: Konstruktionsraum Durch. Außen > 750 mm in Bearbeitung --> Info an Aufgabe der {700, 3000, 600} Getriebekonstruktion
Agent-PDM Front-End Definition der Kommunikationsregeln
IPPM: Integriertes Produkt- und Prozessdatenmodell Agent-PDM: Agentenorientiertes Produktdatenmanagementsystem
Abb. 3.31. Informationsbeschaffung durch das Agent-PDM
Wenn z.B. die Ursache eines Bremsschadens bei einem Windrad ermittelt werden soll, kann das Problem durch die Aufgabendelegation für interdisziplinäre Zusammenarbeit leichter gelöst werden (Abb. 3.32). Mithilfe der Aufgabendelegation können die Mitarbeiter die Arbeitsflüsse ergänzen und verfolgen. Dadurch lässt sich Kontakt zu den beteiligten Mitarbeitern aufnehmen. Zudem ist mithilfe der Kommunikationsregeln ein automatisiertes Senden von aufgabenspezifischen Informationen an einen aktuell an der Aufgabe beteiligten Mitarbeiter möglich. Auf diese Weise ist auch im heutigen dynamischen Produktentwicklungsprozess eine dynamische Informationsdistribution gewährleistet. Durch die Integration der Aufgabendelegationsfunktion des Agent-PDM in ein Projektmanagementsystem wie z.B. ein Workflow-Management-System, in dem Prozessänderungen durch untergeordnete Mitarbeiter schwierig sind, ist es möglich, dass der Projektleiter den Arbeitsfortschritt der dynamischen Zusammenarbeit auch auf der untergeordneten Mitarbeiterebene verfolgt.
72
3 Organisation und Informationsmanagement
Aufgabe F
Aufgabe C
Aufgabe E
Eigene Auslegung Eigene Auslegung überprüfen überprüfen
Aufgabe B Aufgabe A Schadensursache der Bremsausfälle klären
Schadensursache der Bremsausfälle klären
Aufgabe D Anfrage an Zulieferer ob (ähnliches) Problem bekannt
Überprüfen ob Bremsen der Spezifikation entsprechen
Aufgabe G Mögliche Auslegungsfehler (falsche Annahmen) ermitteln
Abb. 3.32. Aufgabedelegation für interdisziplinäre Zusammenarbeit
Literatur Arnold F, Janocha AT, Swienczek B, Kilb T (1998) Die CAx-Integrationsarchitektur ANICA und ihre erste Umsetzung in die Praxis. In: Tagungsband zu IHS'98: S 43–54 Blair GM (1992) The Art of Delegation. IEE Engineering Management 2, No 4: 165–169 Casati F, Pozzi G (1999) Modeling Exceptional Behaviors in Commercial Workflow Management System. In: Proc of CoopIS'99: 127–138 Chinn SJ, Madey GR (2000) Temporal Representation and Reasoning for Workflow in Engineering Design Change Review. IEEE J Engineering Management Vol 47, No 4: 485–492 Deuse J (1998) Fertigungsfamilienbildung mit feature-basierten Produktmodelldaten. Dissertation, RWTH Aachen Eigner M, Stelzer R (2001) Produktdatenmanagement-Systeme. Springer, Berlin Heidelberg New York Eversheim W, Gausemeier J, Heimann A, Kölscheid W, Kubosch A, Schenke F-B, Schoen R, Schröder J, Walz M, Weber A, Weber P (2002) Mit e-Engineering zum i3Engineering. In: Eversheim W, Klocke F, Pfeifer T, Schuh G, Weck M (Hrsg) Wettbewerbsfaktor Produktionstechnik - Aachener Perspektiven. Tagungsband zum Aachener Werkzeugmaschinen-Kolloquium, 06.-07. Juni 2002. Shaker, Aachen Haderer G (2001) CORBA als Plattform für die Integration von Gestaltung und Berechnung. Konstruktion 3: 61–66 Hitachi Co (1998) Dokumente zu WorkCoordinator Huang GQ, Huang J, Mak KL (1999) Agent-based workflow management in collaborative product development on the Internet. Computer-Aided Design Vol 32: 133–144 iViP Verein (2004), http://www.ivip.de. Stand Juni 2004 Medina-Mora R, Winograd T, Flores F (1992) The action workflow approach to workflow management technology. In: Proc of CSCW'92: 281–288 ProSTEP iViP Verein (2004) Glossar, http://www.prostep.org/de/glossar/a.htm. Stand Juni 2004 Polly A (1996) Methodische Entwicklung und Integration von Produktmodellen. Dissertation, Universität Karlsruhe
3.2 Datenmanagement im Entwicklungsprozess
73
Vajna S (1999) Die neue Richtlinie VDI 2219: Praxiserprobte Hinweise zu Einführungsstrategien und Wirtschaftlichkeit von EDM/PDM-Systemen. In: VDI Berichte Nr. 1497: 25–42 Weck M, Klement R (2003) Softwareagenten realisieren den Informationsaustausch zwischen heterogenen Produktdatenmodellen. In: VDI Berichte Nr. 633: 139–157
4 Integrierte Produktdefinition und Technologieplanung
4.1 Frühinformationssysteme Die Umwelten, in denen Unternehmen agieren, haben sich in den vergangenen drei Jahrzehnten drastisch verändert: An die Stelle der angebotsdominierten Märkte mit starken Nachfrageüberhängen und kontinuierlichem starkem Wachstum in den ersten Jahrzehnten nach dem zweiten Weltkrieg traten vielfach stagnierende nachfragedominierte Märkte mit Angebotsüberschüssen. Neue Technologien mit ‚break through’-Charakter bewirkten grundlegende Veränderungen der wirtschaftlichen und sozialen Beziehungen. Auf die stabilen sozio-politischen Strukturen der Nachkriegsjahrzehnte folgten relativ instabile Verhältnisse, in deren Gefolge Strukturbrüche und abrupte Veränderungen auftraten. Die fortschreitende Globalisierung erweiterte sowohl den Handlungsspielraum der Unternehmen als auch die bei seiner Ausnutzung zu berücksichtigenden Umfeldbedingungen teilweise dramatisch. Infolge dieser Entwicklung sind die Dynamik und die Komplexität der Umwelten, in denen Unternehmen operieren, stark gestiegen. Dies führte zu einem verstärkten Druck auf Planungszeiten und damit zu gravierenden negativen Konsequenzen für das Management von Technologien und Innovationen, die von ihrer Natur her langfristig angelegt sind: x Technologien sind in Anlagen verkörpert, die den Handlungsrahmen von Unternehmen langfristig begrenzen. x Innovationen sind Prozesse, die sich häufig über mehrere Jahre erstrecken und deren Beurteilung zumindest grobe Vorstellungen über den gesamten Lebenszyklus des Neuprodukts erfordert, der sich nicht selten über mehrere Jahrzehnte erstreckt. So werden z.B. für die Einführung eines neuen Automobils nicht nur Informationen über den Marktzyklus (5–10 Jahre), sondern auch Informationen über den diesem vorangehenden Entwicklungszyklus (2–5 Jahre) und den ihm folgenden Nutzungs- und Entsorgungszyklus (10–20 Jahre) benötigt, was zur Notwendigkeit eines Planungshorizonts von 15–35 Jahren führt. Die Unternehmen haben auf diese Entwicklungen zumeist mit einer Steigerung ihrer Flexibilität reagiert und zum einen die Geschwindigkeit ihrer Planungs- und vor allem ihrer Umsetzungsprozesse gesteigert. Sie haben zum anderen versucht, die gestiegene Dynamik und Komplexität durch flexible Ressourcen, etwa breiter ausgebildete Mitarbeiter und flexible Fertigungseinrichtungen, aufzufangen.
76
4 Integrierte Produktdefinition und Technologieplanung
Die zweite Reaktionsmöglichkeit auf diese Entwicklungen, die Ausweitung des Planungshorizonts durch die Verbesserung der Prognosefähigkeiten, insbesondere durch die (Weiter-)Entwicklung und Einrichtung von Frühinformationssystemen (FIS) wurde demgegenüber stark vernachlässigt: Frühinformationssysteme haben sich bis dato in der betrieblichen Praxis nicht durchsetzen können (Zurlino 1995, S. 104 ff.; Daschmann 1994, S. 140 ff.; Schröder u. Schiffer 2001a, S. 971). Insbesondere kleine und mittelgroße Unternehmen (KMU) machen von der Möglichkeit des Einsatzes von FIS so gut wie keinen Gebrauch. Ursache dieser Abstinenz sind zum einen allgemeine Probleme der Akzeptanz von FIS, z.B. Schwierigkeiten bei der Ermittlung des Nutzens solcher Systeme und mangelnde Eindeutigkeit der von ihnen bereitgestellten Informationen sowie die Notwendigkeit, Maßnahmen in das Spektrum strategischer Maßnahmen aufzunehmen, die den Besonderheiten von Frühinformationen Rechnung tragen (Ansoff 1976, S. 136 ff.). Zum anderen ist das Dilemma der Frühinformation Ursache der Abstinenz (Schröder u. Schiffer 2001a, S. 975 f.): Um effektiv zu sein, müssen FIS grundsätzlich alle Umfeldbereiche erfassen, um effizient zu sein, ist jedoch die Beschränkung auf ausgewählte Umfeldbereiche unumgänglich. KMU verfügen in der Regel nicht über die Ressourcen, die für die Erfüllung des Ganzheitlichkeitspostulats erforderlich sind; aber selbst, wenn sie über diese Ressourcen verfügten, wäre die Erfüllung des Postulats wegen der begrenzten Nutzeneffekte nur selten wirtschaftlich. Die Potenziale der Flexibilisierungsstrategie sind mittlerweile weitestgehend ausgereizt und weitere Steigerungen der Flexibilität prohibitiv teuer geworden (Schröder et al. 2003, S. 5 f.). Der verstärkte Einsatz einer Informationsverbesserungsstrategie mithilfe der Einrichtung von FIS ist aber nicht nur aus diesem Grund geboten. Er bietet sich auch an, weil die stürmische Verbreitung des Internet neue Potenziale für die Beschaffung von Frühinformationen erschlossen hat. Diese ermöglichen nicht nur die Verbesserung der Qualität von Frühinformationen, sondern steigern auch die Wirtschaftlichkeit von FIS und können damit zur Bewältigung des Dilemmas der Frühinformation beitragen. Die Präsentation des Konzeptes für ein derartiges FIS, das die vorhandenen, zumeist auf der Nutzung von Humanressourcen basierenden Ansätze für die Gestaltung von FIS aufgreift und verknüpft und darüber hinaus diese Ansätze um Instrumente und Verfahren zur Nutzung der im Internet verfügbaren Daten erweitert, wobei es den besonderen Anforderungen von KMU Rechnung trägt, steht im Mittelpunkt dieses Beitrages. Bevor dieses Konzept präsentiert wird, werden im folgenden Abschnitt Grundlagen von FIS skizziert und ein kurzer Überblick über den gegenwärtigen Stand ihrer Entwicklung gegeben. Der Beitrag schließt mit einer kritischen Würdigung des vorgestellten Konzeptes.
4.1 Frühinformationssysteme
77
4.1.1 Konzept für strategische Frühinformationssysteme Begriff und Grundidee „Frühinformationssysteme sind spezifische Informationssysteme, welche die Erfassung, Verarbeitung und Weiterleitung von Informationen über Geschehnisse mit so großem zeitlichem Vorlauf ermöglichen, dass (möglichst) alle von den betreffenden Geschehnissen ausgehenden Risiken vermieden und alle von ihnen ausgelösten Chancenpotenziale genutzt werden können.“ (Schröder et al. 2003, S. 7) Der Begriff FIS wird hier als Gattungsbegriff verwendet, dem als spezielle Varianten sowohl Frühwarn- und Früherkennungs- als auch Frühaufklärungssysteme zugeordnet sind. Während Frühwarnsysteme auf die frühzeitige Identifizierung von Risiken fokussieren, zielen Früherkennungs- und -aufklärungssysteme auf die frühzeitige Erkenntnis sowohl von Risiken als auch von Chancen. Dabei unterscheiden sich die im Folgenden zugrunde gelegten Frühaufklärungssysteme von Früherkennungssystemen durch die Ganzheitlichkeit ihres Ansatzes, ihre strategische Ausrichtung und ihre konsequente Koppelung mit dem (strategischen) Planungssystem (zu weiteren Unterschieden vgl. Schröder u. Schiffer 2001a, S. 972 ff.). Sie werden entsprechend der historischen Entwicklung von FIS auch als FIS der dritten Generation bezeichnet und sind auf die Identifizierung von schwachen Signalen und Drittvariablen ausgerichtet (Liebl 1996, S. 5 ff.). Schwache Signale sind (Umfeld-)Informationen, die auf eine strategische Diskontinuität hinweisen (Ansoff 1976; Konrad 1991, S. 173 ff.; Liebl 1996, S. 24 ff.; Krystek u. Müller-Stewens 1993, S. 162 ff.). Sie zeichnen sich durch bislang nicht allzu breite Diffusion, ihren vorwiegend qualitativen Charakter, ihre strategische Relevanz, fehlende Kausalbeziehungen zur angezeigten Diskontinuität und "[…] Attribute wie unklar, vage, unvollkommen, ungenau, verschwommen, utopisch, verworren oder abstrus" (Sepp 1996, S. 251) aus. Drittvariablen sind (nicht berücksichtigte) Sachverhalte und Einflussgrößen, die bisher angenommene Gesetzmäßigkeiten in Frage stellen oder gar widerlegen. Einzelne schwache Signale reichen in der Regel nicht aus, um Reaktionen seitens des Unternehmens auszulösen, erst die Verdichtung verschiedener schwacher Signale führt zu einer strategischen Reaktion. Diese Verdichtung der ‚Hinweise’ ist jedoch häufig wesentlich früher möglich als die Identifizierung eines Strukturbruches oder neuen Phänomens mittels (vergleichsweise scharfer) extrapolierter Indikatoren, wie sie für die ersten beiden Generationen von FIS verwendet wurden. Die strategische Frühaufklärung leistet somit einen Beitrag zur Verbesserung der Prognosequalität (Schröder 2003, S. 8 ff.). Sie hilft dabei, Prognosefehler auf echte Überraschungen zu beschränken und sich auf diese angemessen vorzubereiten. Vorhandene Ansätze der strategischen Frühaufklärung Um das (Ansoffsche) Leitbild des Aufspürens und Verdichtens schwacher Signale inhaltlich auszufüllen, wurden zahlreiche Ansätze für die strategische Frühaufklärung entwickelt. Allen gemeinsam ist die Vorstellung, dass das Unternehmens-
78
4 Integrierte Produktdefinition und Technologieplanung
umfeld mithilfe des scanning auf schwache Signale abgetastet und die aufgefangenen schwachen Signale mittels des monitoring gezielt beobachtet werden sollen (z.B.: Krystek u. Müller-Stewens 1993; Liebl 1996; Gausemeier u. Fink 1999; Schröder 2003). Diese Ansätze stellen die Basis für die Gestaltung von FIS dar, mit denen vor allem die folgenden fünf – sich z.T. wechselseitig beeinflussenden - Fragen beantwortet werden (in Anlehnung an Schröder et al. 2003, S. 20 ff.): x Welche Umfeldbereiche sollen beobachtet werden? x Welche Quellen sollen für Informationen über die zu beobachtenden Umfeldbereiche genutzt werden? x Wer soll Frühinformationen erfassen und verarbeiten? x Welche Methoden und Instrumente sollen für die Erfassung und Verarbeitung von Frühinformationen eingesetzt werden? x An wen sollen die Ergebnisse wie weitergeleitet werden? Schwache Signale können in allen Bereichen des aufgabenspezifischen wie des allgemeinen Umfeldes von Unternehmen auftreten und Informationen über alle Umfeldbereiche enthalten. Nur das lückenlose Abtasten aller Umfeldbereiche kann daher sicherstellen, dass keine relevanten Informationen verloren gehen (Postulat der Ganzheitlichkeit; vgl. dazu Schröder u. Schiffer 2001b, S. 1508 ff.). Werden relevante Bereiche nicht gescannt, können schwache Signale oder Informationen, die erfasste schwache Signale verdichten können, übersehen werden. Die Folge wäre, dass Diskontinuitäten, die eigentlich ausgeglichen werden könnten, nicht (oder zu spät) erkannt werden. Andererseits ist ein lückenloses scanning praktisch unmöglich. Das gilt insbesondere für KMU, die nur über geringe Ressourcen verfügen. Da Kooperationen bei der Erfassung und Analyse strategischer Frühinformationen enge Grenzen gesetzt sind (Schröder u. Schiffer 2000, insb. S. 146 ff.), ist die Auswahl bestimmter Umfeldbereiche in FIS von KMU daher unumgänglich. Allerdings verliert die eigentliche Idee der strategischen Frühaufklärung in dem Maße an Bedeutung, in dem aus Kostengründen auf ein umfassendes scanning verzichtet wird. Als Kriterien für die notwendige Auswahl dienen insbesondere die vermutete strategische Relevanz der verschiedenen Bereiche und die Wahrscheinlichkeit des Auftretens signifikanter Veränderungen. In Bezug auf die Frage nach den Quellen, aus denen ein FIS seine Informationen bezieht, können technokratische und personenorientierte Konzepte unterschieden werden (Schröder et al. 2003, S. 14 ff.): x Technokratische Konzepte greifen auf Daten zurück, die in elektronischer Form vorliegen; es wird eine weitestgehende Automatisierung des Datenverarbeitungsprozesses angestrebt. Die bisher vorliegenden Ansätze werten fast ausschließlich Daten aus, die in strukturierter Form vorliegen; dabei stehen Patentinformationen im Vordergrund (Peiffer 1992, S. 154 ff.; Ernst 1996, S. 29 ff.; Faix 1998, S. 177 ff.). Erst in jüngerer Zeit wurden auch Konzepte zur Erfassung und Analyse unformatierter Daten in Textform vorgelegt (Kostoff 1999; Kostoff u. Schaller 2001; Kostoff et al. 2004; Zeller 2003, S. 119 ff.)
4.1 Frühinformationssysteme
79
x Personenorientierte Konzepte versuchen, das in den Köpfen von Menschen gespeicherte Wissen für Frühinformationszwecke zu nutzen. Dabei lassen sich mit den mitarbeiter- und den informantenbasierten Konzepten zwei Varianten unterscheiden: Während mitarbeiterorientierte FIS das Wissen von – u.U. ausgewählten – Mitarbeitern erfassen und verarbeiten, greifen Informantenkonzepte auf das Wissen von externen Personen zu. Je nachdem, ob die externen Informanten aus dem Kreis der Stakeholder rekrutiert werden oder Experten sind, die nicht zu den Anspruchsgruppen gehören (müssen), werden stakeholder- und umfeldsegmentspezifische Varianten des Informantenkonzeptes unterschieden (vgl. zu dieser Unterscheidung Schröder et al. 2003, S. 17 ff.; speziell zur stakeholderorientierten Variante des Informantenkonzeptes vgl. Ahn u. Meyer 1999, S. 13 ff. sowie Schlüter 2004, S. 61 ff.). Die Entscheidung über die Informationsquellen impliziert Grundsatzentscheidungen über die Lieferanten von Frühinformationen sowie über die Form der berücksichtigten Informationen, die den Rohstoff des FIS darstellen. Diese Entscheidung definiert damit den Rahmen für Aufbau und Struktur des FIS sowie die Auswahl geeigneter Erfassungs- und Verarbeitungsmethoden. In diesem Rahmen ist für technokratische Konzepte zu klären, auf welche Weise schwache Signale durch scanning identifiziert und wie diese mittels monitoring verstärkt werden sollen. Dafür bieten sich die Methoden des Information Retrieval (IR) und des Knowledge Discovery in Databases (KDD) an. Erstere wollen den Informationsbedarf eines Nutzers erfüllen, indem sie eine Informationsanfrage mit einer zur Verfügung stehenden Datenmenge abgleichen (Lancaster 1968, S. 10). Letztere extrahieren neues Wissen durch die Identifizierung bestimmter Muster in einem gegebenen Datenbestand. Ansätze zur Identifizierung von Mustern in unstrukturierten textuellen Datenbeständen, die bei Frühinformationen dominieren, fehlen weitestgehend, abgesehen von den erwähnten Vorschlägen zur Erfassung und Analyse unformatierter Daten in Textform. Für personenorientierte Konzepte stellt sich die Frage, wie geeignete Frühaufklärer (Sensoren) identifiziert und zur bestmöglichen Eingabe von Informationen motiviert werden können und wie die Informationen, welche die Sensoren liefern, in das System eingespeist werden können. Darüber hinaus sind – wie für technokratische Konzepte – Methoden zur Identifizierung und Verstärkung schwacher Signale bereitzustellen. Die Effektivität von FIS hängt nicht nur von der internen Gestaltung des FIS selbst, sondern auch von seiner Verknüpfung mit dem Planungs- und Kontrollsystem ab (Schröder u. Schiffer 2001b, S. 1507). Nur wenn die Frühinformationen über bevorstehende Diskontinuitäten in die strategische Planung einbezogen werden, ist die Reaktionsfähigkeit des Unternehmens sichergestellt. Anforderungen an ein FIS für KMU Der kurze Überblick über vorhandene Ansätze für FIS im vorangehenden Abschnitt verdeutlicht, dass zwar eine Vielzahl von Ansätzen zur Gestaltung einzelner Teilprobleme von FIS vorhanden ist, dass es aber an einem alle Ansätze
80
4 Integrierte Produktdefinition und Technologieplanung
verbindenden Gesamtkonzept (noch) fehlt. Die Formulierung eines solchen alle existierenden Ansätze integrierenden Konzeptes war daher zentrales Ziel der Entwicklung von PROFIS (Prozessmodell zum Betrieb eines Frühinformationssystems). Der kurze Überblick über den Stand der Entwicklung von FIS verdeutlicht aber auch, dass trotz der Fülle von Gestaltungsansätzen Lücken bestehen. Es fehlt vor allem an Methoden, die den Analysten bei der Auswertung unformatierter Daten in Textform unterstützen. Die Schließung dieser Lücke gewinnt angesichts der zentralen Stellung qualitativer Informationen für strategische FIS einerseits und der Fülle von im Internet verfügbaren unformatierten Daten mit potenziellem Frühinformationsgehalt andererseits zunehmend an Bedeutung. Daher war die Entwicklung von Konzepten und Methoden zur Unterstützung bei der Erfassung und Verarbeitung unformatierter Textdaten ein weiteres wesentliches Ziel der Entwicklung von PROFIS. PROFIS wurde für KMU entwickelt. Es musste daher den spezifischen Bedingungen von KMU Rechnung tragen, vor allem ihren beschränkten Mitteln, ihrer geringeren Arbeitsteilung und dem damit zusammenhängenden Fehlen spezieller Methodenkenntnisse, aber auch der geringeren Formalisierung und Standardisierung ihrer Strukturen und Prozesse, ihrer höheren Anpassungsfähigkeit aufgrund kürzerer Informations- und Entscheidungswege und schnellerer Reaktionszeiten sowie ihrer engeren Kunden und Lieferantenkontakte. Es sollte insbesondere dazu beitragen, das Dilemma der Frühinformation zu entschärfen, das sich wie bereits erwähnt für KMU in besonderer Schärfe stellt. KMU weisen neben den erwähnten Gemeinsamkeiten auch eine Vielzahl von Unterschieden auf, beispielsweise im Leistungsprogramm, in den benutzten Technologien, in der Zahl ihrer Beschäftigten und ihrer Organisation sowie in den Märkten, in denen sie operieren. Um diesen Unterschieden gerecht zu werden, musste PROFIS flexibel gestaltet werden. Das Erfordernis der Flexibilität betrifft alle bisher diskutierten Gestaltungsaspekte: die Auswahl der zu beobachtenden Umfeldbereiche, der zu benutzenden Informationsquellen und der Träger des FIS ebenso wie die Auswahl der einzusetzenden Methoden und der Adressaten der Frühinformationen. Zusammenfassend können Ganzheitlichkeit und Integrativität, KMUGerechtigkeit und Flexibilität als die wesentlichen Zielsetzungen bei der Entwicklung von PROFIS genannt werden. 4.1.2 PROFIS – ein Prozessmodell zum Betrieb eines Frühinformationssystems Der Gesamtprozess PROFIS besteht aus fünf (z.T. rückgekoppelten) Prozessschritten: der Konfiguration, der Suche, der Aufbereitung, der Analyse und der Weiterleitung. Abbildung 4.1 verdeutlicht den Aufbau des Gesamtprozesses.
4.1 Frühinformationssysteme
¾ Informationseingabe durch Mitarbeiter und (ggf.) externe Informanten ¾ Gerichtete und ungerichtete elektronische Suchverfahren
Konfiguration
Suche
81
¾ Auswertung und (Relevanz-) Bewertung der erstellten Textanalyse durch den menschlichen Entscheidungsträger
Aufbereitung
Analyse
Weiterleitung
¾ Identifizierung und Auswahl der Sensoren
¾ automatische Klassifizierung der gesammelten Texte
¾ Auswahl der Adressaten
¾ Einrichtung elektronischer Suchinstrumente
¾ automatische Textanalyse
¾ Anschluss an das originäre Planungssystem
¾ Vorbereitung der Beteiligten
¾ ausschließlicher Rechnereinsatz
Abb. 4.1. PROFIS im Überblick
Während die Suche, die Aufbereitung und die Analyse kontinuierlich durchlaufen werden, wird der Schritt der Konfiguration in der Regel nur einmal – in der Errichtungsphase vor Beginn des laufenden Betriebs des FIS – absolviert. ReKonfigurationen sind erforderlich, wenn sich die Rahmenbedingungen ändern; sie können einerseits exogen durch Veränderungen außerhalb des FIS, z.B. durch Veränderungen von Marktstrategien, bedingt sein, andererseits aber auch endogen aus Informationen resultieren, die vom FIS geliefert werden. Beispiel für eine derartige endogene Re-Konfiguration ist die Anpassung der Beobachtungsbereiche infolge von Frühinformationen über das Auftauchen grundsätzlich neuer Technologien. Eine Mittelstellung nimmt der Weiterleitungsschritt ein, der immer dann zu durchlaufen ist, wenn schwache Signale identifiziert werden, die schnelle (Re-)Aktionen erfordern. In drei der fünf Prozessschritte – Konfiguration, Analyse und Weiterleitung – dominieren menschliche Informationsverarbeitungsprozesse, der Schritt der Aufbereitung ist dagegen in hohem Maße automatisiert. Bei der Suche werden beide Prozesstypen parallel zueinander eingesetzt. Alle im Folgenden beschriebenen Sachverhalte sind am Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Technologie- und Innovationsmanagement an der RWTH Aachen prototypisch auch in elektronischer Form entwickelt worden, um den Aufwand realistisch abschätzen zu können. Konfiguration Unter Konfiguration wird innerhalb von PROFIS der Prozessschritt verstanden, der die Voraussetzungen für den Betrieb des FIS schafft. Er beinhaltet neben der groben Festlegung der Organisation des FIS und der Bereitstellung von Ressourcen vor allem die Auswahl der zu beobachtenden Umfeldbereiche, die Festlegung der Art der zu berücksichtigenden Datenformate (quantitative und/ oder qualitative sowie strukturierte und/ oder unstrukturierte Daten), die Bestim-mung der zu verwendenden Informationsquellen(typen) und die Auswahl der als Informations-
82
4 Integrierte Produktdefinition und Technologieplanung
lieferanten eingesetzten Mitarbeiter und externen Informanten (‚Frühaufklärer’ bzw. ‚Sensoren’). Die Auswahl geeigneter Mitarbeiter wird wegen ihrer hohen Bedeutung für FIS in KMU sowie für die Wirtschaftlichkeit derartiger Systeme von PROFIS gezielt unterstützt. Die Auswahl der Mitarbeiter Um den Aufwand für das FIS zu reduzieren und damit das Dilemma der Frühinformation abzuschwächen, nutzt PROFIS als personenorientierte Quellen schwacher Signale zunächst nur die eigenen Mitarbeiter. Unter diesen werden diejenigen ausgewählt, von denen relevante Frühinformationen erwartet werden können. Die Einbeziehung externer Informanten ist technisch ohne Probleme zu integrieren und in PROFIS insbesondere dann vorgesehen, wenn sich Diskrepanzen zwischen den Kompetenzen der (ausgewählten) Mitarbeiter und den Anforderungen der definierten Beobachtungsbereiche ergeben. Methodisch kann sich die Auswahl externer Sensoren am Stakeholderansatz (Ahn u. Meyer, S. 15 ff.) ebenso orientieren wie am Expertenansatz; sie wird von dem entwickelten Prototypen gegenwärtig aber noch nicht unterstützt. Grundlage der Mitarbeiterauswahl ist die Annahme, dass sich Sensoren (1.) durch den Zugang zu frühinformationsrelevanten Quellen, (2.) die Fähigkeit, Frühinformationen zu erkennen und (3.) den Willen, diese weiterzuleiten, auszeichnen. Fehlt eine dieser Voraussetzungen, so ist es unwahrscheinlich, dass der betreffende Mitarbeiter relevante Frühinformationen liefern kann. Da Informationen sowohl im beruflichen als auch im privaten Umfeld des Mitarbeiters aufgenommen werden, besteht der Zugang zu Informationen aus zwei Komponenten – einer privaten und einer organisatorischen. Erstere ist primär bestimmt durch die Lesegewohnheiten des Mitarbeiters, die ihrerseits Ausdruck seiner Persönlichkeit sind. Letztere hängt vornehmlich von der organisatorischen Stellung des Mitarbeiters im Unternehmen ab. Zur Unterstützung bei der Identifizierung geeigneter Sensoren wurde ein mehrdimensionales Konstrukt formuliert, das aus Quellen-, Organisations- und Persönlichkeitspotenzial besteht: x Das Quellenpotenzial QPij erfasst die vermutete Eignung jedes Mitarbeiters j (j = 1, 2, ..., N) für die Erfassung von Frühinformationen in jedem Umfeldbereich i (i = 1, 2, ..., M) aufgrund seines privaten Zugangs zu relevanten Medien. Es ergibt sich als Produkt aus der Relevanz einer Quelle für einen Umfeldbereich und der Frequenz der Nutzung jeder Quelle durch jeden Mitarbeiter. Die Relevanz der Quellen wird von der Unternehmensleitung unter Zuhilfenahme von Experten ermittelt, die Nutzungsfrequenz wird von den Mitarbeitern erfragt. Beide Maße sind mittels linguistischer Terme unscharf definiert: Es werden Aussagen der Art „Die Zeitschrift A ist für das juristische Umfeld sehr wichtig.“ oder „Mitarbeiter Weise liest die Zeitschrift `Spektrum der Wissenschaften´ regelmäßig“ erzeugt. Aus diesen Rohdaten kann mittels eines Fuzzy Multiple Attribute Decision Making (MADM)-Ansatzes (Chen u. Hwang 1992, S.
4.1 Frühinformationssysteme
83
465 ff.) das Quellenpotenzial jedes (auskunfts- und kooperationsbereiten) Mitarbeiters für jeden Beobachtungsbereich abgeleitet werden. x Das Organisationspotenzial OPij misst analog die vermutete Eignung jedes Mitarbeiters j für die Erfassung von Frühinformationen in jedem Umfeldbereich i aufgrund seines beruflichen Zugangs zu relevanten Quellen. Es setzt sich aus der Stellung des Mitarbeiters im Organisationsgefüge einerseits und dem Zugang jeder Organisationseinheit zu Frühinformationen über jeden Umfeldbereich andererseits zusammen. Die Daten für beide Sub-Dimensionen werden von der Unternehmensleitung, unterstützt durch Experten, zur Verfügung gestellt. Die unscharfe Datenermittlung und -verknüpfung mittels linguistischer Terme berücksichtigt, dass in KMU die Zuordnung zu organisatorischen Einheiten häufig nicht scharf erfolgt. x Das Persönlichkeitspotenzial PPj bildet die Eignung jedes Mitarbeiters j ab, schwache Signale zu erkennen, zu reflektieren und zu kommunizieren. Es wird über ein psychometrisches Verfahren ermittelt: Auf Basis des 16-Persönlichkeits-Faktoren-Tests (Schneewind u. Graf 1998, S. 9 f. u. 65 ff.) wird ein Persönlichkeitsprofil abgefragt, das mit dem Idealprofil eines strategischen Frühaufklärers verglichen wird. Der 16-Persönlichkeits-Faktoren-Test wird verwendet, weil er eine hohe Korrelation zu anderen psychometrischen Verfahren aufweist und ausreichend mit empirischen (und für die Bundesrepublik gültigen) Eichstichproben jüngeren Datums hinterlegt ist. Das Idealprofil definiert für jeden der 16 Faktoren ein Intervall, das die wünschenswerten Eigenschaften von Sensoren ausdrückt. Die Teilnahme an dem Test, der mithilfe eines elektronisch hinterlegten Fragebogens online abgewickelt wird, ist ebenso wie die Angaben zur Mediennutzung freiwillig. Die Gesamteignung Eij der Mitarbeiter j für die relevanten Umfeldbereiche i wird mithilfe der Beziehung
QP
ij
OPij u PPjj
E ij
(4.1)
ermittelt; dabei sind QPij bzw. OPij die ( M u N -)Matrizen des Quellen- und des Organisationspotenzials; PPjj ist eine ( N u N -)Diagonalmatrix, in der das j-te Element in der Diagonalen das Persönlichkeitspotenzial des Mitarbeiters j darstellt. Die Verknüpfungen der einzelnen Matrizen erfolgen mit Hilfe der FuzzyArithmetik. Das vorgestellte, weitgehend auf Freiwilligkeit der Mitarbeiter beruhende Verfahren berücksichtigt die einschlägigen Regelungen des Bundesdatenschutzgesetzes, des Arbeitsrechts und des Strafrechts (für eine genaue Diskussion der Probleme vgl. Gaul 1990). Es unterstützt nicht nur die Auswahl geeigneter interner Sensoren, sondern auch die Identifikation von Lücken in der Umfeldbeobachtung durch eigene Mitarbeiter und stellt damit die Schnittstelle zur Implementierung von Informantenkonzepten dar.
84
4 Integrierte Produktdefinition und Technologieplanung
Die technologische Konfiguration Im Rahmen der technologischen Konfiguration werden alle datentechnischen Voraussetzungen für den Betrieb des FIS geschaffen. Dabei sind insbesondere die Internetadressen und -seiten festzulegen, deren Inhalt systematisch gescannt werden soll. In Frage kommen hier vor allem die Internetseiten von Tages- und Wochenzeitungen, Fachzeitschriften, Branchenverbänden, Wettbewerbern, Verbänden, Parteien und Interessengruppen sowie spezifische Datenbanken wie z.B. Patent- und Produktdatenbanken. Der Inhalt dieser Seiten bzw. Datenbanken wird in regelmäßigen Abständen in die Frühaufklärungsdatenbank überspielt, damit von dort die Aufbereitung durchgeführt werden kann. Bei der Entwicklung von PROFIS hat sich gezeigt, dass schon mit relativ geringem Hardwareeinsatz große Textmengen erfasst und aufbereitet werden können. Die Grenzen der technologischen Konfiguration sind daher meist erheblich weiter als die bei der Auswahl der Mitarbeiter. Neben der Festlegung der relevanten (elektronischen) Quellen müssen auch alle anderen datentechnischen Vorraussetzungen geschaffen werden. Die Erfüllung dieser Voraussetzungen dürfte i.a. kein unüberwindliches Hindernis darstellen, da i.d.R. keine zusätzlichen IT-Ressourcen benötigt werden. Existiert ein Computernetzwerk, zu dem die Sensoren Zugang haben, so muss darüber hinaus lediglich ein zentraler Rechner eingerichtet werden, der die Datenbank verwaltet und die Aufbereitung der Texte durchführt. Datensuche Während des laufenden Betriebes von PROFIS werden zunächst Daten gesucht. Dabei handelt es sich, wie bereits erwähnt, bei den hier betrachteten FIS der dritten Generation vornehmlich um – vielfach unstrukturierte – Textdaten, da sich schwache Signale oftmals erst wesentlich später in quantitativen Indikatoren niederschlagen und quantitative Daten damit den Charakter potenzieller Frühinformationen verlieren. PROFIS unterstützt sowohl die ungerichtete Suche ohne Festlegung eines Suchfeldes (scanning) als auch die gerichtete Suche in einem näher begrenzten Suchbereich (monitoring). Die gerichtete Suche kann, gemäß dem Konzept technokratischer FIS, (teil)automatisch und, das personenorientierte Konzept für FIS verfolgend, manuell durchgeführt werden, so dass sich die in Abb. 4.2 dargestellten Suchstrategien ergeben: Eine eindeutige Zuordnung personeller Sensoren zur ungerichteten bzw. gerichteten Suche ist nicht möglich, da personelle Sensoren sowohl ‚ziellos’ scannen als auch fokussiert monitoring betreiben können (Abb. 4.2). Das gilt selbst dann, wenn ihnen – wie in PROFIS – bestimmte Umfeldbereiche als Suchfelder zugeordnet wurden. Eine technokratisch orientierte ungerichtete Suche ist zwar möglich, z.B. mittels Eingabe zufällig erzeugter Suchbegriffe in Suchmaschinen, in PROFIS aber nicht umgesetzt.
4.1 Frühinformationssysteme
85
Alle bei der Suche gefundenen Texte werden in einer Datenbank gesammelt. Dabei wird der ‚Informationslieferant’ vermerkt, um die Herkunft nachvollziehen und die Verlässlichkeit der Information einschätzen zu können. technokratisch ((teil-)automatische Erfassung) Suchagenten für URLs, Schlagwortsuche mithilfe von Suchmaschinen
personenorientiert (manuelle Erfassung)
gerichtete Suche (monitoring) Interne und externe Sensoren
ungerichtete Suche (scanning)
Abb. 4.2. Suchstrategien innerhalb von PROFIS
Datenaufbereitung Ziel der Aufbereitung ist es, das zu Verfügung stehende Datenmaterial formal und inhaltlich so aufzuarbeiten, dass die Entscheidungsträger in die Lage versetzt werden, die komplexen Dateninhalte der Suche zu verstehen und für weitere Schritte einzusetzen. Der Prozessschritt der Aufbereitung bildet daher die durch elektronisch implementierbare Methoden gestützte Brücke zwischen der Datensuche und der Auswertung durch den menschlichen Analysten. Für die Gestaltung des Aufbereitungsschrittes greift PROFIS auf das Prozessmodell des Knowledge Discovery in Databases (KDD) zurück (Abb. 4.3) (Fayyad et al. 1996); dabei bildet die Datenselektion die Schnittstelle zum vorhergehenden Suchschritt, Dateninterpretation und -evaluation bilden die Schnittstelle zum nachfolgenden Analyseschritt. Selektion
Aufbereitung
Transformation
Data Mining
Interpretation/ Evaluierung
- -- - -- -
Daten Zieldaten
Daten (aufbereitet)
Daten (transFormiert)
Muster
Wissen
Abb. 4.3. Der klassische KDD-Prozess
Im Mittelpunkt der Datenaufbereitung in PROFIS steht zum einen die Konvertierung der in unterschiedlichen Formaten erfassbaren Textdokumente in
86
4 Integrierte Produktdefinition und Technologieplanung
ein einheitliches Format und zum anderen die Eliminierung von ‚stopwords’, d.h. "[...] function words and connectives such as articles and prepositions that appear in a large number of documents and are typically of little use in pinpointing documents that satisfy a searcher´s information need" (Chakrabarti 2003, S. 48). Für zukünftige Weiterentwicklungen ist die Reduzierung der Wortmenge in den gesammelten Dokumenten durch die Beschränkung auf Wortstämme (‚stemming’) geplant. Kern der Datentransformation ist die Modellierung der Textdokumente als ‚vector space’-Modelle auf der Basis des sog. ‚word bag’-Konzeptes: Ausgehend von der Basismenge aller Worte, die in den gesammelten Textdokumenten nach Eliminierung der ‚stopwords’ vorkommen, wird jedes Textdokument durch die Zuordnung von Gewichten zu jedem Wort der Basismenge gekennzeichnet. Die Gewichte für jedes Wort werden als Produkt der Häufigkeit, mit der das betreffende Wort in dem Textdokument vorkommt (Worthäufigkeit), und der Inversen der relativen Häufigkeit derjenigen Textdokumente berechnet, in denen das betreffende Wort auftritt (Inverse Dokumenthäufigkeit). Während die Worthäufigkeit die Relevanz eines Wortes für das betreffende Dokument erfassen soll, dient die inverse Dokumenthäufigkeit der Abwertung von Füllwörtern, die für den Inhalt des Textdokuments bedeutungslos sind. Im Zentrum des KDD-Prozesses und damit auch des Aufbereitungsschrittes im Rahmen von PROFIS steht der Einsatz von Methoden zur Erkennung von Mustern in den Datenbeständen. Diese Phase wird in der Literatur auch als Data Mining bzw. – bei der Untersuchung unstrukturierter (Text-)Daten – als Text Mining bezeichnet. Zur Strukturierung der Methoden des Text Mining differenziert PROFIS zwischen dokumentbezogenen bzw. dokumentenseparierenden und begriffsbezogenen bzw. dokumentenintegrierenden Methoden (Wassenhoven 2004, S. 16 ff.): x Dokumentbezogen bzw. dokumentenseparierend sind diejenigen Methoden, welche die Textdokumente in Klassen einteilen, von denen a priori eine Repräsentation besteht (Klassifikation) oder deren Repräsentation uno acto mit der Klassifizierung erfolgt (Clusterung). x Als begriffsbezogen bzw. dokumentenintegrierend werden diejenigen Methoden bezeichnet, die auf Begriffszusammenhänge schließen. Durch ihre Anwendung wird es letztlich möglich, Abweichungen und Unregelmäßigkeiten in den Datenbeständen einer Klasse zu erkennen, die als Ausgangspunkt für Tiefenanalysen mit dem Ziel der Identifizierung schwacher Signale für Diskontinuitäten und Strukturbrüche verwendet werden können. PROFIS nutzt sowohl dokumentenseparierende als auch dokumentenintegrierende Methoden. Zur Klassifikation der gesammelten Dokumente verwendet es den naiven Bayes-Klassifizierer, ein dokumentenseparierendes Verfahren, das die Dokumente entsprechend ihrer bedingten Zugehörigkeitswahrscheinlichkeit zu den vorgegebenen Umfeldbereichen zuordnet (Mitchell, S. 157 ff.). Der BayesKlassifizierer wurde trotz seiner leichten Effizienznachteile gegenüber anderen Klassifizierungsverfahren (Dumais et al. 1998, S. 151 f.; Nigam et al. 1999, S. 64 ff.) ausgewählt, weil er relativ leicht zu berechnen und zu kommunizieren ist –
4.1 Frühinformationssysteme
87
Vorteile, die angesichts der Zielgruppe KMU die Effizienznachteile ausgleichen. Zur Anwendung ist ein Trainingskorpus bereitzustellen, auf dessen Grundlage neue, unbekannte Texte automatisch klassifiziert werden können. Zur Erkenntnis von Zusammenhängen sowie von Abweichungen und Unregelmäßigkeiten greift PROFIS auf die Assoziationsanalyse zurück, ein ursprünglich für das Data Mining konzipiertes dokumentenintegrierendes Verfahren, mit dem Zusammenhänge und Abhängigkeiten in großen Datenbasen entdeckt werden können (Bankhofer 2002). Eine Assoziation der Form X o Y schließt bezüglich einer bestimmten Menge von Dokumenten und der darin enthaltenen (Teil)Menge von Begriffen X auf das Vorkommen einer Menge von Begriffen Y. Eine Assoziationsregel stellt eine Regel der Form X o Y (sprich: „wenn X dann Y“) dar, mit X M , Y M und X Y ; dabei symbolisiert M die Menge aller Schlüsselwörter, die zur Beschreibung der Textdokumente verwendet werden. Die Signifikanz von Assoziationen bzw. Assoziationsregeln kann mittels statistischer Kennzahlen gemessen werden; weite Verbreitung haben die beiden Kennzahlen Support und Konfidenz gefunden (Säuberlich 2000, S. 110 f.): x Der Support einer Assoziation(sregel) gibt den Anteil der Dokumente an der Gesamtzahl der Dokumente an, in denen die in X enthaltenen Begriffe auftreten; Support drückt also die Verbreitung der ‚wenn’-Komponente der Assoziationsregel aus. x Die Konfidenz einer Assoziation(sregel) hingegen bildet die Intensität der Verknüpfung von ‚wenn’- und ‚dann’-Komponente ab. Sie ist definiert als Anteil der Dokumente, in denen sowohl die in X als auch die in Y enthaltenen Begriffe auftreten, an der Zahl der Dokumente, in denen (nur) die in X enthaltenen Begriffe vorkommen. M.a.W.: Konfidenz ist der Quotient aus Support der ‚wenn’- und ‚dann’-Komponente und Support der ‚wenn’-Komponente. Support und Konfidenz können sowohl endogen aus dem vorhandenen (Text-) Datenbestand abgeleitet als auch für exogen eingeführte Begriffe und deren Verknüpfungen – etwa für schwache Signale, die von menschlichen Sensoren identifiziert wurden – ermittelt werden. Die Beobachtung ihrer Entwicklung im Zeitablauf bildet die Grundlage für die Identifizierung des Aufkommens neuer Sachverhalte und die neuartige Verknüpfung von Sachverhalten. Datenanalyse Die aufbereiteten Daten bilden die Grundlage für die Identifikation schwacher Signale und ihre Verdichtung. Auf ihrer Basis müssen die menschlichen Entscheidungsträger entscheiden, ob die gefundenen Daten(-muster) die Qualität von Frühinformationen besitzen. Da die automatische Aufbereitung ausschließlich auf der semantischen Ebene operiert, ist die Überprüfung der pragmatischen Relevanz der identifizierten (semantischen) Daten bzw. Datenmuster) unverzichtbar. Die automatische Aufbereitung der (Text-)Daten dient der Entscheidungsunterstützung und -vorbereitung; die letztendliche Entscheidung, ob die identifizierten Beziehungen, Abweichungen und Unregelmäßigkeiten Diskontinuitäten
88
4 Integrierte Produktdefinition und Technologieplanung
signalisieren, ist jedoch nicht ohne den menschlichen Entscheidungsträger zu treffen. Durch die Automatisierung der Verarbeitungsprozesse kann aber zum einen der Aufwand für das scanning deutlich reduziert und damit die Schwelle für die Einrichtung von FIS in KMU erheblich verringert werden. Zum anderen trägt die automatische Aufbereitung zur Qualitätssteigerung von FIS bei, da sie eine erhebliche Verbesserung des ‚recalls’, d.h. des Anteils der aufgenommenen schwachen Signale an der Gesamtmenge vorhandener schwacher Signale, ermöglicht. Auch dieser – für FIS besonders wichtige Effekt – kann helfen, die Akzeptanzschwelle von FIS in KMU zu senken. Sind die Frühinformationen herausgefiltert, müssen sie bewertet werden. Dabei sind zwei Typen von Wirkungen zu berücksichtigen: Wirkungen für die strategische Planung und Wirkungen auf das FIS. Die Bewertung der Wirkungen für die strategische Planung gipfelt in der Entscheidung über die Weiterleitung der Frühinformation an das Planungssystem zwecks Einleitung geeigneter Maßnahmen. Dabei ist neben der Wahrscheinlichkeit des Eintreffens der Diskontinuität, die durch das betreffende schwache Signal angezeigt wird, und ihren Auswirkungen auf die Unternehmensziele und -strategien vor allem die zeitliche Dringlichkeit von Maßnahmen zu berücksichtigen. Bei der Erfassung der Wirkungen auf das FIS sind sowohl die Wirkungen auf die Konfiguration des Systems als auch die Wirkungen auf seinen Betrieb zu berücksichtigen. Beispiel für den erstgenannten Effekt ist die Veränderung der Beobachtungsbereiche aufgrund schwacher Signale über neue Technologien oder das Zusammenwachsen ‚alter’ Technologien. Als Beispiel für letzteren Effekt kann der Übergang vom scanning zum monitoring aufgrund der Identifizierung neuer schwacher Signale angeführt werden. Der vorhandene PROFIS-Prototyp unterstützt den Analyseschritt nur insofern, als er Anpassungen der Konfiguration wie des Betriebs des FIS aufgrund der Entscheidungen der menschlichen Entscheidungsträger ermöglicht. In zukünftigen Weiterentwicklungen ist auch die Integration der Bewertung schwacher Signale hinsichtlich ihrer Konsequenzen für die Unternehmensziele und -strategien geplant. Als Ausgangspunkt für diese Erweiterung bietet sich die von Ansoff (1976, S. 143 ff.) konzipierte strategic issue analysis an. Weiterleitung Die gefundenen Frühinformationen müssen in das Planungssystem eingehen, um Wirkung zu entfalten: Nur wenn auf Frühinformationen mit Handlungen reagiert wird, ist das eigentliche Ziel zu erreichen, nämlich eine Verlängerung des Handlungszeitraumes. Bei kleineren Unternehmen, bei denen die Unternehmensleitung aufgrund der geringen Arbeitsteilung in den Analyseschritt eingebunden ist, sind für die Umsetzung der Ergebnisse des FIS i.d.R. weder besondere Institutionen noch spezielle Kommunikationsprozesse erforderlich. In mittleren Unternehmen empfiehlt sich die Institutionalisierung entsprechender Gremien und Prozesse (vgl. dazu die Beispiele bei Schröder et al. 2003, S. 113 ff.). PROFIS kann aufgrund seiner offenen und flexiblen Strukturen in beide Organisationsumgebungen eingebunden werden.
4.1 Frühinformationssysteme
89
4.1.3 Ergebnisse und offene Fragen Als Anforderungen an ein FIS und damit als zentrale Zielsetzungen für die Entwicklung von PROFIS wurden bereits die Faktoren Ganzheitlichkeit und Integrativität, KMU-Gerechtigkeit und Flexibilität formuliert. Im Folgenden soll zunächst geprüft werden, inwieweit diese Zielsetzungen verwirklicht werden konnten. Auf dieser Basis können offene Fragen identifiziert und damit der zukünftige Forschungsbedarf ermittelt werden. PROFIS ist als offenes System konzipiert. Es umfasst alle Schritte des Frühinformationsprozesses von der Systemkonfiguration über die Datensuche, aufbereitung und -analyse bis hin zur Weiterleitung der identifizierten schwachen Signale und Frühinformationen an die (strategische) Planung. Es ermöglicht die Verarbeitung sowohl numerischer als auch textueller und strukturierter wie unstrukturierter Daten, die in den gängigen Formaten vorliegen können. Die Beobachtungsbereiche sind qualitativ und quantitativ grundsätzlich unbegrenzt und können den nutzerspezifischen Bedingungen entsprechend definiert werden. Für die Suche nach Frühinformationen werden sowohl menschliche Sensoren gemäß dem personenorientierten Konzept als auch elektronische Agenten und Suchmaschinen gemäß dem technokratischen Konzept eingesetzt. Dabei beschränkt PROFIS sich nicht auf numerische Daten, sondern erfasst und verarbeitet auch unstrukturierte Daten in Textdokumenten. Die dafür benötigten neuen Methoden wurden dem ‚Werkzeugkasten’ des Text Mining entnommen und an die spezifischen Anforderungen von FIS angepasst. Das Ziel der Ganzheitlichkeit kann damit als weitgehend erfüllt betrachtet werden; Einschränkungen ergeben sich u.a. aus der Vernachlässigung audio-visueller Daten und vor allem aus der möglichen Systemkomplexität. Die Integration der zahlreichen in PROFIS umgesetzten Konzepte wurde auf zwei Wegen angestrebt: Zum einen verknüpft PROFIS als prozessorientiertes System die verschiedenen Schritte, die für die Ermittlung von Frühinformationen durchlaufen werden müssen. So werden nicht nur die verschiedenen Schritte im laufenden Betrieb eines FIS, sondern auch die Betriebs- mit der Konfigurationsphase integriert. Zum anderen werden durch die Verknüpfung von PROFIS mit dem KDD-Prozess personenorientierte und technokratische FIS-Konzepte in ein System integriert, das auf einem einheitlichen Konzept beruht. Diese Verknüpfung ermöglicht zudem die zwanglose Integration quantitativer, strukturierter Daten, wie sie bei FIS der 1. und der 2. Generation im Vordergrund stehen, mit den qualitativen, unstrukturierten Daten, die im Mittelpunkt von Frühaufklärungssystemen bzw. FIS der 3. Generation stehen. Auch die Anforderung der Integrativität kann daher als weitgehend erfüllt betrachtet werden. PROFIS automatisiert große Teile der Datensuche und –aufbereitung und unterstützt so die kostengünstige Durchführung dieser beiden Schritte. Die Teilautomatisierung dieser Schritte eröffnet zudem die Möglichkeit zur Erfassung und Verarbeitung weit größerer Datenmengen und damit die Chance zur Erhöhung des ‚recalls’, d.h. der Menge gefundener Frühinformationen. PROFIS trägt damit zur Entschärfung des Dilemmas der Frühinformation bei, das hohe Hürden für die
90
4 Integrierte Produktdefinition und Technologieplanung
Implementierung von FIS in KMU aufbaut. Die KMU-Eignung von PROFIS wird durch eine Reihe weiterer Merkmale erhöht: PROFIS erfordert weder prohibitive Methodenkenntnisse noch den Einsatz hochstandardisierter und -formalisierter Prozesse; die Hardware-Aufwendungen sind gering. Die aus diesen Merkmalen resultierende hohe KMU-Eignung wird allerdings stark beeinträchtigt durch die hohen Anforderungen an die personellen Ressourcen in allen Prozessschritten. Insbesondere die Konfiguration mit der aufwändigen Auswahl von Sensoren stellt (zumindest einmalig) relativ hohe qualitative und quantitative Anforderungen. Diese hohen Anforderungen werden nur teilweise kompensiert durch die im Vergleich mit personenorientierten FIS wesentlich geringere Zahl menschlicher Sensoren. Zudem machen die hohen qualitativen Anforderungen vor allem für die Systemkonfiguration das Hinzuziehen externer Berater vielfach unumgänglich. Die Forderung nach KMU-Eignung ist deshalb nur bedingt erfüllt; insbesondere kleine Unternehmen können an den Anforderungen scheitern. Die offene und ganzheitliche Struktur von PROFIS hat zur Folge, dass es hinsichtlich seines Einsatzbereiches kaum Beschränkungen unterliegt: Es ist z.B. grundsätzlich für Dienstleistungsbetriebe ebenso geeignet wie für Sachleistungsbetriebe, für Konsumgüter produzierende Unternehmen ebenso wie für Investitionsgüter erzeugende Unternehmen und für Betriebe mit mechanisch-physikalischen Technologien ebenso wie für Betriebe mit chemisch-biologischen Technologien. Die hohe Flexibilität von PROFIS wird weiter gefördert durch seinen modularen Aufbau, der die gezielte Implementierung der benötigten Bausteine des FIS ermöglicht. Auch das Flexibilitätsziel kann daher als erfüllt gelten. Die offene Struktur von PROFIS hat allerdings auch Nachteile: PROFIS hat z.Zt. noch eher den Charakter eines Konzeptes als den eines Tools. Die im Prototyp implementierten Methoden und Verfahren haben vielfach nur exemplarischen Charakter und reizen die Potenziale des Konzepts nicht aus. Da der Prototyp sich noch in der Entwicklung befindet, konnten die implementierten Methoden und Verfahren zudem bisher nur teilweise mit der erforderlichen Intensität und unter verschiedenen Anwendungsbedingungen gestestet werden; für die nicht im Prototypen implementierten Methoden und Verfahren fehlt es vielfach gänzlich an empirischen Tests. PROFIS ermöglicht zwar die Verarbeitung unstrukturierter Textdokumente, die für die hier betrachteten FIS der 3. Generation von entscheidender Bedeutung sind, aber es analysiert lediglich deren semantische Dimension. Die Lücke zur pragmatischen Dimension von Frühinformationen muss durch menschliche Urteilskraft geschlossen werden. Wenngleich mit einer (teil-)automatischen Schließung dieser Lücke auf absehbare Zeit sicherlich nicht zu rechnen sein wird, erscheint eine Verringerung der Lücke – z.B. durch die Verbesserung der verwendeten Kennzahlen und Analysemethoden – durchaus im Bereich des Möglichen. Aus den genannten Mängeln ergibt sich der zukünftige Forschungsbedarf. Zum einen sind die verfügbaren Konzepte und Methoden empirisch auf ihre Eignung für die Erzeugung von Frühinformationen zu überprüfen. Zum anderen sind die vorhandenen Ansätze zur Mustererkennung insbesondere in unstrukturierten Textdokumenten weiterzuentwickeln. Für die Realisation wissenschaftlich fundierter FIS sind Fortschritte in beiden Bereichen unerlässlich.
4.1 Frühinformationssysteme
91
Literatur Ahn H, Meyer C (1999) Ansatzpunkte zur Entwicklung eines KMU-spezifischen Früherkennungssystems. Arbeitsbericht Nr. 99/04, RWTH Aachen, auszugsweise veröffentlicht in: Ahn H, Meyer C (2000) Das Informantenkonzept – Ein Beitrag zur strategischen Frühaufklärung in KMU. In: Industrie Management 16, H 5: 32–36. Ansoff HI (1976) Managing Surprise and Discontinuity – Strategic Response to Weak Signals; In: Zfbf 28: 129–152 Bankhofer U (2002) Data Mining mit Assoziationsregeln. In: WiSt 31, H 12: 715–719 Chakrabarti S (2003) Mining the Web. Morgan Kaufman, San Francisco, Cal. (USA) Chang G (2001) Mining the World Wide Web, An Information Search Approach. Kluwer Academic Publisher, Boston Dordrecht London Chen SJ, Hwang CL (1992) Multi Attribute Decision Making – Methods and Applications. Springer, Berlin Heidelberg New York Daschmann H-A (1994) Erfolgsfaktoren mittelständischer Unternehmen: ein Beitrag zur Erfolgsfaktorforschung. Schäffer-Poeschel, Stuttgart, zugl.: Dissertation, TU München Dumais S et al. (1998) Inductive Learning Algorithms and Representations for Text Categorization; Proceedings of the 7th ACM International Conference on Information and Knowledge Management (CIKM-98). Bethesda, MD, S 148–155. Ernst H (1996) Patentinformationen für die strategische Planung von Forschung und Entwicklung. Deutscher Universitäts-Verlag, Wiesbaden, zugl.: Dissertation, Universität Kiel Faix A (1998) Patente im strategischen Marketing. Sicherung der Wettbewerbsfähigkeit duch systematische Patentanalyse und Patentnutzung. Erich Schmidt Verlag, Berlin Köln Fayyad U, Piatetsky-Shapiro, Smyth P (1996) From data mining to knowledge Discovery: An overview. In: Advances in Knowledge Discovery and Data Mining. AAAI Press, 1996, S 1–34 Freund M, Wassenhoven R (2004) Ansatz eines Frühinformationssystems zur Schaffung einer strategischen Wissensbasis. In: Chamoni P et al. (Hrsg.) Proceedings Multikonferenz Wirtschaftsinformatik (MKWI) 2004, Duisburg/ Essen, S 407–419 Gaul D (1990) Rechtsprobleme psychologischer Eignungdiagnostik. Dt. PsychologenVerlag, Bonn Gausemeier J, Fink A (1999) Führung im Wandel – Ein ganzheitliches Modell zur zukunftsorientierten Unternehmensgestaltung. Hanser, München Wien Konrad L (1991) Strategische Früherkennung. Eine kritische Analyse des "weak signals"Konzeptes. Universitätsverlag Dr. N. Brockmeyer, Bochum Kostoff RN (1999) Science and technology innovation. Technovation Vol. 19: 593–604 Kostoff RN, Schaller RR (2001) Science and Technology Roadmaps. In: IEEE Transactions on Engineering Management 48, H 2: 132–143 Kostoff RN, Boylan R, Simons GR (2004) Disruptive technolgy roadmaps. In: Technological Forecasting & Social Change Vol. 71: 141–159 Krystek U, Müller-Stewens G (1993) Frühaufklärung für Unternehmen: Identifikation und Handhabung zukünftiger Chancen und Bedrohungen. Schäffer-Poeschel, Stuttgart Lancaster FW (1968) Information Retrieval Systems: Characteristics, Testing and Evaluation. Wiley, New York Liebl F (1996) Strategische Frühaufklärung: Trends – Issues – Stakeholders. Oldenbourg, München Wien
92
4 Integrierte Produktdefinition und Technologieplanung
Mitchell T (1997) Machine Learning. Mc Graw Hill, Boston Möhrle MG, Walter L, Geritz A (2003) Neue Wege im Innovationsmanagement durch computerbasierte semantische Patentanalysen. PATINFO Nigam K, Lafferty J, McCallum A (1999) Using Maximum Entropy for Text Classification. In: Proceedings of Machine Learning for Information Filtering Workshop, IJCAI ´99. Stockholm, Sweden, S 61–67 Peiffer S (1992) Technologie-Frühaufklärung - Identifikation und Bewertung zukünftiger Technologien in der strategischen Unternehmensplanung. Steuer- und Wirtschaftsverlag, Hamburg Säuberlich F (2000) KDD und Data Mining als Hilfsmittel zur Entscheidungsunterstützung. Peter Lang, Frankfurt/ Main Schlüter CK (2004) Strategische Frühinformationssysteme für KMU: Fallstudienbasierte Analyse und Aufdeckung konzeptioneller Verbesserungspotentiale. Dissertation, RWTH Aachen Schneewind C, Graf J (2003) Der 16-Persönlichkeits-Faktoren-Test – Revidierte Fassung. Huber, Bern Schröder H-H, Schiffer G (2000) Konzeptionelle Grundlagen der Planung von Kooperationen in Frühinformationssystemen für die strategische Technologie- und Innovationsplanung. In: Häfliger G, Meier JD (Hrsg.) Aktuelle Tendenzen im Innovationsmanagement. Physica-Verlag, Heidelberg, S 119–153 Schröder H-H, Schiffer G (2001a) Konzeptionelle Grundlagen der strategischen Frühinformation. In: WISU 30, H 7: 971–978 Schröder H-H, Schiffer G (2001b) Strategische Frühinformationssysteme – Nutzen und Erfolgsvoraussetzungen. In: WISU 30, H 11: 1506–1511 sowie H 12: 1640–1644 Schröder H-H, Jetter A, Schiffer G (2003) Strategische Frühinformation: Bewältigung diskontinuierlicher Zukunftsentwicklungen durch ein Instrumentarium zur Identifikation und Verarbeitung schwacher Signale. TCW Transfer Zentrum, München Sepp HM (1996) Strategische Frühaufklärung: Eine ganzheitliche Konzeption aus ökologieorientierter Perspektive. Deutscher Universitäts-Verlag, Wiesbaden, zugl.: Dissertation, Universität Freiburg Wassenhoven R (2003) Informationswissenschaftliche Ansätze zur Aufdeckung von Frühinformationen aus unstrukturierten Daten. Arbeitsbericht, RWTH Aachen Zeller A (2003) Technologiefrühaufklärung mit Data Mining: Informationsprozessorientierter Ansatz zur Identifikation schwacher Signale. Deutscher Universitäts-Verlag, Wiesbaden, zugl.: Dissertation, Universität Stuttgart Zurlino F (1995) Zukunftsorientierung von Industrieunternehmen durch strategische Früherkennung Hanser, München Wien, zugl.: Dissertation, TU Berlin
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
93
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel In vielen Märkten des produzierenden Gewerbes wirken nicht mehr ausschließlich die physischen Produkte auf die Zufriedenheit der Kunden ein. Besonders in Käufermärkten für Industrie- und langlebige Gebrauchsgüter ist ein Angebot an Services unumgänglich, wenn die Kunden zufriedengestellt oder sogar begeistert werden sollen. Darüber hinaus bieten produktbegleitende Services auch die Möglichkeit, sich von der Konkurrenz abzuheben, während die angebotenen Produkte in ihrer Sachleistung infolge rascher Imitation durch Konkurrenten immer austauschbarer werden (Simon 1993, S. 10ff.; Meyer 1985, S. 99). Da allerdings nicht jede denkbare Dienstleistung sinnvoll ist und zu einem Wettbewerbsvorteil führt, stellt das Schnüren eines Leistungsbündels (Engelhardt 1996), welches ein Produkt und verschiedene Services umfasst, eine schwierige Aufgabe dar (Homburg u. Garbe 1996, S. 70). Mit der Entwicklung der QFD (Quality Function Deployment)- gestützten Prozessstrukturierungshilfe (zum Begriff der Prozessstrukturierungshilfe vgl. Steffenhagen 2004, S. 221 ff.) zur Produkt- und Servicekonzept-Findung (ProSerF)1 soll daher die Forderung von Engelhardt (1995, S. 25) sowie Schmidt (1996, S. 381) nach einer Integration von Produkt- und Serviceplanung erfüllt werden. Eine solche Integration ist erforderlich, da Produkt- und Servicebestandteile eines Leistungsbündels gemeinsam auf die Präferenzbildung bzw. das Qualitätsempfinden des Kunden einwirken. So können die zwischen Produkt- und Servicenutzen bestehenden Trade-offs schon in der Konzeptfindung berücksichtigt werden. ProSerF greift auf eine Stärke der QFD-Methode, nämlich die konsequente und kontinuierliche Kundenorientierung, zurück (Call 1997, S. 129). ProSerF geht dabei jedoch weiter, indem mithilfe der Conjoint Analyse eine Verknüpfung zwischen Absatz- und Kostenseite hergestellt wird (Bauer et al. 1994, S. 82). Ergänzend werden rechtliche und kreislaufwirtschaftliche Rahmenbedingungen berücksichtigt. Auf diese Weise ist ein Produkt- und Servicekonzept entwickelbar, das den Anforderungen des gesamten Produktlebenszyklus und damit auch einer umweltorientierten Unternehmensführung gerecht wird (Dyckhoff 2000, insbes. S. 99ff.). Der ProSerF-Prozess besteht – wie in Abb. 4.4 dargestellt – aus 12 Schritten. Angestoßen wird dieser Prozess durch eine Absatzobjektidee, die aus einer dem Prozess vorausgehenden Entwicklungsarbeit stammt und aus einer Anzahl weiterer Ideen ausgewählt wurde. Es sei angenommen, dass bei dieser Auswahl eine Beurteilung der Ideen anhand der Unternehmenspotenziale sowie der Konkurrenz-
1
Die Verfasser danken Frau Bernadette Schiffers und Herrn Dr. J. Fischer für ihren grundlegenden Beitrag ‘Konzeptfindung für Produkt- und Service-Leistungsbündel mittels ProSerF’, der als Arbeitspapier im SFB 361 entstand.
94
4 Integrierte Produktdefinition und Technologieplanung
und Marktsituation vorgenommen wurde. 2 Abbildung 4.4 deutet ferner an, dass die vorangegangene Entwicklungsarbeit auf Signale eines Frühinformationssystems (FIS) zurückgeht. Ein solches System versorgt den gesamten Prozessdurchlauf kontinuierlich mit Informationen, damit auch während des Prozesses jederzeit Umfeldentwicklungen aufgegriffen werden können.3 Vor Beginn des ersten ProSerF-Schritts wird zweckmäßigerweise ein interdisziplinäres Planungsteam (SE-Team) (Saatweber 1994, S. 449 u. 467 zu den Anforderungen, denen dieses Team genügen muss) gebildet, das die einzelnen Prozessschritte bearbeitet. Der ProSerF-Ablauf sei im Folgenden am Beispielprodukt ‘Windkraftanlage’ erläutert. 4.2.1 Die QFD-gestützte Konzeptfindungshilfe ProSerF Schritt 1:
Makrosegmentierung und allgemeine Zielgruppenfestlegung (1a) sowie Erfassung von Kundenforderungen (1b)
Der erste ProSerF-Schritt besteht aus zwei zusammenhängenden Teilschritten. Begonnen wird mit dem Teilschritt der Makrosegmentierung des relevanten Markts (1a). Eine feinere Unterteilung der ermittelten Makrosegmente wird später, im vierten Schritt, durch eine Mikrosegmentierung vorgenommen. Die Unterteilung in Makro- und Mikrosegmentierung geht als so genannter mehrstufiger Segmentierungsansatz auf Wind et al. zurück (Wind u. Cardozo 1974, S. 153 ff.; Gröne 1976, S. 239 ff.). In diesem Zusammenhang erscheinen zwei Segmentierungsstufen angebracht, da so im weiteren Vorgehen leichter ein Schwerpunkt gesetzt und, nach Erhebung weiterer Informationen, die Mikrosegmentierung vorgenommen werden kann. Auf diese Weise reduzieren sich die F&E-Kosten (Wind u. Cardozo 1974, S. 156 f.). Als Kriterien für die Makrosegmentierung kommen beispielsweise in Industriegütermärkten 4 die Unternehmensgröße oder der Standort potenzieller industrieller Nachfrager in Frage.
2
3 4
Mit dieser Annahme soll sichergestellt werden, dass nicht von vornherein unrealisierbare Ideen Input der ProSerF werden. Zur Aufgabenstellung der frühzeitigen Informationsbeschaffung vgl. Kap. 4.1. Wenn das Kernprodukt des zu konzipierenden Leistungsbündels ein Industriegut darstellt und deshalb in diesem Teilschritt die Makrozielgruppe auf industrielle Nachfrager festgelegt wird, dann sind auch Zielperson(en) im Beschaffungsgremium – dem so genannten Buying Center – der nachfragenden Organisation festzulegen. Zu den Besonderheiten des organisationalen Beschaffungsverhaltens Backhaus (2003, S. 61ff.).
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
95
Initiierender und entwicklungsbegleitender Input aus FIS
Absatzobjektidee als Input der ProSerF
ProSerF (1)
Makrosegmentierung und allgemeine Zielgruppenfestlegung (1a) sowie Erfassung von Kundenforderungen (1b)
(2)
Strukturierung der Kundenforderungen in Primary Needs (PN), Secondary Needs (SN) und Tertiary Needs (TN) PN SN TN
(3) Strukturierung der PN in Basis-, Leistungs- und Begeisterungsforderungen sowie indifferente und entgegengesetzte Forderungen Basisford.
Leistungsford.
Begeist.ford.
indiff. Ford.
entgeg. Ford.
(4) Mikrosegmentierung und kundenbezogene Zielgruppenfestlegung Basisford.
Leistungsford.
Begeist.ford.
indiff. Ford.
entgeg. Ford.
Machbarkeitsstudie und Variantenauswahl
(5) Basisford.
Leistungsford.
Begeist.ford.
indiff. Ford.
entgeg. Ford.
(6) Ermittlung der Teilnutzenwerte für die Leistungs- und Begeisterungsforderungen sowie entgegengesetzten Forderungen (7)
CA-basierte Gesamtabsatzmengenprognose
(8)
Generierung relevanter Produkt- und Servicekomponenten
(9)
Erfassung der komponentenbezogenen Kosten des Leistungskonzepts ‘Vorgängermodell’
(10)
Iterative Schätzung der Kosten alternativer SN-Ausprägungen
(11)
Ermittlung des vorteilhaftesten Produkt- und Servicekonzepts
(12)
Konzeptumsetzung
Abb.4.4. Integrierte Produkt- und Servicekonzeptfindung
Die Auswahl eines oder mehrerer Makrosegmente als Zielgruppe(n) für das zu entwickelnde Absatzobjekt erfolgt mit Blick auf die jeweilige Absatzobjektidee sowie die eigenen Unternehmensressourcen. Die für den Segmentierungs- und
96
4 Integrierte Produktdefinition und Technologieplanung
Auswahlschritt benötigten Informationen sind i.A. innerhalb des Unternehmens – z.B. in Kundenkarteien oder auch Sekundärstatistiken – verfügbar, so dass keine Primärerhebungen erforderlich sind. Die Entscheidung über die Anzahl und Größe der einzugrenzenden Zielgruppen ist fallspezifisch zu treffen. Dabei ist zwischen der Komplexität der entstehenden Aufgabe und dem Übersehen von Chancen aufgrund der mit sehr eng definierten Zielgruppen selbst auferlegten Marktbeschränkung abzuwägen. Im zweiten Teilschritt (1b) werden innerhalb der eingegrenzten Zielgruppe die Anforderungen dieser Kunden an das Absatzobjekt erhoben. ProSerF bezieht dabei nur Forderungen an das Leistungsbündel als Ganzes ein. Durch diese Beschränkung wird gewährleistet, dass für alle in ProSerF eingeschlossenen Kundenforderungen prinzipiell sowohl immaterielle als auch materielle Lösungsprinzipien generiert werden können. Dagegen müssen produktkomponentenbezogene Forderungen ausgeklammert bleiben, ebenso wie solche Forderungen, die auf Prozess-, Ergebnis- oder Potenzialcharakteristika (Engelhardt et al. 1993, S. 398) spezifizierter, immaterieller Leistungsbestandteile abzielen. Denn zu spezifizierende Leistungsbestandteile sollen als Komponenten eines Leistungsbündels durch ProSerF erst noch festgesetzt werden.5 Zur Ermittlung der Kundenforderungen können beispielsweise Sekundärstatistiken, explorative Interviews und Gruppendiskussionen herangezogen werden (Schmidt 1996, S. 129 ff.). Es eignen sich insbesondere solche Methoden, die die Befragten nicht durch Analyseschritte überfordern, sondern die ihnen das freie Berichten über ihre Erlebnisse ermöglichen. Die Aufgabe der Abstraktion und des Schlussfolgerns sollte dem Planungsteam obliegen (Bitner et al. 1990, S. 74). Bei der Durchführung dieses Schritts sollten in jedem Fall mehrere Erhebungsmethoden kombiniert werden, da keine der existierenden Methoden für sich in der Lage ist, ein vollständiges Bild der Kundenforderungen zu liefern (Schmitz 2000, S. 209 ff.). Bei der Entscheidung über die Anzahl zu befragender Personen muss der Nutzen der Vollständigkeit bei einer großen Anzahl befragter Kunden den damit verbundenen Kosten gegenübergestellt werden (Griffin u. Hauser 1993, S. 7 f. bzgl. einer Darstellung der Zusammenhänge zwischen der Zahl der Probanden, der Vollständigkeit der Informationen und den damit verbundenen Kosten). Für den Fall, dass schon im Rahmen der Konzeptfindung dem gesamten Produktlebenszyklus Rechnung getragen werden soll, ist es nicht ausreichend, die Zielgruppenbetrachtung allein auf die Gruppe der potenziellen Käufer zu beschränken. Im Teilschritt (1a) muss u.U. die Zielgruppe den Unternehmenszielen entsprechend auf weitere Anspruchsgruppen ausgedehnt werden (Meyer 2002, S. 309 f.).6 Neben Forderungen der potenziellen Käufer und weiterer Anspruchsgruppen sind in diesem Fall auch rechtliche sowie über diese hinausgehende kreislaufwirtschaftliche Rahmenbedingungen zu beachten, da auch diese die zu 5
6
Beispielhaft sei die Forderung ‘Freundlichkeit der Mitarbeiter am Servicetelefon‘ angeführt, die die Einbeziehung des immateriellen Bestandteils ‘Servicetelefon‘ in das Leistungsbündel voraussetzen würde. Nach Festlegung der Komponenten sind derartige Forderungen natürlich zu berücksichtigen. Im Beispielfall ‘Windrad’ sind daher u.U. auch Anwohner zusätzlich zu beachten.
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
97
entwickelnde Produkt- und Servicestrategie beeinflussen. Aus diesen Rahmenbedingungen lassen sich kreislaufwirtschaftliche Forderungen an die Absatzobjektidee ableiten. Diese Anforderungen sind anschließend mit den Forderungen aller Anspruchsgruppen (im Folgenden dennoch verkürzt als Kundenforderungen bezeichnet) zu einem Gesamtanforderungskatalog zusammenzuführen. Ergeben sich Differenzen zwischen Kunden- und Kreislaufforderungen, sind diese vom SE-Team unter Berücksichtigung der Unternehmensziele aufzulösen (Meyer 2002, S. 318 f.). Schritt 2:
Strukturierung der Kundenforderungen in Primary Needs, Secondary Needs und Tertiary Needs
Die in Schritt 1 ermittelten Anforderungen müssen im zweiten Schritt strukturiert werden, um den weiteren Prozessverlauf zu ermöglichen bzw. zu erleichtern. Mithilfe des ‘Customer Sort and Cluster Process’ 7 ist eine hierarchische Struktur der Forderungen aufdeckbar. Dieser Prozess setzt sich zusammen aus der individuellen Strukturierung der Kundenforderungen in Primary Needs (PN), Secondary Needs (SN) sowie Tertiary Needs (TN) und einer anschließenden Clusteranalyse, mit deren Hilfe eine repräsentative Strukturierung der Anforderungen ermittelt wird (Griffin u. Hauser 1993, S. 13). Bei der Durchführung dieses ‘Customer Sort and Cluster Process’ ist darauf zu achten, dass die SN und die TN, die einem PN zugeordnet werden, sowohl inhaltlich als auch hinsichtlich der an sie gestellten Erwartungen homogen sind. Unter gedanklicher Vorwegnahme des dritten Schritts dürfen nur solche Kriterien zusammengefasst werden, die einheitlich in eine der drei Forderungskategorien des Kano-Modells eingeordnet werden können. 8 Deshalb muss den Verantwortlichen, die die Strukturierung vornehmen, bewusst sein, dass neben inhaltlichen Gesichtspunkten auch solche berücksichtigt werden müssen, die mit der Dringlichkeit der Erfüllung der Forderungen in Verbindung stehen. Sollten während der Strukturierung sich widersprechende Kundenforderungen aufgedeckt werden, muss geprüft werden, ob diese aus unterschiedlichen Präferenzstrukturen bzw. unterschiedlich antizipierten Anwendungsbedingungen aus Sicht der einbezogenen Probanden resultieren. 9 Bei Vorliegen unterschiedlicher Präferenzstrukturen bzw. unterschiedlich antizipierter Anwendungsbedin-
7
8
9
Es ist auch die Anwendung des ‘Group Consensus Process’ denkbar. Doch dessen Ergebnisse entsprechen weniger der Forderung nach einer Darstellung der Stimme des Kunden (Schmidt 1996, S. 146f.). Diese Einschränkung ist insofern erforderlich, als die Strukturierung in Basis-, Leistungsund Begeisterungsforderungen im nächsten Schritt nur anhand der PN durchgeführt wird. Man könnte hier z.B. an die beiden Forderungen ‘optimale Abstimmung einer Windkraftanlage auf Starkwindverhältnisse’ und ‘optimale Abstimmung einer Windkraftanlage an Schwachwindverhältnisse’ denken. Der Widerspruch dieser Forderungen resultiert aus unterschiedlichen Anwendungsbedingungen, die die Probanden antizipieren.
98
4 Integrierte Produktdefinition und Technologieplanung
gungen ist ein (nachfragerbezogener) Segmentierungsschritt zwischenzuschalten. Die aufgetretenen Unterschiede können dabei als Segmentierungskriterien dienen. Schritt 3:
Strukturierung der PN in Basis-, Leistungs- und Begeisterungsforderungen sowie indifferente und entgegengesetzte Forderungen
Als Resultat des vorangegangenen Schritts liegen hierarchisch strukturierte Kundenforderungen vor. Aus Praktikabilitätsgründen werden für die folgende zweite Strukturierungsstufe nur die PN berücksichtigt. Dies schränkt den Aussagewert der Ergebnisse jedoch nicht ein, da die PN für den Kunden die entsprechenden SN und TN sowohl inhaltlich als auch hinsichtlich der mit ihnen verknüpften Erwartungen repräsentieren. Im dritten Schritt werden die PN entsprechend dem Kano-Modell weiter gegliedert. Das 1984 veröffentlichte Kano-Modell (Kano et al. 1984, S. 39 ff.) beleuchtet den Zusammenhang zwischen einer globalen Kundenzufriedenheit und der Erfüllung detaillierter Kundenforderungen. Folgende fünf Kategorien werden in diesem Zusammenhang berücksichtigt: x Begeisterungsforderungen (‘Attractive Quality Elements’): Hierbei handelt es sich um diejenigen Forderungen, deren Vorhandensein bzw. steigender Erfüllungsgrad10 zu überproportionaler Zufriedenheit führt, deren Fehlen oder geringer Erfüllungsgrad jedoch akzeptiert wird und nicht mit einer starken Zufriedenheitsabnahme verbunden ist. x Leistungsforderungen (‘One-Dimensional Quality Elements’): Bei diesen Forderungen führt ein steigender Erfüllungsgrad zu proportionaler Erhöhung der Zufriedenheit und ein sinkender Erfüllungsgrad zu proportionaler Verminderung der Zufriedenheit. x Basisforderungen (‘Must-Be Quality Elements’): Das Erfüllen der Basisforderungen wird in aller Regel kaum bemerkt, da es vorausgesetzt wird; ein Nichterfüllen hingegen führt zu einer überproportionalen Abnahme der Zufriedenheit. x Entgegengesetzte Forderungen (‘Reverse Quality Elements’): Den entgegengesetzten Forderungen liegt ein den Leistungsforderungen äquivalenter, linearer Zusammenhang mit einem negativen Vorzeichen zugrunde. x Indifferente Forderungen (‘Indifferent Quality Elements’): Bei diesen Forderungen wirkt sich weder das Erfüllen noch das Nichterfüllen auf die Zufriedenheit aus. Die ersten vier Kategorien sind maßgeblich für die Kundenzufrieden- bzw. unzufriedenheit. Da die letzte Kategorie für die Ermittlung des Gesamtnutzens bedeutungslos ist, wird sie im weiteren Verlauf von ProSerF nicht mehr beachtet. Die Einteilung von Kundenforderungen in die vorstehenden Kategorien suggeriert statische Zusammenhänge. Diese gelten i.A. auch, solange eine 10
Bei nominalskalierten Forderungen wird nach Vorhandensein und bei intervallskalierten nach deren Erfüllungsgrad unterschieden. Dies gilt auch für die weiteren Kategorien.
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
99
begrenzte Planungsperiode betrachtet wird. Im Zeitverlauf unterliegt die Einteilung jedoch einer gewissen Dynamik, da Begeisterungsforderungen zu Leistungsforderungen werden, wenn sie von einer steigenden Anzahl von Anbietern erfüllt werden. Schließlich können sie mit der Zeit sogar zu Basisforderungen werden (Bokelmann 1992, S. 573). Das Kano-Modell ist auf die Entwicklung neuer Absatzobjekte gemäß Bailom et al. (1996, S. 117) sowie Pfeifer (2001, S. 298 ff.) wie folgt anzuwenden: Nachhaltige Konkurrenzvorteile werden geschaffen, wenn Basisforderungen selbstverständlich erfüllt werden, den Leistungsforderungen sowie entgegengesetzten Forderungen in großem Umfang Rechnung getragen und konzentriert auf Begeisterungsforderungen eingegangen wird (Kano et al. 1994, S. 39 ff.). Da im ersten Schritt des Prozesses lediglich eine Makrosegmentierung vorgenommen wurde, sind nun die eingegrenzten Kundengruppen bezüglich ihrer Forderungen u.U. inhomogen. Infolgedessen können Unterschiede bei der kundenseitigen Zuordnung der Forderungen zu den vier Forderungskategorien auftreten. Die individuellen Zuordnungen der Kunden sind deshalb so zu aggregieren, dass für jede Forderung deren Zuordnung zu den einzelnen Kategorien ersichtlich wird. Dies kann beispielsweise durch eine Häufigkeitstabelle oder einem Histogramm erfolgen (Bailom et al. 1996, S. 122 f.). Abschließend werden die Forderungen mit weitgehend eindeutigen Zuordnungsergebnissen der entsprechenden Forderungskategorie zugewiesen. Für Forderungen, die nicht einheitlich klassifiziert wurden, sind homogene Untergruppen der Zielgruppen zu erstellen, innerhalb derer die Kategorisierung eindeutig vorgenommen wurde. Auf Basis dieser Untergruppen ist im nächsten Schritt die Mikrosegmentierung durchzuführen. Bei wiederholter ProSerF-Anwendung bzw. bei der Weiterentwicklung eines Absatzobjektes kann der dritte Schritt verkürzt werden. Die Forderungen, die schon aus den vorherigen Perioden als Basisforderungen bekannt sind, können direkt wieder in die Kategorie der Basisforderungen eingeordnet werden. Schritt 4:
Mikrosegmentierung und kundenbezogene Zielgruppenfestlegung
Nach der groben Eingrenzung des Gesamtmarkts im ersten Schritt wird im vierten Schritt eine Mikrosegmentierung und darauf aufbauend eine konkretere Eingrenzung der Kundenzielgruppe vorgenommen. Zur Mikrosegmentierung sollten Kriterien verwendet werden, die in möglichst engem Zusammenhang mit dem zukünftigen Kaufverhalten der Kunden stehen. Dies trifft auf die im dritten Schritt analysierten Kundenforderungen zu (vgl. zur Benefit Segmentation Haley 1968, S. 31; Urban u. Hauser 1993, S. 281 ff.; Schmidt 1996, S. 102), die u.U. von unterschiedlichen potenziellen Kunden verschiedenen Kategorien des KanoModells zugeordnet wurden. Diese Unterschiede dienen nun der Mikrosegmentierung. Sofern die Ursachen für die unterschiedlichen Zuordnungen bekannt sind, können darauf gestützt die Segmente gut beschrieben werden, was die Auswahl von Kundenzielgruppen erleichtert. Welche Zielgruppen hierbei ausgewählt werden, hängt wiederum von der Absatzobjektidee und den Unternehmens-
100
4 Integrierte Produktdefinition und Technologieplanung
ressourcen ab, aber auch von den voraussichtlichen Aufwendungen und Erträgen, die mit dem Ausschöpfen dieser Zielgruppen verbunden sind (Wind u. Cardozo 1974, S. 156). Durch die Festlegung der Zielgruppen auf diese Weise ist sichergestellt, dass die zugehörigen Kunden bzgl. ihrer Präferenzen als homogene Gruppe anzusehen sind. Unter diesen Voraussetzungen ist ein Unternehmen in der Lage, ein Konzept zu entwickeln, das gezielt auf die Steigerung der Zufriedenheit und die Vermeidung von Unzufriedenheit innerhalb der Zielgruppen ausgerichtet ist. Schritt 5:
Machbarkeitsstudie und Variantenauswahl
Da die Basisforderungen der Kunden ‘Knock out’-Charakter besitzen, ist es unumgänglich zu prüfen, ob das Unternehmen in der Lage ist, diese umzusetzen. In Abhängigkeit von der Neuartigkeit des zu entwickelnden Leistungsbündels existieren möglicherweise schon alternative Lösungsideen für das Kernprodukt. Diese korrespondieren in der Regel mit alternativen technischen Lösungsprinzipien sowie alternativen Produktkomponenten. Liegen derartige Lösungsideen vor, ist zu ermitteln, welche der Varianten zur Erfüllung der Basisanforderungen am besten geeignet ist (Schmidt 1996, S. 311, 321, 353). 11 Neben solchen ex-ante bekannten Lösungsalternativen sollten aber auch Lösungsmöglichkeiten berücksichtigt werden, die dem technischen Fortschritt Rechnung tragen. Zur Variantenauswahl ist die Varianten-Bewertungs-Matrix (Abb. 4.5) einsetzbar (Schmidt 1996, S. 328f.). Die Bewertung von Varianten erfolgt hinsichtlich der Kriterien ‘Erfüllung der Basisforderungen durch die Varianten‘ 12 sowie ‘Erfüllung der internen Anforderungen‘. Die Ausprägungen der Kriterien werden auf den Achsen der Matrix abgetragen. Innerhalb der Matrix ergeben sich vier Felder, die mit Standardempfehlungen zur Bewertung der Varianten hinterlegt sind.
11
Grobe Varianten der Windkraftanlage sind der H-Rotor, der Darrieus-Rotor (Vertikalachsenanlage) und die Horizontalachsenanlage. 12 Es werden der Einfachheit halber ebenfalls die Basisforderungen auf Ebene der PN berücksichtigt. Hiermit wird wieder ein enger Zusammenhang zwischen den PN und den jeweiligen SN und TN vorausgesetzt, der eine Übertragung der Ergebnisse für die PN auf die SN und die TN rechtfertigt. Sollte auf Grundlage der PN-Basisforderungen keine Variantenauswahl möglich sein, ist Schritt 5 auf SN-Ebene durchzuführen.
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
hoch
Know-how verbessern & evtl. Kundenanforderungen beobachten
101
Variante freigeben
Horizontale Achse
Erfüllung der Basisforderungen
H-Rotor
durch die Varianten Darrieus
niedrig
Variante nicht sinnvoll
Variante „einfrieren“ & Kundenanforderungen beobachten
niedrig
hoch
Erfüllung der internen Anforderungen (Bestehendes Know-how für die Entwicklung / Fertigung / Vermarktung der Varianten im Verhältnis zum Wettbewerb)
(Quelle: in Anlehnung an Schmidt, R. (1996), S. 355.) Abb. 4.5. Die Varianten-Bewertungs-Matrix
Zur Quantifizierung des Erfüllungsgrads der Basisforderungen wird auf ein vereinfachtes House of Quality (HoQ) – das HoQ 1 – zurückgegriffen (Abb. 4.6). In ihm werden die PN-Basisforderungen den Varianten anhand einer Korrelationsmatrix gegenübergestellt (Schmidt 1996, S. 329). Da die Basisforderungen ‘Knock out‘-Kriterien darstellen, die auf jeden Fall erfüllt werden müssen, deren Übererfüllung aber nicht mit einer merklichen Zufriedenheitssteigerung einhergeht, sollten sie alle anforderungsgerecht genau erfüllt werden. Auf eine Berücksichtigung von Forderungswichtigkeiten kann verzichtet werden. Anhand der Werte für die relative Bedeutung der Varianten, die gemäß dem QFD-Prinzip errechnet werden, wird dann die Skalierung der Ordinate der Varianten-Bewertungs-Matrix vorgenommen.
Darrieus
Produktvarianten
Rotor
4 Integrierte Produktdefinition und Technologieplanung
HorizontalachsenWKA
102
21
15
3
54%
38%
8%
Basisforderungen Umweltfreundlichkeit Sicherheit problemloser Betrieb Netzanschluss absolute Bedeutung relative Bedeutung
Korrelationen:
stark (9)
schwach (1)
mittel (3)
keine (0)
Abb. 4.6. Das HoQ 1 zur Ermittlung des Erfüllungsgrads der Basisforderungen durch die Varianten
Bezüglich des Erfüllungsgrads interner Anforderungen müssen quantifizierbare Kriterien gefunden werden, die beschreiben, ob das Unternehmen in der Lage ist, ein durch die entsprechende Variante grob umrissenes Absatzobjekt zu entwickeln, zu produzieren und zu vermarkten. Diese ins Innere des Unternehmens gerichtete Sichtweise wird in der Literatur unter dem Stichwort ‘resourcebased view’ (bspw. Barney 1995; Black u. Boal 1994; Bamberger u. Wrona 1996) diskutiert. Zur Ermittlung des Erfüllungsgrads interner Anforderungen überprüft das SE-Team vorab definierte Schlüsselpotenziale im Unternehmen sowie bei der Konkurrenz. Derartige Potenziale wären z.B. die Anzahl existierender Kundendienststellen bei wartungsintensiven Varianten oder die Anzahl der Entwicklungsmitarbeiter mit Erfahrung in der Branche. Da aber die Realisierbarkeit der Varianten nur selten von einzelnen Schlüsselpotenzialen, häufig dagegen von einem Netzwerk von Potenzialen abhängt (Black u. Boal 1994), muss der Erfüllungsgrad interner Anforderungen multiattributiv ermittelt werden. Bei dieser Beurteilung ist insbesondere zu prüfen, ob das eigene Unternehmen nicht nur über mehr bzw. bessere Ressourcen verfügt als die Konkurrenz, sondern, auch ob absolut gesehen genügend Ressourcen bereitstehen. Falls festgestellt wird, dass das Unternehmen nicht in der Lage ist, das Absatzobjekt in einer der Varianten zu produzieren und zu vermarkten, oder dass die Varianten die Basisforderungen nicht in ausreichendem Maße erfüllen, ist der ProSerF-Prozess zu stoppen: Es muss wieder mit einer Ideengenerierung und -
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
103
auswahl begonnen werden. Die Variante, die anhand der Matrix letztlich ausgewählt wird, steckt den Rahmen für die weitere Planung ab.13 Wird vom planenden Unternehmen ein kreislauforientiertes Produkt- und Servicekonzept angestrebt, so lässt sich auf Basis der konkretisierten Absatzobjektidee ein erstes kreislaufwirtschaftliches Grobkonzept erstellen. Hierzu ist zunächst zu überprüfen, ob die konkretisierte Absatzobjektidee aus kreislaufwirtschaftlicher Sicht vergleichbare Charakteristika wie bereits bestehende Produkte aufweist. Sollte Kongruenz mit einem bestehenden Produkt vorliegen, können entwicklungsbezogene und kreislaufwirtschaftliche Synergieeffekte genutzt werden. Darüber hinaus sollte auch die zeitliche Ausgestaltung des Planungsvorhabens beachtet werden, da sich im Rahmen der Kreislaufführung z.B. zeitliche Überschneidungen zwischen Produktion und Rücknahme ergeben können. Um eine umweltfreundliche Kreislaufführung zu ermöglichen, sind zudem die umweltbezogenen Schwerpunkte im Produktlebenszyklus zu ermitteln. Auf der Basis des potenziellen Ressourcenverbrauchs und der wahrscheinlichen Schadstoffabgabe des geplanten Produkts lassen sich die einzelnen Kreislaufphasen analysieren. Aufgrund der gewonnenen Erkenntnisse kann die Kreislaufgestaltung zumindest grob entworfen werden. Im Anschluss daran sind die Ausstrahlungswirkungen abzuschätzen, die kreislaufwirtschaftliche Grobkonzepte auf das Unternehmensimage, das bestehende Produkt- und Serviceprogramm sowie die Kunden- und weitere Anspruchsgruppen haben. Da diese eher qualitativen Faktoren neben den monetären Größen zum langfristigen Bestand des Unternehmens beitragen, sollten sie bereits in der Konzeptfindung berücksichtigt werden (ausführlich Meyer 2002, S. 332 ff.). Schritt 6:
Ermittlung der Teilnutzenwerte für die Leistungsund Begeisterungsforderungen sowie für die entgegengesetzten Forderungen
Im ProSerF-Prozess wird das zu entwickelnde Leistungskonzept sukzessiv vom Allgemeinen zum Speziellen konkretisiert. Die bislang auf Basis der PN ausgewählte Produktvariante ist daher unter Einbeziehung der Leistungs- und Begeisterungsforderungen auf einer niedrigeren Forderungshierarchiestufe zu präzisieren – hier auf der SN-Ebene. 14 Aus der Erfüllung von Leistungs- und Begeisterungsforderungen sowie entgegengesetzten Forderungen ergibt sich der Nutzen für die Kunden – und somit deren Präferenz. Daher sind in diesem Schritt Teilnutzenwerte für die Erfüllung von Leistungs- und Begeisterungsforderungen sowie von entgegengesetzten Forderungen zu ermitteln. Hierfür wird im Rahmen von ProSerF der Einsatz der Conjoint Analyse (CA) empfohlen. Zum einen weisen die Ergebnisse der Conjoint Analyse (Schmidt 1996, S. 191 ff.) im 13
Für den weiteren ProSerF-Verlauf wurde in unserem Anwendungsbeispiel, wie in Abb. 4.6 ersichtlich, unter Berücksichtigung der Basisforderungen sowie hinsichtlich der Erfüllung interner Anforderungen die Horizontalachsenanlage als weiter zu verfolgende Variante ausgewählt. 14 Vgl. hierzu ProSerF-Schritt 2.
104
4 Integrierte Produktdefinition und Technologieplanung
Vergleich zu direkten Ansätzen der Wichtigkeitsmessung geringere Validitätsprobleme auf und sind deshalb vorzuziehen (Schmidt 1996, S. 279ff.). Zum anderen liefert die Conjoint Analyse durch die Bereitstellung eigenschaftsausprägungsbezogener Nutzenwerte die Grundlage zur profitabilitätsorientierten Leistungskonzeptfindung (Bauer et al. 1994, S. 81 ff.; Fischer 2001, S. 58 ff.). Die Conjoint Analyse beginnt mit der Auswahl der Eigenschaften, die einbezogen werden müssen, sowie ihrer Ausprägungen. Im Rahmen von ProSerF müssen im vorliegenden Beispiel also die SN-Ausprägungen festgelegt werden, die bei der CA zu berücksichtigen sind. Da aufgrund der Ergebnisse der CA im nachfolgenden Schritt die Absatzmenge prognostiziert werden soll, müssen alle SN-Ausprägungen berücksichtigt werden, die im Prognosezeitraum vom betrachteten Unternehmen und dessen Konkurrenten realisiert werden können (Henrichsmeier 1998, S. 17f.). Tabelle 4.1. verdeutlicht die SN-Ausprägungen am Beispiel des Windrads. Die Teilnutzenwerte zeigen auf Individualebene den Beitrag der verschiedenen SN-Ausprägungen an der Entstehung der Gesamtpräferenz an. Durch ihre Verknüpfung lassen sich auch für die Leistungskonzepte Gesamtnutzenwerte ermitteln, die den Befragten im Rahmen der CA nicht explizit zur Bewertung vorgelegt wurden. Beispielsweise ist die Konstruktion eines ‘Idealkonzepts’, also des nutzenmaximalen Leistungskonzepts, möglich (Call 1997, S. 185, sowie die dort zitierten Quellen). Tabelle 4.1. SN-Ausprägungen der Leistungs- und Begeisterungsforderungen Secondary Needs
Ausprägungen
Leistung Preis Einschaltgeschwindigkeit
30 kW 115 € 7 km/h
80 kW 130 € 11 km/h
Abschaltgeschwindigkeit Blattverstellung Blattzahl Mast
20 m/s
28 m/s
pitch 2 Gittermast ja 1 mit
stall 3 Betonmast nein 3 ohne
mit
ohne
Anlieferung/ Montage Garantiezeit Wirtschaftlichkeitsberechnung Datenfernüberwachung
Schritt 7:
100 kW 145 €
160 €
175 €
Rohrmast 4
5
CA-basierte Gesamtabsatzmengenprognose
Die Teilnutzenwertfunktionen dienen als Input für die Absatzmengenprognose. Eine solche wird für alle Leistungsbündel durchgeführt, die sich aus den im
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
105
vorhergehenden Schritt generierten SN-Ausprägungen der Leistungs- und Begeisterungsforderungen unter Einschluss entgegengesetzter Forderungen konstruieren lassen. Grundlage sind die mithilfe der Conjoint Analyse ermittelten Teilnutzenwerte, aus denen sich die individuellen Gesamtnutzenwerte aller theoretisch möglichen Leistungskonzepte bestimmen lassen.15 Die Gesamtnutzenwerte werden in individuelle Leistungsbündel-Wahlwahrscheinlichkeiten überführt (Henrichsmeier 1998, S. 27ff. sowie die dort zitierten Quellen zur Diskussion verschiedener Entscheidungsregeln). Die individuellen Wahlwahrscheinlichkeiten können zu voraussichtlichen Käufer- bzw. Marktanteilen je Leistungskonzept aggregiert werden. Würde jeder Abnehmer k im Prognosezeitraum lediglich eine Mengeneinheit des betrachteten Leistungsbündels j erwerben, so ergäbe sich dessen Marktanteil aus dem Durchschnitt aller individuellen Wahlwahrscheinlichkeiten Skj der K potenziellen Käufer im betrachteten Markt (Henrichsmeier 1998, S. 34 f.). Wird dieser Käufer- bzw. Marktanteil mit dem Käuferpotenzial bzw. Marktvolumen einer Planungsperiode multipliziert (zum Problem der Periodisierung solcher Absatzprognosen Henrichsmeier 1998, S. 44ff.), ergibt sich die dann zu erwartende Absatzmenge des jeweils betrachteten Leistungsbündels. Gestützt auf diese Absatzprognose sowie auf die im Folgenden zu schätzenden ausprägungsbezogenen Kosten ist in ProSerF, im Schritt 11, das vorteilhafteste Leistungskonzept ermittelbar. Abbildung 4.7 zeigt das Vorgehen der CA-basierten Marktanteils-/ Absatzmengenprognose im Überblick.
Individuelle Teilnutzenwerte Individueller Gesamtnutzenwert je Leistungskonzept im relevanten Markt
Individuelle Wahlwahrscheinlichkeiten
Marktanteile und Absatzmengen der Leistungskonzepte im relevanten Markt
Eigenschaftsausprägungen des Leistungskonzepts
Abb. 4.7. Vorgehen bei der CA-basierten Marktanteils-/Absatzmengenprognose
Schritt 8:
Generierung relevanter Produktund Servicekomponenten
Nach Auswahl einer Variante des Kernprodukts sind die zur Erfüllung der SN notwendigen Produkt- und Servicekomponenten zu bestimmen (Call 1997, S. 188) und zusammen mit den SN in das House of Quality 2 einzutragen (Abb. 4.8, 15
Sofern für einzelne SN-Ausprägungen keine Teilnutzenwerte vorliegen, müssen diese durch Inter- oder Extrapolation der Bewertungsfunktion geschätzt werden.
106
4 Integrierte Produktdefinition und Technologieplanung
Schritt (1) und (2)). Hierbei sind in Anlehnung an Call (1997, S. 188) grundsätzlich zwei Arten von Komponenten zu unterscheiden: Einerseits gibt es Komponenten, die vom Kunden als notwendiger Bestandteil der Gesamtleistung aufgefasst werden wie z.B. Rotor oder Turm eines Windrads. Andererseits sind aber auch Komponenten zu berücksichtigen, die vom Kunden nicht zwingend als Bestandteil der Gesamtleistung wahrgenommen werden, ohne die die Gesamtleistung jedoch nicht vollständig technisch beschrieben werden kann. Hierzu zählen z.B. Abtrieb oder Azimut, ohne die ein Windrad nicht funktionieren würde. Im Rahmen dieses ProSerF-Schritts ist festzulegen, welche Produkt- bzw. Servicekomponenten die Erfüllung der verschiedenen SN beeinflussen. Im Gegensatz zum traditionellen QFD-Prozess ist hierbei nicht das Ausmaß der Beeinflussung festzulegen, sondern es ist nur anzugeben, ob eine Komponente zur Erfüllung eines SN beiträgt oder nicht (vgl. Schritt (3) in Abb. 4.8.). Im Dach des Hauses werden mögliche Interdependenzen zwischen den einzelnen Komponenten bzw. Komponentenlösungen erfasst (vgl. Schritt (4) in Abb. 4.8.). Mögliche Trade-off-Beziehungen zwischen Produkt- und Servicekomponenten werden hierdurch frühzeitig transparent (Call 1997, S. 191f.) und können so zur Abschätzung der Kosten einzelner Komponentenlösungen in Schritt 10 des ProSerF-Prozesses genutzt werden. Für den Fall, dass kreislaufwirtschaftliche Aspekte in die Konzeptfindung integriert werden sollen, sind diese bei der Ermittlung der relevanten Komponenten zu berücksichtigen (Meyer 2002, S. 322 f.). Da gerade die Produkt- und Servicekomponenten von zentraler Bedeutung für die Kreislaufführung sind, kann hieran anknüpfend das entwickelte kreislaufwirtschaftliche Grobkonzept weiter konkretisiert werden. Die potenziellen Produktund Servicekomponenten sind dazu unter vermeidungs-, verwertungs- und beseitigungsorientierten Gesichtspunkten des Umweltschutzes näher zu untersuchen. Auswirkungen, die die einzelnen Bestandteile im Rahmen der Kreislaufführung zu späteren Zeitpunkten nach sich ziehen, können als weitere, über monetäre Ziele hinausgehende Beurteilungskriterien in Schritt 11 dienen (Meyer 2002, S. 323f.).
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
107
X (4) Korrelationen
HoQ 2
Produkt- und ServiceKomponenten (2)
Secondary Needs Basis-, Leistungs- und Begeisterungsanforderungen
(1)
Zusammenhänge: X
(3)
Abb. 4.8. HoQ 2
Schritt 9:
Erfassung der komponentenbezogenen Kosten des Leistungskonzepts ‘Vorgängermodell’
Für das weitere Vorgehen ist aus der Vielzahl der konstruierbaren Leistungskonzepte jenes auszuwählen, das die größte Übereinstimmung zum ‘Vorgängermodell’ bzw. zu einem bisher im Unternehmen produzierten Leistungsbündel aufweist. Da dieses Konzept als Anker für die weitere Kostenschätzung dient, sind die dieses Konzept beschreibenden SN-Ausprägungen gesondert zu erfassen. Die geforderte Nähe zum Vorgängermodell ist mit der besseren Kenntnis entsprechender Kosten zu begründen: Die für die Realisierung der einzelnen SN-Ausprägungen anfallenden variablen Kosten können über Methoden des Rechnungswesens ermittelt werden. Zudem kann auf frühere Stücklisten und Arbeitspläne des Gesamtprodukts sowie einzelner Komponenten zurückgegriffen werden (Eisinger 1997, S. 128). Allerdings sollte auch eine Prognose der Kostenentwicklung im entsprechenden Markt in die Kalkulation eingehen. Im betrachteten Unternehmen wurde bislang eine Windkraftanlage der 100 kWKlasse mit folgenden SN-Ausprägungen produziert: x x x x x
Einschaltgeschwindigkeit 11 km/h, Abschaltgeschwindigkeit 20 m/sec, 3 Rotorblätter, Blattverstellung stall, einjähriger Wartungsvertrag inkl.,
108
x x x x
4 Integrierte Produktdefinition und Technologieplanung
ohne Anlieferung und Montage, einjährige Garantie, mit Datenfernüberwachung, Erstellung einer Wirtschaftlichkeitsberechnung.
In Tabelle 4.2 ist dargestellt, wie sich die Kosten dieses Leistungsbündels auf die einzelnen Komponenten verteilen: Tabelle 4.2. Kosten des Referenzmodells ‘Vorgänger’ Komponenten Rotor Turm
Kosten
Kostenanteil
14.535 € 13.005 €
19 % 17 %
Gondel
3.825 €
5%
Nabe
3.825 €
5%
Bremse
6.885 €
9%
Abtrieb
18.360 €
24 %
Azimut
7.650 €
10 %
Steuerung
4.590 €
6%
Bedienung
1.530 €
2%
Technische Beratung
765 €
1%
Kaufmännische Beratung
765 €
1%
Wartung
765 €
1%
76.500 €
100 %
Summe
Schritt 10:
Iterative Schätzung der Kosten alternativer SN-Ausprägungen
Nachdem im vorhergehenden Schritt die Kosten des dem Vorgängermodell entsprechenden Leistungsbündels erfasst wurden, sind in diesem Schritt die variablen Kosten alternativer Leistungskonzepte zu schätzen. Ziel ist es dabei, die Kosten aller auf Basis der SN-Ausprägungen konstruierbaren Leistungskonzepte zu ermitteln. Da zwischen den Kundenforderungen und dem aus ihrer Erfüllung resultierenden Nutzen sowie den Kostenanteilen der einzelnen Komponenten kein ‘ursächlicher Zusammenhang’ besteht, wird bewusst anstelle der Funktionsmethode zur Zielkostenspaltung die Komponentenmethode des Target Costing angewandt. Zur Bestimmung der Kosten wird auf das Vorgängermodell zurückgegriffen, wobei die Kosten direkt den einzelnen Komponenten des Produkts zugeordnet werden (Eisinger 1997, S. 124 f.). Im Mittelpunkt dieses Schritts steht die Frage, welche Kostenkonsequenzen eine Veränderung der Erfüllung einzelner Kundenforderungen nach sich zieht. Ausgehend vom Vorgängermodell und dessen SN-Ausprägungen muss das SETeam für jede Veränderung einer SN-Ausprägung schätzen, welcher Auf- bzw.
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
109
Abschlag auf die variablen Gesamtkosten sich hieraus ergäbe. Es empfiehlt sich, die Kostenänderungen auf Komponentenebene herunterzubrechen, da komponentenbezogene Kostenkonsequenzen besser abschätzbar sind. Die direkte Gegenüberstellung von SN-Ausprägungen und Komponenten soll eine möglichst realistische Transformation von SN-Ausprägungen in resultierende Komponentenlösungen gewährleisten (Call 1997, S. 190). Wie Tabelle 4.3 verdeutlicht, zieht beispielsweise die Veränderung der SNAusprägung Einschaltgeschwindigkeit von 11 auf 7 km/h insgesamt eine Erhöhung der variablen Gesamtkosten in Höhe von 6.045 € nach sich, da von dieser Veränderung verschiedene Komponenten – hier Rotor, Abtrieb und Steuerung – betroffen sind. Entsprechend können Kostenauf- und -abschläge für alle in Tabelle 4.1 enthaltenen SN-Ausprägungen ermittelt werden. Tabelle 4.3. Komponentenbezogene Kostenänderungen Kosten ‘Vorgängermodell’
Veränderung Einschaltgeschwi ndigkeit auf 7 km/h
Kostenauf-/ abschlag
Komponente Rotor
14.535 €
16.700 €
2.165 €
Turm
13.005 €
13.005 €
0€
Gondel
3.825 €
3.825 €
0€
Nabe
3.825 €
3.825 €
0€
Bremse
6.885 €
6.875 €
0€
Abtrieb
18.360 €
22.014 €
3.654 €
Azimut
7.650 €
7.645 €
0€
Steuerung
4.590 €
4.816 €
226 €
Bedienung
1.530 €
1.530 €
0€
Techn. Beratung
765 €
765 €
0€
Kaufm. Beratung
765 €
765 €
0€
Wartung
765 €
765 €
0€
76.500 €
82.525 €
6.045 €
Gesamtkosten
Da unter Berücksichtigung der unternehmensinternen Fähigkeiten und Ressourcen bestehende Trade-off-Potenziale zwischen Service- und Produktkomponenten ausgenutzt werden können, ist diesen Wechselbeziehungen besondere Bedeutung zu schenken (Call 1997, S. 192). Beispielsweise könnte eine Lebensdauer von 25 Jahren einerseits über die Produktkomponenten, andererseits aber auch durch einen produktbegleitenden Service, z.B. regelmäßige Wartung, realisiert werden. In einem derartigen Fall sind für die alternativen Komponentenlösungen die jeweils resultierenden Kostenkonsequenzen zu bestimmen. Die betreffende Vorteilhaftigkeitsüberlegung wird im ProSerF-Schritt 11 vorgenommen.
110
4 Integrierte Produktdefinition und Technologieplanung
Tabelle 4.4. Kostenauf-/-abschläge dreier Referenzmodelle SN-Ausprägungen Variable Gesamtkosten des Referenzmodells Einschaltgesch. (7) Einschaltgesch. (11) Abschaltgesch. (20) Abschaltgesch. (28) Blattzahl (2) Blattzahl (3) Mast Beton Mast Gitter Mast Stahlrohr … Blattverstellung pitch Blattverstellung stall
Referenzmodell ‘Vorgänger’ (100 kW) 76.500 €
Referenzmodell ‘80 kW’
Referenzmodell ‘30 kW’
54.900 €
50.150 €
6.045 € 0€ 0€ 7.265 € -3.781 € 0€ 5.110 € 0€ 5.110 €
4.363 € 0€ 0€ 5.219 € -2.717 € 0€ 3.671 € 0€ 3.671 €
3987 € 0€ 0€ 4.770 € -2.482 € 0€ 3.355 € 0€ 3.355 €
3.056 € 0€
2.195 € 0€
2.006 € 0€
Die Erfüllung der verschiedenen SN-Ausprägungen ist u.U. mit der Konstruktion gänzlich unterschiedlicher Komponenten- und/ oder Produktvarianten verbunden, welche sich häufig beträchtlich in ihren Kosten unterscheiden. Daher ist meist der Rückgriff auf ein einziges Referenzmodell nicht ausreichend. Weitere Referenzmodelle können anhand der Kostenauf- und -abschläge im Vergleich zum ersten Referenzmodell entwickelt werden. Im Beispiel (Tab. 4.4) stellt die Leistungsklasse einen Hauptkostenträger dar und wird zur Bildung zweier weiterer Referenzmodelle herangezogen. Die Ermittlung der ausprägungsbezogenen Kostenauf- bzw. -abschläge für die Referenzmodelle ‘80 kW’ und ‘30 kW’ erfolgt gemäß dem oben skizzierten Vorgehen.16 Schritt 11:
Ermittlung des vorteilhaftesten Produktund Servicekonzepts
Mit Blick auf ein geeignetes Beurteilungskriterium kann nun das aussichtsreichste Konzept bestimmt werden. Soll sich die Vorteilhaftigkeit allein an monetären Zielen ausrichten, so kommt z.B. der zu erwartende, über die Planungsperioden kumulierte Deckungsbeitrag eines Leistungskonzepts als Evaluierungskriterium in Frage. Dieser lässt sich ermitteln, indem unter Verwendung des geplanten Preises und der in Schritt 7 ermittelten Absatzmenge je Planungsperiode der Umsatz berechnet wird und unter Berücksichtigung der in Schritt 10 generierten ausprä16
So entspricht beispielsweise der Wert in der Zelle ‘Referenzmodell Vorgänger 100 kW / Einschaltgeschwindigkeit 7 km/h’ in Höhe von 6.045 € der aus der Veränderung der SNAusprägung Einschaltgeschwindigkeit von 11 auf 7 km/h resultierenden Kostenänderung (vgl. Tabelle 4.3).
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
111
gungsbezogenen Kosten eines Leistungskonzepts die gesamten variablen Kosten bestimmt werden.17 Das Kriterium Deckungsbeitrag ist allerdings nur begrenzt zur Bewertung alternativer Leistungskonzepte geeignet, da es die fixen Kosten im Ansatz nicht berücksichtigt. Solche Fixkosten sind z.B. Forschungs- und Entwicklungskosten oder Abschreibungen auf die Anschaffungskosten für im Unternehmen noch nicht vorhandene Fertigungsanlagen. Auf den Ansatz dieser Kosten kann nur verzichtet werden, wenn sie für alle alternativen Leistungskonzepte dieselbe Höhe erwarten lassen. Anstelle periodenerfolgsorientierter Beurteilungskriterien bietet sich als zahlungsstrombezogenes Kriterium der Kapitalwert zur Beurteilung alternativer Leistungskonzepte an. Bei dessen Berechnung werden alle relevanten Zahlungsvorgänge erfasst und in ihrem zeitlichen Auftreten berücksichtigt. Um den Kapitalwert zu bestimmen, sind jedoch Probleme in einigen ProSerF-Schritten zu überwinden. So ist in Schritt 7 die periodenspezifische Ermittlung der Absatzmengen besonders sorgfältig vorzunehmen, um die Zeitpunkte, zu denen Zahlungen anfallen, genau berücksichtigen zu können. In Schritt 9 muss daher das ausgewählte Vorgängermodell nicht nur hinsichtlich der verwendeten Komponenten eine hohe Übereinstimmung aufweisen, sondern auch bezüglich der zeitlichen Struktur von Zahlungen eine möglichst große Ähnlichkeit zum geplanten Leistungskonzept aufweisen. Die Güte der Kapitalwertberechnung ist somit von der Präzision der Prognose der Absatzmengen und der Zahlungsströme abhängig. Daher ist dessen Ermittlung mit deutlich höheren Anforderungen an die Prognosegenauigkeit verbunden als die Ermittlung von Beurteilungskriterien, die den Periodenerfolg kumuliert betrachten. Da der Planungshorizont, insbesondere bei Ausdehnung der Betrachtung auf den kompletten Lebenszyklus, sehr lang ist und für zuverlässige langfristige Prognosen keine geeigneten Instrumente zur Verfügung stehen, ist die Höhe des ermittelbaren Kapitalwerts mit erheblichen Unsicherheiten behaftet. Bei Anwendung dieses Beurteilungskriteriums von Leistungskonzepten sollte man sich der Tatsache bewusst sein, dass Veränderungen der situativen Bedingungen das Ergebnis stark verzerren können. Daher sollte die Robustheit der Schätzungen mithilfe von Sensitivitätsanalysen untermauert werden (Meyer 2002, S. 324 ff.). Neben der Ermittlung des aus Sicht monetärer Größen besten Leistungskonzepts ermöglicht ProSerF auch eine Berücksichtigung wettbewerbsstrategischer Überlegungen. So können auf Basis der prognostizierten Absatzmengen Leistungsbündel bestimmt werden, mit denen gezielt ein Angriff auf den Marktanteil eines oder mehrerer Wettbewerber erfolgen kann. Schritt 12:
Konzeptumsetzung
Den ProSerF-Abschluss bildet die Umsetzung des aus Schritt 11 als ‘Sieger’ hervorgegangenen Leistungskonzepts. Dieses Leistungskonzept ist im Folgenden durch ein Herunterbrechen des für das Gesamtkonzept skizzierten Vorgehens auf 17
Das hier skizzierte Vorgehen beruht auf dem von Bauer et al. (1994) beschriebenen Conjoint+Cost-Verfahren.
112
4 Integrierte Produktdefinition und Technologieplanung
die einzelnen Produkt- und Servicekomponenten weiter zu konkretisieren (Schmidt 1996, S. 324ff.). Dem Konstrukteur stehen nach Ende des ProSerFProzesses neben Informationen zum Teilnutzen der einzelnen SN-Ausprägungen sowie zu den entsprechenden Kosten auch Schätzungen möglicher Absatzmengen und damit Informationen über zu produzierende Stückzahlen zur Verfügung. 4.2.2 Beurteilung der Konzeptfindungshilfe ProSerF ProSerF ist darauf ausgerichtet, den Konzeptfindungsprozess für Leistungsbündel in der Praxis zu strukturieren. Deshalb ist an erster Stelle eine Beurteilung der damit verbundenen Komplexität bzw. praktischen Anwendbarkeit erforderlich. Zu dieser Anforderung kann in einem Stadium, in dem erst wenige praktische Erfahrungen mit ProSerF vorliegen, kein abschließendes Urteil erfolgen. Positiv ist zu vermerken, dass die Dreiteilung der Konzeptfindung durch die getrennte Behandlung von Basis-, Leistungs- und Begeisterungsforderungen sowie entgegengesetzter Forderungen komplexitätsreduzierend wirkt. Diese Aufteilung wird durch den dritten ProSerF-Schritt eingeleitet und bis zum Ende beibehalten. Sie hat zur Folge, dass nicht alle relevanten Forderungen und Qualitätsmerkmale in einem einzigen HoQ einander gegenübergestellt werden müssen. Variantenauswahl und Machbarkeitsstudie können vielmehr allein auf Grundlage der Basisforderungen durchgeführt werden. Auch der Aufwand bei der Ermittlung der Teilnutzenwerte in Schritt 6 kann auf diese Weise erheblich reduziert werden. Neben der Planungsökonomie wird mit ProSerF durch die skizzierte Unterteilung auch die Übersichtlichkeit bei der Konzeptfindung gesteigert, womit gleichzeitig ein gewichtiger Nachteil des traditionellen QFD abgeschwächt wird. Darüber hinaus werden mithilfe der Absatzmengenprognose neben der Stimme des Kunden auch Ergebniskonsequenzen im Prozess der Neuproduktentwicklung adäquat berücksichtigt. Hierdurch können, wie oben dargestellt, auch bereits in frühen Phasen der Produktentwicklung wettbewerbsstrategische Überlegungen angestellt werden. Neben der methodischen Unterstützung der einzelnen ProSerF-Schritte ist die Integration von Schritten zur Segmentierung und Zielgruppenfestlegung hervorzuheben, die beim traditionellen QFD trotz herausragender Bedeutung keine erkennbare Berücksichtigung findet. Die Segmentierung und Zielgruppenfestlegung wird zweistufig erfüllt – durch den ersten (Makrosegmentierung) und den vierten ProSerF-Schritt (Mikrosegmentierung). Eine weitere Schwäche des traditionellen QFD, die fehlende Aufdeckung und sinnvolle Behandlung der ‘Knock-out’Kriterien, wird durch ProSerF mit der Separierung der Basisforderungen umgangen. Die Gesamtbeurteilung ist darüber hinaus in Zukunft durch die Erkenntnisse einer ProSerF-Erprobung an mehreren Beispielen zu ergänzen. Erst durch die praktische Anwendung kann der tatsächliche Nutzen dieser Prozessstrukturierungshilfe festgestellt werden. Der praktische Einsatz ist hierbei sowohl für Neuentwicklungen als auch für Weiterentwicklungen denkbar. Es ist zu erwarten, dass ProSerF aufgrund der nutzbaren Erfahrungen des Planungsteams sowie der
4.2 Konzipierung markt- und kreislauforientierter Leistungsbündel
113
besseren Datengrundlage bei der Kostenkalkulation Einsatzvorteile insbesondere bei Weiterentwicklungen besitzt. Abschließend ist zu berücksichtigen, dass die praktische Anwendbarkeit untrennbar mit der Validität der Erkenntnisse des Kano-Modells verbunden ist. Hinsichtlich der Anwendbarkeit des Kano-Modells ist vor allem empirisch zu überprüfen, ob die bisher nur für Konsumgüter angewendete Strukturierung in Basis-, Leistungs-, Begeisterungs- sowie entgegengesetzte Forderungen auch für Industriegüter zu wirklichkeitsnahen Ergebnissen führt. Literatur Backhaus K (2003) Industriegütermarketing, 7. erw u überarb Aufl. Oldenbourg, München Bailom F, Hinterhuber HH, Matzler K, Sauerwein E (1996) Das Kano-Modell der Kundenzufriedenheit. Marketing ZFP 18, H 2: 117–126 Bamberger I, Wrona T (1996) Der Ressourcenansatz und seine Bedeutung für die Strategische Unternehmensführung. zfbf 48: 130–153 Barney JB (1995) Looking inside for competitive advantage, Academy of Management Executive 9, No 4: 49–61 Bauer HH, Hermann A, Mengen A (1994) Eine Methode zur gewinnmaximalen Produktgestaltung auf Basis des Conjoint Measurement. ZfB 64: 81–94 Bitner MJ, Booms BH, Stanfield Tetreault, M (1990) The Service Encounter: Diagnosing Favorable and Unfavorable Incidents. Journal of Marketing 54, No 1: 71–84 Black JA, Boal KB (1994) Strategic Resources: Traits, Configurations and Paths to Sustainable Competitive Advantage. Strategic Management Journal, 15: 131-148 Bokelmann D (1992) Kunden begeistern. QZ 37: 572–573 Call G (1997) Entstehung und Markteinführung von Produktneuheiten: Entwicklung eines prozessintegrierten Konzepts. Gabler, Wiesbaden Dyckhoff H (2000) Umweltmanagement. Zehn Lektionen in umweltorientierter Unternehmensführung. Springer, Berlin Heidelberg New York Eisinger B (1997) Konstruktionsbegleitende Kalkulation, Modell eines effizienten Kosteninformationssystems. Wiesbaden Engelhardt WH (1995) Information und Integration als Grundlage eines umfassenden Dienstleistungsmarketing. Absatzwirtschaft 38, Sondernummer Oktober: 25 Engelhardt WH (1996) Dienstleistungen als Produktkomponenten. In: Kern W, Schröder HH, Weber J (Hrsg.) Handwörterbuch der Produktionswirtschaft, 2., völlig neu gestaltete Aufl. Schäffer-Poeschel, Stuttgart, Sp 327–338 Engelhardt WH, Kleinaltenkamp M, Reckenfelderbäumer M (1993) Leistungsbündel als Absatzobjekte – Ein Ansatz zur Überwindung der Dichotomie von Sach- und Dienstleistungen. zfbf 45: 395–426 Fischer J (2001) Individualisierte Präferenzanalyse: Entwicklung und empirische Prüfung einer vollkommen individualisierten Conjoint Analyse. Gabler, Wiesbaden Fischer J, Schiffers, B (1998) Konzeptfindung für Produkt- und Service-Leistungsbündel mittels ProSerF. Arbeitsbericht Nr 98/08 des Instituts für Wirtschaftswissenschaften, Lehrstuhl für Unternehmenspolitik und Marketing der RWTH Aachen, Aachen Griffin A, Hauser JR (1993) The Voice of the Customer. Marketing Science 12: 1–27
114
4 Integrierte Produktdefinition und Technologieplanung
Gröne A (1976) Marktsegmentierung im Investitionsgütermarketing. Analyse und Beurteilung von Erklärungsvariablen des industriellen Einkaufsverhaltens. Dissertation, Universität Münster Haley RI (1968) Benefit Segmentation: A Decision oriented Research Tool. Journal of Marketing 32, No 3: 30–35 Henrichsmeier S (1998) Entwicklung eines Modells zur Absatzprognose in frühen Phasen der Produktentstehung.Verlag Dr. Kovac, Hamburg Homburg C, Garbe B (1996) Industrielle Dienstleistungen – lukrativ aber schwer zu meistern. Harvard Business Manager 18, H 1: 68–75 Kano N, Seraku N, Takahashi F, Tsuji S (1984) Attractive Quality an Must-Be Quality. The Journal of the Japanese Society for Quality Control. 14, No 2: 39–48 Meyer A (1985) Produktdifferenzierung durch Dienstleistungen. Marketing ZFP 7, H 2: 99–107 Meyer C (2002) Lebenszyklusintegrierte Produkt- und Servicestrategien für langlebige Verbrauchsgüter: fallstudienbasierte Analyse und methodischer Ansatz zur Konzeptfindung. Peter Lang, Frankfurt/ Main Pfeifer T (2001) Qualitätsmanagement, 3. Aufl. Hanser, München Wien Saatweber J (1994) Quality Function Deployment. In: Masing W (Hrsg) Handbuch Qualitätsmanagement, 3. Aufl. München Wien, S 445–468 Schmidt R (1996) Marktorientierte Konzeptfindung für langlebige Gebrauchsgüter – Messung und QFD-gestützte Umsetzung von Kundenforderungen und Kundenurteilen. Gabler, Wiesbaden Schmitz G (2000) Die Ermittlung der Kundenanforderungen an industrielle Dienstleistungen. Zeitschrift für Planung 11: 195–215 Simon H (1993) Industrielle Dienstleistungen und Wettbewerbsstrategie. In: Simon H (Hrsg) Industrielle Dienstleistungen. Schäffer-Poeschel, Stuttgart, S 3–22 Steffenhagen H (2004) Marketing. Eine Einführung, 5., vollst überarb Aufl. Kohlhammer, Stuttgart Urban GL, Hauser J R (1993) Design and Marketing of New Products, 2nd edn. Prentice Hall, Englewood Cliffs Wind YJ, Cardozo R (1974) Industrial Market Segmentation. Industrial Marketing Management 3: 153–166
4.3 Integrative Qualitätsplanungssystematik
115
4.3 Integrative Qualitätsplanungssystematik Entwicklungsprozesse benötigen methodische Unterstützung z. B. durch Methoden zur Gewährleistung der Kundenforderungen und zur präventiven Fehlervermeidung. Die Komplexität von Produkten nimmt kontinuierlich zu, da sich Produkte z. B. aus mechanischen, elektrischen, elektronischen und softwaretechnischen Komponenten zusammensetzen. Die angewandten Methoden müssen diese Komplexität beherrschbar machen. Für die Entwicklung solcher Produkte ist Fachwissen aus verschiedenen Bereichen erforderlich, bereichs- bzw. unternehmensübergreifende Teams müssen parallel an einer Lösung zusammenarbeiten. Demzufolge müssen die Methoden in einer kollaborativen Umgebung anwendbar sein und die mehrmalige Nutzung durch räumlich und zeitlich getrennte Teammitglieder erlauben. Außerdem sollen die Methoden die Betrachtung des gesamten Produktlebenszyklus berücksichtigen. Gerade in der frühen Phase der Produktentstehung werden auf Basis der noch überwiegend unsicheren Daten (Annahmen, Schätzungen etc.) Entscheidungen mit erheblichem Einfluss auf den späteren Markterfolg getroffen. Die Methoden müssen daher auch den Umgang mit unsicheren Daten berücksichtigen. 4.3.1 Präventive Qualitätsmanagement-Methoden Qualitätsmanagement-Methoden, die in der frühen Phase der Produktentstehung angewendet werden, werden als präventive QM-Methoden bezeichnet. Beispiele für solche Methoden sind Conjoint-Analyse, Target Costing (Zielkostenmanagement, TC), QFD (Quality Function Deployment), Axiomatic Design, Fehlerbaumanalyse, FMEA (Fehlermöglichkeit- und Einflussanalyse), TRIZ (Theory of Inventive Problem Solving), Statistische Versuchsmethodik, Statistische Toleranzanalyse, Design Review und Quality Gates (Abb. 4.9). Verschiedene Arbeiten haben sich mit der Strukturierung von Wissen in Bezug auf Qualitätsmanagementaufgaben in den planenden Bereichen sowie mit der Integration von Qualitätsmanagement-Methoden in der frühen Phase der Produktentstehung befasst (Brusch 2001; Klein 1999, S. 138 f.; Plötz 1999; Redeker 2002; Timpe 2000; Zischka 1998, S. 179 ff.). An die Ergebnisse dieser Arbeiten wurde in diesem Teilprojekt direkt angeknüpft. Jedoch fehlt diesen Ansätzen der Aspekt der frühzeitigen und parallelisierten Informationsberücksichtigung und der fachsowie unternehmensübergreifenden Kooperation der beteiligten Produktentwicklungsabteilungen. Verfügbare Technologien, um im Rahmen des Simultaneous Engineering die Nutzung durch mehrere Anwender zu ermöglichen, und aktuelle Trends wie z. B. Internetfähigkeit sind nicht eingebunden.
116
4 Integrierte Produktdefinition und Technologieplanung
Entwicklungsphase
Fertigungsphase
Conjoint Analyse Target Costing Quality Function Deployment (QFD) Axiomatic Design Fehlerbaumanalyse FMEA TRIZ Statistische Versuchsmethodik Statistische Toleranzanalyse Design Review Quality Gates Marktforschung
Entwicklung
Prozessplanung
Fertigung
Abb. 4.9. Auswahl präventiver Qualitätsmanagement-Methoden 4.3.2 Integrative Qualitätsplanungssystematik Ziel der integrativen Qualitätsplanungssystematik ist es, existierende Qualitätsmanagement-Methoden sowie Planungs- und Controlling-Instrumente für die frühe Phase der Produktentstehung optimal zu gestalten, so dass Synergien genutzt werden und ein durchgängiges Konzept entsteht. Die Anpassung vorhandener Methoden wird durch verschiedene Ansätze angegangen: Reduzierung der Komplexität und Nutzung von Synergien durch Modularisierung, Erweiterung durch Einbeziehung der Umweltperspektive sowie unternehmensübergreifende Nutzung und Berücksichtigung unscharfer Daten. Anzustreben ist die Schaffung systematischer, iterativer Entwicklungsschritte, die robust gegenüber Störungen reagieren, und die frühzeitige Entdeckung bzw. Vermeidung potentieller Fehler im Qualitätsplanungsprozess. Durch Planungsund Controlling-Instrumente ist es möglich, die Zwischenergebnisse einzelner Entwicklungsschritte zu analysieren und zu beurteilen. Die Qualitätsplanungssystematik wird außerdem durch ein hypertextbasiertes Softwaretool erweitert, welches die Anwendung der Methoden erleichtert und die erforderliche Kommunikation und Kooperation zwischen verschiedenen Funktionsbereichen und -ebenen unterstützt. Modularisierung der Methoden Obwohl in der Praxis präventive Qualitätsmanagement-Methoden häufig bekannt sind und große Nutzenpotentiale mit sich bringen, z. B. in der Reduktion von
4.3 Integrative Qualitätsplanungssystematik
117
Fehlerkosten und Entwicklungszeiten, in der Erhöhung der Kundenzufriedenheit, in der höheren Nutzung von Erfahrungen etc., werden sie nur selten eingesetzt (Ahlemeier 1998, S. 1; Pfeifer 2002, S. 81 f.). Gründe dafür sind u.a. die hohe Komplexität und das notwendige Methodenwissen, die einen hohen Schulungsaufwand und Personaleinsatz erfordern (Goebel 1996, S. 26; Pfeifer 1999). Ein flexibler, problemorientierter Einsatz der Methoden ist aufgrund starrer Anwendungsschemata oft nicht möglich. Das hindert vor allem kleine und mittelständische Unternehmen daran, die an sich sehr leistungsstarken Methoden einzusetzen und von ihrem Nutzen zu profitieren. Um den Einsatz der Methoden zu erleichtern, wird eine Lösung benötigt, die es den Unternehmen gestattet, die Anwendung der Methoden auf das jeweilige Entwicklungsprojekt individuell anzupassen und so den Entwicklungsprozess durchgängig zu unterstützen. Verschiedene präventive QM-Methoden werden – unter Berücksichtigung ihrer aus Fachliteratur und Expertenbefragungen abgeleiteten Defizite – auf ihre Eignung zur Integration in der frühen Phase der Produktentstehung untersucht. Hieraus werden die Methoden Quality Function Deployment (QFD), Fehlermöglichkeits- und Einflussanalyse (FMEA), Fehlerbaumanalyse bzw. Failure Tree Analysis (FTA) und Target Costing (TC) als zentrale Elemente identifiziert und in einzelne, kompakte Module nach dem Systemkonzept von Ehrlenspiel (2003, S. 15 ff.) heruntergebrochen, da durch eine solche Modularisierung die Komplexität beherrscht werden kann. Nach diesem Konzept ist jedes Modul ein nach außen abgeschlossenes System mit definierten Ein- und Ausgangsdaten und einer eindeutigen Aufgabe. Jedes Modul besteht aus einzelnen Elementen, die ihrerseits als Untersysteme mit ebenfalls definierten Ein- und Ausgangsdaten und Aufgaben angesehen werden können. Die einzelnen Module und Elemente sind mittels der Ein- und Ausgangsdaten dergestalt miteinander verknüpft, dass sie Inputdaten benötigen, die in anderen Modulen und Elementen erzeugt werden und gleichzeitig Outputdaten liefern, die in anderen Modulen und Elementen benötigt werden (Ehrlenspiel 2003, S. 15 ff.). Die Methode des QFD wird zur optimalen Umsetzung von Kundenforderungen an ein Produkt in qualitätsrelevante Merkmale eingesetzt (Goebel 1996, S. 25; Pfeifer 2001, S. 313 ff.). Im QFD werden als erstes die Forderungen, die an ein Produkt gestellt werden, erfasst und mittels einer Bewertung priorisiert (Forderungsanalyse). Danach werden Merkmale, die das Produkt zur Erfüllung der Forderungen besitzen muss, abgeleitet (Bestimmung technischer Merkmale). In einem dritten Schritt wird das Produktsystem mit den erforderlichen Komponenten, die für die Umsetzung der technischen Merkmale benötigt werden, aufgebaut (Systembestimmung) (Lesmeister 2001, S. 11 ff.). Das QFD als Element der Forward-Quality wird durch die FMEA (Element der Backward-Quality) ergänzt. Die FMEA ist eine Methode, die zur systematischen frühen Erkennung, Bewertung und Vermeidung potentieller Produkt- und Prozessrisiken dient (Goebel 1996, S. 26; Pfeifer 2001, S. 394 ff.). Hierzu werden in einem ersten Schritt der Aufbau und die Funktionen des Systems ermittelt (Funktions- und Systembestimmung). Anschließend werden potentielle Fehler und Fehlerfolgen bestimmt (Risikoanalyse) und in einem nächsten Schritt bewertet (Risikobewertung). Abschließend werden vermeidende, entdeckende oder aus-
118
4 Integrierte Produktdefinition und Technologieplanung
wirkungsbegrenzende Maßnahmen eingeleitet (Risikominimierung) (Lesmeister 2001, S. 11 ff.). Mit der FTA werden mögliche Fehlerkombinationen systematisch identifiziert (Goebel 1996, S. 28). Es ergibt sich eine Ergänzung zur FMEA, da eine mit der Produktentwicklung sukzessiv voranschreitende FTA Einflussfaktoren auf eine drohende Nichterfüllung wichtiger übergeordneter Kundenforderungen, auch über mehrere Produktebenen hinweg, ausfindig macht (Pfeifer 2001, S. 438 ff.). Voraussetzung für die FTA ist die Funktions- und Systembestimmung (Goebel 1996, S. 28), nach der die Methode an dieser Stelle abgeändert wird. Bei der Aufstellung des Baumes werden die in der FMEA ermittelten Risikoprioritätszahlen verwendet und in den Baum übernommen. Dadurch wird die ehemals quantitative FTA zu einem qualitativen Verfahren. Einbußen an Aussagekraft können dabei in Kauf genommen werden, da die Exaktheit der Kennzahl mit den Unschärfen der frühen Produktentstehungsphase ohnehin verfälschend wirken würde. Sind für alle kritischen Merkmale Fehlerbäume aufgestellt (Fehleranalyse) und somit die wichtigsten Einflussgrößen ermittelt (Fehlerbewertung), kann durch gezielte Veränderungen am Produkt der Nichterfüllung der Merkmale entgegengewirkt werden (Fehlerminimierung). Die TC-Methode dient der Bestimmung von Teilprodukt- oder Teilprozesskosten und der Ableitung erforderlicher Maßnahmen zur Reduktion der Kosten, ausgehend vom kundenorientierten Marktpreis des Gesamtprodukts oder Dienstleistung (Klein 1999, S. 55; Pfeifer 2001, S. 217 ff.). Auch hierfür ist es notwendig, das System zu beschreiben und die Funktionen zu ermitteln (Funktionsund Systembeschreibung). In einem nächsten Schritt werden die Kosten auf die einzelnen Systemelemente aufgeteilt (Zielkostenspaltung) und – bei einer Abweichung von Ziel- und Ist-Kosten – kostensenkende Maßnahmen ermittelt und eingeführt (Kostenminimierung). Es lässt sich erkennen, dass in allen vier Methoden sowohl eine Bestimmung der technischen Merkmale oder Funktionen als auch eine Systembestimmung erfolgt. Um hier Synergien zu nutzen, werden zwei zentrale Module erarbeitet (Funktions- und Systembestimmung). Im Unterschied zum herkömmlichen QFD werden keine technischen Merkmale, sondern direkt Funktionen ermittelt, die dann in den drei anderen Methoden weiter verwendet werden können. Hieraus ergeben sich insgesamt elf Module (Heiliger 2002, S. 36 ff.). Neben den zentralen Modulen Funktions- und Systembestimmung existieren noch die Module Forderungsanalyse, Risikoanalyse, Risikobewertung, Risikominimierung, Fehleranalyse, Fehlerbewertung, Fehlerminimierung, Zielkostenspaltung und Kostenminimierung (Abb. 4.10). Eine bloße Modularisierung der Methoden bringt noch keine wesentliche Aufwandsreduzierung und somit keinen großen Nutzen für den Anwender. Wichtig ist es, dem Anwender ein Werkzeug an die Hand zu geben, welches es ihm ermöglicht, die entsprechenden Module einzusetzen, die zur Lösung der jeweils anstehenden Probleme behilflich sein können. Aus diesem Grund ist ein Handlungsleitfaden entwickelt worden. Grundlage dafür sind die Aufgaben der Module und Elemente, anhand derer die Methodenteile ausgewählt und zusammengestellt werden können.
4.3 Integrative Qualitätsplanungssystematik
119
Forderungsanalyse Bestimmung techn. Merkmale
Funktionsbestimmung
Funktionsbestimmung
Funktionsbestimmung
Funktionsbestimmung
Systembestimmung
Systembestimmung
Systembestimmung
Systembestimmung
Systembestimmung
Risikoanalyse Risikobewertung Risikominimierung
QFD
FME A
Fehleranalyse
Zielkostenspaltung
Fehlerbewertung
Kostenminimierung
Fehlerminimierung
Fehlerbaumanalyse
Target Costing
gemeinsame zentrale Bereiche
Abb. 4.10. Modularisierte präventive QM-Methoden
Ergänzung durch Umweltforderungen Die Wettbewerbsfähigkeit von Unternehmen ist nicht nur durch Qualität und Kosten ihrer Erzeugnisse bestimmt, sondern zunehmend auch durch die Umweltverträglichkeit ihrer Produkte in allen Phasen des Produktlebenszyklus (Block 2000, S. 3 ff.; Pfeifer 2001, S. 114 ff.). Dabei ist die Möglichkeit der Beeinflussung der späteren Umweltbelastung in der frühen Phase der Produktentstehung am größten. Ziel ist es daher, die ökologischen Auswirkungen eines Produktes bereits frühzeitig im Entwicklungsprozess zu berücksichtigen, ohne dabei die technologischen und ökonomischen Aspekte zu vernachlässigen. Um die Integration des Faktors Umwelt in die integrative Qualitätsplanungssystematik zu realisieren, sind die präventiven Methoden QFD, FMEA und TC erweitert worden. Umwelt-QFD Mithilfe des Umwelt-QFD soll der planerische Bereich bei der Feststellung umweltrelevanter Produkt- und Prozessmerkmale methodisch unterstützt werden. Die Umweltforderungen werden neben technischen und wirtschaftlichen Forderungen in das QFD aufgenommen. Wesentliche Veränderung gegenüber dem herkömmlichen QFD ohne Einbindung von Umweltforderungen ist die Erweiterung der Eingangsforderungen. Da diese Forderungen aufgrund der speziellen Umweltthematik von unterschiedlicher Detaillierungsgüte sind und sich sowohl auf das Produkt als auch auf die Produktionsprozesse beziehen, werden sie zunächst geclustert und gehen nach ihrer Zugehörigkeit getrennt als Eingangsgrößen in die verschiedenen Houses of Quality ein. Ergebnis sind Produkt- und Prozessmerkmale, die negative Einwirkungen auf die Umwelt nicht bloß verlagern, sondern insgesamt, lebenszyklusweit, reduzieren (Kölscheid 1999, S. 78 ff.).
120
4 Integrierte Produktdefinition und Technologieplanung
Umwelt-FMEA Der Einsatz einer Umwelt-FMEA ermöglicht es, neben den üblichen potentiellen Fehlern auch potentielle Umweltrisiken und Gefahren sowie deren potentielle Folgen frühzeitig zu identifizieren. Die potentiellen schädigenden Umwelteinwirkungen, die von Produkten oder Prozessen ausgehen, können als mögliche Fehlerfolgen, wie sie in der herkömmlichen FMEA beschrieben sind, betrachtet werden. Daraufhin können geeignete Abstellmaßnahmen erarbeitet werden. Wesentliche Neuerung im Vergleich zur herkömmlichen FMEA ist die veränderte Ausgangssituation und somit eine Reihenfolgeänderung in der Betrachtung. Während in der herkömmlichen FMEA in einem ersten Schritt die möglichen Fehler ermittelt werden, wird in der umweltbezogenen FMEA von zuvor ermittelten möglichen Umwelteinwirkungen ausgegangen. Eine weitere Neuerung ist die Unterteilung der Risikoprioritätszahl entsprechend ihrer Bedeutung in ökologische, ökonomische und technische Aspekte. Die Risikoprioritätszahlen werden durch Multiplikation der Bedeutung, der Auftretenswahrscheinlichkeit und der Entdeckungswahrscheinlichkeit eines Fehlers ermittelt (Goebel 1996, S. 27). Durch die Vergabe von Risikoprioritätszahlen werden die einzelnen Ursachen in ihrer Wirkung und „Gefährlichkeit“ abgeschätzt. In der umweltbezogenen FMEA kommt die Ermittlung einer weiteren Risikoprioritätszahl bezogen auf die Maßnahmen hinzu, die den kontinuierlichen Verbesserungsprozess im Unternehmen unterstützt (Kölscheid 1999, S. 78 ff.). Umwelt-Target Costing Im herkömmlichen TC setzen sich die Standardkosten, welche den vom Markt erlaubten Kosten gegenübergestellt werden, aus Kosten wie Material- und Lohnkosten zusammen. Durch die Erweiterung der Umweltforderungen aus dem Umwelt-QFD werden auch die durch das Unternehmen verursachten Umweltkosten miteinbezogen. Mit Umweltkosten sind diejenigen Kosten gemeint, die in den internen Kostenrechnungen der Unternehmen anfallen, um verursachte negative externe Effekte zu internalisieren. Da sich derartige Kosten auch auf die Preisbildung niederschlagen können, sollte soweit möglich ihre Reduktion angestrebt werden. Dafür muss zunächst geklärt werden, aus welchen Kosten sich die Umweltkosten zusammensetzen, da es keinesfalls das Ziel ist, alle anfallenden Umweltkosten zu reduzieren; Investitionen zur Verbesserung der zu ergreifenden Umweltschutzmaßnahmen sollen beispielsweise nicht gekürzt werden. Die Erfassung von Umweltkosten ist nicht standardisiert und führt deshalb zu Unterschieden. Wenn Unternehmen z.B. keine Abgaben zahlen müssen, können sie selber entscheiden, welche Kosten der von ihnen verursachten negativen externen Effekte in den Kostenrechnungen internalisiert werden. Mithilfe der drei vorgestellten Methoden wird die integrative Qualitätsplanungssystematik um den Aspekt Umwelt erweitert. Die dadurch gesteigerte Komplexität und der zusätzliche Aufwand für die Identifizierung redundanter Daten können durch die Methodenmodularisierung kompensiert werden.
4.3 Integrative Qualitätsplanungssystematik
121
Unternehmensübergreifende Ergänzung Alle Partner entlang einer verteilten Wertschöpfungskette sollten an der Bewertung und Verbesserung der qualitäts- und umweltrelevanten Produkt- und Prozessgrößen teilnehmen. Kleinen und mittleren Unternehmen, oftmals Komponenten- oder Betriebsmittelzulieferer, fehlen meist Überblick und Informationen über den Verbleib ihrer Produkte nach der Lieferung. Aufgrund ihrer Entwicklungsaufgaben bestimmen sie aber die Umweltverträglichkeit von Produktteilen und Fertigungsprozessen signifikant mit. Daher müssen unternehmensübergreifende Entwicklungsteams gebildet werden, die den gesamten Lebenszyklus betrachten. Hierfür ist eine gemeinsame und unternehmensübergreifende Nutzung von Qualitätsmanagement-Methoden sowie ein unternehmensübergreifendes Denken in Wertschöpfungsprozessen erforderlich (Abb. 4.11). Das QFD bindet die Forderungen verschiedener Anspruchsgruppen sowohl in die Produktplanung des horizontalen Kreislaufs (Hauptproduzenten, Modullieferanten, Teilelieferanten, Entsorger) als auch in die Prozess- und Produktionsplanung der vertikalen Kreisläufe (Maschinenhersteller, Werkzeughersteller, Betriebsmittelhersteller, Entsorger) ein. Um die Umsetzung des Konzeptes für zukünftige Anwender zu erleichtern, ist ein dynamischer Standardforderungskatalog erstellt worden. Die Forderungen sind nach den Forderungsgruppen Gesellschaft, Gesetzgebung, Kunde und Lebenszykluspartner sowie nach den Betrachtungsobjekten Produkt, Produktkomponente, Prozess und Teilprozess gegliedert und lassen sich auf verschiedene Produkte anwenden. Auswahl
Hauptproduzent
Aktiv e Teilnahme
Prozess
Vorgaben Moder ation
Zulieferer Zulieferer C C
Input
Kunde Kunde
Produkt Input
Umwelt Umwelt
Zuliefere A Zulieferer Zulieferer Zulieferer B B
Input
Input
Lebenszyklus -partner
Beratung
Entsorger
Interdisziplinäres Team Anwendung von Umwelt-QFD, Umwelt-FMEA und Umwelt-TC unternehmensübergreifend Optimale Produkte und Prozesse Ergebnis
Abb. 4.11. Konzept einer unternehmensübergreifenden Qualitätsplanungssystematik
122
4 Integrierte Produktdefinition und Technologieplanung
Auch die Betrachtung möglicher Risiken, die sowohl aus den Produkten als auch aus den Prozessen entstehen können, erfordert eine unternehmensübergreifende Zusammenarbeit. Um eine reine Verschiebung der Gefahren in andere Produktbereiche zu verhindern, entwickeln die Projektpartner gemeinsame Strategien, mit denen sie Fehler vermeiden oder zumindest frühzeitig identifizieren können. Die unternehmensübergreifende FMEA arbeitet dazu mit einer neuen Kennzahl, dem Kooperationsfaktor. Er gibt den Grad für die notwendige unternehmensübergreifende Zusammenarbeit an, z.B. für die Umsetzung der abgeleiteten Maßnahmen. Anhand der Ergebnisse aus QFD und FMEA werden bei den unternehmensübergreifenden TC diejenigen Beziehungsketten betrachtet, die ein besonders hohes Optimierungspotenzial bzw. einen großen Einfluss auf Produkt- und Prozessrisiken haben. Gemeinsam mit allen Lebenszykluspartnern werden die Wechselwirkungen und monetären Auswirkungen der einzelnen Alternativen diskutiert, sodass die monetären Auswirkungen möglicher Produkt- und Prozessalternativen transparent werden. Die externen Effekte werden internalisiert und gehen über den gesamten Produktlebenszyklus in die Betrachtung mit ein. Diese hohe Kostentransparenz ist insbesondere in den Beziehungsketten unerlässlich, in denen bewusst höhere Kosten durch die Reduzierung der Kosten in anderen Bereichen kompensiert werden. Höhere Herstellungskosten werden beispielsweise durch energieärmeren Verbrauch oder bessere Aufbereitungsmöglichkeiten kompensiert. Diese neue Erweiterung lässt sich unproblematisch mit der Methodenmodularisierung und mit den um die Umweltperspektive ergänzten Methoden anwenden. Berücksichtigung von unscharfen Daten Die Ergebnisse von QFD, FMEA und TC werden durch eine algorithmische Verarbeitung der Eingangsdaten ermittelt. Diese Eingangsdaten werden z.B. durch Marktstudien und unternehmensinterne Befragungen erhoben und sind mit Unsicherheiten behaftet. Im Rahmen des QFD gilt dies sowohl für die Kundenforderungen und deren Gewichtung als auch für die Bewertung der Stärke der Beziehung zwischen den Qualitätsmerkmalen und den Kundenforderungen. In der FMEA gilt dies für die Bewertung der potentiellen Fehlerfolgen und ihre Auftrittsund Entdeckungswahrscheinlichkeit. Beim TC stellt die Beurteilung der Marktsituation, des Konkurrenz- und des Käuferverhaltens zur Bestimmung des Target Preises ebenfalls eine Unsicherheit dar. Die Verarbeitung dieser unscharfen Eingangsinformationen steht in einem deutlichen Widerspruch zu den exakt präzisierten Werten, die diese Methoden für die Produktentwicklung zur Verfügung stellen. Es besteht daher die Gefahr, dass unscharfe Eingangsinformationen im Verlauf der Produktentstehung als sichere Werte interpretiert werden. Dies geschieht beispielsweise, wenn kritische Faktoren im Lösungsraum des QFD, die auf unscharfen Informationen basieren, Haupteingangsgrößen für die Risikoanalyse einer nachfolgenden FMEA bilden und hier als sichere Werte angenommen werden.
4.3 Integrative Qualitätsplanungssystematik
123
Ziel ist es daher, einen Lösungsansatz zur durchgängigen Berücksichtigung und Verarbeitung unscharfer Eingangsinformationen innerhalb der Methodenkette der Qualitätsplanungssystematik zu entwickeln. Strukturierungsmöglichkeiten für unscharfe Eingangsinformationen sowie Methoden der Fuzzy-Set-Theorie sind hinsichtlich ihrer Einsatzmöglichkeiten untersucht worden. In manchen Fuzzy-Set-Methoden wird jeder Aussage von vornherein eine fest vorgegebene Unschärfe zugeschrieben, dieser Ansatz soll hier jedoch nicht verfolgt werden. Der Befragte soll dies individuell tun, da er selbst am besten abschätzen kann, wie unscharf seine eigenen Angaben sind. Dies folgt konsequent der Überlegung, dass die Ausgangsdaten an Aussagekraft gewinnen je genauer die Eingangsdaten dem Empfinden der befragten Person entsprechen. Die Unschärferaute ist ein optisches Mittel, um dieses Empfinden auszudrücken. Sie ist gekennzeichnet durch einen Kern „k“, einen linken Rand „l“ und einen rechten Rand „r“ (Abb. 4.12). Der Kernwert spiegelt das Hauptempfinden wider, welches nach links und rechts zu den Randwerten hin abnimmt. Durch die Unschärferaute ist der Befragte also nicht gezwungen, eine scharfe Aussage zu treffen; er kann stattdessen einen Aussageraum wählen, dessen Kern und Ränder er selbst bestimmen kann. Je breiter die Unschärfe ist, desto unsicherer ist sich die Person über ihre Aussage. Dadurch, dass die Raute asymmetrisch sein kann, besteht die Möglichkeit, die Unsicherheit links und rechts des Kernwertes unterschiedlich stark zu bewerten. linker Unschärferand „l“
1 gar nicht
2
rechter Unschärferand „r“
Kernwert „k“
3 gering
4
5
6 mittel
7
8 hoch
9
10 sehr hoch
Abb. 4.12. Unschärferaute
Ist man sich einer Aussage absolut sicher, so werden die Randwerte auf den Kernwert gesetzt. Die Unsicherheit ist damit „Null“ und aus der Raute wird ein senkrechter Strich. Die Antworten mehrerer Personen können auch zu einer Unschärferaute gemittelt werden. Die Vorteile dieser Methodenmodellierung liegen u. a. in folgenden Punkten: x Durch die Anwendung dieser Methode steigert sich die Zuverlässigkeit der Ergebnisse. Unsicherheiten und ihre Auswirkung auf ein Ergebnis werden direkt ersichtlich. Die durchgängige Dokumentation lässt nicht zu, dass unscharfe Daten als scharfe Daten interpretiert werden.
124
4 Integrierte Produktdefinition und Technologieplanung
x Anhand der Eingangsdaten kann ermittelt werden, welcher Personenkreis unscharfe Daten verursacht. Durch Hinterfragung können gezielte Maßnahmen eingeleitet werden, um diesen Kreis zu verkleinern. x Eine Umgewöhnung von der alten auf die neue Methode fällt leicht, da Aufbau und Ablauf stark miteinander verwandt und die Formblätter ähnlich sind (Abb. 4.13). x Den Methoden unterliegen einfache Algorithmen, so dass eine IT-gestützte Verarbeitung leicht realisiert werden kann. x Das entwickelte Konzept ist keine Einzellösung, da unscharfe Ergebnisse über eine eingeführte Mittelwertbildung auf einen Wert reduziert werden können, um dann in anderen Methoden, welche Unschärfen noch nicht berücksichtigen, weiter verwendet zu werden. Nachteilig ist aber, dass eine bedienerfreundliche Dateneingabe nur graphisch möglich ist. Dies benötigt viel Platz und erschwert die Übersichtlichkeit. Durch die Möglichkeit, Unschärfe zu berücksichtigen, besteht die Gefahr, dass die befragten Personen pauschal jede Aussage mit einer großen Unschärfe versehen, um sich abzusichern. Hierdurch verliert das Ergebnis an Schärfe. Diesem Nachteil kann entgegengewirkt werden, indem deutlich gemacht wird, dass, je schärfer eine Angabe ist, sich umso mehr Kompetenz dahinter verbirgt. Dies soll den Befragten motivieren, nicht unnötig eine hohe Unschärfe anzugeben; es darf jedoch auch nicht in das Gegenteil umschlagen, indem der Befragte jede Aussage als sicher angibt, um eine hohe Kompetenz vorzutäuschen (Schwan 1999, S. 30 ff.). Gewichtung Kundenforderungen
unwichtig 1
Leistungsstärke
2
3
wichtig 4
5
6
7
8
hohe Leistung hoher Wirkungsgrad
Wirtschaftlichkeit
hohe Lebensdauer geringe Betriebskosten
hohe Sicherheit
sicher sturmfest
problemloser
zu verlässig
Betrieb
wartungsfreundlich
geringe
geringe Lärmbelästigung
Belästigung
geringe Vibrationen umweltfrd. Herstellung
umweltfreundlich
umweltfrd. Betrieb umweltfrd. Entsorgung
Design
ansprechendes Design Einbindung in Landschaft
Abb. 4.13. Beispiel: QFD mit Berücksichtigung von unscharfen Daten
9 10
4.3 Integrative Qualitätsplanungssystematik
125
Planung und Controlling Nur durch konsequente Verknüpfung vielfältiger Planungs- und Kontrollaktivitäten kann ein zeitablaufoptimierter Produktentwicklungsprozess realisiert werden, der zu kundenorientierten und innovativen Produkten führt. Kennzeichen moderner Entwicklungsprozesse ist das iterative Durchlaufen zahlreicher Planungs- und Kontrollphasen, so dass sich ein Regelkreis ergibt, der zur ständigen Verbesserung der Produkte führt. Abweichungen von Sollwerten jeglicher Art müssen zu einer Überprüfung von vorgegebenen Planwerten führen. Legt man als Fehlerdefinition die DIN Norm 8402 (DIN 1995) und hier besonders den Teil 11 – Grundbegriffe der Qualitätssicherung – zugrunde, so wird ein Fehler als „Nichterfüllung einer Erwartung“ aufgefasst. Hieraus folgt direkt das Anwendungspotenzial der präventiven Qualitätscontrollingmethoden für die frühe Phase der Produktentstehung. Da zu Beginn der Produktentstehung in der Regel noch nicht genügend Informationen zur konkreten Darstellung von Vorgaben und Zielen vorliegen, können qualitätsplanende und -kontrollierende Maßnahmen nur erfolgreich zum Einsatz kommen, wenn sie in der Lage sind, unscharfe Ziele sicher zu erfüllen. So stellen zum Beispiel Kundenforderungen Zielwerte dar, die zwar nicht messbar oder bezifferbar sind, doch deren Nichterfüllung oder mangelhafte Umsetzung als Fehler definiert ist. Qualitätsmanagement hat als Ziele Fehlervermeidung, vor allem durch gezielte Nutzung von Erfahrungswissen, Messbarkeit und Bewertbarkeit der Prozessqualität sowie die Kommunikation, Koordination, und Synchronisation vernetzter paralleler Aktivitäten (Pfeifer 2001, S. 62 f.). Die wesentlichen Instrumentarien eines derartigen Qualitätsmanagements sind Zielvereinbarungen, eine vorausschauende Planung der Zielerreichung, eine Fortschrittskontrolle sowie die regelmäßige Durchführung von Pre- und Reviews. Wie in Kapitel 3.1 behandelt, stellt das Quality-Gate-Konzept eine mögliche Vorgehensweise für das Projektmanagement und für die Absicherung von langsam laufenden Prozessen bzw. von Prozessen mit niedrigem Wiederholcharakter – wie die Produktentwicklung – dar. Unter „Quality Gates“ werden Messpunkte verstanden (Abb. 4.14), an denen die Prozess(zwischen)ergebnisse bezüglich der Erfüllung von Forderungen interner (z.B. andere Abteilungen im Unternehmen) und externer Kunden beurteilt werden. Die Messpunkte unterteilen den Prozess in einzelne Abschnitte (Pfeifer 2001, S. 62 ff.). Die hierzu erforderlichen Zielvereinbarungen werden zwischen internen und externen Kunden und dem Entwicklungsteam vor Beginn eines jeden Prozessabschnitts abgestimmt (Pfeifer 2003). Nach der Abstimmung erarbeitet das Entwicklungsteam eine QM-Planung, die beschreibt, wie die vereinbarten Ziele im Messpunkt erreicht werden sollen. Die anzuwendenden Methoden werden hier ausgewählt und die Abgabetermine festgelegt. In Abb. 4.14 ist ein vereinfachtes Beispiel für diese Vorgehensweise dargestellt. Da es sich um komplexe Produkte handelt, bestehen diese aus mehreren Subsystemen und Komponenten. Die Methoden werden zuerst für das Produkt als gesamtes System erstellt und dann auf die Subsysteme und Komponenten heruntergebrochen, da sich ein QM-Team erst dann den Subsystemen widmen
126
4 Integrierte Produktdefinition und Technologieplanung
kann, wenn es Informationen über das gesamte System hat. Die Subsysteme arbeiten parallel und müssen in regelmäßigen Abständen synchronisiert werden, da sie sich gegenseitig beeinflussen. Wenn Subsysteme die Forderungen nicht erfüllen, müssen sie dies dem Gesamtsystem-Team mitteilen. Es kann ein Ausgleich mit einem anderen Subsystem angestrebt werden, oder die Forderungen müssen angepasst werden. Wenn z.B. ein Subsystem das festgelegte Gewicht übersteigt, kann überprüft werden, ob ein anderes Subsystem noch Gewichteinsparungspotenzial besitzt oder ob die Forderungen für das Gesamtsystem entsprechend erhöht werden müssen. Diese Art von Rückmeldungen gibt es bei jeder Methode. Abstimmungsschwierigkeiten hängen von der Anzahl der parallel arbeitenden Teams und von der Komplexität des Produktes ab. Gemäß dem QM-Plan wird der Prozessfortschritt durch die Entwicklungsteams selbst im Sinne eines Soll-Ist-Vergleichs gemessen und methodisch abgesichert. Durch die (vorherige) Festlegung von zu informierenden Stellen wird im Fall von Abweichungen eine schnelle Reaktion erzeugt. AP CD
Produkt
QFD
AP CD
Prozess
QFD FMEA
FMEA FTA
TC
Quality Gate
FTA
TC
Synchronisationspunkt
Abb. 4.14. Qualitätsplanung und –controlling mit Quality Gates
Das Review zielt darauf ab, zu bestimmten Zeitpunkten (an den Quality Gates) die Ergebnisse der Produktentwicklung durch eine neutrale Instanz zu überprüfen, z.B. durch den Gesamtverantwortlichen und Interessenspartner aus Produktion, Marketing, Vertrieb, Einkauf sowie parallele Entwicklungsteams. Dadurch sollen Fehler, also die Nichterfüllung oder mangelhafte Umsetzung eines Zieles, sowie Unzulänglichkeiten frühzeitig aufgedeckt und Lösungsmöglichkeiten entwickelt werden. Dies zeigt den deutlich backward-orientierten Charakter eines Reviews, der seine Fähigkeit für den Einsatz als Qualitätscontrollinginstrument begründet. Um das Review sinnvoll einsetzen zu können, muss bei der Erstellung von Checklisten und Fragebögen die Überprüfung der zu überprüfenden Ziele im Vordergrund stehen. Die gesammelten Forderungen werden hierzu kritisch
4.3 Integrative Qualitätsplanungssystematik
127
analysiert, wobei diese technisch sowie wirtschaftlich zu überprüfen sind. Die wichtigste Voraussetzung hierbei ist immer, das Review nach den Gesichtspunkten des Qualitätscontrollings aufzubauen und auch das aus anderen Planungsund Controllingmaßnahmen generierte Wissen mit einzubeziehen. Zusammenfassend liegen die wesentlichen Vorteile einer Integration von Qualitätsplanung und -controlling im Rahmen des SE-Ansatzes in den folgenden Bereichen: x Inhaltliche Verzahnung: Der produkt- und prozessspezifische Informationsbedarf des simultanen Qualitätscontrollings sowie spezielle Forderungen des Qualitätsmanagements an die Produktentwicklung werden frühzeitig transparent und im Rahmen integrierter Planungs- und Kontrollabläufe aufeinander abgestimmt. x Zeitlaufoptimierte Gestaltung der Produktentwicklung: Parallel zur kundenorientierten Qualitätsplanung wird die kundenforderungsgerechte Umsetzung des Produktionskonzeptes kontinuierlich überprüft. Somit werden Abweichungen frühzeitig identifiziert und geeignete Maßnahmen können eingeleitet werden. Das simultane Qualitätscontrolling führt damit neben einer erhöhten Planungsqualität zu einer den Kundenforderungen gerecht werdenden Produktqualität. x Durch die gemeinsame Anwendung qualitätsplanender und analysierender Elemente ergibt sich außerdem ein vollständiger Kreislauf im Sinne des PDCA (Plan-Do-Check-Act)- Zyklus, der einer ganzheitlichen Sichtweise des Qualitätsmanagements entspricht. So wird ein Maximum an Fehlerprävention gewährleistet. Die mithilfe der hier entwickelten Systematik aufbereiteten Qualitätsmerkmale bilden eine wesentliche Eingangsinformation für die weitere Produktgestaltung. Einbindung von Informationstechnologien Umfassendes Qualitätsmanagement bedingt das zielgerichtete Zusammenwirken mehrerer Personen (Grob 1996, S. 18). Dies bezieht sich sowohl auf die Kommunikation als auch auf Kooperation und Koordination. Aus dem Querschnittscharakter des Qualitätsmanagements ergibt sich die Aufgabe, verteilt vorliegende Informationen zu verknüpfen und bereitzustellen (Grob 1996, S. 115). Zu diesem Zweck sind die entwickelten Methoden und Datenmodelle in einem Prototypen implementiert worden, der sowohl eine Backend- als auch Frontend-Lösungen berücksichtigt. Die Backend-Lösung beinhaltet ein Mehrbenutzer-Datenbanksystem zur leistungsfähigen Datenverwaltung. Die Datenmodelle werden in einer relationale Datenbankstruktur abgebildet. Dort besitzen die Dateien komplex strukturierte Daten, die beispielsweise in Form von Tabellen gespeichert werden. Die Datensätze, d.h. die Zeilen der Tabellen, stellen dabei die zentralen Informationseinheiten dar und nicht die Tabellen bzw. Dateien. Aus den abgeleiteten Datenmodellen ergeben sich im Wesentlichen typisierte Knoten mit einer statischen Struktur. Betrachtet man zum Beispiel Qualitätsanforderungen des
128
4 Integrierte Produktdefinition und Technologieplanung
Kunden, so bestehen diese typisierten und nummerierten Knoten aus sequenziellen Teilinformationen wie Anforderung, Autor, Datum, Kundenbewertung, Konkurrenzvergleich, Verbesserungsbedarf sowie der absoluten und relativen Wichtigkeit. Darüber hinaus enthalten Knoten Verknüpfungen zu anderen Knoten. Diese Verknüpfungen sind wiederum typisiert, z.B. „ist ein Element von“ oder „beeinflusst von“. Neben der Hypertext-Datenbank sind Hypertext-Frontends zum Lesen und Manipulieren des Hypertext-Graphen notwendig. Die Sichten auf den HypertextGraphen sind so strukturiert und modularisiert, dass sie die Orientierung des Benutzers unterstützen. Die wesentlichen Merkmale der hypertextbasierten, rechnerunterstützten Qualitätsplanungssystematik sind: x Bereitstellung, Gestaltung und Organisation der für eine bereichsübergreifende Qualitätsplanung benötigten Informationen, x intuitive Bedienbarkeit des Systems, x Unterstützung der Umsetzungsprozesse der Qualitätsmerkmale in den verschiedenen Phasen des Produkt- und Produktionsplanungsprozesses, x Vereinfachung aller Änderungsabläufe sowie x Unterstützung von Teamarbeit, insbesondere am Rechner. Der entwickelte Prototyp stellt eine Plattform zur Verfügung, die durch eine rechner- und systemkonforme Verzahnung der einzelnen Methoden miteinander eine durchgängige, ganzheitliche Qualitätsplanungssystematik für das SE bietet. Um eine dezentrale teamorientierte Anwendung und eine effiziente Verknüpfung verteilt vorliegender Informationen zu ermöglichen, sind die einzelnen betrachteten Qualitätsmanagementmethoden entsprechend angepasst worden. 4.3.3 Applikationsmöglichkeiten Die integrative Qualitätsplanungssystematik stellt eine einfache, sich wiederholende Vorgehensweise mit teamorientierten Tätigkeiten zur Entwicklung von Produkten dar, mit der Zielsetzung, Kunden stets zufrieden zu stellen. Die ganzheitliche Qualitätsplanungssystematik setzt eine abgestimmte Teamarbeit voraus. Darin spielt die Kommunikation zwischen den Bereichen, sowohl bereichs- als auch unternehmensübergreifend, eine besondere Rolle, denn nur mit einer effizienten Kommunikation zwischen allen Beteiligten ist ein zielgerichtetes gemeinsames Handeln möglich. Hierzu zählen der Informationsaustausch und Qualitätswissenstransfer zwischen den verschiedenen Bereichen und die Wechselwirkungen zwischen den verschiedenen QM-Methoden. Aufgrund seiner Querschnittsfunktion erfordert das Qualitätsmanagement eine durchgängige und dynamische Nutzung der Ressource „Information“. Ein zentrales Element der rechnerunterstützten Qualitätsplanungssystematik ist eine Multiuser-Datenbank, in der alle Daten, die im Rahmen der Produktplanung generiert werden, abgelegt werden. Dies wird durch das IPPM (s. Kap. 3.2) unterstützt. Die Daten werden entweder in Teamsitzungen, während Projektarbeiten der involvierten Mitarbeiter oder bei Teamsitzungsvorbereitungen
4.3 Integrative Qualitätsplanungssystematik
129
erzeugt. Nahezu zeitgleich kann von unterschiedlichen Personen in den gleichen Tätigkeitsgebieten auf die Daten zugegriffen werden. Neben der Datenbank enthält das System auch alle QM-Module. Es unterstützt die User bei der Anwendung dieser Module und stellt den Datentransfer zwischen den Modulen her. Im Wesentlichen lassen sich hierfür drei Tätigkeitsbereiche unterscheiden: Projektmanagement, Teamsitzungen und individuelle Projektarbeit bzw. Teamsitzungsvorbereitungen. Aufgabe des Projektmanagements ist es, zu Beginn eines Projektes die QMModule auszuwählen, die im Projekt eingesetzt werden sollen. Eine weitere Aufgabe ist die Zusammenstellung der Entwicklungsteams und die Definition der Verantwortlichkeiten für den Einsatz der QM-Module. Des Weiteren müssen für die einzelnen Projektarbeitsschritte Termine gesetzt und Teamsitzungen organisiert werden. Der Projektplan kann in einem Workflow-Management-System hinterlegt werden. Mithilfe des in Kapitel 3.2. vorgestellten Kommunikationssystems erfolgen die Aufgabendelegation sowie die Verfolgung des Arbeitsfortschritts auf den untergeordneten Ebenen durch den Projektleiter. Dieser wird von Terminüberwachungsaufgaben und ähnlichen Routinetätigkeiten entlastet und automatisch vom System informiert, wenn ein Arbeitsschritt abgeschlossen ist. Die Mitarbeiter erhalten automatisch die Informationen, die für den nächsten Arbeitsschritt notwendig sind. Eine Monitoring-Funktion, die fester Bestandteil von Workflow-Management-Systemen ist, dient der Überwachung der Termineinhaltung und der Prozessfähigkeit (Prozessdaten lassen sich zu Kennzahlen verdichten). Gruppenterminkalender und E-Mail können die Organisation von Teamsitzungen unterstützen. Die Teamsitzungen können durch den Einsatz von Decision-Support- Systemen sowie Audio- und Video-Konferenzsystemen unterstützt werden. Ein einfaches Decision-Support-System ist die elektronische Unterstützung der nominalen Gruppentechnik, also ein Unterstützungswerkzeug, welches Gruppen dabei hilft, eine gemeinsame Priorisierung von unterschiedlichen Punkten zu treffen. Mittels Audio- und Video-Konferenzsystemen können Projektmitarbeiter an Teamsitzungen teilnehmen, obwohl sie sich nicht am gleichen Ort befinden. Das IPPM soll ebenfalls in Teamsitzungen eingesetzt werden, um die erarbeiteten Ergebnisse direkt in das System einzugeben, damit sie allen anderen Projektmitarbeitern sofort zur Verfügung stehen. Im dritten Tätigkeitsgebiet werden Teamsitzungen vorbereitet oder einzelne Projektschritte von kleineren Teams oder Einzelpersonen bearbeitet. Hier können neben Audio- und Video-Konferenzsystemen auch schriftliche Konferenzsysteme zur Kommunikation zwischen Personen, die sich nicht am gleichen Ort befinden, genutzt werden. E-Mail kann ebenfalls zur Kommunikation eingesetzt werden. Mithilfe von Windows-Sharing und Co-Autorensystemen können mehrere Personen gemeinsam an der Lösung eines speziellen Problems arbeiten. BulletinBoards und Newsgroups eignen sich, um spezielle Probleme mit mehreren Personen zu diskutieren. In diesen Systemen können auch Projektneuigkeiten veröffentlicht werden, die wichtig für die Projektmitarbeit sind. Die in diesem
130
4 Integrierte Produktdefinition und Technologieplanung
Tätigkeitsbereich erarbeiteten Ergebnisse werden am besten direkt in das IPPM eingefügt, damit die Daten in der nächsten Teamsitzung zur Verfügung stehen. Da für Unternehmen die sichere Datenverwaltung, -übertragung und -verwendung zu den obersten Prioritäten zählt, muss dieses Konzept hinsichtlich sicherheitstechnischer Fragen überprüft und gegebenenfalls durch dahingehende, wissenschaftlich einwandfreie, kryptographische Konzepte ergänzt werden. Für klein- und mittelständische Unternehmen ist es sinnvoll, das Konzept durch eine prototypische Fallstudie und dabei insbesondere durch Fragestellungen zur Wirtschaftlichkeit zu untersuchen. Die IT-gestützte Anwendung präventiver QM-Methoden erhöht die Akzeptanz der Methoden im Unternehmen. Hierfür ist eine unterstützende ergonomische und intuitive Bedienerführung unerlässlich. In einer Zeit, in der Anwender nicht nur am Arbeitsplatz an eine browserbasierte Anwendungsoberfläche und -umgebung gewöhnt sind, kann die Internet- bzw. Webfähigkeit auch zu einer Reduktion der Komplexität und damit zu verbesserter Anwendung der QM-Methoden führen. Eine auf Browsertechnik ergonomisch umgesetzte und für alle Module durchgängige Anwendungsoberfläche kann eine intuitive Bedienung und die Akzeptanz des Systems beim Anwender nur fördern. Die Transparenz einer Softwareanwendung fördert Qualifikation, Motivation und die Qualität der Arbeitsergebnisse und liefert einen Beitrag zur Persönlichkeitsförderung (Balzert 1998, S. 704 ff.). Vor dem Hintergrund einer sich effizienten verändernden Fertigungsindustrie, in der Wissen und Verantwortung ebenso wie Fertigungs- und Qualitätsmanagementprozesse auf Lieferanten, Systemspezialisten, Dienstleistungsunternehmen und Partnerfirmen übertragen werden, stellt die Internetkompatibilität der eingesetzten Methoden eine elementare Grundlage dar, um den Informationsaustausch und die effiziente Arbeit dynamischer und virtueller Teams zu gewährleisten. Die Qualitätsplanungssystematik soll in dieser Richtung weiterentwickelt und mit gängigen Applikationen verbunden werden. Literatur Ahlemeier G, Herzwurm G (1998) Erfolgsfaktoren von QFD-Projekten. Ergebnisse einer empirischen Untersuchung. Universität zu Köln Balzert H (1998) Lehrbuch der Softwaretechnik. Software-Management, SoftwareQualitätssicherung, Unternehmensmodellierung. Springer, Berlin Heidelberg New York Block M (2000) Identifying Environmental Aspects and Impacts. McGraw-Hill, New York Brusch M, Trilk H, Dinse C, Treppa A (2001) Gemeinsam stärker. Integration von Quality Function Deployment und Target Costing. Qualität und Zuverlässigkeit 10: 1306–1310 DIN (1995) DIN 8402 Qualitätsmanagement – Begriffe. Beuth, Berlin Ehrlenspiel K (2003) Integrierte Produktentwicklung. Hanser, München Wien Goebel D (1996) Modellbasierte Optimierung von Produktentwicklungsprozessen. VDI, Düsseldorf Grob R (1996) Methodische Planung technischer Informationssysteme für die Unterstützung von Aufgaben des Qualitätsmanagements. Dissertation, RWTH Aachen
4.3 Integrative Qualitätsplanungssystematik
131
Heiliger ST (2002) Rapid Quality Deployment. Qualitätsorientierte Produktentstehung durch modularisierte Qualitätsmanagementmethoden. Dissertation, RWTH Aachen Klein B (1999) QFD – Quality Function Deployment. Konzept Anwendung und Umsetzung für Produkte und Dienstleistung. Expert, Renningen-Malmsheim Kölscheid W (1999) Methodik zur lebenszyklusorientierten Produktgestaltung. Dissertation, RWTH Aachen Lesmeister F (2001) Verbesserte Produktplanung durch den problemorientierten Einsatz präventiver Qualitätsmanagementmethoden. Dissertation, RWTH Aachen Pfeifer T (2001) Qualitätsmanagement. Strategien, Methoden, Techniken. Hanser, München Wien Pfeifer T (2002) Qualität in produzierenden Unternehmen 2002. Eine Untersuchung zum Zusammenhang zwischen Unternehmenserfolg und Qualitätsmanagement. FraunhoferInstitut für Produktionstechnologie IPT, Aachen Pfeifer T, Lesmeister F (1999) Präventive QM-Methoden einfacher gestalten. Ergebnisse einer Umfrage zum Einsatz präventiver QM-Methoden. Zeitschrift für wirtschaftlichen Fachbetrieb 11: 642–645 Pfeifer T, Schmidt R (2003) Das Quality-Gate-Konzept. Industriemanagement 5: 21–24 Plötz M, Biel M (1999) Intelligent kombinieren. Integrierter Methodeneinsatz führt in der Praxis zur ganzheitlichen Produktsicht. Qualität und Zuverlässigkeit 7: 580–584 Redeker G, Keunecke L (2002) Qualität ist menschlich. Qualitätsmanagement für mengenund variantenflexible Produktionsstufen. Qualität und Zuverlässigkeit 3: 219–220 Schwan A (1999) Fuzzygestütztes Bewertungsmodell für die Entwicklung umweltverträglicher Produkte und Prozesse. Dissertation, Friedrich-AlexanderUniversität Erlangen-Nürnberg Timpe KP, Fessler MH, Burmester RK (2000) Von Anfang an mit System. Umfassende Produktplanung mit erweitertem QFD-Ansatz. Qualität und Zuverlässigkeit 7: 883– 887 Zischka S (1998) Verbreitung und Anwendung des Quality Function Deployment (QFD) in der deutschen Automobilindustrie. VDI Berichte 1413: QFD – Produkte und Dienstleistungen marktgerecht gestalten (Tagung Düsseldorf, 29. und 30. Oktober 1998), Düsseldorf
132
4 Integrierte Produktdefinition und Technologieplanung
4.4 Bereichsübergreifende Produktdefinition 4.4.1 Entwicklung hin zur simultanen Produktentwicklung Die Definition von Produktdaten ist ein Vorgang, der sich durch den gesamten Prozess der Produkt- und Prozessgestaltung zieht. In diesen Prozess sind die verschiedensten Fachbereiche involviert, die jeweils einen Teil zur Produktdefinition beitragen. Da sich die Methoden des Simultaneous Engineering in immer stärkerem Maße durchgesetzt haben, ist die Produktdefinition heute kein sequenzieller Prozess mehr, stattdessen spezifizieren die verschiedenen Fachbereiche simultan jeweils ihren Teil der Produktdefinition. Jeder Fachbereich hat dabei seine eigenen Methoden und Modelle, die sich von denen anderer Fachbereiche unterscheiden. Zusammen aber müssen die fachbereichspezifischen Produktdefinitionen eine konsistente Definition des Gesamtproduktes ergeben. Um dies zu erreichen, müssen Wege gefunden werden, Redundanzen zwischen den verschiedenen Produktdefinitionen zu eliminieren sowie bereichsübergreifende Abhängigkeiten zu modellieren und zu überwachen. Bei simultaner Produktentwicklung wird die Produktdefinition nicht mehr ausschließlich von der Mechanikkonstruktion erstellt, während andere Abteilungen eher den Status eines Dienstleisters haben. Stattdessen arbeiten Mechanikkonstruktion, Elektrokonstruktion und Softwareentwicklung gleichberechtigt an der Entwicklung eines Produktes (Eversheim 1995, S. 89 ff.). Da die Komplexität der Entwicklung von Produkten in den letzten Jahren ein Ausmaß erreicht hat, das von einer einzelnen Person nicht mehr bewältigt werden kann, ist es für die Qualität des Entwicklungsprozesses von großer Bedeutung, dass die beteiligten Fachbereiche nicht nur simultan, sondern auch kooperativ arbeiten (Drisis 1995). Diese Arbeitsweise führt nicht nur zu organisatorischen Problemen, sondern stellt auch neue Anforderungen an die Erstellung einer durch alle Bereiche konsistenten Produktdefinition. Arbeiten verschiedene Fachbereiche simultan an der gleichen Produktdefinition, sind in möglichst kurzen Intervallen Absprachen nötig, um die Konsistenz der Daten sicherzustellen. Dies ist jedoch zeitaufwändig und bindet teure Arbeitskraft. Erstrebenswert wäre daher eine technische Lösung, die es ermöglicht, eine bereichsübergreifende Produktdefinition ohne Absprachen konsistent zu halten. Die beschriebenen Forschungsarbeiten bilden eine Schnittstelle zwischen unterschiedlichen Bereichen in verschiedenen Stadien des Entwicklungsprozesses. In den frühen Phasen des Entwicklungsprozesses fließen Informationen zu Markt und Kunden (s. Kap. 4.1, 4.2) sowie Anforderungen an die zu erreichende Produktqualität (s. Kap. 4.3) in die Produktdefinition ein und nehmen damit Einfluss auf die weitere Ausgestaltung der Produktdefinition. Um eine effektive Varianten- und Baureihenverwaltung sicherzustellen, müssen parametrische Konstruktionsmethoden in den Prozess der Produktdefinition integriert werden (s. Kap. 4.5). Durch die frühzeitige Bereitstellung einer bereichsübergreifenden Produktdefinition erhält man einen digitalen Prototypen, auf dessen Basis der Einsatz von Fertigungstechnologien (s. Kap. 4.6) sowie der Prüfablauf und die
4.4 Bereichsübergreifende Produktdefinition
133
Verwendung von Prüfmitteln (s. Kap. 5.1) geplant werden können. Hierzu ist ein Datenmodell erforderlich, mit dem Produkt- und Prozessinformationen integriert verwaltet werden können (s. Kap. 3.2). Der als Ergebnis der bereichsübergreifenden Produktdefinition entstehende digitale Prototyp liefert jedoch nur eine annähernde Beschreibung der realen Produkteigenschaften. In vielen Fällen ist die Ungenauigkeit des digitalen Prototypen zu groß, so dass auch weiterhin reale Prototypen benötigt werden (s. Kap. 5.3) Die im Folgenden behandelte Thematik umfasst Methoden zur bereichsübergreifenden Produktdefinition und ein auf diesen Methoden basierendes PDMSystem. 4.4.2 Methoden zur bereichsübergreifenden Produktdefinition Das Zustandekommen und die Effektivität bereichsübergreifender Produktdefinition sind entscheidend von der Technologie der eingesetzten PDM-Systeme abhängig. Kommerziell verfügbare PDM-Systeme arbeiten heutzutage stets dokumentenbasiert (Abramovici 1998). Dokumentenbasierte Systeme ermöglichen zwar das Ablegen von Stammdaten in objektorientierten Produktstrukturen, mappen diese aber auf Dateien, in denen die durch Client-Applikationen erzeugten produktdefinierenden Daten gespeichert werden (hauptsächlich CAxAnwendungen). Dadurch wird einerseits eine einfache Anbindung und die Verwendung einer großen Zahl von verschiedenen Client-Applikationen ermöglicht. Andererseits kommt es aber zu einer Reihe von Problemen, die insbesondere eine konsistente bereichsübergreifende Produktdefinition erschweren. Durch die Vielzahl von unterschiedlichen in verschiedenen Bereichen eingesetzten Arten von Client-Applikationen müssen verschiedene Dateiformate verwaltet werden, die vielfach zueinander inkompatibel sind. Dadurch wird ein bereichsübergreifender Austausch von Produktdaten auf Softwareebene verhindert. Zudem besteht die Gefahr, dass die durch die Gesamtheit der vorhandenen Dokumente gebildete Produktdefinition aufgrund von Redundanzen und nicht abgebildeten Beziehungen zwischen Daten inkonsistent wird. Redundanzen entstehen, wenn von Client-Applikationen, die zu unterschiedlichen Softwareklassen gehören, dieselben Daten verwendet werden. Werden diese Daten durch eine Applikation modifiziert, kann es passieren, dass sie in einem Dokument, das zu einer anderen Applikation gehört, unmodifiziert bleiben, ohne dass dies vom PDM-System erkannt wird. Analog kommt es zu Inkonsistenzen, wenn Änderungen so vorgenommen werden, dass Beziehungen zwischen Daten aus verschiedenen Dokumenten verletzt werden. Da marktübliche PDM-Syteme die Verwaltung von Beziehungen zwischen Produktdaten den Client-Applikationen überlassen und die Kopplung zwischen Client-Applikationen und PDMSystem i.d.R asynchron ist, bleiben solche Inkonsistenzen meistens unentdeckt. Möchte ein Benutzer eine Komponente (hier: Synonym für Bauteil und Baugruppe) modifizieren, ist zunächst ein Check-out notwendig. Dadurch wird auf dem Rechner des Benutzers eine Kopie der Datei erstellt, welche die Komponente beschreibt. Möchte nun ein weiterer Benutzer die gleiche Datei zum
134
4 Integrierte Produktdefinition und Technologieplanung
Modifizieren auschecken, entstehen zwei zueinander inkompatible Versionen der Datei. Um dies zu verhindern, ist eine Sperrung der Datei nach dem ersten Checkout notwendig. Dadurch wird Simultaneous Engineering auf der durch diese Datei definierten Komponente erschwert. Dieses Problem wird umso größer, je wichtiger die Komponente für den Entwicklungsprozess ist. Auch die Bearbeitung von Baugruppen mit vielen untergeordneten Baugruppen und -teilen ist konfliktträchtig. Bei der Nutzung von älteren CADSystemen ist eine Sperrung der kompletten Baugruppe notwendig. Neuere CADSysteme bieten dagegen die Möglichkeit, Teile der Baugruppe selektiv zu laden und den nicht geladenen Teil zu verbergen (Eigner 2001, S. 189), so dass hierauf von weiteren Benutzern Änderungen durchgeführt werden können. Allerdings dürfen nur solche Änderungen vorgenommen werden, welche die Passungen der Baugruppe nicht verändern und eventuell definierte Beziehungen nicht verletzen. Soll die bereichsübergreifende Produktdefinition softwareseitig bis einschließlich auf Datenmodellebene unterstützt werden, so ist hierzu ein Produktdatenmodell notwendig, welches die Bedürfnisse der verwendeten Client-Applikationen erfüllt. Einerseits muss das Format durch die Client-Applikationen interpretiert werden können, anderseits sollen alle im nativen Datenmodell der Applikation enthaltenen Informationen in das Austauschformat übertragen werden können. Die Übertragbarkeit der enthaltenen Informationen wird durch die Verwendung nativer Dateiformate gewährleistet. Allerdings haben native Dateiformate den Nachteil, dass sie eine homogene Softwareinfrastruktur voraussetzen. Dies ist natürlich insbesondere im Falle der unternehmensübergreifenden Produktdefinition problematisch. Allerdings sind unternehmensintern homogene Softwareinfrastrukturen ebenfalls selten zu finden, da die Strukturen vielfach historisch gewachsen und damit heterogen sind. Häufig können zudem nicht alle erforderlichen Softwarewerkzeuge von einem einzigen Anbieter bezogen werden. Um Daten in heterogenen Softwareinfrastrukturen austauschen zu können, wurde eine Reihe von genormten Austauschformaten entwickelt. Eine älteres Format, das definiert wurde, um produktbeschreibende Daten zwischen CADSystemen austauschen zu können, ist IGES (Initial Graphics Exchange Specification) (Grabowski 1990, S. 49 ff.). Das in Frankreich entwickelte Austauschformat SET (Standard d’Exchange et de Transfer) ermöglicht den Austausch von 2D- und 3D-Drahtmodellen, 3D-Oberflächenmodellen sowie Volumenmodellen zwischen verschiedenen CAD-Systemen. Im Vergleich zu IGES bietet SET bei vergleichbarem Leistungsumfang eine bessere Komprimierung der Daten. Eine weitere Norm zum herstellerneutralen Austausch von CAD-Daten ist VDAFS (Verband Deutscher Automobilhersteller – Flächen-Schnittstelle). Hauptziel bei der Entwicklung war die Übertragung analytisch nicht exakt beschreibbarer Freiformflächen. Dazu werden 3D-Kurven und -Flächen durch ganzrationale Potenzfunktionen parametrisch angenähert und zu geometrischen Objekten kombiniert. STEP (Standard for the Exchange of Product Model Data, ISO 10303) ist eine Norm, die derzeit breite Unterstützung sowohl von Unternehmensseite als auch aus dem Bereich der Forschung (NIS 2004) findet. Anders als die zuvor beschriebenen Ansätze ist STEP nicht auf den Austausch von Daten einer einzigen
4.4 Bereichsübergreifende Produktdefinition
135
Fachdisziplin beschränkt. Zu diesem Zweck sind innerhalb der Norm mehrere auf bestimmte Disziplinen spezialisierte APs (Anwendungsprotokolle) definiert. Unter den Austauschformaten definiert STEP den größten Vorrat an Grundelementen. Ein solcher Vorrat ist wichtig, damit bei der Konvertierung nach STEP in möglichst vielen Fällen eine eindeutige Zuordnung zwischen den Objekten der verschiedenen Datenmodelle vorgenommen werden kann. STEP ist damit das Austauschformat, bei dessen Einsatz sich die geringsten Konvertierungsverluste ergeben (Mushik 1998). Untersuchungen haben zudem ergeben, dass sämtliche mit VDAFS übertragenen Informationen ebenso durch STEP-AP214 übertragen werden können (Mushik 1998). So umfassend der Ansatz von STEP auch ist, besitzt er doch den Nachteil, dass insbesondere komplexere Produkte sich nur durch den Einsatz mehrer APs beschreiben lassen. Dadurch kommt es zu Redundanzen, die leicht zu einem inkonsistenten Produktdatenmodell führen. Ein gravierender Nachteil aller hier beschriebenen Austauschformate besteht darin, dass lediglich Produktdaten ausgetauscht werden; funktionale Zusammenhänge und Abhängigkeiten zwischen den Komponenten können bislang nicht in den Austauschformaten hinterlegt werden und gehen daher bei der Konvertierung verloren. Über die Möglichkeit des reinen Datenaustauschs hinaus bietet die Spezifikation der PDM-Enabler (PDM 1998) eine definierte Schnittstelle zum Zugriff auf PDM-Systeme und CAx-Client-Applikationen. PDM-Enabler definieren standardisierte Zugriffsmöglichkeiten auf PDM-interne Strukturen und verbessern damit die Interoperabilität zwischen verschiedenen PDM-Systemen. Weiterhin können jedoch Abhängigkeiten, die system- oder dateiübergreifend vorkommen, nicht überwacht werden. Ziel des 1998 gestarteten und 2002 abgeschlossenen BMB+F-Leitprojektes iViP – Innovative Technologien und Systeme für die virtuelle Produktentstehung – war die Entwicklung einer Softwareinfrastruktur für eine vollständige virtuelle Produktentstehung auf Basis durchgängiger, integrierter Prozesse. Der thematische Fokus der 53 beteiligten Projektpartner aus Industrie und Forschungseinrichtungen lag dabei auf den Bereichen Produktkonzeption, -konstruktion und -validierung sowie Produktdatenmanagement und Fertigungsvorbereitung auf Basis einer Client-Server Architektur. Zur Realisierung einer plattformübergreifenden Kommunikation stützt sich das iViP-System auf eine CORBA-basierte Basisplattform. Mithilfe von iViP-Clients, deren Funktionalität durch Plug-Ins angepasst werden kann, erhält der Benutzer Zugriff auf Systemdienste und Softwarewerkzeuge, die an die Plattform gekoppelt sind. Externe Werkzeuge (z.B. DMU, PDM, CAD) können ebenfalls an die Plattform gekoppelt werden. Die Produktdaten können im iViP-System über das STEP-Format zwar objektorientiert hinterlegt werden, allerdings erfolgt die Bearbeitung asynchron, d.h. für die Bearbeitung von Daten ist ein Sperr-Freigabe-Mechanismus erforderlich. Dadurch wird effizientes paralleles Arbeiten erschwert. Die Verwaltung von bestimmten Beschränkungen (Constraints) wird nicht vom PDM-System, sondern von den Applikationen selbst übernommen; Liegen applikationsübergreifende Constraints vor, kann es bei diesem Ansatz leicht zu Inkonsistenzen kommen.
136
4 Integrierte Produktdefinition und Technologieplanung
4.4.3 Bereichsübergreifende Produktdefinition mit Softwareagenten Konzepte Heutige PDM-Systeme erfüllen die beschriebenen Anforderungen simultaner bereichübergreifender Produktentwicklung nur in begrenztem Umfang. Ursache ist die von herkömmlichen PDM-Systemen eingesetzte dokumentenbasierte Datenhaltung. Wie in Abschnitt 4.4.2 beschrieben, verursachen dokumentenbasierte Systeme Konsistenzprobleme und erschweren eine simultane Bearbeitung von Produktkomponenten. Der im Folgenden beschriebene Ansatz setzt daher einen Paradigmenwechsel um. Produktbeschreibende Daten werden nicht in verschiedenen Dokumenten geordnet, sondern in Datenobjekten zusammengefasst (Abb. 4.15).
Anwendungsapplikationen
Objektorientierte Datenhaltung
CAD Zeichnung
Stromlaufplan
Funktionsdiagramm
Dokumentorientierte Datenhaltung Abb. 4.15. Dokumentenorientierte vs. objektorientierte Datenhaltung
Jedem Bauteil und jeder Baugruppe entspricht dabei im Datenmodell ein Objekt. Die applikationsspezifische Ordnung der Daten in dokumentenorientierten Ansätzen wird durch eine komponentenspezifische Ordnung ersetzt. Bereits in frühen Phasen des Konstruktionsprozesses werden die Produktdaten verschiedener Fachbereiche in einem gemeinsamen Datenobjekt zusammengefasst. Dadurch wird verhindert, dass verschiedene Fachbereiche mehrere zueinander inkompatible Varianten eines Konstruktionsobjektes entwickeln. Zu jedem Zeitpunkt des Entwicklungsprozesses existiert eine konsistente Beschreibung der Komponenten,
4.4 Bereichsübergreifende Produktdefinition
137
sodass aufwändige Abstimmungstreffen zur Angleichung der Daten verschiedener Fachbereiche entfallen. Die Daten innerhalb jedes Datenobjektes liegen nun zwar in konsistenter Form vor; dies ist allerdings noch nicht ausreichend, da weiterhin Inkonsistenzen entstehen können, wenn die Daten durch eine Benutzerapplikation modifiziert werden. Jede Benutzerapplikation besitzt ein internes Datenmodell, das alle applikationsspezifischen Daten der Komponente umfasst. Diese stellen jedoch in der Regel nur einen Ausschnitt aus dem entsprechenden Datenobjekt dar. Die Modifikationen der Benutzerapplikation werden zunächst allein auf diesem Ausschnitt durchgeführt und erst beim Check-in auf das Datenobjekt übertragen. Existieren Verknüpfungen zu anderen Daten des Objektes, müssen diese Daten entsprechend angepasst werden. Ist das aber nicht möglich, weil Restriktionen bezüglich der Modifikation dieser Daten bestehen oder weil die Daten in der Zwischenzeit ausgecheckt wurden, gerät das Datenmodell in einen inkonsistenten Zustand. Um dies zu vermeiden, ersetzt das hier vorgestellte PDM-System den Check-out/ Check-in Prozess durch eine Online-Kopplung der Applikationen (Abb. 4.16). Eine online mit dem PDM-System gekoppelte Applikation setzt jede durch den Benutzer vorgenomme Änderung zeitnah in eine entsprechende Änderung im Datenmodell des PDM-Systems um. Dadurch beinhalten die Datenmodelle der Applikation und des PDM-Systems stets den gleichen Änderungsstand, so dass de facto nur noch ein einziges Datenmodell im gesamten System vorhanden ist.
Datenmodell
Checkout
Checkin
PDM-System
Datenmodell
OnlineKopplung
PDM-System
Abb. 4.16. Check-out/ Check-in vs. Online-Kopplung
Speichert man aber Produktdaten wie beschrieben in Datenobjekten und koppelt die Applikationen online, sind zwei Probleme zu lösen. Zum ersten gibt es häufig mehr als eine Applikation, mit der die Daten einer Komponente bearbeitet
138
4 Integrierte Produktdefinition und Technologieplanung
werden, da diese nicht nur von verschiedenen Fachbereichen, sondern auch von Konstrukteuren innerhalb eines Fachbereichs simultan bearbeitet wird. Sind aber die Applikationen online mit dem PDM-System gekoppelt, sollten deren interne Datenmodelle stets den gleichen Änderungsstand wie das interne Datenmodell des PDM-Systems aufweisen. Es reicht also nicht, wenn Applikationen aktiv das interne Datenmodell des PDM-Systems ändern. Zusätzlich müssen nach einer solchen Änderung die Datenmodelle der anderen Applikationen, welche das gleiche Konstruktionsobjekt bearbeiten, aktualisiert werden. Zum zweiten benötigt jede Applikation eine spezielle Sicht auf die Daten. Diese Sicht sollte nur die von der Applikation verwendeten Daten enthalten, während die Daten anderer Applikationsklassen ausgeblendet werden. So sind in der Sicht einer CAD-Applikation nur CAD-Daten enthalten, während beispielsweise CAE-Daten ausgeblendet werden. Um die Daten für die Applikationen verwertbar zu machen, ist es außerdem notwendig, dass innerhalb der Sichten ein applikationsspezifisches Format bereitgestellt wird. Um mehrere Applikationen zu synchronisieren und um für jede Applikation eine spezielle Sicht zur Verfügung zu stellen, wird hier ein Model-ViewController Ansatz umgesetzt (Abb. 4.17).
Views
Controller
Model Abb. 4.17. Model-View-Controller Ansatz
Der Model-View-Controler Ansatz sieht die Kopplung beliebiger Sichten (hier: Applikation) mit einem Model (hier: Datenobjekt) über einen Controller vor. Neben der applikationsspezifischen Aufbereitung der Daten hat der Controller die Aufgabe, Änderungen innerhalb einer Sicht mit dem Model und den anderen Sichten zu synchronisieren. Führt ein Benutzer in einer Sicht eine Änderung durch, wird diese an den Controller delegiert. Dieser prüft, ob die Änderung durchführbar ist, ohne die Konsistenz des Models zu verletzen. War die Änderung erfolgreich, müssen anschließend die anderen Sichten bzw. Applikationen benach-
4.4 Bereichsübergreifende Produktdefinition
139
richtigt werden, so dass diese ihr internes Datenmodell und die Anzeige aktualisieren können. Im Falle einer gescheiterten Änderung muss nur die Sicht benachrichtigt werden, welche die Änderung veranlasst hat. Durch die Verwendung des Model-View-Controller Ansatzes ändert sich für den Anwender bei der Benutzung seiner Software nichts. Durch die Anbindung über den Controler an das Model hat er jedoch die Gewissheit, dass jeder seiner Schritte auf Konsistenz mit den Arbeiten anderer Konstrukteure geprüft wird. Probleme können so bereits in frühen Phasen der Produktentwicklung entdeckt und behoben werden. Dadurch lassen sich zeitintensive Korrekturschleifen vermeiden, die notwendig werden, wenn Probleme erst in späteren Phasen erkannt werden. Objektorientiertes Produktdatenmodell Für die softwareseitige Umsetzung von Konstruktionsobjekten, die gemäß dem beschriebenen Model-View-Controller Ansatz online mit den Applikationen gekoppelt sind, ist ein spezielles Datenmodell erforderlich. Jede Applikation benutzt ein eigenes internes Modell für die Repräsentation der von ihr verwendeten Daten. Durch dieses Datenmodell wird neben der Qualität die Leistungsfähigkeit der Applikation in hohem Maße beeinflusst. Um sich vor Nachahmern zu schützen, halten Hersteller den Aufbau des internen Datenmodells geheim. Möchte man verschiedene Applikationen vernetzen, bedeutet dies, sich entweder auf einen bestimmten Softwarehersteller als Komplettanbieter festzulegen, oder verlustbehaftete Konvertierungen über ein Austauschformat wie STEP vorzunehmen. Moderne Applikationen besitzen eine Programmierschnittstelle (Application Programming Interface - API), durch die ein gekapselter Zugriff auf das interne Modell möglich ist. Das hier vorgestellte Datenmodell verwendet die APIs der Applikationen, um die durchgeführten Änderungen auf das Datenmodell des PDM-Systems abzubilden. In Abbildung 4.18 ist der Aufbau dieses Datenmodells dem Aufbau einer herkömmlichen Applikation gegenübergestellt. Die Applikationen bleiben zwar in ihrer ursprünglichen Form erhalten, das applikationsinterne Datenmodell wird jedoch durch einen Gegenpart im PDM-System ergänzt. Dieses PDM-interne Datenmodell übernimmt die Funktion des Models und des Controllers. Die Grundlage des PDM-internen Modells bilden Attribute, welche den Basisdatentypen (Ganzzahl, Fließkommazahl, Zeichen etc.) entsprechen. Allerdings bieten die Attribute im Gegensatz zu herkömmlichen Basisdatentypen zusätzliche Funktionen: Sie speichern nicht alleine den aktuellen Wert ab; zusätzlich lässt sich ein Gültigkeitsbereich definieren, innerhalb dessen der aktuelle Wert verändert werden darf. Durch diesen Wertebereich können Daten modelliert werden, deren exakter Wert in frühen Phasen des Entwicklungsprozesses noch nicht bekannt ist. Anforderungen werden zunächst sehr ungenau beschrieben (z.B. Drehmoment größer 5Nm), um dann im Verlauf der Detaillierung konkretisiert zu werden (z.B. Drehmoment größer 6Nm und kleiner 9Nm). Je genauer die Anforderungen spezifiziert werden, desto kleiner wird der Gültigkeitsbereich, bis schließlich der genaue Wert feststeht (z.B. Drehmoment gleich 7Nm).
140
4 Integrierte Produktdefinition und Technologieplanung
User Frontend
Konventionelle Applikation
Datenmodell
„Integrierte“ Applikation
Methoden
Constraints
Konverter STEP-AP 203 STEP-AP 214
Attribute
...
Daten strukturen
Agentensystem Betriebsmittel
Hardware + Betriebssystem Abb. 4.18. Aufbau des Datenmodells
Der Aufwand, unterschiedliche Datenmodelle miteinander zu verknüpfen steigt mit der Zahl dieser Datenmodelle an. Daher gibt es auf der Ebene der Strukturen eine einheitliche STEP-Zwischenschicht; in dieser Zwischenschicht werden zentral alle Daten eines Konstruktionsobjektes gehalten. Zusammen mit den Basisdatentypen bildet sie das Modell. Um die Daten im Controler mit möglichst geringem Aufwand an die applikationsinternen Datenmodelle anpassen zu können, wurde für die Zwischenschicht das Format STEP gewählt. Durch die Konverter-Schicht ist die Zwischenschicht mit den Applikationen verknüpft. Zusammen mit den Constraints bildet diese Schicht den Controller. Der Konverter übernimmt dabei die Aufgabe, für jede Applikation die entsprechende Sicht auf das Datenmodell bereitzustellen. Daten anderer Applikationsklassen werden durch den Konverter ausgeblendet. Damit die Applikation die bereitgestellten Daten interpretieren und bearbeiten kann, findet im Konverter zudem eine bidirektionale Konvertierung zwischen dem STEP-Format der Zwischenschicht und den nativen Datenformat der Applikation statt. Modifiziert nun eine Applikation ein Bauteil, wird diese Änderung nicht nur im internen Datenmodell der Applikation vollzogen, sondern auch in der STEPZwischenschicht des PDM-Systems. Umgekehrt wird das interne Datenmodell der Applikation dem Modell des PDM-Systems angepasst, wenn eine andere Applikation eine Änderung ausführt. Neben der Darstellung der Produktgestalt ist die Speicherung von Änderungsmöglichkeiten eine wichtige Aufgabe eines Produktdatenmodells. Besonders beim Aufbau komplexer CAD-Volumenmodelle werden viele Abhängigkeiten wie z.B. Parametriken erzeugt. Sie gehen bislang jedoch beim Export der Daten verloren, da sie in den Definitionen herkömmlicher Austauschformate nicht berücksichtigt
4.4 Bereichsübergreifende Produktdefinition
141
werden. Um dies zu verhindern, sind im Bereich des Controllers die bereits erwähnten Constraints implementiert. Diese haben die Aufgabe, Abhängigkeiten der einzelnen Parameter zu modellieren und deren Einhaltung sicherzustellen; es gibt statisch relationale, statisch funktionale und dynamische Constraints (Weck 2003). x Statisch relationale Constraints modellieren und überwachen eine mathematische Relation zwischen zwei Attributen des Datenmodells. Beispielsweise muss der Durchmesser der Eingangswelle dw eines Getriebes stets kleiner sein als der Durchmesser dg der zugehörigen Gehäusebohrung. Die entsprechende Relation dw dg wird dazu als Constraint dem Datenmodell hinzugefügt. x Mathematische Funktionen werden durch statisch funktionale Constraints dargestellt. Besteht zwischen zwei Parametern p1 und p 2 eine funktionale Beziehung f , wird durch einen statisch relationalen Constraint nach jeder Änderung des Wertes von p1 dafür gesorgt, dass p 2 f ( p1) gesetzt wird. Wäre in obigem Beispiel ein Spalt der Breite s zwischen Welle und Gehäuse erforderlich, so könnte ein statisch funktionaler Constraint den Durchmesser der Gehäusebohrung stets auf dg dw 2 * s setzen. x Dynamische Constraints dienen der Modellierung des Produktverhaltens. Herkömmliche Simulationswerkzeuge stellen stets einen Teilaspekt des Produktes dar, über die übrigen Aspekte des Produktes müssen vereinfachte Annahmen gemacht werden. Daher stimmen die Randbedingungen einer Simulation in der Regel nicht mit der Realität überein. Dies hat zur Folge, dass die Ergebnisse der Simulation ebenfalls nicht der Realität entsprechen. Die Interpretation von Simulationsergebnissen auf Basis dieser Abweichungen erfordert ein großes Erfahrungswissen, das oft nicht vorhanden ist. Mithilfe von dynamischen Constraints ist es nun möglich, das Verhalten eines Produktes in seiner Gesamtheit darzustellen. Sie basieren auf dem Ansatz der objektorientierten Simulation, wie er erstmals von Elmquist (1978) geschildert worden ist und der auf der Basis von Simulationsobjekten eine fachübergreifende Simulation technischer Systeme ermöglicht: Dynamische Constraints bilden Attribute des Datenmodells als Funktion über der Zeit aufeinander ab. Hierzu werden die Basiselemente der Regelungstechnik (Proportionalglied, Integralglied, Differentialglied, Verzögerungsglied etc.) verwendet. Diese Elemente können beliebig miteinander verknüpft werden, sodass auch komplexe hierarchische Strukturen dargestellt werden können. Um das Verhalten eines Produktes vollständig beschreiben zu können, wird neben dem Übertragungsverhalten auch eine Modellierung der Anregung benötigt. Hierfür werden vom System verschiedene Signalgeber (Konstante, Schrittfunktion, Einzelimpuls, Impulsfolge, Rampe, Rauschen, Sinus) bereitgestellt.
142
4 Integrierte Produktdefinition und Technologieplanung
Agentenbasierter Systemansatz Herkömmliche Client-Server-basierte Strukturen, wie sie in kommerziellen PDMSystemen verwendet werden, stoßen bei Verwendung des hier vorgestellten Systemansatzes mit online-Kopplung von Benutzerapplikation und globalem Datenmodell schnell an ihre Grenzen. Eine online-Kopplung der Applikationen ermöglicht zwar ein durchgängig konsistentes Datenmodell mit nur einer einzigen in Bearbeitung befindlichen Version, allerdings muss jede Änderung des lokalen Datenmodells synchron im globalen Datenmodell vollzogen werden. Das würde zum einen zu einer hohen Rechenlast des PDM-Servers führen und zum anderen die Netzwerkverbindung zwischen Client und Server stark beanspruchen. Diese Probleme können durch einen verteilten agentenbasierten Systemansatz gelöst werden. Die hierzu implementierte Basistechnologie soll zunächst beschrieben werden, um dann zu zeigen, wie mithilfe von Agenten Engpässe bei Rechenleistung und Netzwerkkapazität umgangen werden können. Nach Green et al. (2001) versteht man unter einem Agenten „eine autonome Softwareeinheit, die über Sensoren ihre Umwelt wahrnimmt und sie über Aktoren beeinflusst. Der einzelne Agent kann als ein auf eine Aufgabe hochspezialisierter Problemlöser betrachtet werden. Gemeinsam mit weiteren Agenten (Problemlösern) kann er ein Multiagentensystem bilden, das in seiner Gesamtheit die Fähigkeiten des einzelnen Agenten weit übersteigt.“ Abbildung 4.19 zeigt den Aufbau eines Softwareagenten, wie er in dem hier beschriebenen Ansatz verwendet wird. Demnach besteht ein Agent aus den folgenden Modulen: x Einem Wissensmodul: In diesem Modul verwaltet der Agent sein Wissen. Hierzu zählt das in Form des in vorigen Abschnitt beschriebenen objektorientierten Datenmodells gespeicherte Produktwissen. Außerdem kann ein Agent Erfahrungswissen, welches er durch Kommunikation mit seiner Umwelt erlangt, in diesem Modul sammeln. Damit auch große Datenmenge effizient verwaltet werden können, lagert das KnowledgeModule nicht benötigte Daten auf die Festplatte aus und liest sie bei Bedarf wieder ein. x Einem Planungsmodul: Das Planungsmodul stellt die zentrale Steuerung eines Agenten dar. Es erhält eingehende Nachrichten vom Kommunikationsmodul, interpretiert diese und koordiniert Reaktionen auf die Nachricht. Alle Aktionen des Planungsmoduls werden vor der Ausführung vom Sicherheitsmodul überprüft. x Einem Scheduler: Der Scheduler besitzt keine eigene Planungsfunktion. Seine Aufgabe ist es, Aktionen des Planungsmoduls zu initiieren. Diese Aktionen können sowohl einmalig oder periodisch wiederkehrend an Zeitpunkte, als auch an das Eintreten bestimmter Ereignisse gebunden sein. x Einem Kommunikationsmodul: Dieses Modul verwaltet die Kommunikation zwischen den Agenten. Mithilfe des Kommunikationsmoduls können Nachrichten an andere Agenten versendet und von ihnen empfangen werden. Es speichert empfangene Nachrichten solange, bis sie vom Planungsmodul zur Interpretation abgerufen werden. Vom Planungsmodul initiiert, können über
4.4 Bereichsübergreifende Produktdefinition
143
das Kommunikationsmodul auch automatisch Nachrichten weitergeleitet oder Kopien versandt werden. Das Format der Nachrichten wurde der Spezifikation KQML (Knowledge Query and Manipulation Language; Finin 1994) nachgebildet. x Einem Sicherheitsmodul: Durch das Sicherheitsmodul werden alle Nachrichten und Aufrufe an den Agenten überwacht. Es kann definiert werden, wer auf welche Informationen des Agenten Zugriff hat. x Einem Mobilitätsmodul: Das Mobilitätsmodul ist für den physikalischen Transfer des Agenten zwischen verschiedenen Rechnern zuständig. Ein Agent kann während seiner Laufzeit den Rechner wechseln; kommunizieren andere Agenten während des Transfervorgangs mit dem wandernden Agenten, wird die Kommunikation zwischengespeichert und nach Beendigung des Transfers bearbeitet. Die Identifizierung von Agenten ist unabhängig vom ausführenden Rechner, sowohl Aufenthaltsort als auch Wanderungsvorgänge sind somit für andere Agenten transparent.
Sensoren
Aktoren
Sicherheitsmodul
Kommunikations -modul Scheduler
Wissensmodul
Planungsmodul
Abb. 4.19. Aufbau eines Softwareagenten
Die CORBA-basierte Sensor-Aktor-Schnittstelle definiert Mechanismen für einen direkten Zugriff auf die Daten des Agenten. Gegenüber dem Kommunikationsmodul hat diese Schnittstelle einen Performancevorteil, da der Aufwand für die Interpretation von Nachrichten wegfällt. Mittels eines Aktors
144
4 Integrierte Produktdefinition und Technologieplanung
können Daten verändert werden, ein Sensor dient der Überwachung. Neben einer Benachrichtigung, wenn Daten verändert wurden, bieten Sensoren die Möglichkeit, vor der Ausführung einer Änderung ein Veto einzulegen und die Änderung so zu verhindern. Aktoren und Sensoren müssen beim Planungsmodul angefordert werden, dieses entscheidet, welche Rechte sie bekommen. Diese Rechte sind abhängig vom anfordernden Agenten und dem Rechner, auf dem sich der Agent aufhält. Dadurch können dem gleichen Agenten in Abhängigkeit des Standortes Aktoren und Sensoren mit unterschiedlichen Rechten zugewiesen werden. Aktoren und Sensoren werden zur Implementierung von statischen Constraints sowie der Konverterschicht des Datenmodells zur Anbindung von Applikationen (s. Abb. 4.18) verwendet. Als Schnittstelle zwischen Agenten und lokalem Rechner gibt es auf jedem Rechner des Systems eine Agentenplattform. Sie ist an die vorhandene Hard- und Software des Rechners, auf dem sie läuft, angepasst. Eine ihrer Aufgaben ist die Abwicklung der Agentenkommunikation: Sie nimmt die Nachrichten eines Agenten entgegen und leitet diese an die Zielplattform(en) auf anderen Rechnern weiter, wo sie den Empfängern übergeben wird. Eine weitere Aufgabe der Agentenplattform ist die Bereitstellung von Basisfunktionalitäten zum Abspeichern von Informationen auf der lokalen Festplatte und zum Wechsel von Agenten auf eine andere Plattform. Abbildung 4.20 gibt einen Überblick über den Aufbau dieses Agentensystems.
Computer
CORBA-Brü CORBA-Brücke
Datenmodel
Plattform Java VM
Betriebssystem
Benutzerapplikationen
Agenten
Java - Applikationen
Abb. 4.20. Aufbau des Agentensystems
Der Schlüssel zur Reduzierung der eingangs erwähnten Probleme aufgrund hoher Rechenlast und starker Beanspruchung der Netzwerkverbindung zwischen Client und Server ist die Mobilität der Agenten. Diese Eigenschaft ermöglicht es
4.4 Bereichsübergreifende Produktdefinition
145
dem Agenten, seine Position im Netzwerk so zu wählen, dass er hauptsächlich lokale Anfragen erhält, d.h. Anfragen von dem Rechner, auf dem er sich befindet. Dazu überwacht das Mobilitätsmodul die Kommunikation des Agenten. Stellt es fest, dass über einen gewissen Zeitraum die meisten Anfragen von einem entfernten Rechner stammen, der zudem noch genügend Ressourcen bereitstellen kann, beauftragt es das Planungsmodul, auf diesen Rechner zu wechseln. Das Volumen der zwischen Client und Server übertragenen Datenmenge wird dadurch zwar nicht verringert, die benötigte Netzwerkverbindung ist jedoch kürzer, so dass sich die Belastung des Netzwerkes verringert. Die Mobilität der Agenten hat auch positive Auswirkungen auf die Rechenlast des Systems: Die Summe der Rechenlast wird zwar nicht vermindert, allerdings ermöglicht es der dezentrale Systemansatz, die Rechenlast auf Rechner zu verteilen, deren Ressourcen andernfalls nur unzureichend ausgelastet wären. Aufbau eines agentenbasierten PDM-Systems zur bereichsübergreifenden Produktdefinition Das im vorangegangenen Abschnitt beschriebene Basissystem dient als Grundlage zum Aufbau des PDM-Systems Agent-PDM. Die Funktionen dieses Systems werden von Agenten übernommen, welche die oben beschriebenen Strukturen und Funktionalitäten besitzen. Die wichtigste Aufgabe von PDM-Systemem ist die Verwaltung der Produktdaten. Hierzu stellt das Agent-PDM Komponentenagenten zur Verfügung, die Bauteile oder Baugruppen repräsentieren. Bauteile sind die atomaren, d.h. nicht weiter unterteilbaren Bestandteile eines Produktes. Zur Beschreibung eines Bauteils ist im Wissensmodul des entsprechenden Komponentenagenten eine Instanz des oben beschriebenen objektorientierten Datenmodells untergebracht. Baugruppen enthalten Bauteile oder untergeordnete Baugruppen. Diese Beziehungen werden durch eine Verknüpfung der entsprechenden Agenten modelliert. Charakteristisch für Baugruppen ist, dass sie keine unabhängigen Attribute besitzen: Alle Attribute einer Baugruppe werden entweder von ihren untergeordneten Komponenten vererbt oder aus diesen aggregiert. Beispielsweise erbt ein Getriebe die Geometrie des Gehäuses sowie der Ein- und Ausgangswelle. Die Übersetzung des Getriebes ist dagegen abhängig von der Anzahl der Zähne seiner Zahnräder. Für die Konsistenz eines Produktdatenmodells ist es wichtig, dass Abhängigkeiten aggregierter Attribute modelliert und automatisch überprüft werden können. Andernfalls passiert es leicht, dass nach der Änderung eines Basisattributs vergessen wird, den Wert eines davon abhängigen aggregierten Attributs zu aktualisieren. Das Agent-PDM bietet die Möglichkeit, die Abhängigkeiten aggregierter Attribute mittels statisch funktionaler Constraints zu modellieren. Dadurch wird sichergestellt, dass der Wert eines aggregierten Attributes stets aktuell ist. Neben der Verwaltung von Produktmodellen ist es die Aufgabe von PDMSystemen, die Ressourcen zu verwalten und zu koordinieren, die zur Entstehung dieser Modelle beitragen. Hierzu zählen Mitarbeiter, Abteilungen, Projektteams
146
4 Integrierte Produktdefinition und Technologieplanung
und Unternehmen. Das Agent-PDM besitzt spezielle Agenten, um die Ressourcen zu repräsentieren: Benutzeragenten repräsentieren die Mitarbeiter eines Unternehmens, sie wickeln den Login-Vorgang ab und authentifizieren dabei den Benutzer. Weiterhin speichern sie alle nutzerspezifischen Daten, z.B. den Terminplan des Benutzers. Innerhalb des Systems identifizieren sie den Benutzer, um ihm beispielsweise eine speziell für ihn konfigurierte Sicht auf die Produktdaten bereitzustellen oder um die Zugehörigkeiten des Benutzers zu Projektteams und einer Abteilung darzustellen. Team- und Abteilungsagenten, durch die Projetteams und Abteilungen repräsentiert werden, verwalten einen Leiter, einen Stellvertreter und eine beliebige Anzahl von Mitgliedern. Sie können hierarchisch gegliedert werden, sodass sich komplexe Organisationsstrukturen abbilden lassen. Mitglieder von übergeordneten Einheiten haben dabei immer Zugriff auf Informationen der untergeordneten Einheiten. Abteilungsagenten sind statisch, während Teamagenten dynamisch ihre Zusammensetzung variieren können. In Abhängigkeit von vorgegebenen Sollwerten kann der Teamagent den Personalbestand seines Teams regeln: Ist das Team überbesetzt, kann die Arbeit einzelner Mitglieder im Team verringert werden, so dass zunächst freie Zeit im Terminplan des Mitgliedes ausgewiesen wird. Erkennt umgekehrt ein Teamagent zusätzlichen Personalbedarf, macht er sich auf die Suche nach noch nicht vollständig ausgelasteten Mitarbeitern, um sie in sein Team einzubinden. Ein Teamagent ist in seiner Zusammensetzung im Gegensatz zur Abteilung nicht an Firmengrenzen gebunden. Es unterstützt firmenübergreifende Projekte, in die Mitarbeiter fremder Firmen involviert sind. Unternehmensagenten verwalten sämtliche Ressourcen eines Unternehmens. Hierzu gehören insbesondere die Mitarbeiter (Benutzer), die Abteilungen und die Projektteams. Ziel des Ressourceneinsatzes ist im Kontext eines PDM-Systems die Erzeugung von Produktmodellen. Zur Koordination und Verwaltung der hierbei ablaufenden Prozesse werden spezielle prozessbeschreibende Agenten eingesetzt. Der zentrale prozessbeschreibende Agent ist der Projektagent, der mit der Koordination eines Entwicklungsprojektes während der gesamten Laufzeit beauftragt ist. Hierfür verwaltet er einen Projektplan, der vom Projektleiter erstellt und kontrolliert wird, und arbeitet eng mit dem Teamagenten des Projektes zusammen. Aus dem Projektplan kann der Projektagent die Soll-Personenstärken ermitteln. Diese teilt er dem Teamagenten mit, der in Abhängigkeit von den vorgegebenen Sollwerten den Personalbestand seines Teams regeln kann. Ist das Team überbesetzt, kann die Arbeit einzelner Mitglieder im Team verringert werden, sodass zunächst freie Zeit im Terminplan des Mitglieds ausgewiesen wird. Erkennt umgekehrt ein Teamagent zusätzlichen Personalbedarf, macht er sich auf die Suche nach noch nicht vollständig ausgelasteten Mitarbeitern, um sie in sein Team einzubinden. Neben der Berücksichtigung der Personenstärken ist es notwendig, bei der Zusammenstellung eines Teams die Qualifizierung der Mitglieder zu berücksichtigen. Eine Grundlage der Bewertung kann dabei die Beurteilung der Erfüllung vergangener Aufgaben sein. Ansätze hierzu werden den Kapiteln 3.1 und 5.4 beschrieben.
4.4 Bereichsübergreifende Produktdefinition
147
Aufgabenagenten definieren die Tätigkeiten, die Teammitglieder für die Erstellung der Produktdefinition ausführen müssen. Initiiert werden die Aufgeben aus einem Projektteam heraus und können wie in Kapitel 3.2 beschrieben hierarchisch gegliedert und delegiert werden. Einsatz von Agent-PDM zur Realisierung von Sichten Um die eingangs erwähnten Probleme, die bei bereichsübergreifender Produktdefinition auftreten, zu lösen, realisiert das Agent-PDM verschiedene bereichsspezifische Sichten auf die Gesamtheit der Produktdaten. Durch sein objektorientiertes Produktdatenmodell vereint jeder Agent eines Bauteils die Daten der verschiedenen Fachbereiche in sich. Das Datenmodell des Agenten stellt jedoch jedem Fachbereich nur die für ihn relevanten Daten in einem applikationsspezifischen Format zur Verfügung und filtert Daten fremder Fachbereiche aus. Dadurch wird eine fachbereichs- und applikationsspezifische Sicht auf die Produktdaten definiert. Für den Fachbereich der CAD-Konstruktion beispielsweise gelangen ausschließlich Geometriedaten durch den Konverter. Existieren darüber hinaus innerhalb der Konstruktion CAD-Applikationen mehrerer Hersteller (mit verschiedenen Datenformaten), stellt ein spezifischer Konverter für jede dieser Applikationen eine spezielle Sicht auf die CAD-Daten bereit. Gleichzeitig existieren Konverter für andere Fachbereiche, z.B. für Elektrokonstruktion oder Hydraulik- und Pneumatikkonstruktion, welche die CAD-Daten herausfiltern und wiederum jeweils eine fachspezifische Sicht auf die Produktdaten erzeugen. Das Datenmodell bleibt dabei fachübergreifend konsistent, weil der sonst bei PDM-Systemen übliche Check-out/ Check-in Vorgang entfällt und die Applikationen online mit dem Datenmodell des PDM-Systems gekoppelt sind. Änderungen an Daten in einer Sicht werden dadurch direkt an andere Sichten, in denen diese Daten ebenfalls erscheinen, weitergegeben. Außerdem lässt sich die Einhaltung von Konsistenzbedingungen, die mit Constraints modelliert werden können, online überprüfen und durch Zurückweisen der Änderung (relationale statische Constraints) oder Anpassung anderer Daten (funktionale statische Constraints) sicherstellen. Es ist nicht ausreichend, lediglich Sichten auf die Produktdaten zur Verfügung zu stellen; jeder Fachbereich besitzt darüber hinaus eine eigene Sicht auf die Produktstruktur. Diese Struktursichten sind voneinander abhängig, da sie die oben vorgestellten fachbereichsspezifischen Datensichten auf gemeinsame Bauteile und Baugruppen beinhalten. Durch die objektorientierte Datenverwaltung in AgentPDM werden alle zu einer Komponente gehörigen Daten zentral in einem Komponentenagenten gespeichert. Dies vereinfacht die konsistente Verwaltung der verschiedenen Struktursichten. Wie im letzten Abschnitt erwähnt, modelliert das Agent-PDM Aggregationsbeziehungen innerhalb einer Produktstruktur durch Verknüpfungen zwischen verschiedenen Komponentenagenten. Um fachbereichsspezifische Sichten darstellen zu können, ist jeder dieser Verknüpfungen ein Fachbereich zugeordnet. Dadurch entsteht ein Produktstrukturnetz (Abb. 4.21).
148
4 Integrierte Produktdefinition und Technologieplanung
Sicht eines Fachbereichs
Fachbereiche
Bauteilagent Baugruppenagent
Abb. 4.21. Produktstrukturnetz
Jeder Fachbereich besitzt eine eigene Menge von Verknüpfungen, durch welche eine spezifische Sicht auf die Produktstruktur modelliert wird. Fachbereichsspezifische Sichten auf die Produktstruktur variieren nicht nur in der Breite, sondern auch in der Tiefe. Das bedeutet, dass von einem gegebenen bereichsspezifischen Strukturbaum nur ein Ausschnitt angezeigt werden kann. Abbildung 4.22 zeigt in vereinfachter Form die Struktur des Triebstrangs einer Windkraftanlage, in deren Entwicklung neben dem Anlagenhersteller ein Getriebehersteller als Zulieferer involviert ist.
4.4 Bereichsübergreifende Produktdefinition
149
Sicht des Anlagenherstellers Triebstrang
Getriebe
Generator
Übersetzungsverhältnis = f (z1 , ...) Masse = m1 + m2 + m3 + ...
Welle
Zahnrad
Lager
Masse = m1
Zähnezahl = z1
Masse = m1
Masse = m2
Sicht des Getriebeherstellers Abb. 4.22. Sichten auf die Produktstruktur
Beide haben eine unterschiedliche Sicht auf die Struktur des Triebsstrang:. Die Sicht des Getriebeherstellers endet an den Getriebegrenzen. Dadurch bleibt ihm der Rest der Struktur verborgen, obwohl das Getriebe durch eine Verknüpfung als Teil des Triebstranges ausgewiesen wird. Auf diese Verknüpfung hat allerdings nur der Anlagenhersteller Zugriff. Da die Anforderungen des Anlagenherstellers an das Getriebe in Form von Constraints spezifiziert werden können, ist ein Zugriff des Getriebeherstellers auf die Spezifikation der Anlage nicht notwendig. Ein solcher Zugriff widerspricht zudem dem Geheimhaltungsbedürfnis des Anlagenherstellers. Daher würde das Sicherheitsmodul des Triebstrangagenten einen Zugriff von Seiten des Getriebeherstellers zurückweisen. Umgekehrt endet die Sicht des Anlagenherstellers am Getriebeagenten. Die Interna des Getriebes bleiben dem Anlagenhersteller also verborgen. Dies ist im Interesse des Getriebeherstellers, der die Interna seines Getriebes und damit sein Know-How vor Zugriff von außen schützen will. Allerdings benötigt der Anlagenhersteller Informationen, um das Modell des Getriebes in sein Anlagenmodell integrieren zu können. Hierfür stellt der Getriebeagent eine Schnittstellenbeschreibung in Form aggregierter Attribute, die mithilfe der Constraints aus den Basisattributen gebildet werden, zur Verfügung.
150
4 Integrierte Produktdefinition und Technologieplanung
Literatur Abramovici M, Gerhard D, Langenberg L (1998) Unterstützung verteilter Entwicklungsprozesse durch EDM/PDM. In: VDI-Berichte Nr. 1435: 69–86 Drisis L (1995) Rationalisierung der Rechnergestützten Konstruktion durch software-ergonomische Interaktionsgestaltung. Dissertation, Universität Bochum Eigner M, Stelzer R (2001) Produktdatenmanagement-Systeme. Springer, Berlin Heidelberg New York Elmquist H (19978) A structured Model Language for Large Continous Systems. Dissertation, Lund Institute of Technology Eversheim E, Bochtler W, Laufenberg L (1995) Simultaneous Engineering. Springer, Berlin Heidelberg New York Finin T, Labrou Y (1994) KQML as an Agent Communication Language. In: Proceedings of the Third International Conference on Information and Knowledge Management. ACM Press, New York, pp 456–463 Green S, Hurst L, Nangle B, Cunningham P, Somers F, Evans R (2001) Software Agents: A Review. http://www.css.tcd.ie/research_groups/aig/iag/toplevel2.html Grabowski H, Anderl R (1990) Produktdatenaustausch und CAD-Normteile. Expert Verlag, Renningen Mushik R (1998) Bericht: 2. Vergleich der neutralen Schnittstellen STEP und VDAFS. ProSTEP Produktionsdatentechnologie GmbH, Technical Report N.N. (1998) PDM-Enablers – Joint Proposal. http://www.omg.org/docs/mfg/98-02-02.pdf. Stand Februar 1998 Weck M, Klement R (2003) Softwareagenten realisieren den Informationsaustausch zwischen heterogenen Produktdatenmodellen. In: VDI-Berichte Nr. 633: 139–157
4.5 Parametrische Konstruktion
151
4.5 Parametrische Konstruktion Die parametrische Konstruktion stellt eine hilfreiche Form der Produktmodellierung dar. Grundlage ist die Darstellung der Produktgeometrie in Abhängigkeit einerseits von frei wählbaren und andererseits von abhängigen Parametern. Die geometrischen Parameter, z.B. der Wellendurchmesser, können sowohl von funktionalen Parametern, z.B. dem Drehmoment, als auch von anderen geometrischen Parametern abhängen. Die Parametrik unterstützt den Aufbau von Baukästen, da die existierenden Geometriemodelle abhängig von den Parametern zügig geändert werden können. Dadurch kann die Anzahl der benötigten CAD-Modelle reduziert werden. Um die Potenziale der parametrischen Konstruktion hinsichtlich der Baukastenentwicklung vollständig nutzen zu können und um die Definition der Baukästen sowie die Modellentwicklung nachvollziehbar zu gestalen, müssen die meist firmenspezifischen Richtlinien eingehalten werden (Schenke 2001). Zudem ist ein „Robust-Design“ erforderlich, in dem verschiedene Varianten eines Produktes ohne topologische Fehler flexibel erstellt werden, während gleichzeitig die Produktanforderungen erfüllt sind. Um nachträgliche Änderungen des CAD-Modells und der Parametrik zu vermeiden, müssen Anforderungen und Restriktionen in der Konstruktion sowie den späteren Phasen des Produktlebenszyklus (Nutzung, Entsorgung) frühzeitig aus der Produktdefinition erkannt, analysiert und in die Entwicklung einbezogen werden. Diese Daten dienen als Eingangsinformationen für ein Restriktionsmanagement, das den Konstrukteur inhaltlich bei Aufbau und Bewertung der CAD-Modelle unterstützt. Daneben sollte eine übersichtliche Verwaltung der Abhängigkeiten zwischen Parametern sowie der Beschränkungen der Parameterwerte unterstützt werden, um das Produktmodell bei Anforderungsänderungen adäquat aktualisieren zu können. Zudem sollte die Erkennung möglicher Grenzen der Modelltopologie durch implizit in CAD-Modellen bestehende Einschränkungen unterstützt werden. Daher wurde eine neue ganzheitliche parametrische Konstruktionsmethodik entwickelt, die das Anforderungs- und Restriktionsmanagement, die Abbildung von Parameterabhängigkeiten und die Visualisierung der Änderungseinflüsse unterstützt. 4.5.1 Methoden zur parametrischen Konstruktion und Restriktionsmanagement Anforderungsmanagement Um veränderlichen Marktwünschen und Entwicklungsumgebungen zu begegnen, muss das Produktmodell adäquat aus Produktanforderungen abgeleitet werden, die als technische Produktmerkmale interpretiert werden sollen. Dafür werden Methoden zur Kopplung von Produktanforderungen (Marktanforderungen, Norm, Anforderungen an die Produktqualität) und notwendigen Produktfunktionen eingesetzt
152
4 Integrierte Produktdefinition und Technologieplanung
(Hundal u. Byrne 1989, S. 239; Feng et al. 2001, S. 428). Im Bereich des Anforderungsmanagements sind insbesondere Methoden aus der Softwareentwicklung am weitesten entwickelt (Leffingwell u. Widrig 2000, S. 17; Rupp 2001; Schienmann 2002); die durchgängige Verfolgbarkeit von Anforderungen über Features bis hin zur Verifikation anhand von Test-Szenarien steht hier besonders im Vordergrund. Um die Ableitung der Produktgeometrie von den Produktfunktionen zu unterstützen, wurde die Prinzipmodellierungsmethode eingesetzt (Brix et al. 2002, S. 45 ff.). Diese Methode bildet eine Grundlage für den Entwurf einer groben Produktgestalt. Die mechanischen Funktionseinheiten (wie z.B. Kugelgewindespindel) können mittels entsprechender Symbole definiert werden, in denen relevante Parameter und Constraints hinterlegt werden. In heute verfügbaren CAD-Systemen können benutzerdefinierte nicht-geometrische Parameter definiert und Produktanforderungen zugeordnet werden. Indem die Produktanforderungen den relevanten Produktmodulen (Funktionseinheiten) zugeordnet werden, können alle zuständigen Konstrukteure innerhalb des abgestimmten Konstruktionsraumes und der an die Aufgabe gestellten Anforderungen für eine parallele Konstruktionsaufgabe zusammenarbeiten (SFB 361 2001, S. 500). Die bekanntesten Methoden zur Berücksichtigung von Restriktionen bei der Produktgestaltung sind Design for Assembly (DfA) und Design for Manufacturing (DfM) nach Boothroydt (Boothroyd et al. 2002). Neben DfM und DfA existieren verschiedene Gestaltungsrichtlinien zum restriktionsgerechten Konstruieren (Pahl u. Beitz 1997, S. 153 ff.). Außer den Richtlinien zum fertigungsgerechten und montagegerechten Konstruieren ergeben sich Restriktionen aus Handhabung, Logistik, Entsorgung, Normen etc. Anwendung von Fuzzy-Technologie in der Konstruktion Insbesondere in der frühen Phase der Produktentwicklung bestehen viele Unsicherheiten hinsichtlich der Spezifikation einer Vielzahl unterschiedlicher Produktdaten. Mithilfe der Fuzzy-Technologie können die Merkmale des Produkts und seine Anforderungen durch eine linguistische Beschreibung (z.B. hoch, mittel, gering) repräsentiert werden. Dabei wird einem Parameterwertebereich eine Klassifizierung der Sachmerkmale mit einer Wahrscheinlichkeitsgröße (0 bis 1) zugeordnet. Um den Erfüllungsgrad der Produktanforderungen zu bewerten, wird die Beziehung zwischen den Anforderungspunkten und den Ist-Größen des Produktes tabellenbasiert dargestellt (Franke u. Kickermann 1994, S. 540). Eine andere Möglichkeit der Anforderungsbewertung ist die Definition einer minimalen Erfüllungsgrenze, die von Wahrscheinlichkeiten abgeleitet wird (Eversheim u. Schröder 1999). Auch eine Fuzzy-Beschreibung der Anforderung in einer Beschreibung der Produktfunktion ist möglich (Feng et al. 2001, S. 427 ff.). Hieraus ergibt sich eine Prioritätenverteilung der linguistischen Fuzzy-Beschreibungen, die der Produktfunktion zugeordnet sind (z.B. kann die Genauigkeit eines Vorschubantriebs in
4.5 Parametrische Konstruktion
153
den vier linguistischen Stufen „sehr hoch“, „hoch“, „mittelmäßig“ und „niedrig“ angegeben werden). Die Fuzzy-Technologie wird auch bei der Berechnung und Optimierung eines Produktmodells verwendet, um in der Analyse den Zufälligkeiten zu begegnen („Wahrscheinlichkeitstheoretische Konstruktion“, Vlahinos 2003, S. 28 f.; LMS 2004). Dabei wird der Parameterbereich, der mithilfe der Fuzzy-Technologie beschrieben wird, durch einen Schnittwert und eine Standardabweichung dargestellt, so dass das Berechnungsergebnis und seine Auftretenswahrscheinlichkeit dargestellt werden können. Anwendung von Konstruktionswissen im Produktmodell Für die Qualität des Produktmodells ist entscheidend, auf welche Art und Weise Konstruktionswissen angewendet und konkret umgesetzt wird. In den heutigen CAD-Systemen sind neben linearen Gleichungen bereits logische Repräsentationen (If-Then-Beschreibungen), Variationen bzw. Teilefamilien (meistens in Form von Tabellen) und Ungleichungen für eine Gültigkeitsprüfung vorhanden. In einigen Systemen können auch einfache Polynome gelöst werden (Franke u. Johannsen 2002; EDS 2004). Darüber hinaus können zum Teil Modell-Features innerhalb oder zwischen Bauteilen kopiert werden. In einem geschlossenen Feature kann der Konstrukteur dabei sein Konstruktionswissen einbringen, z.B. durch die Parameterabhängigkeiten, die auch an anderen Einsatzstellen gültig sind. Beim Kopieren der Features werden die entsprechenden Referenzen wieder mit der aktuellen Modellgeometrie verknüpft. Eine Strebe beispielsweise, die nicht mit festen Dimensionen konstruiert ist, sondern von einer Fläche bis zu einer anderen Fläche reichen soll, kann leicht in einem neuen Kontext verwendet werden, indem ihr „mitgeteilt“ wird, dass jetzt zwei andere Flächen ihre Längenbegrenzung darstellen (Hochgeladen 2002, S. 17). Um Design-Absichten (design intents) in die Konstruktion einzubinden, werden weitere mögliche Abhängigkeitsarten berücksichtigt, z.B. die Priorität der Parameterabhängigkeiten, die Semantik der Features oder die topologische Gültigkeit in einer 2D-Konstruktion. Bei Brix et al. (Brix et al. 2002, S. 49) wird die Definition der Priorität von Abhängigkeiten bei der Lösung des überbestimmten Constraint-Systems angewendet. Das überbestimmte Constraint-System hat mehrere Lösungen, da die Constraints nicht alle Variablen eindeutig bestimmen. Dabei wird die Abhängigkeit, die die niedrigere Priorität hat, ignoriert, wenn sie einen Konflikt mit anderen Abhängigkeiten erzeugt. Die Design-Absicht wird im jeweiligen Feature betrachtet, wobei die Semantik des Features (z.B. sollen die obere und die untere Fläche einer Bohrung offen bleiben) bei den weiteren Feature-Operation (z.B. Ergänzung, Löschung) geprüft wird (Bidarra u. Bronsvoort 2000, S. 206 f.). Eine topologische Gültigkeit in der 2DKonstruktion wird von Hoffmann und Kim (Hoffmann u. Kim 2001, S. 83 ff.) betrachtet. Dabei wird ein änderbarer Wertebereich der Parameter ermittelt. Allerdings wird die angewandte Vorgehensweise auf die Topologieprüfung einer geschlossenen Ebene beschränkt, in der sich nur horizontale und vertikale Linien und keine Abhängigkeiten zwischen den Parametern befinden dürfen.
154
4 Integrierte Produktdefinition und Technologieplanung
Visualisierung der Konstruktionselemente Bisher wurden verschiedene Visualisierungsmethoden in der Konstruktion eingesetzt, einerseits für die Lösung der geometrischen Constraint-Probleme, andererseits für eine bessere Übersicht über komplexe Produktmodelle. Constraint-Graphen können für die Statusprüfung des Constraint-Netzwerks (überbestimmt, unterbestimmt und wohlbestimmt) verwendet werden; sie leiten eine Kalkulationsabfolge der geometrischen Elemente ab. Allerdings werden in den meisten Diagrammen die Richtung der Herleitung nicht dargestellt und die Abhängigkeiten zwischen benutzerdefinierten Parametern nicht betrachtet. Daher ist dieser Ansatz für eine verbesserte Übersicht über das Abhängigkeitsgeflecht nicht geeignet. Zur Verbesserung der Übersicht über die Konstruktionselemente werden nun zum einen die einzelnen Konstruktionsregeln in Form eines Dialogs (Franke u. Johannsen 2002; Hochgeladen 2002, S. 21) und zum anderen die Ableitungsflüsse bzw. der Konstruktionsablauf visualisiert. Anderl und Mendgen (Anderl u. Mendgen 1998, S. 127 f.) entwickelten ein Assistenzsystem, das für eine Modellstrukturanalyse die Eltern/ Kind-Beziehung zwischen Feature- und Parameterabhängigkeiten visualisiert. Eine umfangreiche Abhängigkeitsanalyse ist jedoch nicht möglich, da nur die Richtung von Eltern zu Kindern verfolgt werden kann; somit kann z.B. nicht geprüft werden, welche Parameter einen bestimmten Parameterwert ursprünglich beeinflussen. Bei anderen Ansätzen zur Visualisierung des Konstruktionsablaufs kann mit dem System YVE (your variant engineer, Tecnoes 2004) ein Änderungsszenario graphisch modelliert werden. Dabei ist eine Definition der Änderungsflüsse für jedes Änderungsszenario notwendig, so dass es nicht möglich ist, mehrere Einflüsse auf einen Parameter gleichzeitig zu analysieren. Die graphische Darstellung des Änderungsszenarios wird auch in einem Modul der Simulationssoftware Optimus von LMS International (LMS 2004) genutzt, das eine Ankopplungskonfiguration mit externen Eingangs- und Ausgangs-Dateien ermöglicht. Dabei kann die Abhängigkeit zwischen den Eingangs- und den Ausgangsparametern dargestellt werden. Allerdings werden die Parameter zwar auf dem Ablaufplan, aber nicht objektorientiert behandelt, weshalb auch identische Parameter unterschiedlich dargestellt werden. Daher ist es nicht möglich, mehrere Einflüsse auf einen Parameter eindeutig darzustellen. 4.5.2 Methode für ein integriertes Anforderungsund Restriktionsmanagement Ausgangspunkt für das Anforderungs- und Restriktionsmanagement sind die Kunden- und Marktanforderungen an ein Produkt. Dabei resultieren die zu beachtenden Restriktionen zum einen aus den Kunden-/ Marktanforderungen und zum anderen aus konstruktions- und produktionstechnischen Bedingungen, denen das entsprechende Produkt unterliegt.
4.5 Parametrische Konstruktion
155
Während der Produktentwicklung werden die Anforderungen in Produktmerkmale und schließlich in Produktkomponenten überführt, wobei die Produktionsprozesse für das jeweilige Bauteil determiniert werden. Die Restriktionen, die einer wirtschaftliche Fertigung und Montage entgegenstehen, müssen produktionsprozessbezogen bei der Gestaltung des Produktes berücksichtigt werden. Aufgrund der häufig gegenläufigen Richtungen von Kundenanforderungen und Restriktionen von Produktionsprozessen sollte das Anforderungs- und Restriktionsmanagement integriert erfolgen, um sowohl die Kundenanforderungen als auch Restriktionen aus der Produktion zurückverfolgen zu können. Die erarbeitete Methode bietet hierbei Unterstützung für die Entwicklung von physischen Produkten, die sich in Module und Baugruppen untergliedern lassen. Als Basisvorrausetzung müssen die Anforderungen und Restriktionen einzeln adressierbar und verifizierbar sein. Einzeln adressierbar bedeutet, dass die Anforderungen als Einzelobjekt vorliegen und nicht in Form eines Sammeldokuments. Von daher scheiden Lastenhefte und Restriktionskataloge zur Verwendung innerhalb des Anforderungs- und Restriktionsmanagements aus. Anforderungen sollten zu ihrem Ursprung zurückverfolgbar sein. Aufgrund der Komplexität durch Anzahl und Dynamik von Anforderungen und Restriktionen sollte die verwendete Methode durch ein IT-System unterstützt werden. Detaillierungsgrad und -umfang von Anforderungen und Restriktionen bestimmen direkt das Aufwand-/ Nutzenverhältnis, das bei der Gestaltung eines Anforderungs- und Restriktionsmanagements berücksichtigt werden muss. Mit zunehmendem Detaillierungsgrad von Anforderungen und Restriktionen steigt der Nutzen in Form von weniger Rückfragen, Iterationsschleifen und Nacharbeit stark an. Mit weiter zunehmendem Detaillierungsniveau nimmt der Nutzen im Verhältnis zur Detaillierung nur degressiv zu: Zum einen wird der Lösungsraum durch zu viele Spezifikationen unnötig eingeschränkt, zum anderen können nicht alle Spezifikationen bei der Entwicklung berücksichtigt werden. Studien haben gezeigt, dass die Anzahl handhabbarer Anforderungen und Restriktionen pro zu entwickelnder Komponente zwischen 25 und 100 liegt (Leffingwell u. Widrig 2000, S. 90), wobei der Aufwand für die Erstellung progressiv mit Anzahl und Umfang der Spezifikationen ansteigt. Ein optimal ausgerichtetes Anforderungs- und Restriktionsmanagement liegt am Punkt der höchsten Differenz zwischen den Funktionen (Abb. 4.23). Die Methode zum Restriktions- und Anforderungsmanagement orientiert sich an einem Vorgehen, das auf dem Zyklus „Planen-Ausführen-Prüfen“ aufbaut. Die Anzahl der Zyklen hängt von der Größe und Komplexität des Produktes ab und sollte unternehmensspezifisch ausgestaltet werden. Prinzipiell sollten die Phasen Aufnahme und Strukturierung der Kundenforderungen, Produktstrukturierung, Restriktionszuordnung, Parameterdefinition und -strukturierung, Gestaltgebung sowie Modul- und Produkttest berücksichtigt werden, um die Qualität der parametrischen Konstruktion sicherzustellen.
156
Nutzen/ Aufwand
4 Integrierte Produktdefinition und Technologieplanung
I
II
III
II
„Optimaler Spezifikator“ -Bestes Aufwand-/NutzenVerhältnis
III
„Überspezifikator“ - Eingeengter Lösungsraum - Nicht berücksichtigte Spezifikationen/Restriktionen
Nutzen Aufwand
„Unterspezifikator“: - Viel nachträglicher Klärungsbedarf - Nacharbeit
I
Anzahl und Umfang der Restriktionen und Anforderungen
Abb. 4.23. Umfang und Detaillierung des Anforderungs- und Restriktionsmanagements
Anforderungsaufnahme und -strukturierung Anforderungsaufnahme und -strukturierung stellen die erste Phase des Anforderungsmanagements dar. Ergebnis dieser Phase ist eine geordnete Liste mit Kundenanforderungen und deren Gewichtung. Zunächst werden die Struktur der Anforderungen sowie die Erhebungsmethoden festgelegt. Dabei kann die Erstellung der Anforderungsliste abhängig vom Innovationsgrad des Produktes auf zwei verschiedene Arten erfolgen: Für komplett neue Produkte müssen die Anforderungen vollständig durch Marketing oder Vertrieb erfasst und bewertet sowie wertungsfrei formuliert werden. Die Gewichtung und Bewertung der Anforderungen ist gesondert durchzuführen (Ulrich u. Eppinger 2000, S. 60 ff.). Bei Entwicklungen auf Basis vorhandener Produkte können u.U. die Anforderungen und Spezifikationen eines ähnlichen Produktes oder einer Produktkomponente weiterentwickelt werden. Die Suche nach einem entsprechenden Referenzprodukt erfolgt auf Basis der Eingangsinformationen (Kundenanforderungen oder Systemanforderungen für Produktkomponenten). Neben der Übernahme der Struktur können im Einzelfall auch Einzelanforderungen aus anderen Lastenheften übernommen werden. Um die Wiederverwendung einzelner Anforderungen zu ermöglichen, müssen die Anforderungen als einzeln referenzierbare Objekte in den Spezifikationsdokumenten vorliegen (Schuh et al. 2003). Im Abschnitt „Prüfen“ werden die Anforderungen auf ihre Vollständigkeit und Widerspruchsfreiheit hin analysiert. Produktstrukturierung Auf Basis der Kundenforderungen wird eine erste Produktstruktur aufgebaut. Diese dient im Rahmen des Anforderungs- und Restriktionsmanagements der Planung von Entwicklungsumfängen und als erste Sammlung der Anforderungen. Eine vollständige Beschreibung der Produktstrukturierung ist in der Literatur zu finden (Rapp 1999; Schuh u. Schwenk 2001, S. 73 ff.; Riepe 2003, S. 26). Die Eingangsinformationen werden in Produktspezifikationen überführt. Diese Spezifikationen bestehen aus einem beschreibenden Text, zugehörigen Messgrößen und Zielwerten für die Messgrößen und stellen die Übersetzung von Anforderungen in technische Merkmale dar. Für jede Anforderung sollte mindestens
4.5 Parametrische Konstruktion
157
eine Spezifikation existieren (Ulrich u. Eppinger 2000, S. 80 ff.). Wesentlich ist an dieser Stelle eine Trennung der Eingangsinformationen in Form von Kunden- und Systemanforderungen und der Spezifikationen. Die Eingangsinformationen werden den Spezifikationen in einer Matrix zugeordnet; vorhandene Spezifikationen liegen als firmenspezifischer, erweiterbarer Katalog vor. Die Parameter der Spezifikationen sind an das entsprechende Produkt anzupassen. Ebenso ist die Gewichtung der Spezifikationen auf Basis der Gewichtung der Eingangsinformationen durchzuführen. Somit werden alle aus Kundensicht wesentlichen Parameter des zu entwickelnden Produktes in dieser Phase festgelegt. Im Prüfabschnitt werden die Spezifikationen und Anforderungen dann abgeglichen. Restriktionszuordnung Die Produktstrukturelemente mit den zugehörigen Spezifikationen stellen die Lastenhefte für die Produktentwicklung dar. Abhängig von verschiedenen Entwicklungsmethodiken können an dieser Stelle auch Funktionen oder Prinziplösungen stehen (VDI 1993). Den Produktstrukturelementen können die Restriktionen auf Basis der Spezifikationen zugeordnet werden. Wesentliche Planungsaufgabe für diese Phase ist eine Vorauswahl möglicher Produktionsverfahren. Die Restriktionen liegen in Form eines strukturierten Restriktionskataloges vor, in dem nach verschiedenen Kriterien gesucht werden kann. Dieser Restriktionskatalog baut auf verschiedenen Katalogen mit Konstruktionsbeispielen auf (Pahl u. Beitz 1997; Koller 1998). Die Restriktionen werden in dem gleichen Format wie die Systemspezifikationen (Text, Größe, Zielwert) abgebildet, zusätzlich ist ihre Gültigkeit angegeben. Die Struktur des generischen Restriktionskatalogs richtet sich nach den Lebenszyklusphasen (Erstellung: z.B. Fertigungsverfahren, Nutzung: z.B. Beanspruchungsarten, Umweltbedingungen). Da Restriktionen teilweise widersprüchlich und teilweise verstärkend sind, müssen die resultierenden Effekte bekannt sein, um die Entscheidung für eine Optimierungsrichtung treffen zu können. Hierfür wurden die Wechselwirkungen im Restriktionskatalog auf einem generischen Level vorinstanziiert (Abb. 4.24). In einem konkreten Anwendungsfall heißt dies, dass bei der Auswahl einer Restriktion die Wechselwirkungen mit anderen Restriktionen und insbesondere mit den Parametern, die die Restriktion beschreiben, bewertet werden müssen. Im Falle der Gültigkeit der Restriktion müssen diese gewichtet werden, um im gleichen Format wie die Spezifikationen vorzuliegen, da nur dann eine integrierte Betrachtung von Anforderungen und Restriktionen möglich ist. Da die Parameter der Restriktionen häufig nicht als konkrete Zahlenwerte, sondern in Form von Gleichungen vorliegen, müssen für die Restriktionsparameter Zahlenwerte oder Bereiche festgelegt werden. Diese können als Fuzzy-Werte im weiteren Konstruktionsverlauf weiterverarbeitet werden. Ein Beispiel hierfür ist die Restriktion aus dem Bereich der Gussfertigung von Bauteilen, bei der ein spezifisches Verhältnis von Wanddicke und Gussradien eingehalten werden muss. Das Ergebnis dieser Phase ist eine integrierte Anforderungs- und Restriktionsliste mit den zugehörigen Parametern, Zielwerten und Gewichtungen, die im Prüfzyklus
158
4 Integrierte Produktdefinition und Technologieplanung
durch ein interdisziplinäres Team von Marketing, Produktentwicklung und Prozessentwicklung bewertet werden kann. Spezifikationen - Gute Dämpfung (Gussteil)
Auswahl über Restriktionsart
Spezifikationen - Gute Dämpfung Restriktionen -Wanddicke Übernahme Restriktion
Restriktionskatalog (generisch) ID
Name
Gültigkeit
1.1
Rauheit
Montage
1.2
Position
Montage
1.n
Gewicht
Montage
…
…
…
1.1
Eckenradien Gussfertigung
Spezifikationen - Gute Dämpfung Restriktionen - Wanddicke - Gewicht
Überprüfung Übernahme Restriktionen Restriktion
Restriktionenmatrix (generisch) 1 2
Restriktionen
1.2
Restriktion 1.1
+
1.n
…
m.2
Restriktion 1.2
+
Restriktion 1.n
-
…. Restriktion m.2 Restriktion m.n
m.2 Wanddicken Gussfertigung
1 2
Restriktion 1.1 hat positiven Einfluss auf Erfüllung von Restriktion1.2 Restriktion 1.2 hat negativen Einfluss auf Erfüllung von Restriktion m.2
Abb. 4.24. Restriktionsselektion und Zuordnung
Parameterdefinition und -strukturierung sowie Gestaltgebung Nachdem die Kunden- und Systemanforderungen als Parameter mit zugehörigen Zielgrößen definiert worden sind, sind die Spezifikationsparameter zueinander und zu internen Parametern in Beziehung zu setzen. Die Modellierung der Parameterabhängigkeiten sowie die Umsetzung in ein Gestaltmodell werden in Abschnitt 4.5.3 behandelt. Modul- und Produkttest Für die Absicherung der gewünschten Produkteigenschaften sind auf Basis der Produktspezifikationen Modul- und Produkttests zu definieren. Rahmenbedingung für die Bewertung der Wichtigkeit der Tests sind die den Restriktionen zugehörigen Eingangsinformationen (Kunden-/ Systemanforderungen). Über die Bewertung der Erfüllung Spezifikationen und Systemtests kann auch der inhaltliche Fortschritt des Projekts überwacht werden.
4.5 Parametrische Konstruktion
159
4.5.3 Methode für das Management der Abhängigkeiten in der parametrischen Konstruktion Abbildung der Abhängigkeiten Abbildung 4.25 zeigt ein Spektrum von Abhängigkeiten, die in der umgesetzten Konstruktionsmethodik berücksichtigt werden. Die Definition von Gleichungsabhängigkeiten, logischen Repräsentationen (IfThen-Beschreibungen bzw. Tabellen), Ungleichungen und Polynomen findet bereits in existierenden Systemen Anwendung und wird auch hier unterstützt. Eine Erweiterung dieser Funktionalität kann dahingehend erfolgen, dass die Definition der Abhängigkeiten unter Berücksichtigung der erfolgsentscheidenden Herleitungsreihenfolge durchgeführt werden kann. Die Wichtigkeit der Parameter muss hierbei vom Konstrukteur definiert werden. Dadurch werden die für die Bestimmung der Produktmerkmale relevanten Parameter früher als die anderen abgeleitet, so dass der spätere Änderungsaufwand reduziert wird. Bei der Konstruktion einer Welle und eines Gelenks soll beispielsweise zuerst die Welle konstruiert werden, die das Moment überträgt. Dabei kann am Anfang der Konstruktion geprüft werden, ob die Produktanforderung erfüllt wird. Dadurch wird die Wiederkonstruktion im Falle einer Änderung der Produktanforderungen weniger aufwändig. Zudem werden nicht-lineare Parameterabhängigkeiten behandelt, mit denen komplexe Produkteigenschaften berechnet werden können. Hierbei ist beispielsweise die Ankopplung an ein Finite-Elemente-Analyse (FEM)- System zu nennen. Dabei kann ein Aktionsauslöser erstellt werden, der nach Änderung eines treibenden Parameters eine neue Berechnung der Produkteigenschaften startet. Zudem ermöglicht die Definition von nicht-linearen komplexen Abhängigkeiten eine dynamische Prüfung, ob die Anforderung an eine Produkteigenschaft erfüllt wird (z.B. ein mittels Fuzzy definierter Anforderungsbereich der Steifigkeit einer Windradegetriebewelle im Vergleich zur simulierten Steifigkeit). Einerseits können, wie bereits erläutert, einige Abhängigkeiten von den Konstrukteuren explizit definiert werden. Andererseits bestehen im 3D-CAD-Modell Restriktionen, welche die Gültigkeit des Produktmodells beeinflussen. Diese implizit im Modellaufbau existierenden Abhängigkeiten ergeben sich daraus, wie geometrische Zwänge im Modellaufbau angewendet werden. Das Unter- oder Überschreiten eines solchen Parameterwertebereichs führt dazu, dass das Produktmodell eine unerwartete Kollision zwischen Einzelteilen bzw. Baugruppen enthält oder dass das Produktmodell wegen eines topologischen Fehlers nicht richtig regeneriert wird. Kollisionserkennungsprogramme stehen zwar heutzutage in CAD-Systemen zur Verfügung, sie registrieren jedoch nur, ob eine Kollision vorliegt oder nicht. Dabei ist eine vorherige Untersuchung des erlaubten Parameterwertebereichs nicht möglich, wodurch eine Vermeidung solcher Kollisionen im Vorfeld fast unmöglich wird.
160
4 Integrierte Produktdefinition und Technologieplanung
Gleichungsrepräsentation
Ungleichungsrepräsentation
explizite Lösung :X = a + b
X D1
D2
D1
mit Fuzzy-Set 45 < D2 < 75
D2
D2a
Abb. 4.26. Abhängigkeitstypen
Im Herleitungstyp wird die Richtung der Ableitung eines Parameterwertes explizit erkannt. Hierbei sind die Gleichungsabhängigkeiten hinsichtlich einer
4.5 Parametrische Konstruktion
161
expliziten Lösung, die Logikabhängigkeiten und die nicht-linearen Abhängigkeiten bei der Klassifizierung sinnvoll durch den Herleitungstyp darzustellen. Der Verbindungstyp unterscheidet nicht zwischen treibenden und getriebenen Parametern, sondern verbindet die Parameter gleichwertig. Die Gleichungsabhängigkeiten hinsichtlich einer impliziten Lösung sind dem Verbindungstyp zuzuordnen, da die Herleitungsrichtung nicht eindeutig bestimmt werden kann. Im Constraint-Solver des Prototypsystems wird derzeit die Darstellung der Verbindungsabhängigkeit auf eine simple mathematische Formel von zwei Variablen beschränkt. Im Beschränkungstyp werden erlaubte Parameterwertbereiche definiert. Bei jeder Änderung des beschränkten Parameterwertes bzw. der anderen enthaltenen Parameterwerte muss die Gültigkeit der Abhängigkeit geprüft werden. Die Ungleichungsabhängigkeiten sind in diesem Rahmen dem Beschränkungstyp zuzuordnen. Diesem Typ wird auch der Parameter zugeordnet, dessen Wertebereich durch eine Fuzzy-Beschreibung beschränkt wird. Die impliziten Abhängigkeiten aus der Modellaufbaulogik können entsprechend der ermittelten Repräsentationsform wie bei den explizit definierten Abhängigkeiten klassifiziert werden. Berücksichtigung komplexer Abhängigkeiten mittels der FE-Analyse Als Beispiel zur Darstellung komplexer Abhängigkeiten soll nachfolgend die FE (Finite Elemente)- Analyse einer Getriebewelle betrachtet werden. Hierbei werden die komplexen Abhängigkeiten durch einen Eingabedialog definiert, zum einen für eine Änderungseinflussanalyse mit dem Visualisierungsmodul und zum anderen für eine automatisierte Ermittlung des Berechnungsergebnisses. Hierbei muss ein entsprechendes FE-Modell vom Konstrukteur durch Vernetzung der Geometrien und Definition von Randbedingungen und Kräften parametrisch aufgebaut werden. An den entwickelten Software-Prototyp ist das CAx-System I-DEAS angebunden. Dabei kann das FE-Modell bei Veränderung des Parametersatzes automatisch aktualisiert werden. Außer den FE-Analyse-Systemen gibt es verschiedene Berechnungsprogramme für spezifische Konstruktionsbereiche (z.B. SPILAD, Weck et al. 2000, S. 91). Allerdings wird hier das CAx-System I-DEAS angekoppelt, um eine umfangreiche Konstruktionsumgebung zu unterstützen. In Abbildung 4.27 ist dargestellt, wie die Steifigkeit der Abtriebswelle eines Windradgetriebes berechnet und das Ergebnis an die Konstruktionsumgebung zurückgegeben wird. Die relevanten Geometrieparameter werden als treibende Parameter durch die Eingabemaske definiert, so dass bei der Änderung eines treibenden Parameters die Steifigkeit neu berechnet werden kann. Die Verbindung mit der Simulationssoftware I-DEAS kann je nach Bedarf gekoppelt werden, so dass der Berechnungstakt gesteuert werden kann. Die Bauteileigenschaften können durch die Definition der komplexen Abhängigkeiten mithilfe der FE-Analyse entweder automatisch nach der Änderung eines beeinflussenden Parameters oder manuell berechnet werden. Hierbei wird das Produktmodell nicht nur ausgehend von den formelbeschreibbaren Parameterabhängigkeiten, sondern auch ausgehend von der FE-Analyse und den
162
4 Integrierte Produktdefinition und Technologieplanung
mit deren Ergebnis durch Formeln verbunden Parametern automatisch aktualisiert. Dadurch sind die Konstruktions- und die Berechnungsumgebung integriert.
• FE-Berechnung der Verformung
F
FE-Model
• Automatisierte Aktualisierung
Eingabemaske für Definition
Abb. 4.27. Berücksichtigung komplexer Abhängigkeiten mittels der FE-Analyse
Ermittlung der impliziten Abhängigkeiten Im entwickelten Prototypsystem MDS (Multiparameter-Design-System) kann der zuverlässig veränderbare Wertebereich eines Parameters durch einen Suchalgorithmus ermittelt werden. Ziel des Algorithmus ist es, die Grenzen des veränderbaren Wertes zu finden, innerhalb derer sich keine unerlaubten Zusammenhänge zwischen Einzelteilen und Unterbaugruppen in der betrachteten Baugruppe ergeben bzw. innerhalb derer bestimmte Features aktualisiert werden können, ohne dass topologische Fehler weitergegeben werden. Beispielsweise wird der Durchmesser einer Abtriebswelle von der Nennleistung eines Windrades abgeleitet. Mithilfe des entwickelten Algorithmus kann hier der Wertebereich der Nennleistung ermittelt werden, sodass die Abtriebswelle hinsichtlich der Torsion sicher konstruiert wird. Anderseits kann die Beschrän-
4.5 Parametrische Konstruktion
163
kung der Nennleistung hinsichtlich der räumlichen Beziehung zwischen den Bauteilen in der Getriebebaugruppe ermittelt werden. Ausgehend von der Veränderung der Nennleistung werden Abtriebswelle und Lager aktualisiert. Wenn der Konstruktionsraum des Gehäuses definiert wird, ergibt sich eine Kollision bei der Vergrößerung der Nennleistung; durch den Suchalgorithmus kann der Nennleistungsbereich, in dem die Getriebekonstruktion ohne unerlaubte Kollision möglich ist, dem Konstrukteur bekannt gegeben werden. Damit kann der Konstrukteur prüfen, ob die ermittelte Grenze außerhalb des vorgesehenen Wertebereichs liegt. Das Ermittlungsprogramm besteht aus Prüfer und Aktor (Abb. 4.28). Während der Suchschleife übermittelt der Prüfer dem Aktor, ob ein unerlaubter Zustand im CAD-Modell erkannt wird. Der entsprechende Prüfer wird angewendet, um den Status des CAD-Modells hinsichtlich des betrachteten Problems (Kollision oder topologischer Fehler) zu bewerten. Um unerlaubte Kollisionen zu finden, kommuniziert der Prüfer mit dem Datenmanager des Prototypsystems, in dem die räumliche Beziehung der Komponenten (Einzelteile und Unterbaugruppen) in einer Baugruppe beschrieben wird. - Zustand von Constraint-Netz - Parametersatz t + 1
Ermittelung impliziter Abhängigkeit
Aktor Schritt
DatenManager
Ergänzung in der Abhängigkeitslisten
t+1
Prüfergebnis t
Prüfer
GUI für Verwaltung von Status t - Parametereigenschaften - Parameterabhängigkeiten CAD-System - Komponentenstruktur Aktion t - räumlichen Beziehungen (Parametersatz)
Abb. 4.28. Ermittlung der impliziten Abhängigkeiten
Im Prototypsystem werden die Abhängigkeiten der Parameter im Datenmanager verwaltet. Der Aktor verändert während des Ablaufs des Algorithmus die Schrittgröße für den geprüften Parameter, so dass sich der Parameterwert dem Ziel in dessen unmittelbarer Nähe mit kleineren Schritten annähern kann. Er wird mit dem Datenmanager verbunden, um einen neuen Parametersatz zu generieren und zum CAD-System zu übertragen. Bevor der neue Parametersatz zum Aktor übertragen wird, wird im Datenmanager die Gültigkeit des Parametersatzes geprüft. Ergeben sich Konflikte zwischen verschiedenen Abhängigkeiten, wird im
164
4 Integrierte Produktdefinition und Technologieplanung
Aktor der alte Parametersatz mit einer kleineren Schrittweite belegt und die Überprüfung erfolgt erneut. Dabei werden der obere und untere Bereich des Parameterwertes nacheinander geprüft. 4.5.4 Visualisierung der Abhängigkeiten und Änderungsanalyse Eine der grundsätzlichen Schwierigkeiten bei der Modellgestaltänderung ist es, die beeinflussenden und die zu beeinflussenden Parameter zu erkennen. Der Einflusspfad wird hierbei durch einen entsprechenden Filteralgorithmus aus den miteinander verflochtenen Parameterabhängigkeiten geeignet extrahiert. Dieses Konzept kann angewendet werden, um die Konstruktionselemente, die bei der Durchführung einer Änderung keinen Einfluss auf die Modellstruktur haben, aus der Darstellung auszuschließen. Diese gezielte Ausblendung von nicht relevanten Parametern wird basierend auf der Einflussrichtung realisiert. Die Abhängigkeiten werden nach den entsprechenden Typen (vgl. Abb. 4.26) graphisch dargestellt, so dass ein besserer Überblick über die Änderungseinflüsse im Constraint-Netz gegeben ist. Durch die Parameterfilterung können die folgenden vier Visualisierungssichten dargestellt werden. 1. 2. 3. 4.
Die Sicht für die beeinflussenden Parameter Die Sicht für die beeinflussten Parameter Die Sicht für die Beschränkungsabhängigkeiten Die Sicht für die direkt verbundenen Abhängigkeiten
x Sicht 1: Soll ein Parameterwert geändert werden, z.B. der Abtriebswellendurchmesser des Windradgetriebes, müssen im ersten Schritt die ursprünglich beeinflussenden Parameter gefunden werden. Zum Beispiel wird der minimal notwendige Durchmesser der Getriebewelle von der Wellenmaterialeigenschaft sowie der Nennleistung des Windrades abgeleitet, um sicherzustellen, dass die Getriebewelle das geforderte Drehmoment übertragen kann. x Sicht 2: Es wird gezeigt, welche Parameter mit dem neuen Parametersatz nachgerechnet werden müssen. x Sicht 3: In dieser Sicht kann die Auswirkung von Änderungen innerhalb des jeweiligen Einflussbereichs geprüft werden. Dafür wird Sicht 2 um die Beschränkungsabhängigkeiten erweitert, wobei ein Vergleich zwischen dem alten und dem neuen Parametersatz durchgeführt werden kann. Die letzten ausgeführten Änderungen werden gespeichert, so dass ein entsprechender Parametersatz durch den Vergleich zwischen den analysierten Parametersätzen ausgewählt wird. Dabei werden folgende Faktoren dargestellt: der ursprünglich geänderte Parameter, die Gültigkeit der Beschränkungsabhängigkeiten und die Ursache der Konflikte im Constraint-Netz. x Sicht 4: Diese Sicht zeigt einen engen Bereich um den betrachteten Parameter, wobei direkt verbundene Parameterabhängigkeiten dargestellt werden können.
4.5 Parametrische Konstruktion
165
Die Visualisierungssichten können mit einem neu betrachteten Parameter in einem ausgewählten Sichttyp aktualisiert dargestellt werden. Dieses Konzept ermöglicht dem Konstrukteur eine sukzessive Darstellung der Änderungsszenarien, wobei die Abhängigkeiten im Definitionsmodul einmalig definiert werden müssen. Sicht 2: beeinflusste Parameter
Sicht 1: beeinflussende Parameter Nennleistung
D_Abtrieb_Sonne Sonne_NumNabe
Wirkungsgrad
Ausgangsmoment
D_Nabe_Sonne2
Keil F
Ab_D_T2 Hoehe_Keil Ab_D_T1
min.Abw.F
Torsionswechselfestigkeit
Lager_Bohrung_D
Hoehe_Gehaeuse Eingangsmoment
min.Abw.F Torsionswechselfestigkeit
Sicht 3 der Nennleistung: für Änderungsanalyse mit Beschränkungsabhängigkeiten
Wirkungsgrad
Nennleistung
Anf_Abw F Ausgangsmoment
Keil F min.Abw.F
Übersetzung Ausgangsdrehzahl
Hoehe_Gehaeuse
Abw_NumNabe Num_Keil
Eingangsmoment Eingangsdrehzahl
Sicht 4: direkt verbundene Abhängigkeiten
D_Abtrieb_Sonne Sonne_NumNabe
Anf_Abw F
Ausgangsmoment
Eingangsdrehzahl
Abw_NumNabe Num_Keil Keil F
Übersetzung Ausgangsdrehzahl
min.Abw.F
Torsionswechselfestigkeit
D_Nabe_Sonne2
Hoehe_Keil
Ab_D_T2 Ab_D_T1 Lager_Bohrung_D
Zuweisung einer Änderung
Abb. 4.29. Visualisierungssichten
In Abbildung 4.29 sind einzelne Visualisierungssichten des Visualisierungsmoduls dargestellt. Im Vergleich zur Analyse des Parameterabhängigkeitsgeflechts im CAx-System kann dieses Abhängigkeitsgeflecht hierbei übersichtlicher dargestellt werden, da der Konstrukteur im CAx-System durch die Verfolgung der Darstellung einzelner Abhängigkeiten den Änderungseinfluss analysieren muss. Im Visualisierungsmodul werden Eigenschaften der Parameter hinsichtlich der Referenzierung (Produktanforderungen, Geometrieparameter oder Schnittstellenparameter für die Konstruktionsraumbeschreibung in einer Baugruppe) farbig repräsentiert. Weitere Informationen (z.B. Abhängigkeitsbeschreibung, Parameterwerteingabe) können in den entsprechenden Dialogen dargestellt werden. In Abbildung 4.29 werden Sicht 1, Sicht 2 und Sicht 4 vom Parameter „minimaler Abtriebswellendurchmesser“ vorgegeben, während Sicht 3 vom Parameter „Nennleistung“ abgeleitet wird. Besonders wichtig hierbei ist, dass mit der Nutzung der Visualisierung des komplexen Abhängigkeitsgeflechts eine Änderungsanalyse unabhängig vom CAD-System unterstützt wird. Im Prototypsystem wird so, im Gegensatz zu den bisher vorhandenen Methoden, ein Vergleich der Änderungsmöglichkeiten mit-
166
4 Integrierte Produktdefinition und Technologieplanung
hilfe der gespeicherten Änderungsgeschichte und eine Vorschau mit dem 3DModell möglich. Informationsmanagement Das Prototypsystem MDS (Multiparameter-Design-System) ist als eigenständiges System konzipiert, mit dem der Anwender über eine eigene Benutzerschnittstelle kommuniziert. MDS und die angebundenen CAx-Systeme werden parallel und unabhängig voneinander ausgeführt. Das Produktmodell wird im CAD-System hinterlegt, während die Parameterdaten vom CAD-System ins MDS extrahiert und dort weiter bearbeitet werden. Die ins MDS übertragenen Parameter und die CAD-Parameter werden in beide Richtungen gekoppelt. Damit kann das Produktmodell mit dem neuen Parametersatz aktualisiert werden, dessen Gültigkeit und Einflüsse auf die Modellgestaltung vorher im Visualisierungsmodul geprüft wurden. Die Parameterabhängigkeiten werden, basierend auf den übertragenen Parameterinformationen, mithilfe des Definitionsmoduls im Datenmanager im MDS abgelegt und gespeichert. Im Gegensatz zum YVE-System (Tecnoes 2004) und zu Optimus (LMS 2004) ist es im MDS nicht notwendig, ein entsprechendes Änderungsszenario zu definieren. Die Analyse der Änderungseinflüsse kann mit einem beliebigen Parameter gestartet werden. Dadurch kann automatisch ein Änderungsszenario dargestellt werden, in dem gezeigt wird, in welcher Reihenfolge die Parameterwerte, ausgehend von der Ersetzung eines veränderbaren Parameterwertes, berechnet werden. Es ist auch möglich, die schon im CAD-System definierten Abhängigkeiten an das MDS weiterzugeben, so dass die automatisierte Erstellung einer Datenbank unterstützt wird. Dabei ergibt sich bei einem zentralen Wissensverwaltungskonzept ein Widerspruch, wenn das Produktmodell die Konstruktionsregeln enthält. Allerdings kann diese Funktion zum einen verwendet werden, um in der Übergabephase die im CAD-Modell schon existierenden Konstruktionsregeln zu einer externen Datenbank zu extrahieren. Zum anderen können die bei einem bestimmten Produktmodell einmalig verwendeten Abhängigkeiten durch eine Visualisierung analysiert werden. Abbildung 4.30 zeigt die Systemarchitektur des Prototypsystems. Das System besteht aus einem Definitionsmodul, einem Datenmanager, einem Constraint-Solver, einem Datentransfermodul und einem Visualisierungsmodul. Die ersten vier Module wurden mittels VBA (Visual Basic Application) in Microsoft Excel implementiert. Das Visualisierungsmodul wurde mittels C++ und Open-GL entwickelt. Zudem wurde mittels COM (Component Object Model)- Technologie und Visual C++ von Microsoft ein Broker entwickelt, der mehrere Anbindungsmöglichkeiten an weitere Applikationen (z.B. weitere CAD-Systeme, CAE-Systeme oder wissensbasierte Datenbanken) bietet. Der Broker ist zuständig für die beidseitige Übertragung der Parameterinformationen, die Verbindung zum CAxSystem für nicht-lineare komplexe Abhängigkeiten, die Verknüpfung zwischen dem Visualisierungsmodul und dem CAD-System und die Übertragung der Produktmodellzustände für die Ermittlung der impliziten Abhängigkeiten.
4.5 Parametrische Konstruktion
167
Zurzeit stehen für die Übertragung der Parameterdaten die Schnittstellen zum 3D-CAD-System I-DEAS 10 (EDS 2004) und zu Pro/Engineer (Parametric Technology Corporation 2000) zur Verfügung. Der Constraint-Solver kann die Gleichungsabhängigkeiten, die Ungleichungsabhängigkeiten, die logischen Abhängigkeiten und die auf die einfache Form beschränkten Verbindungsabhängigkeiten behandeln. Die komplexen Abhängigkeiten werden mittels FE-Analyse mithilfe des Brokers zwischen Constraint-Solver und einem FEM-System (Simulation Applikation von I-DEAS 10 Nx) gelöst. Eine Erweiterung auf zusätzliche CAD-Systeme ist jedoch prinzipiell möglich. Prototypsystem
Definitionsmodul Datenmanager
ConstraintSolver
Datentransfermodul
Visualisierungsmodul
GUI auf Microsoft Excel
Broker
API Modellstruktur & Geometriedaten
CAx-System
API: Application Programming Interface GUI: Graphical User Interface CAx: Computer Aided anything
Abb. 4.30. Systemarchitektur
4.5.4 Applikationsmöglichkeiten In diesem Kapitel werden die Methoden zur parametrischen Konstruktion unter Nutzung der heute vorhandenen modernen CAD-Systeme dargestellt, die zum einen die Komplexität der Behandlung von Produktmodellen reduzieren und zum anderen das Potenzial zur flexiblen Modellanpassung erhöhen. Die entwickelten Methoden ermöglichen eine effektive Anwendung der parametrisierten Produktmodelle, nicht nur anhand der üblichen Baukastenkonstruktion, sondern auch anhand einer flexiblen Anpassung der Modellgestalt durch Fehlerprüfung mithilfe des Visualisierungsmoduls. Die Methoden zum Informationsmanagement und zur Visualisierung der Parameterabhängigkeiten unterstützen das Wissensmanagement in Unternehmen. Die Visualisierungsmethode hilft nicht nur dem Konstrukteur bei der Änderungsana-
168
4 Integrierte Produktdefinition und Technologieplanung
lyse der Produktanforderungen in Bezug auf die Modellgestalt, sondern auch bei einem besseren Verständnis der Abhängigkeitsflüsse. Zusammen mit den Methoden zum Extrahieren der Abhängigkeiten des Produktmodells in die Softwareumgebung und einer anschließenden Anwendung der Methode zum Ersetzen der Abhängigkeiten durch den Parameterwert kann Konstruktionswissen zentral verwaltet werden. Dadurch kann bei der Weitergabe des Produktmodells an Dritte, z.B. einen Unterlieferanten, das Produktmodell auch nur mit den endgültigen Dimensionsdaten ohne Parameterabhängigkeiten weitergegeben werden. Die Methoden zur Definition der komplexen Abhängigkeiten können insbesondere während des Entwicklungsprozesses eines Produktes eingesetzt werden, das abhängig von den Kundenanforderungen häufig flexibel angepasst werden muss. Dabei können die Produktanforderungen mit den berechneten Kennwerten im Visualisierungsmodul verglichen werden, indem das Simulationsprogramm nach der Änderung der beeinflussenden Parameterwerte automatisch gestartet wird. Zudem ist das Potenzial der Methode in der Identifizierung der impliziten Parameterabhängigkeiten in einer Analyse der Modellrobustheit innerhalb des vorhergesehenen Änderungsraums zu sehen, so dass in der frühen Phase Restriktionen im Produktmodell rechtzeitig erkannt werden können. Diese Methode ist allgemein für alle Konstruktionen anwendbar und reduziert die Komplexität der Anwendung einer parametrischen Modellierung mit Baukastenkonstruktionen. Literatur Anderl R, Mendgen R (1998) Configuration, analysis and optimization of complex parametric models throughout the different phases of the product development process. In: Krause FL, Heimann RC (Hrsg) New Tools and Workflows for Product Development. Fraunhofer IRB Verlag, Berlin, S 119–130 Bidarra R, Bronsvoort WF (2000) Semantic feature modelling. J Computer-Aided Design Vol 32: 201–225 Boothroyd G, Dewhurst P, Knight WA (2002) Product design for manufacture and assembly, 2. Aufl. Dekker, New York Brix T, Brüderlin B, Döring U, Höhne G (2002) Representation and Analysis of Solution Principles. In: Proc of CAD 2002 Dresden March 4th and 5th, S 45–56 EDS Companies (2004) Dokumentate zu I-DEAS 10 Nx. Eversheim W, Schröder J (1999) Applicability of Fuzzy Constraint Networks to Manage Uncertain and Imprecise Information in Simultaneous Engineering. In: Proc of International CIRP Design Seminar, March Feng CX, Li PG, Liang M (2001) Fuzzy mapping of requirements onto functions in detail design. J Computer-Aided Design Vol 33: 425–437 Franke H-J, Johannsen T (2002) PHAKOM - Phaseübergreifende Unterstützung komplexer Gestaltungs- und Berechnungsprozesse. Abschlussbericht SPP „Innovative rechnerunterstützte Konstruktionsprozesse“ Franke H-J, Kickermann H (1994) FUZZY-Logik bei der Verarbeitung von Anforderungen, Produktdatenmodellierung und Prozessmodellierung als Grundlage neuer CAD-Systeme. In: Proc of CAD'94, S 523–543 Hochgeladen R (2002) Wissensintegration in der Praxis. CAD-CAM Report 12: 16–21
4.5 Parametrische Konstruktion
169
Hoffmann CM, Kim K-J (2001) Towards valid parametric CAD models, J Computer-Aided Design Vol 33: 81–90 Hundal MS, Byrne JF (1989) Computer-assisted generation of the requirements list in an automated methodical design procedure. In: Advances in design automation 1. New York ASME, pp 237–241 Koller R (1998) Konstruktionslehre für den Maschinenbau : Grundlagen zur Neu- und Weiterentwicklung technischer Produkte mit Beispielen, 4. Aufl. Springer, Berlin Heidelberg New York Leffingwell D, Widrig D (2000) Managing software requirements: A unified approach, 5. Aufl. Addison-Wesley, Reading, Mass. (USA) LMS International (2004) Dokumente zu Optimus Pahl G, Beitz W (1997) Konstruktionslehre - Methoden und Anwendung, 4. Aufl. Springer, Berlin Heidelberg New York Parametric Technology Corporation (2000) Dokumente zu Pro/ENGINEER 2000i2 Rapp T (1999) Produktstrukturierung - Komplexitätsmanagement durch modulare Produktstrukturen und -plattformen. Gabler, Wiesbaden Riepe B (2003) Integrierte Produktstrukturmodellierung in den frühen Phasen der Produktentstehung - Eine Methode zur Modularisierung variantenreicher, mechatronischer Produkte. Books on Demand, Norderstedt Rupp C (2001) Requirements-Engineering und -Management. Hanser, München Schenke F-B (2001) Methodik zur parametrischen Konstruktion. Dissertation, RWTH Aachen Schienmann B (2002) Kontinuierliches Anforderungsmanagement. Addison-Wesley, München Schuh G, Schwenk U (2001) Produktkomplexität managen - Strategien, Methoden, Tools. Hanser, München Schuh G, Assmus D, Paulukuhn L, Weber P (2003) Modular Requirement Management in Product Development. European Conference on Concurrent Engineering ECEC, Plymouth UK Sonderforschungsbereich 361 (2001) Modelle und Methoden zur integrierten Produkt- und Prozeßgestaltung. Arbeits- und Ergebnisbericht 1999/2000/2001. Eigendruck der RWTH Aachen Tecnoes software + engineering GmbH (2003) Dokumente zu YVE Ulrich KT, Eppinger SD (2000) Product Design and Development, 2. Aufl. McGraw-Hill, Boston VDI (1993) VDI-2221 - Methodik zum Entwickeln und Konstruieren technischer Systeme und Produkte. Beuth, Berlin Vlahinos A (2003) Dealing With Variability in Design, BENCH mark, October 2003, pp 26–30 Weck M, Hessel C, Müller-Held B (2000) The Virtual Machine Tool, Production Engineering Research Development. WGP e.V. Berlin V II/ 2, S 89–94
170
4 Integrierte Produktdefinition und Technologieplanung
4.6 Einsatzplanung von Fertigungstechnologien Insbesondere für stark technologieorientierte Unternehmen sind Fertigungstechnologien von hoher strategischer Bedeutung (Eversheim et al. 2003, S. 169 ff.). Da sie zur Sicherung der Nicht-Nachahmbarkeit ihrer Einzigartigkeiten an ausgefeilten Lösungen für komplexe Produktionsaufgaben arbeiten, kommt der Lösung fertigungstechnologischer Problemstellungen in der Produkt- und Produktionsplanung in zunehmendem Maße Bedeutung zu (Eversheim et al. 2003, S. 169 ff.). Besonders wichtig ist dabei eine zielgerichtete Auswahl und verkettung von Fertigungstechnologien (Schuh u. Hachmöller 2003). Neben einem fundiertem Wissen über die Veränderungen von Märkten und Produktanforderungen ist ein guter Überblick über heute verfügbare und zukünftig einsetzbare Technologien notwendig (Klocke 2001, S. 26 ff.). Bei der Planung einer neuen Produktgeneration muss daher eine wachsende Anzahl von zum Teil stark spezialisierten Fertigungstechnologien berücksichtigt werden. Dabei können insbesondere durch eine gezielte Auswahl dieser Fertigungstechnologien Synergieeffekte genutzt werden (Schuh u. Knoche 2004). Für die Auswahl müssen alle zukünftigen Produktentwicklungen beachtet werden, was eine enge Zusammenarbeit von Produktentwicklung und Fertigungstechnologieplanung voraussetzt. Zunehmend wird dadurch die Auswahl von Fertigungstechnologien unter Berücksichtigung der zukünftigen Anforderungen von einzelnen Produkten oder kompletten Fertigungsspektren erschwert. Eine Möglichkeit, diese Anforderungen zu erfüllen, besteht in einer systematischen Einbeziehung innovativer Werkstoffe und Fertigungsverfahren in den Produktentwicklungsprozess. Durch die Anwendung alternativer Werkstoffe und Verfahren wird die Realisierung neuer, mitunter verbesserter Produkt- und Fertigungsalternativen ermöglicht. Weiterhin führen technische Produktverbesserungen bei bestehenden Fertigungsverfahren und Werkstoffen in der Regel nur zu einer geringfügigen Kostenreduzierung. Die Nutzung umfassender technologischer Innovationen durch die Neugestaltung ganzer Prozessketten kann jedoch erhebliche Kostenvorteile mit sich bringen. Werkstoff- und Verfahrensinnovationen sind oftmals treibende Faktoren dafür, dass einzelne Prozesse einer Kette optimiert, zusammengefasst oder gar substituiert werden können (Klocke et al. 2002, S. 191 ff.; Klocke 1996, S. 289). Um die Potenziale neuer Fertigungstechnologien und der daraus hervorgehenden Fertigungsverfahren sowie neuer Werkstoffe erschließen zu können, müssen die dahin führenden Möglichkeiten bereits in einem frühen Stadium der Produktentwicklung ermittelt werden. Dadurch kann schon bei der konstruktiven Auslegung und Gestaltung von Produkten eine ausreichende Berücksichtigung werkstoff- und verfahrensspezifischer Randbedingungen erfolgen (Eversheim et al. 1997; Klocke 1996, S. 289). Die Anwendung von Methoden zur Simulation von Fertigungsprozessen in den frühen Phasen der Produktentwicklung kann weiterhin die technische Eignung innovativer Technologien ergänzend verifizieren. Sowohl technologisch bedingte Anforderungen an die Produktdefinition als auch durch die Technologie verur-
4.6 Einsatzplanung von Fertigungstechnologien
171
sachte Eigenschaftsänderungen können berücksichtigt und gezielt genutzt werden (Eversheim et al. 2002). Auf dieser Basis wurde eine Methode zur regelunterstützten Generierung und Bewertung von Technologieketten entwickelt, welche insbesondere auch innovative Technologien berücksichtigt. Zur Unterstützung des Technologieauswahlprozesses wurde ein System zur Bewertung der alternativen Technologieketten (RATECH) grundlegend erweitert und sowohl mit einem Technologieinformationssystem (TECHBASE) als auch mit einem System zur Identifizierung innovativer Technologien (INNOTECH+) verknüpft, welches der sequenziellen Generierung von Technologieketten dient. Darüber hinaus ist für ein Unternehmen ein etablierter Technologiemanagementprozess zum Abgleich der strategischen Planung mit der operativen Umsetzung sowie Hilfsmittel zur gezielten Lokalisierung, Bündelung und Speicherung von Informationen unabdingbar (Klocke et al. 2002, S. 101 ff.). Die Planung, Bewertung und Auswahl zielführender Technologieketten erfordert die Verarbeitung vielfältiger und komplexer Daten aus Produktplanung und -entwicklung, Konstruktion, Technologiefrüherkennung sowie Fertigung/ Produktion. Zur Operationalisierung der so erzeugten Softwareinstrumente und zur Organisation der Datenströme wurde ein Referenzprozess für das Technologiemanagement entwickelt, der die Rollen und Aufgaben sowie zu übergebende Informationen anhand von Modulen organisiert. Auf diese Weise können die entwickelten Softwareinstrumente in den unternehmerischen Kontext der Technologieplanung eingebettet werden. 4.6.1 Methoden zur Technologieeinsatzplanung Zahlreiche Konstruktionsmethoden wurden mit dem Ziel, den Konstruktionsprozess zu unterstützen, entwickelt. Zu diesen zählen die Methoden nach Pahl und Beitz (Pahl u. Beitz 1997), Roth (Roth 1994), Koller (Koller 1994) und Rodenacker (Rodenacker 1991). Mit dem Ziel der Vereinheitlichung der vorliegenden Konstruktionsmethoden wurden die VDI-Richtlinien 2221 (VDI 1993) und 2222 (VDI 1997) verabschiedet. Diese werden heute als allgemeingültige Richtlinien anerkannt (Fallböhmer 2000). Die Betrachtung der VDI-Richtlinien, die hier aufgrund ihrer allgemeinen Anerkennung stellvertretend für ein breites Spektrum an Konstruktionsmethoden angeführt werden, verdeutlicht, dass die bestehenden Methoden ein umfassendes Wissen des Konstrukteurs über Fertigungstechnologien und Werkstoffe voraussetzen. Der Konstrukteur beeinflusst die Gestalt des Produkts intuitiv über die Restriktionen der ihm bekannten Fertigungsverfahren und Werkstoffe. Aufgrund seiner eingegrenzten fertigungs- und werkstoffspezifischen Kenntnisse sind die Gestaltungsmöglichkeiten begrenzt. Nur selten ist das Wissen des Konstrukteurs von einer solchen Breite, dass auch Werkstoff- und Verfahrensinnovationen berücksichtigt und darüber hinaus ihre Einsatzmöglichkeiten abgeschätzt werden können. Die mit derartigen Innovationen verbundenen Vorteile bleiben somit bei
172
4 Integrierte Produktdefinition und Technologieplanung
Anwendung der bestehenden Konstruktionsmethoden weitgehend ungenutzt (Fallböhmer 2000). Die Produktionskomplexität wird dadurch gesteigert, dass für die Fertigung eines Produkts eine Vielzahl alternativer Technologien und Technologiekombinationen anwendbar sind. Jede der Alternativen erfordert bei der Abstimmung mit der geometrischen Produktgestalt und der Produkteigenschaften unterschiedliche gestalterische Maßnahmen (Klocke et al. 1999, S. 115 ff.). Aufgrund des hohen Arbeitsaufwands ist der Konstrukteur ohne die Bereitstellung geeigneter Hilfsmittel nicht in der Lage, die Abstimmung der Produktgestalt für jede technologische Lösung durchzuführen (Fallböhmer 2000). Die zugrunde liegenden, wechselseitigen Abhängigkeiten zwischen Produkt-, Produktions-, und Materialtechnologien müssen berücksichtigt werden, um aktuelle Potentiale zu erschließen und zukünftige Trends frühzeitig erkennen zu können (Schuh u. Hachmöller 2003). Ziel der Technologieplanung ist die langfristig optimale Gestaltung des Technologiespektrums, auf das Unternehmen intern oder extern zugreifen können. Methoden zur Unterstützung der Technologieeinsatzplanung gewinnen an Bedeutung. Zu den wesentlichen zählen dabei der Technologiekalender, das Management von Technologielebenszyklen, das S-Kurven-Konzept, die Strategische Investitionsplanung, Manufacturing Technology Planning (Scharlacken 1992, S. 57 ff.), Target Costing und Technologieportfolios. Keiner der Ansätze verfolgt jedoch das Ziel, Konstrukteuren und Technologieplanern die operative Ausschöpfung der Potenziale neuer oder auf neue Art einsetzbarer Fertigungstechnologien zu erleichtern und dadurch die Realisierung von geplanten Produkten zu unterstützen. Ebenso existieren bereits viele Kennzahlen und Kennzahlensysteme, die jedoch nicht auf die Kontrolle und Steuerung von Prozessen im Technologiemanagement fokussieren. Aus diesen Defiziten ergibt sich die Notwendigkeit, Methoden und Hilfsmittel im Kontext der Technologieauswahl und -verkettung durch softwaretechnische Instrumente zu ergänzen und in den unternehmerischen Rahmen einzubetten. Die entwickelten Funktionsprinzipien unterstützen die Beantwortung der folgenden Fragestellungen: x Wie kann die Auswahl und Verkettung von Fertigungstechnologien für die Fertigung spezifizierter Bauteile unterstützt werden? x Wie kann die Bewertung der einzelnen und der verketteten Technologien unterstützt werden? x Wie kann der Prozess der Technologiebewertung die menschliche Vorgehensweise möglichst gut nachahmen? x Wie kann die Integration von Softwareinstrumenten in den Technologiemanagementprozess organisiert werden? x Wie kann die Nutzung von Softwareinstrumenten sowie die Leistungsfähigkeit der Prozesse kontrolliert werden? x Wie können Simulationsmodelle bereits in frühe Phasen der Produktentwicklung eingebunden werden?
4.6 Einsatzplanung von Fertigungstechnologien
173
4.6.2 Methoden zur Technologieplanung TECHBASE - Informationssystem für Fertigungstechnologien Die Auswahl der günstigsten Fertigungstechnologie wird durch die Nutzung eines Technologieinformationssystems erheblich verbessert (Schuh u. Hachmöller 2003). Eine solche Softwarelösung unterstützt den Transfer von Informationen zwischen Mitarbeitern und Abteilungen, zwischen Experten und Anwendern und steigert die langfristige Verfügbarkeit von Informationen. Das Technologieinformationssystem TECHBASE ist eine Software zur strukturierten Bereitstellung von Informationen über Fertigungstechnologien. TECHBASE funktioniert auf Basis elektronisch abgelegter Technologiedatenblätter, anhand derer die Eignung von Fertigungstechnologien dokumentiert wird. Diese können durch Auswählen der Technologiebezeichnung, anhand einer Kategorisierung nach DIN8580 (DIN 1987) oder durch Ermittlung der bearbeitbaren Werkstoffe identifiziert werden. Die Struktur unterscheidet die übergeordneten Bereiche Technologie, Wirtschaftlichkeit und Technologiequellen (Organisation), deren Aufschlüsselung bis in die dritte Ebene in Abb. 4.31 dargestellt ist (Eversheim et al. 1997, S. 367 ff.). Innerhalb des Hauptmerkmals Technologie werden die rein technischen Leistungsdaten, im Hauptmerkmal Wirtschaftlichkeit die wirtschaftlichen Kenngrößen beschrieben. Damit Kosten abgeschätzt werden können, sind neben dem Adaptionsaufwand und den Kosten auch Produktionskennzahlen (z.B. Hauptzeit, Rüstzeit) dokumentierbar. Das Hauptmerkmal Organisation umfasst drei Elemente: Im Bereich Personal werden Aussagen über den quantitativen und qualitativen Personalbedarf dokumentiert. Die Bereiche Informationen und Kontakte enthalten Angaben, die für eine weitergehende Auseinandersetzung mit der Technologie benötigt werden. TECHBASE unterstützt die systematische Ermittlung fertigungstechnologischer Alternativen für produktionstechnologische Aufgabenstellungen und kann genutzt werden, um gezielt manuell zu recherchieren. Wie in Abb. 4.31 gezeigt, werden durch eine Technologie erzielbare Geometrien und Werkstoffe in unterschiedlichen Feldern des Bereichs Funktionsträger dokumentiert. Eine flexible Unterstützung der integrierten Technologieplanung wird durch verschiedene Zugriffsmöglichkeiten auf die Datenbestände des Systems gewährleistet (Fallböhmer 2000). Diese Nutzungsmöglichkeit ist im Rahmen der integrierten Technologieplanung zu unterschiedlichen Planungszeitpunkten von Bedeutung (z.B. kann der Datenbestand des Systems bei der Technologiebewertung und -auswahl sowie beim paarweisen Vergleich der Bewertungskriterien hilfreich sein). Auch die Inhalte der übergeordneten Hauptmerkmale Wirtschaftlichkeit und Organisation können nach dem Generieren der Fertigungsalternativen für weitere Planungsaktivitäten (z.B. für die Kostenabschätzung) herangezogen werden.
174
4 Integrierte Produktdefinition und Technologieplanung
Technologiebezeichnung Prozess
Technologiebeschreibung Verfahrensvarianten Fallbeispiel
Entwicklung F + E - Tendenzen Technologie
Geometrie Funktionsträger Werkstoff Anlage/ Maschine Prozess-/Steuerungsparameter Anlage Werkzeuge Hilfs- und Betriebsstoffe Investitionen Betriebskosten Kosten
Wirtschaftlichkeit
Operationszeiten Stückzahleignung Ressourcennutzung
Ökologie Ausfallstoffe Personal
Personalbedarf Literatur
Information Fachmessen Organisation
Forschung/ Beratung Kosten
Technologieanbieter Lohnfertiger
Abb. 4.31. Aufbau von TECHBASE
TECHBASE verfügt über verschiedene Suchfunktionen. Diese ermöglichen einen schnellen Zugriff auf die Daten und verleihen dem System eine hohe Flexibilität. Die Suche kann entweder durch die Eingabe von Suchbegriffen oder durch eine Technologieklassifikation erfolgen. Im ersten Fall werden die Informationseinheiten der Technologie nach den spezifizierten Begriffen durchsucht
4.6 Einsatzplanung von Fertigungstechnologien
175
und die Einheiten, in denen Treffer gelandet werden, zur Einsicht bereitgestellt. Im zweiten Fall wird eine Liste von Technologien ausgegeben, die den Kriterien genügen. RATECH - Software zur Bewertung unscharfer Technologieinformationen Moderne Fertigungstechnologien schaffen neue Möglichkeiten für die Umsetzung von Produktkonzepten. Um die Potenziale der neuen Technologien erschließen zu können, müssen sie schon in sehr frühen Phasen der Produktentwicklung erkannt und berücksichtigt werden. Gerade die Entscheidung für eine weniger gut erprobte Technologie kann jedoch nur auf Basis einer umfassenden Technologiebewertung erfolgen. Diese muss sehr zuverlässige Ergebnisse liefern, obwohl zu diesem Entwicklungsstadium das umzusetzende Produktkonzept lediglich durch ungenaue Angaben spezifiziert ist und nur unscharfe Daten zur Technologiebeschreibung vorliegen. Das Softwareinstrument RATECH zur Technologiegrobbewertung und -auswahl verfolgt das Ziel, Technologieplaner zu einer systematischen und ganzheitlichen Bewertung von Technologien und Technologieketten anzuleiten. Dabei werden unterschiedliche Kriterien wie technologische Eignung, Wirtschaftlichkeit, Zukunftssicherheit und der strategische Nutzen betrachtet. Ziel der Technologiebewertung ist es, hinsichtlich der festgelegten Anforderungen aus verschiedenen Alternativen die beste auszuwählen. Grundvoraussetzung für die Bewertung sind klar definierte Kriterien. In den meisten Fällen ist eine Bewertung hinsichtlich optimaler technologischer Ausnutzung, Produktqualität, Kosten, Fertigungsdauer und eventueller umwelttechnischer Auflagen interessant. Diese Anforderungen müssen vor der Bewertungsdurchführung aufgestellt, den jeweiligen Kriterien zugeordnet und gewichtet werden. Für jedes Kriterium sollen eigene Ergebnisgrößen erzeugt werden, mit denen Hinweise auf Schwachstellen gegeben werden können. Damit Technologien auf der Basis von Informationen aus frühen Phasen der Produktentwicklung ausgewählt werden können, muss die Methodik auch die Verwendung von unsicherem Wissen ermöglichen. Um eine praktikable Lösung zu erzielen, ist darüber hinaus eine unkomplizierte Anwendung der Methodik und ein möglichst geringer Nutzungsaufwand von besonderer Bedeutung. Die Bewertung erfolgt durch den Technologieplaner. Dieser muss folgende Entscheidungen treffen: x Zu welchem Zeitpunkt und welche Technologien sollen bewertet werden? x Welche Aktivitätsparameter sollen zur Bewertung herangezogen werden? x Wie viele Technologiealternativen sollen ausgewählt und weiterverfolgt werden? Die Bewertung von Technologien kann immer dann erfolgen, wenn alternative Lösungen existieren, d.h. wenn verschiedene Technologieprofile geeignet sind, die vom Produkt ausgehenden Anforderungen zu erfüllen. Dies ist bei der Technologiegrobplanung bereits nach der Prüfphase bzw. der Ermittlung der technischen Machbarkeit der Fall.
176
4 Integrierte Produktdefinition und Technologieplanung
Da durch die Bewertung die Brauchbarkeit der Alternativen zur Erfüllung des Ziels ermittelt wird, wird die Auswahl durch die Bewertung vorbereitet (Metz 1980). Dieser Automatismus setzt eine Abstützung der betriebswirtschaftlichen Technologiebewertung durch ein einheitliches Wertesystem voraus. Einzeltechnologien werden hinsichtlich Technologieattraktivität und Unternehmensnutzen bewertet. Es werden Kennzahlen erzeugt, mit denen die Eignung der Technologien aus der allgemeinen Marktsicht und unter den spezifischen Randbedingungen des Unternehmens beurteilt werden kann. Wenn alle Technologien bewertet sind, kann der letzte Schritt erfolgen: die mathematische Zusammenfassung und die Darstellung der Ergebnisse. Die Durchführung der gewichteten Gesamtbewertung erfolgt mithilfe von Fuzzy-Sets und Fuzzy-Logik. Zunächst werden durch den Softwareprototypen INNOTECH+ Technologien und Technologieketten identifiziert, die sich zur Erzeugung eines definierten Bauteils eignen. Als solche gekennzeichnet werden die Technologievarianten dann über eine Schnittstelle an den Softwareprototypen RATECH übergeben. Kernmodul der Bewertungsmethode ist das Technologieportfolio, anhand dessen Technologien bewertet und ausgewählt werden. Das Technologieportfolio wird von den Achsen Unternehmensnutzen und Technologieattraktivität aufgespannt, indem sieben Vorgehensschritte durchlaufen werden (Abb. 4.32). Zunächst wird eine dreistufige Kriterienhierarchie auf die unternehmensspezifischen Anforderungen ausgerichtet. Die Kriterien sind teilweise fest vorgegeben, teilweise können sie jedoch auch durch den Anwender ergänzt werden. Sämtliche Kriterien werden durch Gewichtung an die jeweiligen Randbedingungen angepasst. Für diese Gewichtung wird auf die Methode des paarweisen Vergleichs zurückgegriffen. Die Bewertung erfolgt durch einen gezielten Zugriff auf Informationen aus dem Technologieinformationssystem TECHBASE. Die Verknüpfung von TECHBASE und RATECH, dem Softwareprototypen für die Technologiebewertung, ist so gestaltet, dass immer genau diejenigen Datenfelder zur Verfügung stehen, die zur Bewertung des jeweiligen Kriteriums relevant sind. Bei der Technologiebewertung in frühen Stadien der Produktentwicklung ist die Verwendung von unsicherem Wissen unabdingbar, da häufig noch keine konkreten Informationen vorliegen. An dieser Stelle setzen die mathematischen Hilfsmittel der Fuzzy-Set-Theorie und Fuzzy-Logic ein und ermöglichen die Weiterverarbeitung von unsicherem und unscharfem Wissen. Mithilfe dieser Methode und des Rangfolgeverfahrens ist es möglich, innerhalb der Methode zur Technologiebewertung alle zur Verfügung stehenden Informationen, d.h. sicheres und unsicheres Wissen, zu berücksichtigen. Weiterhin wird durch die Fuzzy-Logic der menschliche Entscheidungspfad besonders gut nachgebildet. Auf diese Weise können linguistische Aussagen und Relationen in einem mathematisch exakten Rahmen abgebildet werden. Die Kriterien werden zu den sogenannten Aktivitätsparametern der nächst höheren Hierarchieebene aggregiert. Dies erfolgt nach der fuzzy-multiattributiven Methode. Die zur Aufspannung des Portfolios erforderlichen Parameter der obersten Hierarchieebene werden FuzzyLogic-gestützt aggregiert.
4.6 Einsatzplanung von Fertigungstechnologien
177
Umweltverträglichkeit
T3 T2 T1
Energieverbrauch Betriebsstoffeinsatz Werkstoffausnutzung Substitutionssicherheit
Technologiepotenzial
Technologieattraktivität
Anwendungsbreite extern Entwicklungsdynamik Technologiereife
T1
Technische Eignung
T2
T3
Technologieinformationen aus TECHBASE+
Bewertung
Technologien aus INNOTECH+
Emissionen
Qualität/ Prozesssicherheit Toleranzeignung Stückzahleignung
Unternehmensnutzen
Werkstoffeignung Geometrieeignung
Schulungsaufwand
Änderungsaufwand
Realisierungsaufwand
Investitionen
Kompetenzaufbau
Kundenwirkung
Gemeinkosten
Materialkosten
Fertigungskosten
Anwendungsbreite
Qualitativer Nutzen
Rationalisierungspotenzial
Abb. 4.32. Bewertungsstruktur
RATECH bewertet Technologien und Technologieketten anhand vielfältiger Kriterien auf der Basis von Daten, die aufgrund des frühen Entwicklungsstadiums
178
4 Integrierte Produktdefinition und Technologieplanung
noch ungenau und unscharf sind. Damit und durch die Verknüpfung der verschiedenen Softwaretools ist es gelungen, den Anwender durch ein vollständiges Werkzeug bei sämtlichen Aktivitäten der Technologieauswahl zu unterstützen. Generieren von Technologieketten Obwohl aus Untersuchungen zum Simultaneous Engineering zahlreiche Methoden und Hilfsmittel zum werkstoff- und fertigungsgerechten Konstruieren sowie zur Integration von verschiedenen Unternehmensbereichen hervorgehen, wird dem frühzeitigen Generieren alternativer Werkstoff- und Verfahrensanwendungen nur unzureichend Aufmerksamkeit geschenkt (Fallböhmer 2000). Ein effektiver, ganzheitlicher Planungsansatz zur Herstellung von Produkten wird durch die integrierte Technologieplanung – eine integrierte Produkt- und Prozessgestaltung – angestrebt, die der Idee des Simultaneous Engineering folgt (Abb. 4.33) (Klocke et al. 1997, S. 186 ff.). Durch den Beginn der Prozesskettengestaltung in einem frühen Stadium von Produktentwicklung wird eine optimale Abstimmung der Produktanforderungen und vorhandenen Prozessmöglichkeiten erreicht (Eversheim et al. 1997, S. 367 ff.). Produkt
Konstrukteur
Technologie Technologieplanung
Grobplanung
Produkt Anforderungen:
Betrachtung der funktionalen Produktelemente
Geometrie Werkstoff und Werkstoffeigenschaften Maß- und Formtoleranzen
Feinplanung
Oberflächenqualität
Erweiterung um die
Alternative I
Alternative II
Technologie A
Technologie A
Technologie B
Technologie D
Technologie C
Technologie E Technologie F
nicht-funktionalen Produktelemente
Technologieplaner
Abb. 4.33. Integrierte Technologieplanung
Die integrierte Technologieplanung besteht aus Produkt- und Produktionsplanungsphasen, die zeitlich parallel angeordnet sind. Sie beginnt nach der groben Definition eines Produkts, sobald erste für die Technologieauswahl relevante Informationen zur Verfügung stehen. Diese häufig unvollständig definierten Produktattribute werden für eine grobe Auswahl von Produktionsprozessen genutzt, indem die Produktattribute mit den Leistungsmerkmalen der Produktionstechnologien abgeglichen werden. Die Unsicherheit der verfügbaren Daten erlaubt die Berücksichtigung von Technologien, deren Leistungsprofil nicht vollständig mit
4.6 Einsatzplanung von Fertigungstechnologien
179
den Anforderungen des Produktes übereinstimmt. Die Produktattribute können somit noch an die Möglichkeiten einer Technologie anpasst werden. Durch diesen frühzeitigen Abgleich können kostenintensive Produktänderungen in späteren Phasen der Produktentwicklung vermieden werden. Im weiteren Verlauf der Produktentwicklung definiert der Konstrukteur in der Detailplanungsphase die restlichen Attribute des Produkts. Die Planung und Optimierung einer Technologiekette erfolgt losgelöst von unternehmensspezifischen Restriktionen. Dazu wird ein möglichst breites Technologiespektrum unter Berücksichtigung neuer Werkstoffe und Verfahren unter dem Aspekt der optimalen Kombination der einzelnen Fertigungstechnologien betrachtet. Eine Technologiekette ist nun die Kombination von Fertigungsverfahren in einer bestimmten Reihenfolge zur Herstellung eines Produktes. Jedes Fertigungsverfahren erfüllt als Bestandteil einer Technologiekette eine bestimmte Funktion. Diese besteht darin, ein oder mehrere Merkmale des Produktes zu erzeugen bzw. zu verändern. Die durch das jeweilige Verfahren erzeugten Veränderungen lassen sich durch Werkstückzwischenzustände beschreiben (Abb. 4.34). Zwischenzustand Technologie n-1
Endzustand Technologie n-1 Zwischenzustand Eingangszustand Technologie n
Technologie n
Endzustand Technologie n
Eingangszustand Technologie n+1
Technologie n+1
Technologiekette für die Zahnradfertigung Bohren
Taumelpressen
Einsatzhärten
Abb. 4.34. Struktur einer Technologiekette (Fallböhmer 2000)
Die Betrachtung von Werkstückzwischenzuständen ist für das Generieren von Technologieketten besonders wichtig, da diese die Schnittstellen zwischen den einzelnen Technologien darstellen. So muss z.B. der temporäre Endzustand, der durch die Technologie n erzeugt wird, mit dem für die Anwendung der Technologie n+1 geforderten Eingangszustand übereinstimmen. Durch das Verbinden einzelner Technologien entsteht aus dem Rohteil, ggf. über verschiedene Zwischenzustände, das fertige Produkt mit seinen gewünschten Merkmalsausprägungen. Aufbauend auf den generierten Technologieketten können diese nun in ein bestimmtes Unternehmensumfeld implementiert und anhand ihrer Vor- und Nachteile bewertet werden.
180
4 Integrierte Produktdefinition und Technologieplanung
Die computertechnische Umsetzung der dargestellten Methode erlaubt es ferner, Bereiche der Fertigungstechnologieplanung zu automatisieren und somit den steigenden Planungsaufwand bei zunehmender Produktkomplexität zu kompensieren. Weiterhin lassen sich auf diese Weise Schnittstellen zur Prozesssimulation erzeugen, die eine weitere Integration von Konstruktion, Technologieplanung und Verfahrensauslegung mit sich bringen. Insbesondere die Integration der Prozesssimulation in die Planungsaktivitäten lässt sich durch eine computertechnische Umsetzung vereinfachen. Integration der Prozesssimulation in die Technologieplanung Qualität und Rechenumfang von Simulationsprogrammen steigen ständig. Mit zunehmenden Rechnerkapazitäten und -leistungen nehmen Komfort und Umfang der Simulationsmöglichkeiten jedoch trotzdem zu. Sie ersetzen somit in zunehmendem Maße die konventionellen Methoden der Datengewinnung, allerdings ohne diese überflüssig zu machen. So wird im Anschluss an die Simulationen vor Anlauf der Produktion stets eine Reihe von Versuchen stehen. Die Fragestellungen der Einsatzplanung von Fertigungstechnologien, auf die die Ergebnisse einer Prozesssimulation eine Antwort geben können, sind: x Kann der Fertigungsschritt ohne Schaden an Bauteil und Werkzeug durchgeführt werden? x Hat das so gefertigte Bauteil auch tatsächlich die gewünschten Eigenschaften (Form, Eigenspannungen, Gefüge bzw. daraus abgeleitet Stabilität, Lebensdauer, Toleranz etc.)? Für den Einsatz von Prozesssimulationen in der Technologieplanung sind beide Fragestellungen relevant. Sie lassen sich jedoch prinzipiell methodisch gleich behandeln. Die hier entwickelte Methodik zur Integration der Prozesssimulationen in die Technologieplanung berücksichtigt neben den beiden genannten Fragestellungen auch den Einsatz in frühen Phasen der Produktentwicklung. Hier sind zumeist nicht alle Daten und Informationen genau definiert. Für die Simulation bedeutet dies, dass unscharfe Eingangsdaten verarbeitet werden müssen. Heutige Simulationsprogramme können dies bisher nicht, demzufolge ist eine Defuzzifizierung der vorhandenen Daten notwendig. In den folgenden Abschnitten wird ein Vorgehen für eine sinnvolle Auswahl von Simulationen und deren Durchführung vorgestellt. Um bei der Durchführung von Prozesssimulationen methodisch und effizient vorzugehen, muss eine hierarchische Aufstellung der unscharfen Bauteil- bzw. Prozessmerkmale erfolgen. Dies bedeutet, dass diejenigen Merkmale, deren Kenntnis zur Durchführung einer Simulation notwendig ist, ihrer Bedeutung nach geordnet werden. Wichtige Merkmale bzw. Merkmalgruppen (etwa mechanische Kenngrößen) stehen an der Spitze. Dieses Vor-gehen bewirkt, dass der Konstrukteur bzw. Technologieplaner unmittelbar die relevanten Parameter identifizieren und bei einer notwendigen Anpassung von Prozess oder Bauteil verändern kann. Die Abfrage der prozessabhängigen Merkmalhierarchie ist über die Ablage in einer Datenbank leicht automatisierbar, so dass sowohl Konstrukteur als auch
4.6 Einsatzplanung von Fertigungstechnologien
181
Technologieplaner keine aufwendigen Überlegungen anstellen müssen, wie am ehesten eine Optimierung (Machbarkeit) erreicht werden kann. Der iterative Prozess der Technologiefindung und Bauteilspezifikation ist damit zielgerichtet durchführbar. Hierfür werden die Merkmale zuvor in vier Kategorien eingeteilt: x x x x
mechanische Merkmale, geometrische Merkmale, thermische Eigenschaften und chemische und Material verändernde Eigenschaften.
Zur hierarchischen Ordnung der Merkmale werden nun analog die Gewichtungen der Merkmale aufgestellt. Ferner wird aus der Summe der Gewichtungen der Einzelmerkmale eine Kenngröße für die erforderliche Gesamtbestimmtheit des Bauteils abgeleitet. Ist die Spezifikation ermittelt und ist diese Information mit den erforderlichen Daten zum Durchführen einer Simulation abgeglichen, so kann eine Liste aller simulierbaren Verfahren angegeben werden. Mit diesen Informationen wissen Konstrukteur und Technologieplaner bereits beim Erstellen einer Technologiekette, ob ein bestimmter Prozessschritt simuliert werden kann oder nicht. Auf dieser Basis kann dann die Auswahl der Prozessschritte erfolgen, die tatsächlich simuliert werden sollen. Aus Effizienzgründen ist es nicht sinnvoll, sämtliche simulierbaren Prozesse auch tatsächlich zu berechnen. Die Auswahl soll anhand von Überlegungen erfolgen, welche Prozesse als kritisch einzustufen sind. Abbildung 4.35 zeigt den iterativen Ablauf der Technologie- und Bauteilfestlegung unter Zuhilfenahme von Prozesssimulationen. Die Anzahl der durchführbaren Simulationen hängt maßgeblich von den zur Verfügung stehenden Rechnerkapazitäten ab. Diese entscheiden über den Zeitaufwand, der für die Simulationen veranschlagt werden muss. Entsprechend müssen die notwendigen Simulationen reduziert werden, dies geschieht durch die gezielte Auswahl von Prozesspermutationen. Die Auswahl der Permutationen sollte unter hierarchischen Gesichtspunkten erfolgen. Um möglichst sparsam mit den Rechnerressourcen umzugehen, werden die Parameter daher in der Reihenfolge ihrer Wichtigkeit „von oben nach unten“ abgearbeitet, bis die maximale Anzahl von möglichen Permutationen erreicht ist (Abb. 4.36). Abschließend werden die Simulationsergebnisse der Permutationen zusammengeführt und analysiert. Anschließend kann eine Aussage über die Prozessfähigkeit und -sicherheit getroffen werden.
182
4 Integrierte Produktdefinition und Technologieplanung
Konstruktionsingenieur bzw. Technologieplaner
Ermitteln der möglichen Simulationen, Auswahl der Prozesse
PS
HMW
Durchführung der Simulationen Simulationsabteilung Darstellung der Eignungen Feedback
Konstruktionsingenieur bzw. Technologieplaner
Anpassung der Parameter / Merkmale
Legende: PS = Planungssicherheit HMW = Hierarchische Merkmalwichtigkeit
Abb. 4.35. Iterativer Ablauf der Technologie- und Bauteilfestlegung
Thermische Merkmale
Mechanische Merkmale
Merkmal
MerkmalWichtigkeit
E-Modul
1
Obergrenze
•
Streckgrenze Schubmodul
2
TemperaturÜbergangsKoeffizient Spezifische WärmeKapazität Thermischer AusdehnungsKoeffizient
abnehmend
Mittelwert
• • •
• • •
UmgebungsTemperatur
Abb. 4.36. Auswahl der Permutationen aus hierarchischer Darstellung
Untergrenze
•
•
•
4.6 Einsatzplanung von Fertigungstechnologien
183
4.6.3 Referenzprozess für das Technologiemanagement Bisher wurden verschiedene (miteinander) verknüpfte Softwareprototypen zur Unterstützung des Technologiemanagements vorgestellt. Sie zeigen die Funktionalität der zugrunde liegenden Funktionsprinzipien und Methoden. Zur tatsächlichen Nutzbarkeit der Methoden und insbesondere der Software muss jedoch auch gewährleistet sein, dass diese in die Abläufe von Unternehmen integriert werden können. Insbesondere vor dem Hintergrund, dass Prototypen häufig von einer einzigen Person angewendet werden, während die meisten Aufgaben im Technologiemanagement den Einsatz vieler unterschiedlicher Fachkräfte erfordern, müssen die Voraussetzungen für eine Operationalisierung der Methoden geschaffen werden. Hier bietet es sich an, zunächst einen Referenzprozess für das Technologiemanagement zu definieren, der als Grundlage für die Verteilung der Rollen bzw. Funktionen bei der Anwendung von softwaretechnischen Hilfsmitteln dient.
operativ operativ strategisch strategisch normativ normativ
Markt
Kunde
Externe Einflussfaktoren
Technologieleitbildformulierung Technologieplanung
Technologieentscheidung TechnologieTechnologie controlling Technologierealisierung
Langfristig Produkt, Technologie
Mittelfristig Interne Einflussfaktoren
Kurzfristig Personal, IuK-Technologie
Abb. 4.37. Konzept des Geschäftsprozesses Technologiemanagement
Unter einem Geschäftsprozess wird eine bestimmte Folge von Aktivitäten verstanden, die in unmittelbarer Beziehung zueinander stehen. Diese Folge von Aktivitäten dient der Erfüllung des Unternehmensziels und kann in quantitativer sowie qualitativer Hinsicht mit konkreten Werten belegt bzw. bewertet werden. Abbildung 4.37 zeigt, wie der Geschäftsprozess Technologiemanagement aufbauend auf dem St. Galler Management Konzept in drei Ebenen gegliedert ist (Walker 2003). Die erste Ebene stellt die normative, strategische und operative Managementdimension dar. Als zweite Ebene wird die zeitliche Ausrichtung lang-,
184
4 Integrierte Produktdefinition und Technologieplanung
mittel- und kurzfristig genutzt. Die ablauforientierte Gliederung des Prozesses in Phasen, Vorgänge und Aufgaben findet auf der dritten Ebene statt. Aufgrund der Einteilung in die verschiedenen Managementdimensionen und Umsetzungszeiträume wird der Geschäftsprozess in die Phasen Technologieleitbildformulierung, Technologieplanung, Technologieentscheidung, Technologierealisierung und Technologiecontrolling unterteilt (Abb. 4.37) (Walker 2003). Zwischen den jeweiligen Phasen sowie innerhalb werden ergebnisorientiert Meilensteine definiert, um das Controlling zu unterstützen und um fest definierte Ergebnisse zu erlangen. Durch den Geschäftsprozess werden wichtige Aufgaben dargestellt, die erforderlich sind, um von den normativen Unternehmensvorgaben systematisch zu umsetzbaren Fertigungsfolgen für vorhandene oder geplante Produkte zu gelangen. Der Geschäftsprozess schließt unterschiedliche Unternehmensbereiche und Akteure ein, die nachfolgend beleuchtet werden. Im Folgenden werden die Phasen des in Abb. 4.38 gezeigten Referenzprozesses für das Technologiemanagement kurz erläutert. x Technologieleitbildformulierung: Die Formulierung des Technologieleitbildes erfolgt in der ersten Phase des Geschäftsprozesses Technologiemanagement. Sie beinhaltet wichtige Aufgaben des normativen sowie teilweise des strategischen Managements, z.B. die Definition technologischer Kernkompetenzen. x Technologieplanung: Aufgabe der Technologieplanung ist es, auf Basis des Technologieleitbildes die expliziten Technologiestrategien für einzelne Technologien zu formulieren sowie die unterstützenden Bereiche Forschung, Entwicklung und Produktion miteinzubeziehen. x Technologieentscheidung: Im Rahmen der Technologieentscheidung müssen Technologieprojekte für die operative Umsetzung ausgewählt, eine unternehmensweite TechnologyRoadMap erstellt und Make-or-buy-Strategien für Produkte bzw. Einzelteile definiert werden. Durch die Technologieentscheidung werden die strategischen Vorgaben der Technologieplanung detailliert und die kurz- bis mittelfristigen Aktivitäten für die Technologierealisierung terminiert. x Technologierealisierung: Die Technologierealisierung soll den Transfer der strategischen Ziele und Ergebnisse in operative Maßnahmen und Ergebnisse sicherstellen. Ziel ist es, auf Basis der ausgewählten Umsetzungsprojekte die Serienproduktion zu ermöglichen. x Technologiecontrolling: Das Technologiecontrolling ist eine Phase, die zwar am Ende des Geschäftsprozesses angeordnet ist, aber Einfluss auf alle zuvor ablaufenden Phasen hat. Ziel des Technologiecontrollings sind die laufende Überprüfung der Voraussetzungen und die nachgelagerte Überprüfung der Ergebnisse sowie die Ableitung von Maßnahmen bei Abweichungen von Zielgrößen.
V
Bewertung vorhandener Technologien VI Früherkennung von Trends VII Technologiepotenzialbewertung VIII Festlegung technologischer Grundorientierung
II
33
IIII 11
22 44
55
12 12 Unternehmens11 11 spezifische 8 8 Randbedingungen 9 III III10 9 10 IV IV Wettbewerbsstrategien
77 TechnologieleitTechnologieleit bildformulierung
XVII Def. Technologie Balanced Scorecard XVIII Kontrolle Zielvorgaben XIX InitiierungMaßnahmen
VV 16 16
Ermittlung Technologieszenarien... IX...für zukünftige Produkte X ...für vorhandene Produkte XI Ableitung Umsetzungsstrategie XII Ermittlung Fertigungsfolgen XIII Bewertung Fertigungsfolgen XIV Fertigung Nullserie XV Optimierung Fertigungsfolge XVI Vorbereitung Serienproduktion
TechnologieTechnologie controlling controlling 29 29
66
VI VI
14 14
VII VII
VIII VIII Planungsrelevante Produkte
Technologieportfolio Wettbewerbsdaten
IX IX
22 22
20 20 21 21
XI XI
XX
23 23
-
Strategische Technologiefelder
Unternehmenskennzahlen
Entscheidungskennzahl
19 19
TechnologieTechnologie planung planung
- Managementphilosophie - Gesetze - Unternehmensziele - Unternehmensvision - Unternehmensmission
Produktionsfreigabe Realisierungsk. .
Planungsk .
13 18 13 18
17 17
Leitbildkennzahl
15 15
XIX XIX
Unternehmens Maßnahmen zur 30 Erreichung der Balanced XVIII 30 Scorecard XVIII Zielvorgaben 28 28 TechnologieXVII XVII kennzahlen
TechnologieTechnologie entscheidung 1-30: Methoden, Hilfsmittel, Quellen
Flächenbedarf Personalbedarf Anlagenauswahl
Make or BuyStrategie TechnologieRoadMap ProjektRoadMap
24 24 XII XII 25 25 XIII XIII
26
26 XIV XIV 27 27 XV XV TechnologieXVI Technologie XVI realisierung
4.6 Einsatzplanung von Fertigungstechnologien
Abb. 4.38. Geschäftsprozess Technologiemanagement
Kennzahlen Festlegung der... I ...Wettbewerbsstrategie II ...Technologiestrategie III...unternehmensspezifischer Randbedingungen IV...Controllingkennzahlen &-vorgaben
185
186
4 Integrierte Produktdefinition und Technologieplanung
Informationen sind für das Zusammenspiel der Produktionsfaktoren wichtig. Neben den klassischen Produktionsfaktoren Arbeit, Betriebsmittel und Werkstoffe wird die Information heute als vierter Produktionsfaktor interpretiert. Dabei sind die einzelnen Produktionsbereiche durch eine Vielzahl produktionsabhängiger Regelkreise verknüpft, die auf dem Informationsfluss zwischen den verschiedenen Bereichen basieren (Abb. 4.39).
Stückliste
Konstruktion Konstruktion
Arbeitsplanung Arbeitsplanung Einrichteblatt, Fertigungsund Montagemittel
Rohmaterial Rohmaterial
ProduktionsProduktions steuerung steuerung
Stückliste Produktdaten Zeichnung
Arbeitsplan Kapazitätsauslastung Arbeitspläne, Termine, Leistungen
Fertigung/ Fertigung/ Montage Montage Istwerte Leistung, Kosten
Istwerte Kapazitätsauslastung
Produkt Produkt
Planwerte Planwerte
Auftrag Auftrag
Istwerte Zeiten, Termine
Abb. 4.39. Informationsfluss in der Produktion
Auf der informationstechnischen Seite gibt es vielfältige Hard- und SoftwareLösungen, die branchenbezogene und an die betriebsspezifischen Anforderungen anpassbare Informationssysteme beinhalten. Die Informationswirtschaft muss durch geschickte Steuerung den Aufgabenträger befähigen, das notwendige Wissen auszunutzen und abzurufen. Von entscheidender Bedeutung ist hier die Bereitstellung des Wissens durch Pull- oder Push-Systeme. Push-Informationen werden dem Empfänger durch ein Kommunikationssystem zugestellt und verpflichten diesen, sich in einem gewissen Maße mit den Informationen auseinander zu setzen. Besondere Bedeutung kommt dabei der Personalisierung zu: Das Informationssystem bzw. das Wissenportal wird auf die Bedürfnisse des Mitarbeiters abgestimmt. Die Aufgabe des Angebotsmanagements besteht hier in der Entwicklung aufgaben- und benutzerorientierter Sichten, die nur diejenigen Informationen und Services herausfiltern, die ein Mitarbeiter zu einem bestimmten Zeitpunkt braucht. PullAngebote bieten nur den Zugang zu einer Sammlung von Informationen, aus denen der Informationsnachfrager gemäß seinen Bedürfnissen auswählen kann.
4.6 Einsatzplanung von Fertigungstechnologien
187
Die folgenden Unternehmensbereiche und Akteure werden für den Technologiemanagementprozess benötigt: Geschäftsleitung, Management/ Entscheider, Früherkenner, Konstrukteur, Arbeitsplaner, Controller, Entwickler, Systemadministrator, Technologieexperte, Verkauf, Marketing und Patentabteilung. 4.6.4 Applikationsmöglichkeiten Die zugrunde liegenden Methoden zur Generierung von Technologieketten und zur Bewertung der Technologiefähigkeit mittels Simulation in frühen Phasen der Produktentwicklung sind allgemeingültig. Demnach können diese Methoden für alle fertigungstechnisch erzeugten Produkte angewandt werden. Insbesondere durch die Kombination von INNOTECH, der Software für die Verkettung von Technologien, mit dem Kennzahlensystem können kontinuierlich marktorientierte Technologiestrategien abgeleitet und umgesetzt werden. Eine weitere potentielle Einsatzmöglichkeit von TECHBASE besteht darin, vorhandenes Technologie- und Planungswissen zu konservieren und es abteilungs- aber auch standortübergreifend flexibel bereitzustellen. Auch die Einbindung in Kompetenznetzwerke ist denkbar. Hier können die Hilfsmittel als Bestandteile einer Wissens- und Kommunikationsplattform fungieren. Der Referenzprozess ermöglicht schließlich die Einbettung der Software in die Unternehmen. Literatur DIN 8580 (1987) Fertigungsverfahren. Deutsches Institut für Normung eV, Berlin Eversheim W, Böhlke U, Martini C, Schmitz W (1996) Innovativer mit dem Technologiekalender. Harvard Business Manager 1: 105–112 Eversheim W, Klocke F, et al (1997) Potentials and procedure for the integrated planning of production technologies in the early phases of product development. European Journal of Operational Research 100, No 2: 367-378 Eversheim W, Tuecks G, Walker R (2002) Identification and Evaluation of Flexible Manufacturing Technologies for Mass Customisation. Annals of 2002 International CIRP Design Seminar Eversheim W, Hachmöller K, Knoche M (2003) Strategisches Technologiemanagement, Ein Trainingskonzept für ein effizientes Technologiemanagement basierend auf der Methode des Technologiekalenders. Zeitschrift für wirtschaftlichen Fabrikbetrieb No 4: 169–171 Fallböhmer M (2000) Generiern alternativer Technologieketten in frühen Phasen der Produktentwicklung. Dissertation, RWTH Aachen Hölterhoff K A (1989) Wissensbasierte Planung von Fertigungsanlagen innovativer Technologien. Dissertation, RWTH Aachen Klocke F (1996) In Prozessketten denken und handeln. wt – Produktion und Management 86, H 6: 289 Klocke F (2001) Technologisches Benchmarking im internationalen Werkzeug- und Formenbau. VDI-Z Special Werkzeug- und Formenbau, November 2001, S 26–30
188
4 Integrierte Produktdefinition und Technologieplanung
Klocke F, Fallböhmer M (1999) INNOTECH – System for the Identification of Manufacturing Processes in Early Phases of Product Development, Production Engineering. Annals of the German Society of Production Engineering, Vol. VI/I, S 115–118 Klocke F, Eversheim W, Fallböhmer M, Brandenburg F (1999) Einsatzplanung von Fertigungstechnologien – Hilfsmittel für die Technologieplanung in frühen Phasen der Produktentwicklung. Zeitschrift für wirtschaftlichen Fabrikbetrieb ZWF 94, No. 4: 186– 190 Klocke F, Fallböhmer M, Kopner A, Trommer G (2000) Methods and tools supporting modular process design. Robotics and Computer Integrated Manufacturing 16: 411– 423 Klocke F, Willms H, et al (2002) Gestalten und Optimieren von Prozessketten – Umsetzung von Fertigungsalternativen heute und morgen. AWK Aachener WerkzeugmaschinenKolloquium (Hrsg) Wettbewerbsfaktor Produktionstechnik – Aachener Perspektiven. Shaker, Aachen, S 191–216 Koller R (1994) Konstruktionslehre für den Maschinenbau: Grundlagen zu Neu- und Weiterentwicklungen technischer Produkte, 3. Auflage. Springer, Berlin Heidelberg New York Metze G (1980) Grundlagen einer allgemeinen Theorie und Methodik der Technologiebewertung. Vandenhoek und Ruprecht, Göttingen Pahl G, Beitz W (1997) Kontruktionslehre: Methoden und Anwendung. 4. Auflage, Springer, Berlin Heidelberg New Yok Rodenacker WG (1991) Methodisches Kontruieren. Konstruktionsbücher Bd 27, 4. Auflage. Springer, Berlin Heidelberg New York Roth K (1994) Kontruieren mit Konstruktionskatalogen. Bd 1, Kontruktionslehre, 2. Auflage. Springer, Berlin Heidelberg New York Scharlacken JW (1992) The advantages of Manufacturing Technology Planning. Quality Progress 7: 57–62 Seng S (1995) Einstiegsplanung in neue Fertigungstechnologien. Dissertation, RWTH Aachen Schmitz W (1996) Methodik zur strategischen Planung von Fertigungstechnologien. Dissertation, RWTH Aachen Schuh G, Schröder J, Breuer T (2003) Technologiemanagement. Was am längsten trägt, muss am sorgfältigsten geplant werden. Werkstatttechnik online 93, H 6: 503–504 Schuh G, Hachmöller K (2003) Die Nadel im Heuhaufen finden. Maschinenmarkt 5: 46– 47 Schuh G, Knoche M (2004) Technology-Based Diversification. IAMOT 2004, 13th International Conference Paper for the International Association of Management of Technologies Sonderforschungsbereich 361 (1992-2004) Modelle und Methoden zur integrierten Produkt- und Prozessplanung. http://www.sfb361.rwth-aachen.de, RWTH Aachen Tönshoff HK, Henning KR (1995) Fertigungstechnologien bewerten und auswählen. VDIZ 137, H 6: 30–33 VDI 2221 (1993) Methodik zum Entwickeln und Konstruieren technischer Systeme und Produkte. VDI Richtlinien, VDI-Verlag, Düsseldorf VDI 2222 (1997) Kontruktionsmethodik: Konzepieren technischer Produkte. VDI Richtlinien, Blatt 1. VDI-Verlag, Düsseldorf Walker R (2003) Informationssystem für das Technologiemanagement. Dissertation, RWTH Aachen
4.6 Einsatzplanung von Fertigungstechnologien
189
Westkämper E (1987) Strategische Investitionsplanung mit Hilfe eines Technologiekalenders. Wildemann H (Hrsg) Strategische Investitionsplanung für neue Technologien in der Produktion, Bd 3. Stuttgart, S 143–181 Weule H (1996) Die Bedeutung der Produktentwicklung für den Industriestandort Deutschland. VDI-EKV Jahrbuch 1996, VDI-Verlag, Düsseldorf Zahn E (1994) Produktion als Wettbewerbsfaktor. Corsten H (Hrsg) Handbuch Produktionsmanagement. Gabler, Wiesbaden
5 Integrierte Produkt- und Produktionsprozessgestaltung
5.1 Konstruktionsbegleitende Prüfablauf- und Prüfmitteleinsatzplanung Aufbauend auf einer Analyse der Schnittstellen, die die Prüfplanung sowohl intern als auch zu anderen Bereichen innerhalb der Prozesskette der Produktentstehung eines Unternehmens unterhält, wird in diesem Kapitel eine Methode zur optimierten Prüfablauf- und Prüfmitteleinsatzplanung vorgestellt. Des Weiteren werden Methoden vorgestellt, die eine kostenoptimale Toleranzallokation ermöglichen und ein effizientes wissensbasiertes Prüfmittelmanagement unterstützen. Die benötigten Eingangsinformationen erstrecken sich auf die relevanten Unternehmensbereiche und die mit der Prüfplanung ausgetauschten Informationen. Dabei liegt der Fokus auf der Produktgeometrie und den Konstruktionsdaten sowie auf Kundenforderungen und den daraus abgeleiteten Produktmerkmalen. Daneben werden Informationen bezüglich der Technologiekette und alternativer Prozessketten in die Überlegungen einbezogen. Die Kostenstruktur des Unternehmens und die Informationen über die Verfügbarkeit von Prüfmitteln stellen einen weiteren Input dar. Als Ausgangsgrößen werden die Prüffolgen sowie die Anforderungen an die Bereitstellung der einzusetzenden Prüfmittel generiert. Es werden Entscheidungen bezüglich der Prüfnotwendigkeit und der Prüfzeitpunkte sowie Sensibilitätsaussagen zu Toleranzen getroffen. Darüber hinaus werden Merkmalskosten ermittelt und deren Abhängigkeit von den Toleranzen dargelegt. Auf Basis der Schnittstellenanalyse werden mit der Toleranzkosten-Sensitivitätsanalyse (TKSA) die Zusammenhänge zwischen Toleranzfestlegung und den daraus resultierenden Merkmalskosten in frühen Phasen der Produktentwicklung festgelegt. Außerdem werden die einzusetzenden Prüfmittel mithilfe eines wissensbasierten Prüfmittelmanagement Systems (WiP) bestimmt. Beide Komponenten führen zu einer integrierten Prüfplanung, die im Sinne des SE konstruktionsbegleitend und parallel zu den planenden Tätigkeiten ausgeführt wird. Die Effizienz der Prüfplanung erhöht sich durch die optimierten Abläufe und die frühe Einbindung in die Produktentwicklung. Zur Verkürzung der Time-To-Market gilt es, notwendige Planungsaufgaben effizient und effektiv zu bearbeiten (Eversheim et al. 1995, S. 1 ff.). Eine wesentliche Herausforderung besteht darin, die bislang traditionell sequenziell durchgeführten Unternehmensaktivitäten zu parallelisieren. Dazu müssen deren interne
192
5 Integrierte Produkt- und Produktionsprozessgestaltung
und externe Abhängigkeiten analysiert und transparent gemacht werden. Dies wird durch eine umfassende Modellierung der Schnittstellen erreicht. 5.1.1 Methode zur Modellierung der Prüfplanung Die funktionsorientierte Structured Analysis and Design Technique (SADT) bildet Funktionen beziehungsweise Tätigkeiten ab, die miteinander vernetzt werden. Die Verbindung erfolgt über Eingangs- und Ausgangsinformationen, die den Funktionen zugeordnet sind. Initiierende Informationen beeinflussen als Auslöser die Durchführung einer Aktivität. Die Methode erlaubt auch die Darstellung von Hilfsmitteln, die bei der Durchführung der Tätigkeiten zu benutzen sind (Ross 1977, S. 16 ff.; Schulz 1990, S. 59 ff.). Diese Methode erfüllt die generellen Anforderungen, die die Prüfplanung an eine Modellierung der Schnittstellen stellt. In Bezug auf die Ausgestaltung ist jedoch eine methodische Anpassung erforderlich: Datenstrukturelemente werden konzipiert und die differenzierte Betrachtung von Funktionen ermöglicht. Der erweiterte SADT-Baustein modelliert sowohl mehrere Eingangs- und Ausgangsinformationen als auch die Verwendung mehrerer Hilfsmittel. Zudem ist es möglich, umfangreiche Funktionen zu detaillieren, indem aggregierte Tätigkeiten in Untertätigkeiten aufgespaltet werden. Bei der Prüfplanung ist eine Differenzierung zwischen internen und externen Zusammenhängen zweckmäßig. Während die internen Abhängigkeiten die einzelnen Funktionen der Prüfplanung beschreiben, werden die interagierenden Unternehmensbereiche von den externen Schnittstellen erfasst. Die Informationsbeziehungen werden gleichermaßen zwischen den aggregierten und den detaillierten Prozessen dargestellt und können individuell, an die spezifische Situation angepasst, ausgewertet werden. Mit der Erweiterung ist die SADT-Methode optimal geeignet, um die komplexen Zusammenhänge der Prüfplanung zu modellieren. 5.1.2 Methode zur Modellierung der Prozessabläufe Zur Untersuchung und Modellierung der Prozessabläufe wurde auf die Modellierungssprache der Petrinetze zurückgegriffen, die eine Weiterentwicklung der Ablaufdiagramme darstellen. Um alle erforderlichen Dimensionen der behandelten Prozesse abbilden zu können, werden mehrdimensionale Petrinetze mit individuellen Marken eingesetzt. Gerade zur Darstellung und Rückverfolgung von komplexen und weit verzweigten Prozessen, die zu beherrschen ein wichtiges Ziel des Qualitätsmanagements ist, bietet die Theorie der Petrinetze eine geeignete Unterstützung (Pieper 1998, S. 21 ff.). Der Graph jedes Petrinetzes basiert auf einer Folge von miteinander verbundenen Stellen und Transitionen, wobei eine Stelle einem Zustand, eine Transition einer Aktivität des modellierten Systems entspricht. Das dynamische Verhalten beruht auf der Weitergabe von Marken, die als Token bezeichnet werden. Die
5.1 Konstruktionsbegleitende Prüfablauf- und Prüfmitteleinsatzplanung
193
Weitergabe der Token durch eine Transition von einer Stelle an eine andere ist an eine Bedingung geknüpft, die fest mit der Transition verbunden ist. Aufgrund der Möglichkeit, mit Petrinetzen komplexe weit verzweigte Prozesse abbilden zu können, ergibt sich das Potenzial, alle Varianten des Fertigungsprozesses zu untersuchen. Die mehrdimensionalen Petrinetze mit individuellen Token ermöglichen es, dass in jeder vom Token durchlaufenen Bearbeitungsstation ein Merkmalobjekt angelegt wird (Klonaris 1998, S. 77 ff.). Um eine eindeutige Identifikation zu gewährleisten, muss ebenfalls der das Produktionsobjekt repräsentierende Token identifizierbar sein. Dazu erhält jeder Token eine eindeutige Identifikationsnummer. Solange die Produktionseinheiten ohne mengenmäßige Veränderungen oder Vereinigungen mit anderen Losen weitergegeben werden, dienen die Token als Container für Merkmalobjekte. Für eine Aufspaltung bzw. für eine Vereinigung von Losen im Produktionsprozess wird eine Vorgänger- Nachfolgerverwaltung benötigt, die eine lückenlose Rückverfolgbarkeit sicherstellt (Jensen 1997, S. 2 ff.; Starke 1990, S. 1264 ff.). Petrinetze bieten sich insbesondere für die Modellierung realer Produktionsprozesse an, da in diesen komplexe und parallele Prozessstrukturen vorliegen. Ein weiterer entscheidender Vorteil von Petrinetzen gegenüber den herkömmlichen Methoden ist die Rückverfolgung einzelner Objekte im Produktionsprozess. Petrinetze gewährleisten eine Rückverfolgbarkeit der Produktionslose auch bei komplexen Prozessen, bei denen einzelne Lose getrennt, vermischt oder Teile eines Loses in mehreren Endprodukten als Komponenten verwendet werden. Damit erfolgt ein Feedback von simulierten Prozessinformationen in die frühen Phasen der Prozessplanung. 5.1.3 Methode zur Minimumkosten-Tolerierung Die Zielsetzung der Vorgehensweisen zur Minimumkosten-Tolerierungen ist eine baugruppenübergreifende Minimierung der Herstellkosten bei gleichzeitiger Erhaltung der Funktionsfähigkeit des Produktes und der Baugruppen. Sie können in zwei Gruppen eingeteilt werden: Toleranzanalyse und Toleranzsynthese (Ngoi 1998, S. 910 ff.; Wu 1998, S. 223 ff.). Ein Toleranz-Kosten-Zusammenhang, der über eine streng monoton fallende Kurve über der Toleranzfeldbreite dargestellt wird, ist weit verbreitet und kann durch unterschiedliche mathematische Funktionen beschrieben werden. Er eignet sich sehr gut für analytische Betrachtungen, weil diese Funktionen differenzierbar sind. Unstetige und nichtdifferenzierbare Funktionen führen zu einem erhöhten Aufwand bei den Minimierungsalgorithmen. Werden die Zusammenhänge durch diskrete Wertepaare beschrieben, liegen die möglichen Toleranzen bereits zu Beginn fest. Die Beschaffung der relevanten Kostengrößen ist mit hohem Aufwand verbunden. Ein wesentlicher Aspekt stellt die Auswahl der zu berücksichtigenden Kostenarten dar (Baumann 1977, S. 73 ff.; He 1991, S. 455 ff.; Szyminski 1993, S. 169 ff.).
194
5 Integrierte Produkt- und Produktionsprozessgestaltung
Neben der rein fertigungstechnischen Kostenbetrachtung bestehen Ansätze, eine geringe Abweichung von der vorgegebenen Toleranz zuzulassen. Ganzheitlich betrachtet ist die Verlustfunktion von Taguchi (Taguchi 1987, S. 593 ff.) bei einer Optimierung der Toleranzen zu berücksichtigen (Gerth 1996, S. 3ff.; Stark 1999, S. 1264 ff.). Hierbei wird der Kostenersparnis durch eine Aufweitung von Toleranzen ein bestimmter Aufwand gegenüber gestellt. Dieser kann durch eine erhöhte Ausschussproduktion oder Prüfnotwendigkeit verursacht werden. Ebenso stellen die Abweichungen der Produkteigenschaften von den Kundenwünschen einen Verlust für das Unternehmen dar. Die Verlustfunktion von Taguchi hat ein Minimum, von welchem aus der Verlust für ein Unternehmen überproportional mit der Abweichung steigt. Diesen Verlust gilt es zu minimieren. 5.1.4 Effiziente Ausgestaltung der Prüfplanung Die Prozesskette der Auftragsabwicklung wird derzeit bis auf die zeitgleich ausgeführte Arbeits- und Prüfplanung sequenziell durchlaufen. Hieraus resultieren sowohl lange Entwicklungszeiten (Eversheim 1995, S. 3 ff.) als auch hohe Fehlerkosten (Eversheim 1997, S. 17 ff.). Während die lange Dauer bis zur Produktreife durch die sequenzielle Abfolge der Vorgänge erklärt werden kann, resultiert die Entwicklung der Fehlerkosten aus der Beziehung zwischen Fehlerentstehung und Fehlerentdeckung bzw. -behebung (Pfeifer 2001, S. 394 ff.). Die auf Basis der Modellierung durchgeführte Analyse ermöglicht durch genaue Kenntnis der Informationsbeziehungen die Durchführung der Prüfplanung weitgehend parallel zu den anderen Funktionen im Produktentstehungsprozess. Die komplexen Zusammenhänge zwischen den interagierenden Unternehmensbereichen fordern eine Modellierungsmethode, mit der eine transparente Darstellung realisiert werden kann. Durch die parallele Durchführung von Arbeits- und Prüfplanung sowohl in der Prototypen- als auch in der Vorserienfertigung können die aus der anlaufenden Produktion gewonnenen Informationen über kleine Regelkreise in die Planungen integriert werden (Tönshoff 1991). Vor dem Hintergrund, dass nicht alle relevanten Informationen zu frühen Zeitpunkten von der Konstruktion an die Prüfplanung übergeben werden können, ist ebenfalls eine parallele Durchführung der Prüfplanung in Bezug zu Konstruktion und Entwicklung anzustreben (Pfeifer 2001, S. 417 ff.). Zu Beginn der Entwicklung eines Produktes kann aufgrund mangelnder Informationen noch kein vollständiger Prüfplan erstellt werden, die wesentlichen Prüfmerkmale können aber durchaus schon in frühen Stadien identifiziert werden. Unter Zuhilfenahme der Fehlermöglichkeits- und Einflussanalyse kann auf diese Weise eine effiziente Planung erfolgen. 5.1.5 Die Toleranzkosten-Sensitivitätsanalyse (TKSA) In der Konstruktion wird ein Großteil der Produkt- und Produktionskosten festgelegt. Der Fokus bezogen auf den Produktionsprozess liegt dabei auf der Wahl
5.1 Konstruktionsbegleitende Prüfablauf- und Prüfmitteleinsatzplanung
195
der Fertigungstoleranzen. Durch die Vorgabe einer Toleranzklasse wird die Fertigungstechnologie einerseits und die Einflussnahme auf die Produktkosten andererseits stark eingeschränkt. Aus diesem Grund wurde eine Methodik entwickelt, die auf Basis fraktaler Informationen in der Konstruktion den Brückenschlag zwischen Kostenverursacher und Kostenfestleger in Bezug auf Fertigungstoleranzen und somit eine Möglichkeit zur Produktkostenoptimierung schafft. Prinzip und Ziel der Toleranzkosten-Sensitivitätsanalyse Die TKSA besteht in ihrem Kern aus der Verknüpfung einer MinimumkostenTolerierung und einer Sensitivitätsanalyse mittels eines teilfaktoriellen Versuchsplanes der Statistischen Versuchsmethodik (Gerth 1996, S. 3 ff.). Die genaue Ausgestaltung der Bausteine und der Ablauf werden im Folgenden näher erläutert. Ausgangsgrößen sind zum einen kostenminimale Toleranzkombinationen bei gegebenen Kostenszenarien und zum anderen die Kostensensitivitäten der Toleranzen. Sie werden durch eine gleichzeitige Variation von einzelnen Toleranzen und den durch sie verursachten Kosten generiert. Das Ziel der TKSA ist die Minimierung der Produktkosten. Aufgrund der Datenunsicherheit, die gerade in frühen Phasen der Produktentwicklung besteht, hat die TKSA des Weiteren das Ziel, kostensensitive Merkmale des Produktes von kostenunempfindlichen Merkmalen zu unterscheiden. Kostensensitivität bedeutet in diesem Zusammenhang, ob und mit welcher Ausprägung sich die kostenminimierende Bauteiltoleranz ändert, wenn sich die einzelnen Herstellkosten für die Toleranzen der betrachteten Baugruppen ändern. Aufgrund der Kenntnis der Kostensensitivität der einzelnen Bauteile kann eine Abschätzung der Produktkosten erfolgen. Es können die Produktmerkmale identifiziert werden, die bei der weiteren Entwicklung einen Einfluss auf die Produktkosten nehmen. Gleichzeitig werden die kritischen und unkritischen Merkmale bezüglich der Produktqualität identifiziert (Abb. 5.1). Sind kritische Merkmale identifiziert, kann die Information zu einem sehr frühen Zeitpunkt des Produktentstehungsprozesses an die Prozess- und Prüfplanung gegeben werden, da diese Merkmale hohe Anforderungen an die Prozess- und Prüfmittelfähigkeit stellen. Bei unkritischen Merkmalen wird der Prozess- und Prüfplanung die Information weitergegeben, dass ein möglichst günstiges Fertigungsverfahren mit geringen Anforderungen an die Prüfplanung gewählt wird. Die Ziele der TKSA werden durch eine frühe Integration von Kostendaten erreicht, denn nur durch sie kann eine Abschätzung der Produktkosten erfolgen. Toleranzen werden bereits in einem frühen Entwicklungsstadium des Produktes einer Analyse und Synthese unterzogen, um die Funktionalität des Produktes zu gewährleisten und um möglichst frühzeitig kostenbewusst zu planen. Bei der Synthese wird zudem die Mehrfachverwendung von Bauteilen innerhalb einer Baugruppe berücksichtigt.
196
5 Integrierte Produkt- und Produktionsprozessgestaltung
Planen B CD
Konzipieren
F EH G I
Dri ve Housing
Planet Hol der
Entwerfen
Output Housing L
J
A
K Dri ve Shaft
Sun U
V
Output Shaft W
Y
Ausarbeiten Involute Gear
(Konstruktionsablauf nach VDI 2222)
Toleranzinformationen
feine Toleranzen grobe Toleranzen ungeklärte Toleranzen
ToleranzkostenSensitivitätsanalyse (TKSA) kritische Toleranzen unkritische Toleranzen ungeklärte Toleranzen
Toleranzkosten
Kosten
Prozessplanung
h5
h9
Toleranz
Prüfplanung
Abb. 5.1. Prinzip der Toleranzkosten-Sensitivitätsanalyse
Konzept und Vorgehensweise der TKSA In den frühen Produktentstehungsphasen ist von Bedeutung, über welche Produktmerkmale trotz der frühen Designphase bereits Toleranzaussagen getroffen werden können und inwieweit einzelne Toleranzen einen Einfluss auf die Kostenstruktur des Produkts haben. Darüber hinaus ist von Interesse, in welchen Kostengrößenordnungen sich die Fertigung des Endprodukts bewegen wird. In der frühen Designphase kann nicht exakt vorausgesagt werden, welche Kostenauswirkungen eine festgelegte Merkmaltoleranz haben wird, es lässt sich jedoch mit hoher Genauigkeit die Spannweite angeben, in der diese Kosten variieren können. Demzufolge existiert für jedes Merkmal eine obere und eine untere Toleranzkostenkurve, deren Einfluss auf das Endprodukt innerhalb der TKSA beschrieben wird (Pfeifer u. Merget 2002, S. 1 ff.).
5.1 Konstruktionsbegleitende Prüfablauf- und Prüfmitteleinsatzplanung
197
Die Vorgehensweise zur Durchführung der TKSA gliedert sich in die folgenden Schritte: Referenzdesign bestimmen/ Toleranzmerkmale aussuchen Für alle Betrachtungen innerhalb der TKSA wird ein Referenzdesign zugrunde gelegt, das in Verbindung mit der Auswahl der Toleranzkette und der zugehörigen Montagetoleranz sowie den entsprechenden Einzeltoleranzen die Ausgangsbasis für die Anwendung der TKSA bildet. Das Referenzdesign ist ein ähnliches oder artverwandtes Produkt, über welches Kosten- und Toleranzinformationen bekannt sind bzw. in Erfahrung gebracht werden können. Montagetoleranzgleichung aufstellen/ Toleranzgrenzen festlegen Für die im vorigen Punkt gewählten Toleranzmerkmale wird eine Montagetoleranzgleichung aufgestellt sowie die Toleranzgrenzen festgelegt, zwischen denen eine Fertigung sinnvoll ist. Diese Punkte orientieren sich an der Vorgehensweise der Minimumkosten-Tolerierung und werden im Folgenden beschrieben. Die oben beschriebene Abhängigkeit der Toleranzen lässt sich in Form einer Gleichung, der Montagetoleranzgleichung, in folgender allgemeiner Form ausdrücken:
Y
E 0 E A A E B B E C C E D D ...
(5.1)
Die Variablen haben folgende Bedeutung: Y
Montagetoleranz/ Baugruppenmerkmal
A, B, C, D
Toleranzen der Merkmale A, B, C, D
EA, EB, EC, ED
Wirkungsfaktoren der Toleranzmerkmale.
Zur Bestimmung der Montagetoleranzgleichung sind prinzipiell drei verschiedene Vorgehensweisen zu unterscheiden: x Schätzen x Mathematische Herleitung x Regressionsanalyse Die erste Methode ist die ungenaueste Methode, da die Koeffizienten durch das SE-Team in einem mentalen one-factor-at-a-time-Experiment abgeschätzt werden. Hierbei werden nacheinander die Auswirkungen einer Veränderung eines bestimmten Faktors auf die Gesamttoleranz abgeschätzt. Die mathematische Herleitung nutzt für die Bestimmung der Montagetoleranzgleichung die geometrischen Verhältnisse aus. In der Umgebung der dreidimensionalen Geometrie stellt sich diese Methode oftmals als sehr komplex und zeitaufwendig dar. Hinzu kommt, dass im frühen Produktentstehungsprozess die exakte Produktgeometrie noch nicht vollständig bekannt ist. Aus diesem Grund ist die Anwendung dieser Methode erst dann möglich, wenn das Produktdesign in einer ausreichend genauen Form bekannt ist bzw. dem Referenzdesign ähnelt.
198
5 Integrierte Produkt- und Produktionsprozessgestaltung
Eine weitere Methode zur Herleitung der Montagetoleranzgleichung ist die Regressionsanalyse, die vor allem dann angewendet wird, wenn ein nichtgeometrisches Merkmal analysiert werden soll. Diese Methode hat den Nachteil, dass sie eine große Anzahl bereits produzierter Produkte benötigt; deshalb ist sie nur effektiv, wenn die Produktion bereits angelaufen ist. Toleranzkostenkurven bestimmen Um die Kostensensitivität der Baugruppe abschätzen zu können, müssen zuerst Kosteninformationen zu den einzelnen Merkmalen vorliegen. Das Kosten-Toleranz-Verhältnis wird entweder in einer Kurvenform dargestellt oder es liegt in diskreten Wertepaaren vor. Für die Kostenschätzung wird das Referenzdesign zugrunde gelegt Zunächst wird für jedes Merkmal eine feinste und eine gröbste Toleranz festgelegt. Für jede Ausprägung wird darauf aufbauend eine Kostenschätzung vorgenommen. Zur Bestimmung der Kurven müssen drei Stützstellen ermittelt werden, aus denen sich die Kurve berechnen lässt. Die Kostenschätzungen dienen nun als Basis zur Bestimmung der zu wählenden Kurvenform sowie zur mathematischen Berechnung des Kurvenverlaufs. Die Form ist abhängig vom eingesetzten Fertigungsprozess und wird in diskrete, teilweise kontinuierliche und kontinuierliche Toleranz-Kosten-Zusammenhänge unterteilt. Neben der Kurvenform wird ebenfalls die Skaleneinteilung festgelegt. Hierbei wird zwischen absoluter, varianter und relativer Darstellung unterschieden. Bei der absoluten Darstellung werden die absoluten Toleranzkosten abgetragen. Bei varianter Einteilung wird die Referenz zu null gesetzt, es existieren demnach negative Werte. Bei relativer Einteilung wird das Referenzdesign zu 1 (100%) gesetzt, es werden prozentuale Abweichungen von der Referenz abgetragen. Optimierungsproblem und Versuchsplan aufstellen Existiert für jedes Merkmal eine kontinuierliche bzw. teilweise kontinuierliche Toleranzkostenkurve, dann formuliert sich das nichtlineare Optimierungsproblem folgendermaßen:
K min
º ª k min « K i Ti » ¼ ¬i 1
¦
Einschränkungen:
k
TM t c pm
§ wY Ti · ¨ ¸ ¨ wX i c pi ¸ 1© ¹
(5.2) 2
¦ i
(5.3)
und
Ti ,min d Ti d Ti ,max
(5.4)
5.1 Konstruktionsbegleitende Prüfablauf- und Prüfmitteleinsatzplanung
199
Die Variablen haben folgende Bedeutung: Ki TM Ti cpm cpi Ti,min Ti,max wY wX i
Kosten für Herstellung der Toleranz Ti gewünschte Montagetoleranz Toleranz des i-ten Merkmals gewünschte Montagefähigkeit gewünschte Maschinenfähigkeit für das i-te Merkmal Untergrenze der Toleranzfeldbreite für Merkmal i Obergrenze der Toleranzfeldbreite für Merkmal i Ableitung der Montagetoleranzgleichung nach dem i-ten Merkmal.
Die minimalen Gesamtkosten ergeben sich aus dem Minimum der Summe der einzelnen Merkmalskosten, die wiederum von den jeweiligen Toleranzen abhängig sind. Dabei muss auf folgende Einschränkungen geachtet werden: Die gewünschte Montagetoleranz TM darf nicht überschritten werden, damit die Komponenten den Montageanforderungen genügen. Da eine nichtlineare Optimierung vorliegt, müssen die Startwerte der einzelnen Merkmalstoleranzen sehr sorgfältig ausgewählt werden, weil diese einen signifikanten Einfluss auf das Ergebnis haben können. Bei ungeeigneten Startwerten kann das verwendete Optimierungsprogramm nur ein lokales Optimum anstelle des globalen Optimums ausweisen und somit auch nur ein lokales Kostenoptimum ermitteln. Eine Ursache hierfür können Sprünge in den z.T. kontinuierlichen Toleranzkostenkurven sein. Als Startwerte werden deshalb die Toleranzen der entsprechenden Referenzdesigns empfohlen. Wird anstelle der Toleranzkosten-Kurven auf die diskrete TKSA mit Wertepaaren zurückgegriffen, werden diese Paare für eine Matrixoptimierung eingesetzt. Bei diesem Vorgehen kann explizit auf die Mehrfachverwendung von Bauteilen geachtet werden, denen bei der Optimierung die gleiche Toleranz zugewiesen wird (Merget 2003, S. 43 ff.). Die beiden Toleranz-Kosten-Zusammenhänge jedes Merkmals müssen über alle Merkmale innerhalb der Montagetoleranzgleichung kombiniert werden. Um die Durchführung der resultierenden 2k Minimumkosten-Tolerierungen zu reduzieren, wird auf die Statistische Versuchsmethodik zurückgegriffen: Es wird ein faktorieller Versuchsplan aufgestellt, bei dem zwei Faktorstufen (oberes und unteres Kostenniveau) definiert werden und den Belegungsregeln entsprechend in den Plan eingetragen werden. Der teilfaktorielle Versuchsplan überlagert Haupteffekte mit 2-Faktorwechselwirkungen. Durchführung der Minimumkosten-Tolerierungen und Auswertung Entsprechend der Belegung des teilfaktoriellen Versuchsplans wird die Minimumkosten-Optimierung durchgeführt. Den ersten wesentlichen Bestandteil der Optimierung bildet die Toleranzmatrix. Es werden sowohl die Interdependenzen zwischen den Toleranzen berücksichtigt als auch die individuelle Fertigungs- und Prüfmittelstruktur. Den zweiten zur Optimierung benötigten Bestandteil stellt die Kostenmatrix dar, die unter Berücksichtigung eines durch den faktoriellen Ver-
200
5 Integrierte Produkt- und Produktionsprozessgestaltung
suchsplan vorgegebenen Kostenszenarios erstellt und zur Optimierung verwendet wird. Ein wesentlicher Aspekt der entwickelten Methode ist die Modellierung der Unsicherheit in Bezug auf die Herstellungskosten eines Merkmals. Es liegt demnach keine sichere Kostengröße vor, sondern es kann maximal ein Erwartungswert für die anfallenden Kosten ermittelt werden. Aufgrund der modellierten Unsicherheiten ergeben sich ein Erwartungswert und eine Varianz für die Kosten einer Toleranz. Der Erwartungswert der Kosten bildet sich aus der Summe der oberen und unteren Kostenschätzung, die anschließend halbiert wird. Weil es sich um zwei Grenzwerte des Kostenbereichs handelt und keine weiteren Informationen gewonnen werden können, wird eine gleichgroße Wahrscheinlichkeit für den Eintritt aller Möglichkeiten angenommen. Zur Berechnung der Varianz bzw. Standardabweichung wird von einer zusammengesetzten Zufallsvariable ausgegangen. Die untere Kostengrenze wird immer erreicht, so dass die Unsicherheit bezüglich der eintretenden Kosten in der Differenz zwischen oberer und unterer Kostengrenze liegt. Es existieren keine Kovarianzen zwischen unterer Kostengrenze und der Realisierung oberhalb dieser Grenze, da diese Werte voneinander unabhängig sind. Für jeden durchgeführten Versuch können die erwarteten Baugruppenkosten und deren Standardabweichung berechnet werden. Auf diese Weise lassen sich die einzelnen Kostenszenarien hinsichtlich der erwarteten Werte für die Baugruppenkosten und hinsichtlich der mit diesen verbundenen Risiken vergleichen. Eine weitere Möglichkeit der Auswertung stellt die Betrachtung der einzelnen Merkmalstoleranzen über alle Versuche dar. Hinsichtlich der Varianz müssen bei der Betrachtung der einzelnen Merkmale zwei unterschiedliche Einflussfaktoren unterschieden werden: Zum einen tritt eine als Kostenvarianz bezeichnete Streuung der Kosten für ein Merkmal durch die Unsicherheit der zukünftigen Kosten auf. Zum anderen hat die Änderung der Toleranz eines Merkmals Einfluss auf die Streuung der Kosten, so dass sich die erwarteten Kosten eines Merkmals über der Toleranzfeldbreite ändern können. Dieser Einfluss wird als Toleranzvarianz bezeichnet (Merget 2003, S. 94 ff.). Potenzial der Toleranzkosten-Sensitivitätsanalyse Die TKSA ist in der Lage, auf der Grundlage von unvollständigen und ungenauen Informationen eine Aussage über Kostenstruktur und -größenordnung bei der Fertigung des Endproduktes zu machen. Damit leistet die TKSA einen wichtigen Beitrag zur Produktkostenoptimierung. Daneben können im Rahmen einer TKSA, abhängig vom Charakter der Toleranzkostenkurven, schon in den frühen Phasen der Produktentstehung Aussagen über die Höhe der Anforderungen der Prozess- und Prüfmittelfähigkeit formuliert werden. Diese Fähigkeit ist von besonderem Interesse bei einer Produktentwicklung im Sinne des SE. Des Weiteren berücksichtigt diese Methode die Unsicherheiten bezüglich der Toleranzen und Kosten, die kennzeichnend für die frühen Phasen der Produktentwicklung sind (Merget 2003, S. 43 ff.).
5.1 Konstruktionsbegleitende Prüfablauf- und Prüfmitteleinsatzplanung
201
5.1.6 Wissensbasiertes Prüfmittelmanagement-System (WiP) Im Rahmen einer Erhebung zur Wichtigkeit des industriellen Prüfmittelmanagements hat sich gezeigt, dass 61% der befragten Unternehmen heute und 69% der befragten Unternehmen in Zukunft eine wissensbasierte Unterstützung bei der Prüfmittelauswahl und -einsatzplanung für unverzichtbar halten (Klonaris 1998, S. 39 f.). Ein wissensbasiertes Prüfmittelmanagement (WiP) -System ermöglicht eine parallele und ganzheitliche Prüfmitteleinsatzplanung, bei der der Planer in Abstimmung mit den vorgelagerten Bereichen eine gesamtoptimierte Lösung für Prüfmittel (technologisch, organisatorisch und wirtschaftlich) erarbeitet (Pfeifer u. Klonaris 1996, S. 75 ff.; Klonaris 1998, S. 79 ff.). Mithilfe von Petrinetzen können Schlüsselbereiche des Qualitätsmanagements miteinander verbunden werden, z.B. die Prüfmitteleinsatzplanung mit der Prüfablaufplanung. Durch eine Integration in ein prozess- und ablauforientiertes System, verbunden mit einer Prozessdokumentation, wird der Aufwand, der bisher für die einzelnen Maßnahmen notwendig war, auf ein Minimum reduziert. Für die Aufgaben der Prüfplanung, namentlich die Risikoabschätzung und die Prozessdokumentation, wird ein weiterentwickelter Netztypus der objektorientierten Nonstandard-Netze benötigt. Ausgehend von Netzen mit individuellen Marken wurde eine Klassenbibliothek für Objekt-Petrinetze entwickelt, bei der die besonderen Anforderungen des Qualitätsmanagements berücksichtigt sind. Die Klassen erlauben die Modellierung realer chargenorientierter Produktionsprozesse zur Simulation der qualitätssichernden Maßnahmen (Pfeifer u. Klonaris 1996, S. 75; Klonaris 1998, S. 79 ff.). Generell wird ein Produkt im Produktionsprozess durch die folgende Struktur, die in individuellen sog. „Token“ gespeichert ist, festgelegt: Teilebezeichnung, Bearbeitungszustand, Merkmaldaten, Merkmalbezeichnung, Merkmalart, Solldaten, Istdaten. Auf ihrem Weg durch das Netz sammeln die Token Informationen über den zurückgelegten Weg und die in den Produktionstransitionen angelegten und in den Prüftransitionen geprüften Merkmale. Dabei überträgt eine Transition Informationen auf das Token. Prozessanbindung Das entwickelte Petri-Netz-Modell der Prüfablaufplanung konzentriert sich auf den Prozess der Prüfplanerstellung. Durch die Analyse der Aktivitäten und Informationsflüsse der Prüfablaufplanung wurde mithilfe der Petri-Netz-Methode ein Systemmodell entwickelt, das eine Aussage bezüglich der zeitlichen Abfolge der einzelnen Prozessschritte der Prüfplanerstellung sowie eine Abgrenzung und Schnittstellendefinition bezüglich anderer Funktionsbereiche und weiterer QMWerkzeuge liefert (Abb. 5.2).
202
5 Integrierte Produkt- und Produktionsprozessgestaltung
Bisherige Aufgaben der Prüfplanung z.B. • Prüfmittelmanagement • Programmierung der Messmittel
Prüfmerkmalauswahl Andere Funktionsbereiche z.B.
Prüfablaufplanung
Prüfmittelvorauswahl
• Konstruktion
Prüfzeitpunktbestimmung
• Arbeitsteilung
Feedbackschleifen z.B. • zur Konstruktion • zur Fertigung
Weitere QM-Werkzeuge z.B. • FMEA • QFD
Abb. 5.2. Prüfablaufplanung und korrespondierende Systempartner
Der zeitliche Aspekt der einzelnen Prozessschritte wird besonders berücksichtigt, so dass eine Abbildung der funktionalen Struktur der Prüfplanung zur zeitlichen Optimierung der Prozessschritte generiert werden kann (Pfeifer u. Merget 2001, S. 1 ff.). An den Grenzen des Modells werden die Schnittstellen bezüglich x der Aufgaben der Prüfplanung, z.B. Prüfmitteleinsatzplanung, x weiterer QM-Methoden, z.B. QFD, FMEA, x anderer Funktionsbereiche, hauptsächlich Konstruktion, Arbeitsplanung, Fertigung und Montage, sowie x Feedbackschleifen, z.B. zur Konstruktion und zur Fertigung, definiert. Mithilfe der Petri-Netz-Modellierungssprache ist es möglich, ein transparentes Modell der Prüfablaufplanung zu erstellen. Diese Basis ermöglicht die Entwicklung von Methoden zur parallelen Nutzung von Konstruktionsinformationen. Diese Informationen werden zur Abschätzung konstruktiver Entscheidungen und für die Prüfdurchführung benötigt (Pfeifer u. Merget 2001, S. 1 ff.). Das auf der Grundlage der Petrinetztheorie modellierte Systemmodell bietet unter anderem die Möglichkeit einer Optimierung der zeitlichen Abfolge der notwendigen Arbeitsprozesse im Sinne des SE.
5.1 Konstruktionsbegleitende Prüfablauf- und Prüfmitteleinsatzplanung
203
Aufbau des methodischen Rahmens Aufbauend auf dem Modell zur frühzeitigen, optimierten Prüfablauf- und Prüfmitteleinsatzplanung wurde ein WiP-Prototyp entwickelt (Klonaris 1998, S. 83 ff.). In diesem Prototyp werden die Prüfmittel objektorientiert in einer Datenbank verwaltet, die sowohl scharfe als auch unscharfe Datenbankabfragen handhaben kann. Die Funktionalität des Systems ist wissensbasiert aufgebaut, um vorhandenes Wissen aus der Praxis effektiv nutzen zu können. Die erforderlichen Schritte auf dem Weg zu Realisierung des Systems werden im Folgenden erläutert. Zunächst werden alle Funktionalitäten, die das WiP-System betreffen, zusammengetragen und programmiergerecht aufgearbeitet. Für die WiP-Realisierung werden informationstechnische Funktionalitäten benötigt, die so aufbereitet werden, dass Programmablaufstrukturen erkennbar sind und in das WiP-System implementiert werden können. Ergebnis dieses Arbeitsschrittes ist ein Petri-NetzModell des WiP-Systems. Zwischen Prüfaufgabe und Prüfmittel existieren Gesetzmäßigkeiten, die nicht nur technischer Natur sind, sondern auch aus dem Praxiswissen heraus übertragbar sind. Diese Gesetzmäßigkeiten werden mithilfe von Regeln übersetzt und für das System verfügbar gemacht. Dazu ist ein Formalismus entwickelt worden, der es erlaubt, Regeln darzustellen und diese in die Wissensbasis zu integrieren. Die eben geschilderten Regelmechanismen und kausalen Zusammenhänge werden im WiP-System in Form von Datenbank-Tabellen repräsentiert. Ein wichtiges Ziel des WiP ist die frühzeitige Nutzung von Wissen, um eine frühzeitige Einsatzplanung von Prüfmitteln umzusetzen. Diese basiert auf Daten, die teilweise unscharf sind; daher werden Fuzzy Sets entwickelt, durch die unscharfe Anfragen realisiert werden können. Die besonderen Stärken des Systems liegen nicht nur in der automatischen Bewertung und Auswahl der Prüfmittel, sondern auch in der frühzeitigen Nutzung des unvollständigen Wissens. Ist in den Anfangsphasen der Produktgestaltung beispielsweise das Nennmaß eines Merkmals nicht exakt bestimmbar, da die Konstruktionszeichnung noch nicht vollständig ist, können im WiP-System mehrere Eingabevarianten genutzt werden. Das WiP-System ist in der Lage, genaue Maßangaben, Messbereiche und linguistische Variablen mithilfe eines Algorithmus zu verarbeiten. Erstellung einer Wissensbasis Bei der Einsatzplanung der Prüfmittel werden drei Phasen durchlaufen. Zu Beginn werden Prüfmittel hinsichtlich ihrer technischen Eigenschaften untersucht. Nicht geeignete Prüfmittel werden direkt von weiteren Betrachtungen ausgenommen. In der zweiten Phase werden die organisatorischen Aspekte untersucht, worauf eine weitere Reduzierung der zu untersuchenden Prüfmittel folgt. Die wirtschaftliche Auswahl der Prüfmittel wird die kostengünstigste Alternative ermittelt. Treten im Rahmen der einzelnen Auswahlphasen Störungen auf, weil beispielsweise kein geeignetes Prüfmittel vorhanden ist, tritt im WiP-System ein Feedback-Mechanismus in Kraft, der eine Verbindung zu der verantwortlichen Abteilung herstellt (Pfeifer 1996, S. 114 ff.).
204
5 Integrierte Produkt- und Produktionsprozessgestaltung
Das System bietet eine Vielzahl von Werkzeugen und Methoden sowie eine Wissensbasis an, die den Anwender bei der Auswahl unterstützen. Er benötigt keine besonderen Kenntnisse für die Prüfmittelauswahl, da ihn das System wissensbasiert durch die einzelne Menüpunkte führt. Wichtige kausale Zusammenhänge (Regelwissen) sind in der Wissensbasis enthalten und müssen nicht immer wieder neu generiert werden. Strukturierung der WiP-Systemarchitektur Die WiP-Systemarchitektur besteht aus den Komponenten Akquisition, Konsultation und Dialog. Mithilfe der Akquisition wird die Wissensbasis generiert, wobei neben der Datenerfassung auch Regeln und Fakten festgelegt werden. Diesbezüglich ist zu beachten, dass die Erstellung von Wissensbasen ein iterativer Prozess ist, da laufend neues Wissen gewonnen wird und sich aktuelle Daten ändern können. Deswegen ist es unerlässlich, diesen Änderungen durch eine regelmäßige Datenpflege Rechnung zu tragen. Die Konsultationskomponente nutzt das vorhandene Wissen, um die gestellten Probleme zu lösen. Dabei wird der funktionale Ablauf einer Konsultation so gestaltet, dass das System möglichst flexibel in bestehende Abläufe des Unternehmens eingepasst werden kann. Die Dialogkomponente stellt die Schnittstelle zum Anwender dar und erlaubt dem Benutzer, mit dem System zu kommunizieren. Realisierung des WiP-Prototypen Die prototypische Realisierung des WiP-Systems wird in zwei wesentlichen Teilschritten durchgeführt. Gegenstand des ersten Arbeitschrittes ist die Realisierung der Wissensrepräsentationskomponente zusammen mit den zugehörigen Inferenzmechanismen. Im zweiten Schritt wird die umfangreiche Funktionalität der Wissensakquisitionskomponente ausgearbeitet. Hierzu gehörte auch die Implementierung geeigneter Erklärungsalgorithmen, die eine effektive Nutzung des hinterlegten Wissens ermöglichen. Im Rahmen der Entwicklung eines WiP-Systems werden auf Basis des Aktivitätenmodells die Zusammenhänge zwischen Prüfmitteleinsatzplanung und den traditionell vorgelagerten Bereichen in Form von Datenflüssen erarbeitet. Darauf aufbauend werden Methoden konzipiert, mit denen eine frühzeitige, parallele Prüfmitteleinsatzplanung durch die Bereitstellung unsicherer Daten, die kontinuierlich sicherer werden, ermöglicht wird. Dabei wird insbesondere die enge Verbindung zwischen dem Prüfmittelmanagement, der Prozessplanung und der Produktentwicklung berücksichtigt. Enge inhaltliche Verknüpfungen innerhalb der Prozesskette bestehen insbesondere zu den der Produktion vorgelagerten Bereichen der Auftragsabwicklung wie Konstruktion, Prüfplanung und Technologieauswahl, die in erster Linie die Anforderungen an die Prüfmittel bestimmen und Rückkopplungen vom WiP-System benötigen. Gemeinsame methodische Ansatzpunkte unterhält WIP zu der Konzeption von wissensbasierten Planungssystemen und der Integration und Parallelisierung von
5.1 Konstruktionsbegleitende Prüfablauf- und Prüfmitteleinsatzplanung
205
Teilaktivitäten, so dass auch hier eine enge Zusammenarbeit der Planungsstellen möglich ist. Der im Rahmen einer Praxisvalidierung ermittelte Anpassungsbedarf bezieht sich hauptsächlich auf die Komplexität der einzugebenden Informationen. Ein dieser Problemstellung entsprechendes Konzept sieht die Modularisierung des WiP-Systems in eine technologische, eine organisatorische und eine wirtschaftliche Auswahl vor. Das angepasste WiP ermittelt von einer Prüfaufgabe ausgehend zunächst alle für diese Prüfaufgabe prinzipiell geeigneten Prüfmittel. In weiteren Schritten reduziert sich die Anzahl der Prüfmittel entlang der entsprechenden Module. Potenziale des WiP Das wissensbasierte Prüfmittelmanagement-System ermöglicht es, die Einsatzplanung von Prüfmitteln ganzheitlich zu betrachten und Schnittstellen mit anderen Unternehmensbereichen aufzudecken. Dieser Sachverhalt wird besonders deutlich bei der Betrachtung der momentanen Situation in der Praxis. Dort ist es nicht immer möglich, ein bestimmtes Prüfmittel bereits in den frühen Phasen der Produktentstehung festzulegen. Es wird lediglich eine Prüfmittelklasse angegeben, zu der das später bei der Prüfung verwendete Prüfmittel gehören soll. Die Auswirkungen einer solchen Vorgehensweise im Falle eines Fehlens des Prüfmittels, eines Prüfmittelschadens oder einer Nichtprüfbarkeit eines Merkmals können für das Produkt sehr kritisch sein. Daher betrachtet das WiP-System alle das Prüfmittel betreffenden Wirkungsbereiche und versucht durch mehrmalige Iterationsschleifen, das für die gestellte und durchführbare Prüfaufgabe am besten geeignete Prüfmittel einzusetzen (Klonaris 1998, S. 83). Das WiP-System ermöglicht es, bereits in den frühen Phasen der Produkt- und Prozessplanung die Anforderungen aus der Produktion zu berücksichtigen, so dass die geeigneten Prüfmittel selbst bei unscharfen Informationen geplant werden können. Damit kann die Zeit bis zum Markteintritt verkürzt und die Qualität des Produktes und der Prozesse verbessert werden. 5.1.7 Applikationsmöglichkeiten Ein wichtiges Ziel in der heutigen Zeit ist die Parallelisierung der traditionell sequenziell ausgeführten Unternehmensaktivitäten. Nach einer Analyse der Prozesskette der Auftragsabwicklung werden die Prozessabläufe der Prüfplanung mit der Methode der Structured Analysis and Design Technique aufgenommen und ausgewertet. Diese Ergebnisse sind insbesondere für die Konstruktion und Entwicklung von hoher Bedeutung, da hier bereits in sehr frühen Phasen der Produktentwicklung Wissen generiert und benötigt wird; eine Reduzierung der sequenziellen Abfolge von Unternehmensprozessen setzt eine frühzeitige Informationsübergabe voraus. Die Toleranzkosten-Sensitivitätsanalyse wird in der Konstruktion und Entwicklung eingesetzt, um eine kostenoptimale Toleranzallokation bei sichergestellter
206
5 Integrierte Produkt- und Produktionsprozessgestaltung
Funktionsfähigkeit des Produkts zu erreichen. Dabei werden neben genormten Toleranzvorgaben unternehmensspezifische Restriktionen berücksichtigt. Des Weiteren werden mit den fraktalen unsicheren Informationen bereits in frühen Phasen der Entwicklung erste Kostenabschätzungen des Endproduktes vorgenommen. Die interagierenden Unternehmensabteilungen und die auszutauschenden Informationen sind durch die Schnittstellenanalyse bekannt. Mit der Festlegung der Toleranzen sind die Auswahl und die Einsatzplanung der Prüfmittel verbunden. Das wissensbasierte Prüfmittelmanagement-System unterstützt den Auswahlprozess optimal und ohne Rückgriff auf weiteres externes Wissen. Die Entscheidungen werden auf Basis der abgelegten Daten und der Informationen aus der Toleranzfestlegung getroffen. Des Weiteren sind die Schnittstellen zu anderen QM-Werkzeugen und Methoden eindeutig definiert – wichtige Merkmale aus Kundensicht fließen beispielsweise über die QFD ein und werden bei der Prüfmittelauswahl und der Bestimmung der Prüfschärfe berücksichtigt. Datenbankabfragen mit unscharfen oder unvollständigen Informationen ermöglichen in frühen Phasen die Entscheidung für ein Prüfmittel bzw. eine Prüfmittelklasse. Mit sicheren Daten erfolgt schließlich die definitive Auswahl. Durch die integrierte und zeitparallele Abwicklung der Produkt- und Prozessgestaltung werden die Herstellkosten verringert und die Produktqualität im umfassenden Sinne verbessert (Pfeifer 2001, S. 283 ff.; Eversheim et al. 1995, S. 9 ff.). Die im Rahmen des SE notwendige funktionsübergreifende Zusammenarbeit der Mitarbeiter in den planenden Bereichen ermöglicht es, die Kundenwünsche als Handlungsmaxime aller Beteiligten in den Mittelpunkt zu stellen und erarbeitete Lösungskonzepte bereits in frühen Phasen mit den marktseitigen Anforderungen abzugleichen. Im heutigen modernen Qualitätsmanagement werden Aufwendungen für qualitätssichernde Tätigkeiten im Rahmen der Entwicklung, Fertigung und Montage sowie der vor- und nachgelagerten Bereiche nicht mehr als Kostenverursacher gesehen: Sie stellen Kosten und Aufwände reduzierende Maßnahmen dar, die die langfristige Gewinnoptimierung sicherstellen. Literatur Baumann R (1977) Toleranzrechnung linearer Maßketten über Datenverarbeitung und ihre Bedeutung für die Qualitätssicherung. Dissertation, Technische Universität Braunschweig Eversheim W (1997) Organisation in der Produktionstechnik, Band 3 Arbeitsvorbereitung. Springer, Berlin Heidelberg New York Eversheim W, Bochtler W, Laufenberg L (1995) Simultaneous Engineering, Erfahrungen aus der Industrie für die Industrie. Springer, Berlin Heidelberg New York Gerth RJ (1996) Engineering Tolerancing: A Review of Tolerance Analysis and Allocation Methods. Engineering Design and Automation 2 (1): 3–22 He JR (1991) Tolerancing for manufacturing via cost minimization. International Journal of Machine Tools and Manufacture 31: 455–470 Jensen K (1990) Coloured Petri Nets Basic Concepts, Analysis Methods and Practical Use Volume 1. Springer, Berlin Heidelberg New York
5.1 Konstruktionsbegleitende Prüfablauf- und Prüfmitteleinsatzplanung
207
Klonaris P (1998) Systemkonzept zur frühzeitigen Einsatzplanung von Prüfmitteln. Dissertation, RWTH Aachen Merget M (2003) Kostenoptimierung durch Toleranzvariation im Simultaneous Engineering. Dissertation, RWTH Aachen Ngoi BKA, Ong CT (1998) Product and Process Dimensioning and Tolerancing Techniques – A state of the Art Review. Advanced Manufacturing Technology 14: 910–917 Pfeifer T (2001) Qualitätsmanagement: Strategien, Methoden, Techniken. Hanser, München Wien Pfeifer T, Klonaris P (1996) Prüfmittelmanagement. Io management J. 65, No 3: 75–79 Pfeifer T, Merget M (2001) Prüfsicherheit über Petrinetze. Technisches Messen (tm) 7-8: 1–5 Pfeifer T, Merget M (2002) Toleranzen optimieren – Kosten senken. QZ Qualität und Zuverlässigkeit J. 47, H 8: 801–802 Pfeifer T (1996) Wissensbasierte Systeme in der Qualitätssicherung. Springer, Berlin Heidelberg New York Pieper KP (1998) Der Einsatz von Petrinetzen zum Nachweis der Angemessenheit von Qualitätsmanagementmaßnahmen und zur Integration von Prüfplanung. Dissertation, RWTH Aachen Ross DT (1977) Structured Analysis (SA): A Language for Communicating Ideas. IEEE Transactions on software Engineering SE-3, H 1: 16–33 Schulz A (1990) Software-Entwurf: Methoden und Werkzeuge. Oldenbourg, München Stark R (1999) Stabil trotz Cpk < 1. Ein empirisches SPC-Modell berücksichtigt die Mittelwertstreuung. QZ Qualität und Zuverlässigkeit 44: 1264–1268 Starke PH (1990) Analyse von Petri-Netz-Modellen. Teubner, Stuttgart Szyminski S (1993) Toleranzen und Passungen. Vieweg & Sohn, Braunschweig Taguchi G (1987) System of Experimental Design, Volume two. American Supplier Institute, Center for Taguchi Methods, Dearborne (USA) Tönshoff HK (1991) Integrierte Arbeitsplanung: Symposium des Institutes für Fertigungstechnik und spanende Werkzeugmaschinen der Universität Hannover, des Instituts für Fabrikanlagen der Universität Hannover und des Ausschusses für wirtschaftliche Fertigung, Hannover Wu CC, Chen Z, Tang GR (1998) Component tolerance design for minimum quality loss and manufacturing cost. Computers in Industrie 35: 223–232
208
5 Integrierte Produkt- und Produktionsprozessgestaltung
5.2 Bewertung von Fertigungsfolgen Aufgrund einer nach wie vor oftmals unzureichenden Abstimmung von Produktentwicklung und Produktherstellung treten immer wieder zeit- und kostenintensive Abläufe auf. Um dies zu vermeiden, ist im Sinne der integrierten Produkt- und Prozessgestaltung eine enge Verzahnung der Bereiche Produktgestaltung und Prozessgestaltung anzustreben. Ein Hilfsmittel, um den Austausch zwischen den Bereichen Produkt- und Produktionsprozessgestaltung zu unterstützen, ist die Generierung und Bewertung von Fertigungsfolgen. Diese Methodik stellt das Bindeglied zwischen Konstruktion und Planung dar und ermöglicht durch den frühen Abgleich der Produktanforderungen mit den Möglichkeiten zur Herstellung eines Produkts die optimale Anpassung der Fertigung an eine Produktionsumgebung. Darüber hinaus kann durch die frühe Bewertung und Optimierung von Fertigungsprozessen konstruktionsbegleitend die Auslegung der Prozesse und die Machbarkeit der Fertigung durch eine Kennwertberechnung unterstützt werden. Zur Generierung und Bewertung von Fertigungsfolgen sind Informationen aus der parametrischen Konstruktion und der Einsatzplanung von Fertigungstechnologien notwendig, welche zum einen die Produktmerkmale entlang der herzustellenden Features beschreiben und zum anderen mögliche Technologien zur Herstellung einzelner Bauteilfeatures definieren. Dies kann bereits in einer frühen Phase der Konstruktion mit der reinen Betrachtung funktionaler Produktelemente beginnen und wird mit zunehmendem Planungsfortschritt um nichtfunktionale Produktelemente erweitert. Innerhalb der Generierung und Bewertung von Fertigungsfolgen werden die Fertigungstechnologien mit der realen Produktionsumgebung verknüpft und bezüglich ihrer Umsetzbarkeit auf speziellen Maschinen geprüft. Die nach dieser Bewertung verfügbaren Maschinen werden entlang der herzustellenden Bauteilfeatures zu Fertigungsfolgen verknüpft und um Handhabungs-, Transport- und Lagermittel sowie Prüfschritte erweitert. Zur Bewertung dieser generierten Fertigungsfolgen wird nachfolgend eine multikriterielle Bewertung der Fertigungsfolgen durchgeführt, um eine Aussage über auftretende Zeiten, Kosten, Qualitäten sowie ökologische Aspekte zu bekommen. In diesem Zusammenhang spielen sowohl die konstruktionsbegleitende Abschätzung der Fertigungszeiten in frühen Phasen der Produktentstehung als auch deren exakte Bestimmung und Optimierung unter Nutzung von Simulationstechniken in späteren Phasen eine wesentliche Rolle. Ergebnis der Bewertung ist ein Nutzwert für jede Fertigungsfolge, über den eine Rangfolge der Fertigungsalternativen ermittelt und die optimale Fertigungsfolge ausgewählt werden kann. Die mit dieser Auswahl verknüpften Informationen können daraufhin wieder als Feedback zur Konstruktion gegeben werden, um eventuell Anpassungen am Produkt durchführen zu können. Zusätzlich können sie als Eingangsinformationen für die Funktionsbewertung und Prototypenfertigung oder zur frühzeitigen Planung der Arbeits- und Betriebsorganisation dienen.
5.2 Bewertung von Fertigungsfolgen
209
5.2.1 Methoden zur Bewertung von Fertigungsfolgen und zur Prozesszeitermittlung Die Analyse industriell angewandter Methoden und Hilfsmittel zur Unterstützung einer integrierten Produkt- und Prozessgestaltung zeigt, dass Methoden zur aufbau- und ablauf-technischen Unterstützung einer integrierten Produktentwicklung sowie Projektmanagementansätze bereits erfolgreich eingesetzt werden (Eversheim 1995). CAD-Systeme zur Unterstützung der Produktgestaltung und Automatisierungseinrichtungen in der Fertigung weisen heute bereits eine hohe Funktionalität auf: CAD-Daten werden produktseitig mit hoher funktionaler Integration für die bereichs- und unternehmensübergreifende Dokumentation sowie zu Berechnungs- und Simulationszwecken genutzt (Chalmers 1999). Oftmals liegt eine direkte Kopplung von Produktdaten mit Steuerungsdaten von Einzelprozessen vor. Die Datenverarbeitungssysteme zur Arbeitssteuerung und solche in der operativen Fertigung arbeiten effizient. Aufgrund von Schnittstellenproblemen bei der Integration von CAx-Lösungen und bedingt durch die Explosion der Produktdatenmenge bei zunehmend unternehmensübergreifenden Entwicklungsprojekten, werden ERP- und PDMSysteme häufig lediglich zur „bereichsübergreifenden Dokumentenverwaltung“ eingesetzt (Wendenberg 1999, S. 14). Auch andere rechnergestützte Hilfsmittel zur phasenübergreifenden Unterstützung von Prozessplanungsfunktionen können derzeit noch nicht mit der steigenden Komplexität von Produktentwicklungsprozessen Schritt halten (Kimura 1999). Lösungen zur umfassenden Generierung und Bewertung von Fertigungsalternativen, parallel zur Produktgestaltung, sind industriell noch nicht implementiert. Ein Ansatz zur Integration von Produkt- und Prozesssicht ist die Technologieplanung. Die meisten Methoden zur Technologieplanung unterstützen im Wesentlichen strategische Aspekte mit dem Ziel einer langfristigen Produkt- und Technologiesynchronisation (Bullinger 1994; Burgstrahler 1997; Pfeiffer 1992; Schmitz 1996; Ullmann 1995; Wildemann 1987; Wolfrum 1994). Von den bestehenden Ansätzen zur operativen Technologieplanung vermag keiner die Komplexität der Korrelation von produkt- und prozessbeschreibenden Daten aufzulösen (Eversheim 1996; Tönshoff 1995, S. 30 ff.). Die Verknüpfung der vom Produkt ausgehenden Anforderungsmerkmale mit den Eigenschaften der Fertigungstechnologien erfährt keine ausreichende methodische Unterstützung; hier wird vielmehr auf das Erfahrungswissen des Planers verwiesen. Für eine in allen Phasen eines integrierten Produktgestaltungsprozesses einsetzbare Methodik kommen primär generative Verfahren in Betracht. Nur wenige Ansätze zur Unterstützung der Arbeitsplanung bewegen sich auf der Ebene der Prozessplanung, stattdessen widmen sie sich vielmehr der zeitlich nachgelagerten Operations- und Bewegungsplanung. Auch der konkrete Unternehmensbezug bei der Arbeitsplanung durch Berücksichtigung der Produktionsmittel setzt meist erst in diesen Planungsphasen ein. Viele der aufgeführten Verfahren verfolgen die Integration der konstruktiven und der fertigungstechnischen Sichtweise auf ein Produkt über Features. Während die meisten Ansätze hierbei jedoch ausschließlich technologische Gesichtspunkte berücksich-
210
5 Integrierte Produkt- und Produktionsprozessgestaltung
tigen, werden wirtschaftliche Aspekte nur unzureichend einbezogen. Eine multikriterielle Alternativenbetrachtung auf der Ebene der Prozessplanung wird nicht vorgenommen. Eine wirtschaftliche Prozessführung erfordert die vollständige Ausnutzung der Leistungsfähigkeit von Produktionssystemen, wobei die wichtigste Restriktion in der Erfüllung der geforderten Qualitätsmerkmale wie z.B. Form-, Maß- und Lagetoleranzen sowie Oberflächengüten besteht. Die Bestimmung von Bearbeitungszeiten bei Fräs- und Drehbearbeitungen zur Bewertung von Fertigungsalternativen erfolgt bislang mithilfe von zwei unterschiedlichen Ansätzen: x Vorgabezeitermittlung mit Erfahrungswerten und Wissensdatenbanken x Prozessplanungssysteme (CAPP, Computer Aided Process Planning), integriert in eine CAD-CAM-Umgebung. Der Vorteil der wissensbasierten Vorgabezeitermittlung liegt in der Schnelligkeit, mit der Bearbeitungszeiten für ähnliche Bearbeitungsaufgaben ermittelt werden können. Nachteilig wirkt sich dagegen die hohe Ungenauigkeit aufgrund des abschätzenden Charakters bei neu auftretenden Aufgabenstellungen aus. Die aussagekräftige zeitbasierte Bewertung von Fertigungsalternativen unter Berücksichtigung unterschiedlicher Produktionsmittel ist somit aufgrund der Unschärfe nur bedingt möglich. Zudem erfordert die Gewährleistung einer sicheren Anwendbarkeit der Erfahrungswerte in der Regel einen Sicherheitsabstand zur tatsächlichen Leistungsfähigkeit eines Fertigungsprozesses. Die moderne computerunterstützte Prozessplanung und hierbei insbesondere die NC (Numerical Control)- Programmierung zeichnet sich durch eine vollständige Integration in die CAD-CAM-Umgebung aus; dies ermöglicht die Vermeidung von Schnittstellenproblemen und eine exakte Zeitermittlung auf Basis der vorliegenden Produktdaten. Der hierzu notwendige Aufwand ist allerdings nur für eindeutig definierte Werkstücke und somit zu späten Zeitpunkten innerhalb des Produktentstehungsprozesses vertretbar. 5.2.2 Methodik zur Generierung und Bewertung von Fertigungsfolgen Die zur Generierung und Bewertung von alternativen Fertigungsfolgen notwendigen Eingangsinformationen lassen sich in die Klassen Produkt, Produktionsaufgabe und Produktionsumgebung einordnen. Zu den produktbeschreibenden Eingangsinformationen zählen die im Rahmen der Produktdefinition und der Einsatzplanung von Fertigungstechnologien generierten Daten bezüglich der intendierten Bauteilgestalt. Aufgrund der zuvor durchgeführten Einsatzplanung von Fertigungstechnologien sind die Gestalt und die Eigenschaften des Bauteils für jeden Technologieschritt entlang der Technologiekette bekannt. Die Produktionsaufgabe wird über diese alternativen Technologieketten beschrieben. Weiterhin werden in diesem Zusammenhang allgemeine unternehmensspezifische Angaben wie z.B. die Fertigungssteuerungsart oder der Automati-
5.2 Bewertung von Fertigungsfolgen
211
sierungsgrad angegeben, die zur Generierung der Produktionsmittelmatrizen sowie der nachfolgenden Analysemodule genutzt werden. Die Produktionsumgebung, die sich aus den zur Verfügung stehenden Produktionsmitteln (Fertigungsmittel, Transportmittel etc.) aufbaut, wird datentechnisch hinterlegt. Die Eigenschaften der einzelnen Produktionsmittel, die zur Durchführung von Prozessschritten innerhalb einer Fertigungsfolge notwendig sind, werden hierbei featurebasiert erfasst und den Produktionsmitteln zugeordnet. Diese Eingangsinformationen bilden die Grundlage für die Methodik zur Bewertung alternativer Fertigungsfolgen. Diese ist in sechs Module unterteilt und hat die Selektion und Bewertung umsetzbarer Fertigungsfolgen zum Ziel.
Produktionsmittelmatrix PU PM-Daten
FS: Sägen
FS: Drehen
TFS: Entgraten
PS: Geom. messen
Sägezentrum A
Drehmaschine A
Entgratmaschine A
Messmittel A
Sägezentrum B
Drehmaschine B
Entgratmaschine B
Messmittel B
Bügelsäge A
Messmittel C
Bügelsäge B
Legende Bauteil - Variante - Version Produktionsumgebung Technologiekette
ID 0506 A 1.1 ID 10203 ID 07463
FS: PM: PS: PU: TFS:
Fertigungsschritt Produktionsmittel Prüfschritt Produktionsumgebung technologisch bedingter Folgeschritt
Abb. 5.3. Aufbau einer Produktionsmittelmatrix
Basierend auf den aufgeführten Eingangsinformationen werden zunächst Produktionsmittelmatrizen erstellt, d.h. zu jeder Bauteilgestaltvariante, jeder Technologiekette und jeder Produktionsumgebung wird durch die Zuordnung der Produktionsmittel zu den Fertigungsschritten genau eine Produktionsmittelmatrix generiert. Ist beispielsweise in einer Technologiekette ein Technologieschritt Drehen vorgesehen, so werden alle in der zu untersuchenden Produktionsumgebung vorhandenen Produktionsmittel, die prinzipiell die Fertigungstechnologie Drehen realisieren können, der entsprechenden Spalte der Produktionsmittelmatrix zugeordnet (Abb. 5.3). Hierdurch ist es möglich, schnell und unabhängig vom eigenen Standort eine Aussage über das Vorhandensein von Fertigungsmitteln für die jeweilige Prozesstechnologie zu treffen. Als nächstes erfolgen die Eignungsanalysen alternativer Produktionsmittel für direkt wertschöpfende Prozessschritte. Diese Analysen dienen der Reduzierung der Fertigungsalternativen. Dabei ist es möglich, neben den existenten Produktionsmitteln auch virtuelle Produktionsmittel zu untersuchen. Im Rahmen der groben Eignungsanalyse werden zunächst die Produktionsmittel aus der Produktionsmittelmatrix eliminiert, die nicht den allgemeinen bau-
212
5 Integrierte Produkt- und Produktionsprozessgestaltung
teilneutralen Anforderungen der Produktionsaufgabe genügen. Zu diesen Kriterien gehören die Verfügbarkeit oder die Automatisierbarkeit eines Produktionsmittels, zu denen jeweils eine Ja/Nein-Entscheidung getroffen wird (z.B. Möglichkeit zur Trockenbearbeitung). Anforderungsprofil: Bauteil
Eigenschaftsprofil: Produktionsmittel Drehmaschine C Drehmaschine B Drehmaschine A
herstellbare Feature
Feature: Aussenzylinder
Feature: Aussenzylinder
geometrische Information
geometrische Information
Länge:
Länge:
Durchmesser:
Durchmesser:
technologische Information
technologische Information
Masstoleranz - Durchmesser:
Masstoleranz - Durchmesser:
Oberflächenrauhigkeit:
Oberflächenrauhigkeit:
...
...
...
Abb. 5.4. Bauteilspezifische Bewertung
An die Überprüfung bauteilneutraler Kriterien schließt sich die Überprüfung bauteilspezifischer Kriterien an, z.B. das Bauteilgewicht, die maximalen Bauteilabmessungen sowie der Bauteilwerkstoff bzw. die -werkstoffgruppe. Alle Produktionsmittel, die nicht den überprüften Kriterien genügen, werden aus der Produktionsmittelmatrix gelöscht.Im Anschluss an die Grobauswahl folgt die detaillierte Analyse der Produktionsmittel. Hierbei wird ein Abgleich der Bauteilanforderungen mit den Eigenschaften der Produktionsmittel durchgeführt. Die geometrischen und technologischen Merkmalsausprägungen der einzelnen Features eines Bauteils werden dazu mit den entsprechenden Eigenschaften des jeweiligen Produktionsmittels verglichen (Abb. 5.4). Auf diese Weise kann ermittelt werden, ob die in der Produktionsmittelmatrix enthaltenen alternativen Produktionsmittel die geforderten Geometrien, Toleranzen und Oberflächen realisieren können. Das Ergebnis des beschriebenen Abgleichs kann die drei Ausprägungen nicht herstellbar, zu prüfen und herstellbar aufweisen. Falls zwischen der Anforderung eines Bauteilfeatures (z.B. Oberflächengüte) und der entsprechenden Produktions-
5.2 Bewertung von Fertigungsfolgen
213
mittelfähigkeit nur eine Teil-Überschneidung besteht, ist eine Anwenderentscheidung notwendig. Produktionsmittel, die wiederum nicht die Anforderungen erfüllen, werden aus der Produktionsmittelmatrix gestrichen. Nach der detaillierten Analyse der Realisierbarkeit einer Bauteilvariante werden nun entlang der Technologiekette Fertigungsprozessfolgen verknüpft – rein kombinatorisch, manuell editierend oder mithilfe von evolutionären Algorithmen (Abb. 5.5). An dieser Stelle ist mit evolutionären Algorithmen eine Optimierung der Fertigungsprozessfolgen möglich, mit dem Ziel, die Fähigkeiten einer Fertigungsfolge auf die Produktionsumgebung optimal abzustimmen.
Alternative Fertigungsfolgen FS: Sägen PU PM-Daten
TFS: Entgraten
PS: Geom. messen
Sägezentrum A
Drehmasch. A
FS: Drehen
Entgratmasch. A
Messmittel A
Sägezentrum B
Drehmasch. B
Entgratmasch. B
Messmittel B
Bügelsäge A
Messmittel C
Bügelsäge B
Bauteil - Variante - Version Produktionsumgebung Technologiekette
ID 0506 A 1.1 ID 10203 ID 07463
Legende FS: PM: PS: PU: TFS:
Prozessfolge A Prozessfolge B Fertigungsschritt Produktionsmittel Prüfschritt Produktionsumgebung technologisch bedingter Folgeschritt
Abb. 5.5. Verknüpfung von Fertigungsprozessfolgen
Bei der Generierung der Fertigungsprozessfolgen wird festgelegt, wie die ausgewählten Produktionsmittel im Materialfluss in der jeweiligen Produktionsumgebung zueinander angeordnet sind. Aufgrund dieser Informationen kann nun eine geeignete Auswahl von Transport- und Handhabungsschritten erfolgen, welche die bislang generierten Fertigungsprozessfolgen um indirekt wertschöpfende Zwischenschritte zu Fertigungsfolgen ergänzt. Analoge Analyseschritte, wie sie für die Fertigungsschritte dargestellt wurden, sind nachfolgend auch für Handhabungs-, Transport-, Lager-, und Prüfmittelschritte durchzuführen. Dabei wird, wie schon bei den Fertigungsschritten, eine Überprüfung hinsichtlich bauteilbezogener und bauteilneutraler Kriterien unterschieden. Insgesamt reduzieren die bisher beschriebenen Module zur Prüfung bauteilneutraler und bauteilspezifischer Kriterien kontinuierlich die Anzahl der zur Durchführung von direkt und indirekt wertschöpfenden Prozessschritten geeigneten Produktionsmittel. Um die in der Summe ihrer Eigenschaften am besten geeignete Fertigungsalternative auswählen zu können, müssen die generierten Fertigungsfolgen bewertet werden. Abhängig von der Planungstiefe bzw. den zur Bewertung verfügbaren
214
5 Integrierte Produkt- und Produktionsprozessgestaltung
Eingangsinformationen sind zwei unterschiedlich detaillierte Formen der Bewertung zu unterscheiden. Liegen nur vage produktseitige Eingangsinformationen vor, ist eine qualitative, multikriterielle Bewertung der alternativen Fertigungsfolgen durchzuführen. Mit zunehmender Informationsreife kann zusätzlich eine Quantifizierung von besonders relevanten Einzelkriterien erfolgen. Für die Bewertung alternativer Fertigungsfolgen hat sich die Multikriterienbewertung nach Buckley als geeignetste Methode herausgestellt (Weck et al. 1997, S. 353). Der prinzipielle Bewertungsablauf der Fuzzy-AHP gliedert sich in fünf Schritte (Abb. 5.6).
Fuzzy - AHP 1
3 Bewertungskriterien aufstellen Kosten Zeit ...
Eigenschaften der zu bewertenden Alternativen ermitteln A2 A1
11
12
1
10
2
9
3 8
4 7
6
5
2
4 Kriterienaggregation festlegen
Kennwerte bestimmen
Gewichtungsprofil definieren 11
12
Erfüllungsgrade zuweisen
1
10
A2
2
9
3 8
4 7
6
5
A1 11
12
11
10
12
1
10
2
9
3
8
4 7
1
6
5
2
9
3 8
4 7
6
xxx xxx xxx xxx
5
xxx xxx xxx xxx
xxx xxx xxx xxx
xxx xxx xxx xxx
Administrator
Anwender
5 Gesamtwertigkeit der Alternativen ausgeben Ergebnis-Fuzzy-Sets A1 A2 Nutzwert
Rangfolge A1 A2
A3
Defuzzyfizierung
Rechner
Abb. 5.6. Multikriterielle Bewertung von Fertigungsfolgen
Die ersten beiden Schritte werden einmalig vor dem operativen Einsatz der Bewertungsmethode bzw. bei Änderungen der Kriterienhierarchie von einem Administrator bzw. einem Experten(team) durchgeführt. Die Gewichtung der Kriterien (Schritt 2) ist sukzessive aufsteigend über alle Ebenen der Kriterienhierarchie durchzuführen. Hierbei werden die Kriterien einer Hierarchieebene jeweils paarweise gegeneinander gewichtet.
5.2 Bewertung von Fertigungsfolgen
215
Die Festlegung der Bedeutung der Einzelkriterien für die Gesamtzielerfüllung variiert unternehmensspezifisch. Für die Gewichtung der Kriterien können daher nur grundsätzliche Vorschläge gemacht werden, die unternehmens- und situationsspezifisch anzupassen sind. Die Schritte 3 und 4 sind im Rahmen des operativen Einsatzes der Bewertungsmethode vom Anwender durchzuführen. Aus den Eigenschaften der zu bewertenden Fertigungsfolgen sind Erfüllungsgrade hinsichtlich der aufgestellten Kriterien abzuleiten. Gelöst wird das Entscheidungsproblem in Schritt 5 durch die Berechnung bzw. formallogische Auswahl der in der Summe ihrer Eigenschaften am besten geeigneten Fertigungsfolge. Diejenige Alternative, die alle definierten und gewichteten Kriterien summarisch am besten erfüllt, repräsentiert demnach die optimale Lösung. Dieser Schritt realisiert unter Nutzung einer einfachen, der Fuzzy-AHP zugrundeliegenden Fuzzy-Arithmetik die Überprüfung und Normierung der Kennwerte sowie schließlich die Aggregation je eines Gesamtnutzwertes zu den einzelnen Alternativen. 5.2.3 Methoden zur Prozesszeitermittlung Die sequenzielle Abfolge von Konstruktion und Arbeitsablaufplanung widerspricht grundsätzlich dem Prinzip des Simultaneous Engineering. Die zeitaufwendigen iterativen Durchläufe führen unter dem in der Praxis herrschenden Zeitdruck selten zu einer optimalen Gesamtlösung für das herzustellende Produkt. Ein Erfolg versprechender Ansatz besteht darin, Verfahren zu schaffen, die es ermöglichen, bereits während der Konstruktionsphase den Einfluss von Fertigungsalternativen auf die Bearbeitungszeit und damit auf die Bearbeitungskosten zu ermitteln. Hierzu wurde eine Methode der konstruktionsbegleitenden Abschätzung der Prozesszeit auf Basis der CAD-Modelldaten entwickelt, die es ermöglicht, durch annähernd optimale Bauteilgestaltung die Zahl der notwendigen Iterationsschleifen zwischen Konstruktion und Arbeitsplanung zu verringern. Die Grundlage ist der Aufbau einer in das CAD-System integrierten Datenbank, die eine Vielzahl von parametrisierten Fertigungsfeatures enthält, deren Parameter direkt zur vereinfachten Berechnung der erforderlichen Fertigungszeiten mithilfe der klassischen Berechnungsformeln (Degner et al. 2002) verwendet werden. Die Fertigung der konstruktionsbegleitend optimierten Bauteile hat ebenfalls einen wesentlichen Einfluss auf die Gesamtkosten. Hier gilt es, durch möglichst effiziente Prozesse den Zeit- und Kostenaufwand zu minimieren; Unterstützung bietet die Methode der simulativen Ermittlung der Prozesszeit mit der Identifizierung von suboptimalen Bereichen während des Bearbeitungsablaufs. Grundlage sind genaue Kenntnisse über Werkstück, Werkzeug, Werkzeugmaschine und Prozess, die nach heutigem Stand der Technik nur durch die konsequente Anwendung von Simulationswerkzeugen in Verbindung mit messtechnischen Untersuchungen erlangt werden können.
216
5 Integrierte Produkt- und Produktionsprozessgestaltung
Simulative Ermittlung der Prozesszeit
Geometrie
Qualitätsanforderungen
Technologiekette
Î Prismatisch
Î Form-
Î Fertigungstechnologien
Î Rotationssymmetrisch
und Lagetoleranzen Î Maßtoleranzen Î Oberflächen
Î Reihenfolge
NC-Programm Werkstück
Î Schnitttiefe
Î Einspannung
Prozesszeit
Simulation
Î Werkstoff Î Steifigkeit
Î Vorschub Î Schnittgeschwindigkeit
im Fertigungsablauf
Zerspanprozess
Werkzeug
Maschine
Î Zerspankraftmodell
Î Geometrie
Î Statisches/dynamisches
Î Belastbarkeit/Standzeit Î Steifigkeit
Eingangsinformationen
Die Prozesszeit kann nach dem derzeitigen Stand der Technik in der Arbeitsplanung durch CAPP (Computer Aided Process Planning)- Systeme für eine konkrete Bearbeitungsaufgabe exakt bestimmt werden. Allerdings führen die aktuell verfügbaren kommerziellen CAM-Systeme eine rein kinematische Abtragssimulation ohne Berücksichtigung der statischen und dynamischen Eigenschaften des Gesamtsystems durch. Schnittwerte wie Vorschub und Schnitttiefe werden weitgehend den Empfehlungen der Werkzeughersteller entnommen und bei auftretenden Fertigungsproblemen wie mangelhafter Qualität oder instabiler Bearbeitung reduziert. Abschätzungen zur Ausnutzung der Leistungsfähigkeit können nur durch die Einbeziehung zusätzlicher Einflussgrößen getroffen werden (Abb. 5.7). Hierbei stellt die bislang mögliche Prozesszeitermittlung die Eingangsinformationen bereit, auf denen die Ergebnisse von Simulationen in den Bereichen Werkstück, Zerspanprozess, Werkzeug und Maschine aufbauen.
Verhalten im Arbeitsraum Î Leistungsdaten
Abb. 5.7. Einflussgrößen auf die Prozesszeit
Die Vielzahl der erforderlichen Simulationen und die umfangreichen Datenmengen erfordern die Integration aller Teilsysteme zu einer einheitlichen Simulationsumgebung (Abb. 5.8). Die Benutzeroberfläche IntSimU (Integrierte Simulationsumgebung) stellt dem Arbeitsplaner die Ergebnisse der Simulationen aufbereitet zur Verfügung und zeigt das Optimierungspotenzial der Fertigungsprozesse auf. Zusätzlich wird die vollständige Steuerung der Einzelkomponenten übernommen. Die kinematische Ablaufsimulation wurde beispielhaft unter der CAD-Software SolidWorks® mithilfe des Application Programming Interface (API) implementiert. Hier können bestehende NC-Programme parallel zur Potenzialbewertung unter IntSimU ablaufen und visualisiert werden. Die Datenverwaltung und die Aufbereitung der Simulationsergebnisse werden aufgrund der freien Programmierbarkeit mit Microsoft Excel® vorgenommen, wohingegen die eigentlichen statischen und dynamischen Finite-Elemente-Berechnungen mit explizit verifizierten Modellen unter I-
5.2 Bewertung von Fertigungsfolgen
217
deas® durchgeführt werden. Der Erweiterbarkeit der prototypisch umgesetzten Simulationsumgebung wird durch eine entsprechend offene Gestaltung Rechnung getragen. IntSimU Î Î
Steuerung der gesamten Simulationsumgebung Berechnung von Ersatzsteifigkeiten für die FE-Modelle
SolidWorks Î Î
Visualisierung Kinematische Ablaufsimulation
Î
Visualisierung der Ergebnisse mit Identifikation des Optimierungspotenzials
Microsoft Excel Î Î Î
Aufbereitung der Ergebnisse Näherungspolynome Datenhaltung
I-deas 10 NX Î Î
Abgeglichene FE-Modelle Durchführung der Berechnungen
Abb. 5.8. Struktur und Komponenten der Simulationsumgebung
Simulation der statischen und dynamischen Maschineneigenschaften Als Beispiel für den Bereich der Drehbearbeitung wurde die Vertikaldrehmaschine V100 der Firma Index in die Simulationsumgebung integriert. Die über eine Delta-Stabkinematik in drei Achsen verfahrbare Werkstückspindel ist sowohl für die eigentliche Vorschubbewegung als auch für die Werkstückhandhabung zuständig. Die Vorteile der Kinematik liegen in der hohen Steifigkeit, der guten Dynamik und einer hohen Wiederholgenauigkeit, die einen prozesssicheren Einsatz in der Serienfertigung ermöglicht. Die Werkzeuge können in einem flexiblen Raster angeordnet sowie zusätzlich angetrieben werden. Die Grundlage der Simulation bildet ein CAD-Modell der Gesamtmaschine, das über eine entsprechende Parametrisierung die Bewegungen der realen Maschine nachbilden kann. Hierzu wird lediglich die Position eines Werkstückbezugspunktes durch IntSimU vorgegeben, die Positionierung der übrigen Maschinenkomponenten wie z.B. der Schlitten und Stäbe wird durch den in die CAD-Software integrierten Constraint-Solver vorgenommen. Geometrische Größen wie die Längen der Kugelgewindespindeln in Fest-/Loslagerung werden ausgelesen und IntSimU zur Weiterverarbeitung zur Verfügung gestellt. Der Aufbau eines geometriebasierten FE-Modells unter I-deas® ermöglicht die freie Positionierung aller Strukturbauteile mit einem sich automatisch aktualisierenden FE-Netz. Die notwendigen geometrischen Steuerungsinformationen sowie die je nach Maschinenposition variierenden Steifigkeiten der Maschinenelemente werden übertragen, bevor die automatische Berechnung und Auswertung durchgeführt wird. Die möglichst detaillierte Untersuchung des Arbeitsraumes in Bezug auf das statische und dynamische Nachgiebigkeitsverhalten erfordert neben einer ausreichenden Rechenleistung vor allem qualitativ hochwertige Modelle, da ansonsten bei hohem Aufwand lediglich unbrauchbare Ergebnisse erzeugt werden. Hier kann der Abgleich von Berechnungen mit durchgeführten Messungen die Modellgüte entscheidend verbessern (Weck 2001, S. 183; Weck et al. 2003). In Abbildung 5.9 sind die gemessenen und die berechneten statischen Steifigkeiten für vier unterschiedliche Maschinenpositionen in X- bzw. Y-Richtung
218
5 Integrierte Produkt- und Produktionsprozessgestaltung
gegenübergestellt. Die Simulationsergebnisse des nicht abgeglichenen Modells weichen um bis zu 24% von den realen Messwerten ab. Gründe hierfür sind vor allem in den nicht exakt zu ermittelnden Gelenksteifigkeiten der Parallelkinematikmaschine sowie in den konstruktiven Besonderheiten in den Schlittenantrieben zu finden. Der durchgeführte Abgleich hat zu einer deutlichen Reduzierung der Abweichungen auf unter 5% geführt; diese variieren zudem deutlich weniger in den Messpositionen. Der Grund für die gute Übereinstimmung liegt in dem sukzessiven Vorgehen: So können die Steifigkeiten der Spindellager ausgehend von den Katalogwerten durch Vergleich mit den in der experimentellen Modalanalyse identifizierten Schwingungsformen des Spindel-Lager-Systems an die realen Bedingungen angepasst werden. Der Grund für die Abweichungen ist in der Abhängigkeit der Lagersteifigkeiten von der während der Montage aufgebrachten Vorspannung zu finden. Messtechnische Untersuchung Î Î Î
Finite-Elemente-Berechnung
Statische Kraft-/Verformungskennlinien Nachgiebigkeitsfrequenzgänge Modalanalyse
Î Î Î
Nachgiebigkeitsmatrizen Nachgiebigkeitsfrequenzgänge Eigenformen
Abgleich und Anpassung des Finite-Elemente-Modells
Z Y X
Statische Steifigkeiten je Messposition 1 (X)
2 (Y)
3 (X)
4 (Y)
Messposition Nr.
1
2
3
4
Kraft-/ Verlagerungsrichtung
X
Y
X
Y
Abweichung vor dem Abgleich
-22%
-24%
-8%
-5%
Abweichung nach dem Abgleich
+3%
-4%
-4%
-1%
Ergebnis der messtechnischen Untersuchung Ergebnis der FE-Berechnungen vor dem Abgleich Ergebnis der FE-Berechnungen nach dem Abgleich
Abb. 5.9. Abgleich Messung/ Rechnung
Dieses gekapselte Vorgehen reduziert die Anzahl der zu berücksichtigenden Parameter für den Abgleich der Gesamtmaschine und kann zudem durch die Spindel-Lager-Berechnungssoftware NewSpilad (Brecher u. Körner 2004) schnell und einfach durchgeführt werden. Die Berechnung der Nachgiebigkeitsmatrizen im gesamten Arbeitsraum wurde durch IntSimU an m = 63 = 216 diskreten Positionen automatisiert durchgeführt. Die einfache Verfügbarkeit der Ergebnisse wird durch die Berechnungen von Ausgleichsfunktionen für die einzelnen Komponenten der Nachgiebigkeitsmatrizen sichergestellt.
5.2 Bewertung von Fertigungsfolgen
219
Die Ausgleichsfunktion f für eine Komponente der Nachgiebigkeitsmatrix G ergibt sich aus der Summe von n Ansatzfunktionen M multipliziert mit den Ausgleichsparametern an in Abhängigkeit von der Arbeitsraumposition ti & & & & f ( t i ) a n M n ( t i ) a 1M1 ( t i ) mit t i ( x y z) T (5.5) Die n = 35 Ansatzfunktionen M werden durch Multiplikation der potenzierten Koordinaten x, y und z nach folgendem Schema gebildet: & Mn ( t )
x u y v z w mit u , v , w >0,1,2,3,4@ und u v w d 4 .
(5.6)
Die Ermittlung der Ausgleichsparameter a folgt der Theorie des linearen Quadratmittelproblems (least square, multiple Regression) (Bartsch 1998, S. 163). Der Vektor e entspricht den Berechungsergebnissen in allen Positionen für eine Komponente der Nachgiebigkeitsmatrix.
& a
H
T
H
1
& HT e
mit H
& & § M1 ( t1 ) M 2 ( t1 ) ¨ & & ¨ M1 ( t 2 ) M 2 ( t 2 ) ¨ ¨ & ¨ M ( t ) M ( &t ) 2 m © 1 m
& M n ( t1 ) · & ¸ Mn ( t2 ) ¸ ¸ ¸ & ¸ Mn ( tm ) ¹
(5.7)
Simulation der Werkzeugeigenschaften Die Werkzeuge werden nicht nur mit ihren geometrischen Eigenschaften wie den Werkzeugkorrekturwerten oder dem Eckenradius, sondern auch mit ihren Nachgiebigkeitsmatrizen in der Simulationsumgebung abgebildet. Diese Nachgiebigkeiten können mithilfe der FEM weitgehend automatisiert berechnet werden, wobei die Drehmeißelstruktur, der Werkzeughalter und die Anbindung des Werkzeugs an die Maschinenstruktur Berücksichtigung finden. Alternativ können die Nachgiebigkeitswerte aus Messungen bestimmt werden. Simulation der Werkstückeigenschaften Die Geometrie und damit das Verformungsverhalten des Werkstücks verändert sich aufgrund des Materialabtrags während der spanenden Bearbeitung kontinuierlich; dieser Tatsache wird durch die Simulation des Steifigkeitsverhaltens während des Fertigungsablaufs unter Verwendung parametrisierter FE-Modelle Rechnung getragen. Der Aufwand zur Erstellung dieser Modelle ist in der Regel nur für den genauigkeitserzeugenden Schnitt und nicht für die Schruppbearbeitung erforderlich und vertretbar. Prozesssimulation Die Prozesssimulation verwendet je nach Bearbeitungsaufgabe unterschiedliche analytische Schnittkraftmodelle (König u. Klocke 1997, S. 76), deren geometrische Eingangsgrößen Schnitttiefe, Schnittbreite und Vorschub aus dem NC-Pro-
220
5 Integrierte Produkt- und Produktionsprozessgestaltung
gramm ermittelt werden. Werkstoffkennwerte werden einer in die Simulationsumgebung integrierten Datenbank entnommen. Das Nachgiebigkeitsverhalten eines Systems aus Maschine, Werkzeug und Werkstück ist beispielhaft in Abb. 5.10 für ein einfaches Drehteil dargestellt. Die Nachgiebigkeit der Vertikal-Drehmaschine Index V100 ist während der Zerspanung aufgrund der geringen Bauteilabmessungen und der dadurch geringen Verfahrbewegungen der Werkstückspindel annähernd konstant; größere Variationen treten hier bei der Bearbeitung an unterschiedlichen feststehenden Werkzeugen auf. Die Nachgiebigkeit des Werkstücks wird hauptsächlich durch die geringen Durchmesser in Verbindung mit der freien Auskraglänge bestimmt. Der charakteristische Verlauf der Gesamtnachgiebigkeit ergibt sich durch die Summation der Einzelnachgiebigkeiten. Abbildung 5.10 zeigt, dass die Gesamtnachgiebigkeit bei einer hohen Auskragung im Wesentlichen vom Werkstück, bei einer geringen Auskragung dagegen von der Maschine bestimmt wird.
Nachgiebigkeit in X-Richtung [µm/N]
0
Einspannung
57
X Z
Gesamtnachgiebigkeit Werkstück Maschine
Werkzeug
0
10
20
30
40
50
57
Werkzeugeingriff an Z-Koordinate [mm]
Abb. 5.10. Nachgiebigkeit an der Zerspanstelle
Die integrierte Simulationsumgebung IntSimU (Abb. 5.11) führt in Verbindung mit der CAD-Software die kinematische NC-Simulation zur Bestimmung der Prozesszeit einer spanenden Bearbeitung durch. Zusätzlich werden aufbereitete Simulationsergebnisse wie die beispielhaft dargestellte Maschinennachgiebigkeit Gxx (Verlagerung des Spindelbezugspunktes in x-Richtung bei Belastung in x-Richtung) sowie die eigentliche Zeitberechnung visualisiert. Der Anwender hat hier die Möglichkeit, Änderungen wie z.B. die Optimierung der Zerspanungsgrößen in das bestehende NC-Programm einzuarbeiten und sofort die Auswirkungen auf die Prozesszeit zu ermitteln.
5.2 Bewertung von Fertigungsfolgen
---
---
---
---
---
---
---
---
---
221
-------
Abb. 5.11. Integrierte Simulationsumgebung IntSimU (Zahlenwerte entfernt)
5.2.4 Applikationsmöglichkeiten Exemplarisch wird im Folgenden eine Abtriebswelle, die in zwei von drei möglichen Getriebevarianten zum Einsatz kommen soll, betrachtet. Als Eingangsinformation steht die Beschreibung der Welle zur Verfügung; sie ist grob bezüglich Werkstoff, Geometrie, Oberflächenbeschaffenheit und Genauigkeit unter Verwendung von Fuzzy-Sets mit einer in frühen Phasen der Konstruktion unvermeidlichen Unschärfe beschrieben (Abb. 5.12). Als weitere Eingangsinformation stehen die unternehmensunabhängigen Technologieketten zur Verfügung, die im Rahmen der fertigungstechnologischen Einsatzplanung entwickelt wurden. Basierend auf den dargestellten Eingangsinformationen werden Produktionsmittelmatrizen generiert. Hierbei werden zunächst die Produktionsmittel in den zu betrachtenden Produktionsumgebungen den Prozessschritten der Technologieketten zugeordnet. So werden beispielsweise dem Technologieschritt Fräsen alle in der jeweiligen Produktionsumgebung existierenden Fertigungsmittel zugeordnet, die prinzipiell die Technologie Fräsen umsetzen. Im Folgenden werden die groben und feinen Analysen der Produktionsmittel durchgeführt, um die Alternativenanzahl der Fertigungsfolgen zu reduzieren. Dabei kann es vorkommen, dass einzelne Technologieketten aufgrund fehlender Maschinen in einer Produktionsumgebung nicht umsetzbar sind. Die aus den Einzelprüfungsmodulen als geeignet hervorgegangenen Fertigungsmittel werden anschließend entlang der Technologieketten zu alternativen Fertigungsprozessfolgen verknüpft. Den als notwendig identifizierten Zwischenschritten werden, analog zur Vorgehensweise bei Fertigungsschritten, Produktionsmittel zugeordnet, deren Eignung zur Durchführung der jeweiligen Zwischens-
222
5 Integrierte Produkt- und Produktionsprozessgestaltung
chritte ebenfalls überprüft wird. Dies geschieht analog zur Vorgehensweise für die grobe Eignungsprüfung von Fertigungsmitteln. Anschließend liegen alternative, gegeneinander zu bewertende Fertigungsfolgen vor. Diese stellen Fertigungsmöglichkeiten dar, basierend auf alternativen Technologieketten in den beiden zu betrachtenden Produktionsumgebungen, die mit konkreten, bereits auf ihre Eignung hin untersuchten Produktionsmitteln durchführbar sind. Gestaltvariante A: Passfeder Technologiekette A1 Drehen
Wälzfräsen (Verzahnung)
Fräsen (Paßfeder)
Härten
Einstechschleifen (Zylinder)
Fräsen (Paßfeder)
Härten
Hartdrehen (Zylinder)
Bandfinishen
Schleifen (Verzahnung)
Bandfinishen
Schleifen (Verzahnung)
Einstechschleifen (Zylinder)
Bandfinishen
Honen (Verzahnung)
Technologiekette A2 Drehen
Wälzfräsen (Verzahnung)
Honen (Verzahnung)
Gestaltvariante B: Vielkeil Technologiekette B1 Schmieden
Drehen
Fräsen (Vielkeil)
Wälzfräsen (Verzahnung)
Wälzfräsen (Verzahnung)
Härten
Hartdrehen (Zylinder)
Bandfinishen
Schleifen (Verzahnung)
Wälzfräsen (Verzahnung)
Härten
Längsschleifen (Zylinder)
Bandfinishen
Schleifen (Verzahnung)
Härten
Schleifen (Verzahnung)
Honen (Verzahnung)
Technologiekette B2 Drehen
Fräsen (Vielkeil)
Honen (Verzahnung)
Technologiekette B3 Drehen
Fräsen (Vielkeil)
Bauteilzwischenzustände Fräsen (Vielkeil)
Wälzfräsen (Verzahnung)
Abb. 5.12. Alternative Technologieketten für eine Abtriebswelle
Nachdem die Eigenschaften der zu bewertenden Fertigungsfolgen durch Basiskennwerte modelliert sind, ermittelt der modifizierte Fuzzy-AHP (Analytischer Hierarchie-Prozess)- Algorithmus, der in einem Bewertungs-Tool hinterlegt ist, die in der Summe ihrer Eigenschaften am besten geeignete Alternative für die Herstellung der Getriebewelle. Die in unterschiedlichen Einheiten vorliegenden Basiskennwerte werden hierfür zunächst in proportional normierte Kennwerte überführt. Die Gesamtnutzwerte zu den einzelnen Fertigungsfolgen berechnen sich anschließend aus der Fuzzy-Multiplikation der Basiskennwertmatrix mit dem Gewichtungsvektor der zugehörigen Kriterien. Abbildung 5.13 zeigt das Ergebnisfenster des Bewertungs-Tools. In diesem ist der jeweilige Gesamtnutzwert der einzelnen Fertigungsfolgen in Form eines Fuzzy-Sets dargestellt. Lage und Form der ermittelten Ergebnis-Fuzzy-Sets werden anschließend mithilfe des asymmetrischen Toleranzfeldverfahrens interpretiert (Schell 1997, S. 78 ff.). Auf diese Weise werden die alternativen Fertigungsfolgen in einer Rangfolge angeordnet. Die integrierte Simulationsumgebung IntSimU kann im Rahmen der Arbeitsplanung zur exakten Ermittlung von Prozesszeiten sowie zur Optimierung in Bezug auf die Minimierung von Fertigungs-
5.2 Bewertung von Fertigungsfolgen
223
zeiten bei gleichzeitiger Einhaltung der geforderten Qualitätsmerkmale eingesetzt werden. Abbildung 5.14 zeigt beispielhaft die relative Verlagerung zwischen Werkzeug und Werkstück an der Zerspanstelle aufgrund der Prozesskräfte sowie die geforderte Toleranz in vier Bereichen des Drehteils. Das konventionelle NC-Programm weist Bereiche auf, in denen die tatsächliche Verlagerung über der maximal zulässigen liegt, so dass die Einhaltung der Qualitätsanforderungen nicht gewährleistet werden kann. Andererseits existieren Bereiche, insbesondere nahe der Einspannung, in denen die Toleranzen übererfüllt werden. Die erforderliche Überarbeitung des konventionellen NC-Programms durch Rücknahme der Schnittwerte stellt die Bearbeitungsqualität zuverlässig sicher, allerdings wird hierdurch die Prozesszeit erheblich verlängert. Durch die offene Gestaltung der Simulationsumgebung ist die Übertragbarkeit der vorgestellten Methode der simulativen Bestimmung der Prozesszeit auf Bearbeitungszentren gewährleistet. Dabei ist die Integration zusätzlicher Maschinen zum direkten Vergleich von Fertigungsalternativen möglich und strukturell vorgesehen. Weiterhin werden in Zukunft die Eigenschaften der Antriebe in die Simulationsumgebung integriert; dies ermöglicht eine Bewertung der Auswirkungen verschiedener Reglereinstellungen auf die Prozesszeit. Ergebnis der multikriteriellen Bewertung alternativer Fertigungsfolgen
Fertigungsfolge B3-P µ Fertigungsfolge B1-D Fertigungsfolge B3-D
Abb. 5.13. Ergebnis der Multikriterienbewertung
224
5 Integrierte Produkt- und Produktionsprozessgestaltung
Prozesszeit [s]
Relative Verlagerung in X-Richtung [µm]
20
15
Konventionelles NC-Programm Nichteinhaltung der Toleranz Übererfüllung der Toleranz
21.6
Überarbeitetes NC-Programm
39.0
Optimiertes NC-Programm
24.4
X
Z
Einspannung
10
5
Geforderte Toleranz 0 0
10
20
30
40
50
57
Werkzeugeingriff an Z-Koordinate [mm]
Abb. 5.14. Prozesszeitoptimierung einer Schlichtbearbeitung
Der strategische Ansatz für die Bewertung alternativer Fertigungsfolgen im Bereich der Produktionsmittelauswahl liegt in einer Produktionsumgebung, deren Maschinen als Grundlage der Simulation einmal messtechnisch erfasst wurden. Der Einsatz der integrierten Simulationsumgebung IntSimU ermöglicht schließlich, aufbauend auf den Messergebnissen, die Prozesszeitoptimierung durch eine mit Simulationsergebnissen gesicherte kontinuierliche Anpassung der Schnittgrößen zur Ausnutzung der Leistungsfähigkeit eines Systems aus Maschine, Werkzeug, Werkstück und Prozess. Literatur Bartsch H (1998) Taschenbuch mathematischer Formeln. Fachbuchverlag, Leipzig Brecher C, Körner G (2004) NewSpilad Benutzerhandbuch. Laboratorium für Werkzeugmaschinen und Betriebslehre der RWTH Aachen Bullinger H-J (1994) Einführung in das Technologiemanagement. Teubner, Stuttgart Burgstahler B (1997) Synchronisation von Produkt- und Produktionsentwicklung mit Hilfe eines Technologiekalenders. Dissertation, TU Braunschweig Chalmers RE (1999) Going Digital at Daimler Chrysler – True Design/ Manufacturing Integration has arrived at the Post-Merger Powerhouse. Manufacturing Engineering 8/99: 68 Degner W, Lutze H, Smejkal E (2002) Spanende Formung. Hanser, München Wien Eversheim W, Bochtler W, Laufenberg L (1995) Simultaneous Engineering - Erfahrungen aus der Industrie für die Industrie. Springer, Berlin Heidelberg New York Eversheim W, Schuh G (1996) Die Betriebshütte. Springer, Berlin Heidelberg New York Kimura F (1999) Current Issues and Future Perspectives of Computer Support Tools for Improving Design Process Management. In: CIRP (Hrsg) International CIRP Design Seminar. Universität Twente, The Netherlands
5.2 Bewertung von Fertigungsfolgen
225
König W, Klocke F (1997) Fertigungsverfahren 1, Drehen, Fräsen, Bohren. Springer, Berlin Heidelberg New York Peiffer S (1992) Technologie-Frühaufklärung. Steuer- und Wirtschaftsverlag, Hamburg Schmitz W (1996) Methodik zur strategischen Planung von Fertigungstechnologien. Dissertation, RWTH Aachen Schell H (1997) Entwicklung von Verfahren zur Bewertung alternativer Handhabungs- und Fertigungsfolgen in flexiblen Fertigungssystemen. Dissertation, RWTH Aachen Tönshoff H-K (1995) Fertigungstechnologien bewerten und auswählen. VDI-Z 137: 30 Ullmann C (1995) Methodik zur Verfahrensplanung von innovativen Fertigungstechnologien im Rahmen der technischen Investitionsplanung. Dissertation, RWTH Aachen Wendenberg M (1999) Manche Wünsche bleiben (noch) offen – PDM wird immer wichtiger, doch nicht alle Systeme taugen für jeden Zweck. It.AV 3: 14 Wildemann H (1987) Strategische Investitionsplanung: Methoden zur Bewertung neuer Pro-duktionstechnologien. Gabler, Wiesbaden Wolfrum B (1994) Strategisches Technologiemanagement. Gabler, Wiesbaden Weck M, Klocke F, Schell H, Rüenauver E (1997) Evaluating Alternative Production Cycles Using the Extended Fuzzy AHP Method. European Journal of Operational Research 100: 353 Weck M (2001) Werkzeugmaschinen Fertigungssysteme 5, Messtechnische Untersuchung und Beurteilung. Springer, Berlin Heidelberg New York Weck M, Queins M, Witt S (2003) Effektive Entwicklung von Werkzeugmaschinen. VDIZ 145: 32–36
226
5 Integrierte Produkt- und Produktionsprozessgestaltung
5.3 Funktionsbewertung und Prototypenfertigung Aufgrund des vorherrschenden hohen Innovations- und Wettbewerbsdrucks verkürzen sich branchenübergreifend die Lebenszyklen heutiger Produkte. Durch die Weiterentwicklung des computerunterstützten Konstruierens hin zum 3DCAD und spätestens seit Kommerzialisierung der Stereolithographie (1988) wird der Produktentwicklungsprozess auf operativer Ebene durch generative Fertigungsverfahren zur beschleunigten Erzeugung von Prototypen unterstützt. Waren zu Beginn der 1990er Jahre nur kunststoffbasierte Werkstoffe kommerziell nutzbar, so sind heute auch Metalle und Keramiken mit schichtweise aufbauenden Verfahren verarbeitbar (Klocke u. Wagner 2003; Wagner 2003; Wirtz 2000). Unter dem Begriff Rapid Prototyping (RP) versteht man die Technologie der generativen Fertigungsverfahren. Rapid Tooling (RT) und Rapid Manufacturing (RM) bezeichnen spezielle Anwendungen und Einsatzgebiete des Rapid Prototyping (Gebhardt 2000, S. 27 ff.). Aufgrund der Verfahrensvielfalt können Entwickler und Ingenieure allerdings meist nicht sofort das für ihre Anforderungen ideale Rapid-Verfahren auswählen. Häufig sind nur wenige Verfahren bekannt, von denen dann eines ausgewählt wird. So kann es zu überproportionalen Kosten mit unbefriedigenden Ergebnissen oder gar zum Scheitern einer Vorstudie kommen. Hilfreich ist eine methodische Rapid-Verfahrensauswahl. Durch Eingabe des prototypspezifischen Anforderungsprofils, beispielsweise Werkstoff, Stückzahl, Dimension, Maßgenauigkeit etc., wird so aus der vorhandenen Datenbasis das geeignete generative Verfahren ausgewählt. 5.3.1 Materielle Prototypen in der Produktentwicklung Der Begriff „Prototyp“ setzt sich zusammen aus den griechischen Wörtern protos (erster) und typos (Abdruck, Bild) und beschreibt somit das (Erst-)Muster eines Produktes. Innerhalb der Produktentwicklung werden in den jeweiligen Abschnitten Prototypen mit verschiedenen Anforderungen in unterschiedlicher Stückzahl benötigt (Abb. 5.15). Während zu Beginn der Produktentwicklung die primären Anforderungen an Prototypen überwiegend optischer und haptischer Natur sind, so sind bereits in der Funktionsmusterphase geometrische bzw. funktionale Anforderungen zu erfüllen. Dies bedeutet eine erhöhte Form- und Maßgenauigkeit der Prototypen. Der technische Prototyp soll dann in erhöhter Stückzahl mit seriennahen Eigenschaften vorliegen, bevor in der Vor- bzw. 0-Serie die Prototypen sowohl mit dem serienidentischen Fertigungsverfahren als auch im serienidentischen Werkstoff vorliegen müssen. Der herkömmliche Modell- und Prototypenbau mittels konventioneller Fertigungsverfahren ist aufgrund der geringen Losgröße und der häufigen Änderungen des Produktmusters zeit- und kostenintensiv (König u. Klocke 1997, S. 232). Wie bereits erwähnt bezeichnet Rapid Prototyping die Technologie der generativen Fertigungsverfahren und nicht die schnelle Fertigung von Prototypen. Da
5.3 Funktionsbewertung und Prototypenfertigung
227
mittlerweile jede Phase der Produktentwicklung durch Rapid-Verfahren unterstützt werden kann, haben sich weitere Fachausdrücke etabliert: Concept Modeling bedeutet die generative Herstellung von Designmodellen, Functional Prototyping (häufig gleichgesetzt mit Rapid Prototyping) bedeutet die Fertigung von Funktions- und technischen Prototypen. Rapid Tooling steht für die direkte und indirekte Herstellung von Vorserien-Werkzeugen und Formen. Rapid Manufacturing ist die generative Fertigung eines finalen Serienprodukts oder Serienwerkzeugs (Grönwoldt 2004; Gebhardt 2000, S. 28 f.). Vorentwickungsphase
Funktionsmusterphase
Prototypenphase
Vorserienphase
Prototypenart
Designmodell
Funktionsprototyp
Technischer Prototyp
Vorserie
Primäre Anforderungen
optisch & haptisch
funktional/ geometr.
Seriennahe Abb. aller Anforder.
Serieniden. Abb. aller Anforder.
Werkstoff
i.d.R. Modellbauwerkstoff
Modellbau-/ seriennaher Werkstoff
seriennaher Werkstoff
Serienwerkstoff
Fertigungsverfahren
manuell/ Modellbauverfahren
manuell/ Modellbauverfahren
seriennah mit Vorserienwerkzeugen
serienident. mit Serienwerkzeugen
RapidVerfahren
3DP, FDM
SLA, LOM, SLS
SLS, 3DP, Laser Cusing
SLM, EBM, SLS, Laserformen
Produktentwicklungsphase
Idee
Markteinführung
Abb. 5.15. Prototypenbedarf in der Produktentwicklung
Die nachfolgende Darstellung zeigt die Branchen, die heute RP-Modelle nutzen (Abb. 5.16). Über 50 % aller erzeugten RP-Modelle werden in der Automobilund Konsumgüterindustrie genutzt; der Medizinsektor folgt mit augenblicklich ca. 10 %. Sowohl Forschung als auch Luft- und Raumfahrt benötigen mit jeweils weniger als 9 % verhältnismäßig wenige RP-Modelle. In dieser Darstellung ist die Möglichkeit, dass ein Modell für mehrere Anwendungen genutzt werden kann, nicht berücksichtigt. Verwendung finden die RP-Modelle vorwiegend bei Funktionstests (22,4 %), als visuelle Hilfen für den Konstrukteur (15,3 %) oder für Montagetests (15,0 %) (Abb. 5.17). Die Verwendung von RP-Modellen für Concept Modeling und Functional Prototyping liegt bei ca. 65 %. Begründet ist dies vermutlich auch durch die längere Marktzugehörigkeit und die damit verbundene höhere Akzeptanz dieser RPVerfahren. Addiert man die Bereiche des Rapid Tooling, so ergibt sich immerhin eine Quote von 16,8 %.
228
5 Integrierte Produkt- und Produktionsprozessgestaltung
26.6 %
Automobilbau
24.5 %
Konsumgüter 10.4 %
Medizin Andere
8.6 %
Forschung
8.6 %
Luft-/Raumfahrt
8.5 % 7.2 %
Büromaschinen
5.6 %
Militär 0%
5%
10 % 15 % 20 % 25 %
Abb. 5.16. Anwendung von RP-Modellen nach Branchen (Wohlers 2003, S. 17)
Funktionstests
22.4 %
Visuelle Hilfen im Engineering
15.3 %
Montagetests
15,0 %
Urmodelle für indirektes RT
10.6 %
Urmodelle für Metallguss
9.6 %
Wkzg.-Einsätze direktes RT
6.2 %
Visuelle Hilfen im Wkzg.-bau
4.9 %
Angebotserstellung
4,0 %
Rapid Manufacturing
3.9 %
Ergonomiestudien
3.4 %
0%
5%
10 % 15 % 20 % 25 %
Abb. 5.17. Verwendungszweck von RP-Modellen (Wohlers 2003, S. 18)
Die noch geringen 3,9 % für den Bereich Rapid Manufacturing werden sich voraussichtlich in den nächsten Jahren drastisch erhöhen. Diese Aussage basiert auf den aktuellen Entwicklungstendenzen im Rapid-Bereich in Kombination mit verkürzten Produktlebenszyklen bei wachsender Komplexität und steigender Individualität (Gebhardt 2000, S. 30). Die Daten der Abbildungen 5.16 und 5.17 basieren auf einer Umfrage, an der sich 22 Anlagenhersteller und 40 Dienstleistungsunternehmen beteiligt haben (Wohlers 2003, S. 17).
5.3 Funktionsbewertung und Prototypenfertigung
229
Die Vielzahl an generativen Fertigungsverfahren sowie deren vielfältige Anwendungsmöglichkeiten in den unterschiedlichen Entwicklungsphasen können in diesem Kontext nicht vollständig dargestellt werden. Nachfolgend wird daher nur auf Untersuchungsergebnisse für Kunststoff- und Metallprototypen und auf die methodische Verfahrensauswahl mittels eines IT-Prototyps eingegangen. 5.3.2 RP- & RT-Verfahrensauswahl Um eine methodische Rapid-Verfahrensauswahl durchführen zu können, müssen zunächst die wichtigsten Anforderungen an die Prototypen in Abhängigkeit des Werkstoffes systematisch analysiert werden. In den vergangenen Jahren sind hierzu gezielt Untersuchungen durchgeführt worden. Im Folgenden wird zuerst das Rapid Tooling für das Kunststoff-Spritzgießen betrachtet, danach in Bezug auf metallische Prototypen. Dabei liegt das Augenmerk auf dem Druck- und Feinguss. Funktionsbewertung und Prototypenfertigung in der Kunststoffverarbeitung Wirtschaftliche Vorteile gegenüber konventionellen Fertigungsverfahren bieten RT-Prozesse insbesondere dann, wenn hierdurch Erodierschritte eingespart werden können. Dies ist bei hohen Aspektverhältnissen (hier: Verhältnis von Tiefe zur Breite bzw. zum Durchmesser einer Nut) und scharfen Innenecken der Fall. Daneben kann das RT auch bei komplexen, filigranen Geometrien Vorteile bieten, wobei jedoch fast immer eine Nacharbeit nötig wird (Lindner 2002). Aufgrund der geringeren Anzahl von Prozessschritten bieten direkte Verfahren ein höheres RTPotenzial, wohingegen die indirekten Verfahren bei einfacheren Geometrien Preisvorteile geltend machen können (Langen 1998). Da in RT-Formnestern bzw. RT-Kavitäten hergestellte Prototypen meist zur funktionellen Absicherung in der Vor- bzw. Kleinserie dienen sollen, ist eine möglichst hohe Seriennähe der so hergestellten Prototypen im Vergleich zum Serienspritzgießwerkzeug anzustreben. Aus diesem Grund wurde zunächst die grundsätzliche Anwendbarkeit von RTVerfahren anhand von Fallbeispielen nachgewiesen. Des Weiteren wurden mögliche Einschränkungen bezüglich des Einsatzes von RT-Werkzeugeinsätzen systematisch dargestellt. In Kombination mit den Erfahrungen, die im Bereich der Erstellung von metallischen Prototypen gewonnen wurden, konnten so umfangreiche Ergebnisse gesammelt werden, die in einem IT-Prototypen zusammengefasst wurden. Dieser unterstützt den Anwender bei der Auswahl einer geeigneten Prozesskette für den jeweiligen Anwendungsfall. Aufgrund der hohen Anzahl von RT-Verfahrensvarianten, die auf dem Markt verfügbar sind, wurde eine möglichst repräsentative Auswahl getroffen. Bei der Auswahl geeigneter Prozessketten wurden Aspekte x des Urmodells, x des Abformschritts,
230
5 Integrierte Produkt- und Produktionsprozessgestaltung
x weiterer (notwendige) Bearbeitungsschritte und x des Werkzeugmaterials berücksichtigt. Es wurden sowohl so genannte Soft-Tooling-Konzepte (kunststoffbasierte Werkzeugmaterialien) als auch Hard-Tooling-Konzepte (metallbasierte Werkstoffmaterialien) ausgewählt. Im Folgenden wird insbesondere auf die Verfahren x x x x x x
Stereolithographie, Harzgießen, Selektives Lasersintern, Metallspritzen, Feingießen und Keltool eingegangen.
Grundsätzliches zu den eingesetzten Prozessketten kann der einschlägigen Literatur entnommen werden (Langen 1998; Gebhardt 2000; Lindner 2002; Wohlers 2003). Auf spezifische Besonderheiten der einzelnen Prozessketten wird bei den jeweiligen durchgeführten Untersuchungen hingewiesen. Ziel der hier vorgestellten Untersuchungen ist es, RT-Prozesse für die Herstellung spritzgegossener Kunststoffprototypen hinsichtlich unterschiedlicher Kriterien zu charakterisieren. Nur so wird eine sinnvolle Bewertung von Funktionstests, die mit Prototypen durchgeführt werden, möglich. Es wurden insbesondere x x x x
die mechanischen Eigenschaften, die Schwindung und der Verzug, die notwendigen Entformungskräfte und die Nutzung direkter RT-Verfahren im Sinne eines Rapid Manufacturing
untersucht und mit konventionell hergestellten Einsätzen verglichen. Die Untersuchungen ermöglichen ein tieferes Verständnis dafür, ob und wann RP-/ RTProzessketten als Alternative zu konventionellen Prototypen eingesetzt werden können. Morphologie der Prototypenformteile Technische Prototypen, die durch Rapid Tooling-Verfahren hergestellt werden, sollten in ihren Eigenschaften den Serienformteilen möglichst nahe kommen. Obwohl beim Einsatz von Prototypwerkzeugen sowohl Serienmaterial als auch Serienherstellungsverfahren eingesetzt werden, kann im Allgemeinen nicht davon ausgegangen werden, dass die mechanischen Eigenschaften serienidentisch sind (Dusel 2000; Michaeli u. Lindner 2001). Hier spielen im Wesentlichen differenzierende Werkzeugmaterialien eine entscheidende Rolle. So führen z.B. Unterschiede in den thermischen Eigenschaften zu veränderten Gefügen in Formteilen (Ries 88). Starke Abweichungen zwischen Serienformteil und Prototyp können so zu gefährlichen Missinterpretationen von Funktionstests führen. Abweichungen in den mechanischen Eigenschaften zwischen spritzgegossenem Prototyp und Serienbauteil müssen daher systematisch quantifiziert werden.
5.3 Funktionsbewertung und Prototypenfertigung
231
Die Analyse der mechanischen Eigenschaften von spritzgegossenen Prototypen wurde anhand von Zugstabgeometrien nach DIN 527-2 durchgeführt. Des Weiteren wurden an einer 117 mm x 117 mm großen Plattengeometrie Durchstoßversuche durchgeführt (Abb.5.18). 11 7 5
6 4
7
54
3 2
8
1
9
7 11
92
Abb. 5.18. Untersuchte Formteil-/ Einsatzgeometrien
In den Zugversuchen wurde bei konstanter Abzugsgeschwindigkeit mittels einer Kraftmessdose die Kraft und unter Verwendung eines Dehnungsaufnehmers die Dehnung der Zugproben gemessen. Abbildung 5.19 zeigt einen Vergleich der Streckspannungen von Polypropylen P7000, DSM N.V, Beeck (Niederlande) bei Werkzeugtemperaturen von 40 °C und 80 °C. 30
2
Streckspannung [N/mm ]
35
25 20 15 10 40 °C 80 °C
5 0 ST
GH
MS
FG
KEL
SLS
Abb. 5.19. Streckspannungen von Formteilen, hergestellt mit unterschiedlichen RTVerfahren
232
5 Integrierte Produkt- und Produktionsprozessgestaltung
Beim Vergleich der Proben, die bei einer Werkzeugtemperatur von 80 °C abgeformt wurden, zeigen die in der Keltool (KEL)-, der Gießharz (GH)- und der feingegossenen Kavität (FG) hergestellten Prototypen die höchste Seriennähe. Die Prototypen, die in der mittels Lasersintern (SLS) und der mittels Metallspritzen (MS) hergestellten Kavität abgemustert wurden, zeigen einen Abfall in der Streckspannung. Dies ist auf Kerbeffekte aufgrund einer schlechteren Kavitätsoberfläche zurückzuführen. Auffällig ist daneben noch die im Vergleich höhere Streckspannung der Harzkavität. Die Ursache ist hierbei nicht in einer verbesserten Oberflächenqualität zu suchen, sondern vielmehr auf innere Eigenschaften zurückzuführen. Die Gießharz-Proben zeichnen sich durch relativ niedrige Randschichtanteile und große Sphärolithe in der Struktur aus. Bauteile mit hohen Randschichtanteilen versagen bei niedrigen Werten (Pleßmann et al. 1990); ein feineres Gefüge führt zu einer Verringerung der Streckspannung. Da bei niedrigerer Werkzeugtemperatur die Randschichtanteile steigen und gleichzeitig das Gefüge feiner wird, fallen die ertragbaren Streckspannungen hin zu niedrigeren Werkzeugtemperaturen. Bei einer Werkzeugtemperatur von 40 °C fallen dementsprechend die ertragbaren Streckspannungen ab; dies ist auf ein fein-sphärolithisches Gefüge zurückzuführen. Ingesamt führt eine höhere Werkzeugtemperatur zu größeren Sphärolithen, somit zu einem gröberen Gefüge und zu einer spröderen Probe. Zur besseren Beurteilung der Versprödung wurden Durchstoßversuche nach DIN 53443 durchgeführt. Hierzu wurden aus der in Abb. 5.18 dargestellten Plattengeometrie 60 mm x 60 mm große Proben ausgeschnitten und diese anschließend von einem Dorn durchstoßen. Die notwendige Kraft wird hierbei über dem Verfahrweg aufgezeichnet, die maximal notwendige Kraft ist in Abb. 5.20 dargestellt. Die Standardabweichungen in den Messungen sind verglichen mit den Unterschieden zwischen den Werkzeugen als hoch einzustufen. Dies hat seine Ursache in unterschiedlichem Versagensverhalten. 450
Schädigungskraft [N]
400 350 300 250 200 150 100 50 0 ST
GH
MS
Abb. 5.20. Schädigungskraft im Durchstoßversuch
FG
KEL
SLS
5.3 Funktionsbewertung und Prototypenfertigung
233
Insgesamt ist festzustellen, dass mit zunehmender Temperaturleitfähigkeit des Kavitätsmaterials die Belastbarkeit der Proben zunimmt. Ausnahmen stellen die SLS-Probe aufgrund hoher Oberflächenrauigkeiten (niedrigere Schädigungskraft durch Kerbwirkung) und die metallgespritzte Kavität (hohe Schädigungskraft aufgrund hoher Randschichtdicke) dar. Zusammenfassend kann festgehalten werden, dass die mechanischen Eigenschaften spritzgegossener Prototypen deutlich vom Serienbauteil abweichen. Da die Streckspannungen zum Teil auch über denen des Serienbauteils liegen, besteht bei mechanischen Belastungstests die Gefahr, dass das Produkt früher versagt als dies durch Prototypentests prognostiziert wurde. Eine Kompensation dieses Effekts ist z. T. durch eine Anpassung der Werkzeugtemperatur möglich, da eine verminderte Werkzeugtemperatur bei niedriger Wärmeleitfähigkeit des Materials die inneren Strukturen positiv in Hinblick auf die Seriennähe beeinflussen kann. Darüber hinaus werden bei Prototypwerkzeugen oft Anpassungen im Aufbau vorgenommen, die bei der Interpretation von Analyseergebnissen beachtet werden müssen. Schwindung spritzgegossener Prototypen Für visuelle Prototypen sind Genauigkeit und mechanische Belastbarkeit von durch RP-Verfahren hergestellten Prototypen meist ausreichend. Dennoch müssen auch funktionelle Prototypen, die mithilfe von RT-Prozessketten hergestellt werden, z.B. bei Montagetests eine hinreichende geometrische Genauigkeit aufweisen. Für die richtige Dimensionierung von Prototypwerkzeugen ist daher die Kenntnis von Schwindung und Verzug dieser Prototypen notwendige Voraussetzung. Die Schwindung wurde an Plattengeometrien beispielhaft anhand der RTTechnologien Feingießen, Lasersintern und Keltool untersucht (Abb. 5.21).
Schwindung [%]
2,5 2,0
ST
FG
KEL
SLS
1,5 1,0 0,5 0,0 20 / 40 / 235
40 / 40 / 235
60 / 40 / 235
60 / 20 / 220
60 / 20 / 235
60 / 20 / 260
Werkzeugtemperatur Düsen- / Schließseite / Massetemperatur [° C]
Abb. 5.21. Schwindung in Fließrichtung bei verschiedenen Temperaturen
Um die Schwindung zu ermitteln, wurden in definierten Abständen Markierungen in das jeweilige RT-Werkzeug eingebracht. Ein Maß für die jeweilige Schwindung ist die Differenz des gemessenen Abstands zwischen Werkzeug und Form-
234
5 Integrierte Produkt- und Produktionsprozessgestaltung
teil. Um einen signifikanten Verzug bei dem eingesetzten Plattenwerkzeug abbilden zu können, wurden die Werkzeughälften jeweils unterschiedlich temperiert. Grundsätzlich zeigen Formteile, die in einer Stahlkavität hergestellt wurden, die geringsten Schwindungswerte. Darüber hinaus verhält sich die Schwindung umgekehrt proportional zur Temperaturleitfähigkeit der Werkzeugmaterialien. Neben dem Werkzeugmaterial hat das Material des Angussbereiches einen entscheidenden Einfluss auf das Schwindungsverhalten: Bei Stahlwerkzeugen kann über den Anguss, der eine höhere Wanddicke als der Rest des Formteils aufweist, noch ausreichend lange Material zur Schwindungskompensation nachgefördert werden. Da bei den eingesetzten Prototypwerkzeugen die eigentlichen Kavitäten mit Gießharz hinterfüttert wurden, weisen diese eine deutlich schlechtere Wärmeleitfähigkeit auf als die Stahlkavität. Als Anguss kommt jedoch auch hier eine Stahlnormalie zum Einsatz: Hier friert aufgrund der guten Wärmeleitfähigkeit der Angussbuchse im Vergleich zur Kavität der Anguss schneller ein; somit kann nicht ausreichend Material nachgefördert werden, eine höhere Schwindung ist die unmittelbare Folge. Auch bei der Bestimmung der Schwindung muss festgehalten werden, dass neben den Eigenschaften des Materials, aus dem die RT-Kavitäten hergestellt werden, auch Abweichungen im Aufbau (z.B. unterschiedlich positionierte Kühlkanäle u.ä.) bei der Interpretation der Seriennähe Beachtung finden müssen: Aufgrund der Kombination von Werkzeugnormalien (Stahl) und RT-Kavitätseinsätzen ist eine Abweichung der zu erwartenden Schwindungen als repräsentativ für fast alle Prototypwerkzeuge anzusehen; dies führt zu einer schwierigeren Interpretation der Ergebnisse. Entformungskräfte beim Einsatz von Prototypkavitäten Große finanzielle Vorteile bieten RT-Verfahren dann, wenn Erodierschritte eingespart werden können. Das reine Fräsen konkurriert aufgrund der Erhöhung der Schnittgeschwindigkeiten (sog. High-Speed-Cutting, HSC) mehr und mehr mit RT-Verfahren. Es bietet im direkten Vergleich vor allem die Vorteile, Werkzeuge direkt aus dem Serienmaterial fertigen und bessere Oberflächenqualitäten ohne Nacharbeit erzielen zu können. Daher ist der wirtschaftliche Einsatz von RTVerfahren auf Werkzeuge beschränkt, die einen hohen Erodieranteil aufweisen. Ein Nachteil gegenüber Erodierarbeiten sind schlechtere Oberflächenqualitäten, die zu höheren Entformungskräften und somit zu Beschädigungen der Prototypen bei der Entformung führen können. Zur Verbesserung der Oberflächenqualität bei RT-Verfahren werden unterschiedliche Ansätze verfolgt. So werden bei direkten RT-Prozessketten Pulvergrößen und Schichtdicken verkleinert. Bei indirekten Prozessketten hängt die Oberflächenrauigkeit entscheidend von der Qualität des Urmodells ab. Aus diesem Grund muss hier die Qualität des Urmodells erhöht werden. Ausgewählte und analysierte Oberflächenqualitäten (mittlere Rautiefen) für verschiedene RT-Prozessketten senkrecht zur Baurrichtung zeigt Abb. 5.22. Das Stahlwerkzeug zeigt erwartungsgemäß die geringsten Rautiefen, Keltool- und Harzgießwerkzeug zeigen ebenfalls geringe Rautiefen. Trotz identischer Urmodelle zeigen sowohl die metallgespritzte als auch die Feingusskavität höhere Oberflächenrauigkeiten. Dies ist beim Feingießen auf die schlagartige Erstarrung
5.3 Funktionsbewertung und Prototypenfertigung
235
des Metalls bei Berührung mit der kälteren Form und beim Metallspritzen auf den Metallsprühnebel zurückzuführen. Das Lasersintern zeigt von allen Verfahren mit Abstand die höchsten Oberflächenrauigkeiten. Die Rautiefen konnten in letzter Zeit durch Material- und Prozessoptimierungen verbessert werden, sind aber immer noch ein kritischer Punkt beim Einsatz solcher Prototypwerkzeuge. 80 Werkzeug Formteil
mittlere Rautiefe Rz [mm]
70 60 50 40 30 20 10 0
ST
GH
MS
FG
KEL
SLS
Abb. 5.22. Gemittelte Rautiefe Rz senkrecht zur Baurichtung
Für die Bewertung des Entformungsverhaltens spielen neben der Rauigkeit auch wiederum die thermischen Eigenschaften des Werkzeugmaterials eine Rolle: eine verbesserte Wärmeabfuhr führt zu höheren Aufschrumpf- und damit Entformungskräften. Um grundsätzliche Aussagen über die Entformungskräfte treffen zu können, wurden an einem einseitig offenen Zylinder (Innendurchmesser 30 mm, Wanddicke 2 mm) die notwendigen Entformungskräfte in Abhängigkeit von eingesetztem Prototypenverfahren und Aspektverhältnis (hier: Formteildicke/ Formteilhöhe) bestimmt (Abb. 5.23).
Entformungskraft [N]
2500 5 mm 10 mm 15 mm 20 mm
2000 1500 1000 500 0 GH
FG-SL
FG-TJ
MS
KEL0,05
KEL-0,1
SLS
Abb. 5.23. Entformungskraft in Abhängigkeit vom eingesetzten Verfahren und Aspektverhältnis
236
5 Integrierte Produkt- und Produktionsprozessgestaltung
Einsatz direkter RT-Verfahren im Sinne eines Rapid Manufacturing In den letzten Jahren wurden insbesondere direkte Verfahren durch Verbesserung der Materialeigenschaften als Alternative zur Herstellung von kleineren Losgrößen im Sinne eines Rapid Manufacturing weiterentwickelt. Hierbei bieten direkte Verfahren wie das Lasersintern die Möglichkeit, konturnah angebrachte Kühlkanäle direkt mit in das Werkzeug einzubringen und so eine effizientere Wärmeabfuhr in kritischen Formteilbereichen zu ermöglichen. Anhand eines tassenförmigen Probeformteils wurde überprüft, inwieweit sich das Lasersintern zur Herstellung einer größeren Anzahl von Formteilen mit konturnaher Kühlung eignet (Abb. 5.24). 140
Temperatur [°C]
120 100 80 60 40
Konturangepasst Konventionell
20 0 -37
0
37
Durchmesser [mm]
Abb. 5.24. Vergleich des Temperaturprofils über einem Formteil für unterschiedliche Kühlkonzepte
Die Analyse zeigt, dass die mittels Lasersintern hergestellte konturangepasste Kühlung im Bereich des Anspritzpunktes eine deutlich bessere Kühlleistung erreicht und sich somit insbesondere in kritischen Formteilbereichen zur Temperierung eignet. Jedoch zeigt sich trotz der Verbesserung der Kühlleistung im Angussbereich durch die konturnah geführten Kühlkanäle nach wie vor ein hoher Temperaturgradient im Formteil. Hier müsste zur Verringerung des Gradienten eine bessere thermische Trennung (z.B. bessere Isolation durch größeren Luftspalt) zwischen Heißkanal und Werkzeug angestrebt werden. Zusammenfassend kann festgehalten werden, dass sich bei Beachtung der wesentlichen Unterschiede von Aufbau und Materialeigenschaften RT-Kavitäten bzw. -Methoden eignen, um im Sinne eines Simultaneous Engineering eine möglichst frühe Funktionsüberprüfung von Prototypen zu erlauben und dass sie dar-
5.3 Funktionsbewertung und Prototypenfertigung
237
über hinaus in Zukunft mehr und mehr auch für das Rapid Manufacturing eingesetzt werden können. Funktionsbewertung und Prototypenfertigung in der Metallverarbeitung Der Gießprozess wird unterteilt in Gießen mit verlorenen Formen, z.B. der Sandoder Feinguss, und Gießen mit Dauerformen, z.B. Druck- oder Kokillenguss (Spur 1981). Nachfolgend werden Untersuchungsergebnisse zum Rapid Tooling für das Fein- und das Druckgießen vorgestellt. Feinguss Werden geringe Stückzahlen metallischer Prototypen benötigt, wird meist auf Gießverfahren mit verlorener Form zurückgegriffen. Mittels Feingießen lassen sich nahezu alle Metalllegierungen mit einer sehr hohen Oberflächenqualität abmustern. Die Verwendung von RP-Verfahren (z.B. durch Kunststoff-Lasersintern, 3D-Drucken von Wachs, Fused Deposition Modeling hergestellt) verringert hier zwar die Dauer bis zur Verfügbarkeit der notwendigen Urmodelle, aber das zeitaufwändige Beschlickern, Besanden und Trocknen zwecks Formherstellung ist nicht substituiert. Daher vergehen mehrere Tage nach Fertigstellung der Urmodelle bis zum Abguss. Eine Beschleunigung ist durch das direkte schichtwiese Generieren der verlorenen Formen, z.B. mittels Lasersintern, möglich (Abb. 5.25). Konventioneller Feinguss Modellherstellung
Schalenaufbau durch Beschlickern & Besanden
Gießen
Nachbearbeitung
Konventioneller Feinguss mit RP-Modellen Modellherstellung
Schalenaufbau durch Beschlickern & Besanden
Gießen
Nachbearbeitung
Zeiteinsparung
Feinguss mit lasergesinterten Formschalen 3DCAD
Schalenaufbau mittels SLS
Gießen
Nachbearbeitung
Zeiteinsparung
Abb. 5.25. Vergleich der Durchlaufzeiten verschiedener Feinguss-Prozessketten
Die mögliche Zeiteinsparung richtet sich nach der geforderten Stückzahl und der Größe der Prototypen; die in Abb. 5.25 dargestellten Verhältnisse haben daher keine Allgemeingültigkeit und können nur qualitativ interpretiert werden. Allerdings wird das zeitaufwändige iterative Tauchen, Besanden und Trocknen der Urmodelle, das auf jeden Fall mehrere Tage in Anspruch nimmt, beim Lasersintern umgangen (Klocke u. Ader 2003, S. 449 f.). Da beim Keramik-Lasersintern vollständige Feingussformen aufgebaut werden, müssen vor dem Lasersintern das Angusssystem und ggf. Steiger konstruiert und
238
5 Integrierte Produkt- und Produktionsprozessgestaltung
mit dem Positivmodell verbunden werden. Die Konstruktion erfolgt datentechnisch am vorhandenen 3D-CAD-Volumenmodell oder mit dem bereits triangulierten STL-Modell. Bevor ein Abguss erfolgen kann, muss die Form gereinigt werden. Im Unterschied zum konventionellen Feinguss werden lasergesinterte Formen nicht gebrannt. Da aber ein Abguss in eine heiße Form zu einer verzögerten Abkühlung der flüssigen Metalllegierung führt und so auch filigrane Strukturen abgebildet werden können, werden lasergesinterte Feingussschalen vor dem Abguss erwärmt. Die nachfolgenden Darstellungen (Abb. 5.26 und 5.27) zeigen realisierte Abgüsse von lasergesinterten Feingussschalen. Die Erläuterungen zu den Bildern geben die Rahmenbedingungen zum Lasersintern und zum Gießen wieder. • Werkstoff: 40CrMnMo7 • Temperatur der Schale: 1050 °C • Temperatur der Schmelze: 1580 °C • Fertigungsdauer: 14 h (20 h für zwei) • Oberflächenrauheit: Rz ~ 55 µm
Abb. 5.26. Kfz-Radaufhängung aus 40CrMnMo7
Abbildung 5.26 zeigt eine Komponente einer Fahrzeug-Radaufhängung, das Bauteil ist ca. 130 mm x 70 mm x 40 mm groß. Aufgrund der Bohrungen und Hinterschnitte würde das Beschlickern und Besanden eines Urmodells 10 bis 11 Tage dauern. Die nächste Abb. (Abb. 5.27) zeigt zwei Wirbelkammern (mit und ohne Anguss) eines Dieselmotors und eine lasergesinterte Feingussform aus Zirkonsilikat (ZrSiO4). Durch den schichtweisen Aufbau der Form (Schichtdicke: 0,1 mm) war kein Kern zur Erzeugung des Innenraums notwendig. Die kleinste Wanddicke der Wirbelkammer liegt unterhalb 1 mm. • Werkstoff: X15CrNiSi25 20 • Temperatur der Schale: 1250 °C • Temperatur der Schmelze: 1650 °C • Fertigungszeit für 4 Schalen: 10 h • Kleinste Wandstärke: 1 mm
Abb. 5.27. Wirbelkammer aus X15CrNiSi25 20
Für die hier dargestellten Beispiele gilt, dass die Maßgenauigkeiten in Bereichen um +/- 0,6 % liegen, welches als akzeptable Größe für den Feinguss gilt. Lasergesinterte Feingussformen können in einem Toleranzbereich von +/- 0,1 mm hergestellt werden.
5.3 Funktionsbewertung und Prototypenfertigung
239
Im Vergleich zum konventionellen Feinguss ist allerdings die durchschnittliche Oberflächenrauheit schlechter (Ra ~ 12 µm). Dies könnte eine erhöhte mechanische Nachbearbeitung erforderlich machen. Eine weitere Anwendungsmöglichkeit des Keramik-Lasersinterns ist die Anfertigung von Feingusskernen, wie sie heute fast ausschließlich für Massenproduktionen verwendet werden. Zur Kernherstellung muss zunächst ein kostspieliges mehrteiliges Werkzeug gefertigt werden. Dementsprechend würden Einzelteile oder Kleinserien sehr teuer. Die Vorteile des Keramik-Lasersinterns sind demnach zum einen die schnelle Verfügbarkeit der Kerne und zum anderen eine geringe Kostenbeteiligung der Kernfertigung am Endprodukt. Abbildung 5.28 zeigt eine sphärische, lasergesinterte Testgeometrie aus SiO2 mit zylindrischen Lagerstellen in der Längsachse und ein aufgeschnittenes Musterbauteil aus X5CrNiMo17 12 2. • Kernwerkstoff: Quarzgut (SiO2) • Metalllegierung: X5CrNiMo17 12 2 • Fertigungszeit für 3 Kerne: 12 h • Oberflächenrauheit: Ra ~ 4.0 µm
Abb. 5.28. Lasergesinterter Kern und gegossenes Musterbauteil
Die Bauzeit für drei Kerne mit einer Schichtdicke von 50 µm und einer Bauhöhe von 60 mm betrug 12 Stunden. Die Kerne werden hohl aufgebaut; eine Auslassöffnung in einer Kernauflage ermöglicht das Entfernen des losen Pulvers. Durch einmaliges Tauchen der lasergesinterten Kerne in keramischen Schlicker wird eine feingusstypische Oberflächenrauheit (Ra ~ 4,0 µm) möglich. Druckguss Unter Druckguss versteht man ein Gießverfahren, bei dem flüssiges Metall unter hohem Druck in geteilte metallische Dauerformen gepresst wird. Die Druckwirkung, unter der das flüssige Metall auch in engste Querschnitte einströmt und an der Formwand aufschlägt, ist maßgebend für die konturgenaue Formwiedergabe, die zu den besonderen Vorzügen des Druckgießverfahrens zählt. Damit ist vor allem die Herstellung dünnwandiger, maßgenauer Gussstücke von hoher Oberflächenqualität möglich: eine Überdimensionierung der Gussstückkonstruktion wird vermieden und Gießwerkstoff gespart. Die Toleranzangaben für Druckgusserzeugnisse sind stark von der verwendeten Formmasse sowie der Größe des Bauteils bzw. dessen Geometrie abhängig. Genaue werkstoffbezogene Toleranzwerte sind in DIN 1680 sowie DIN 1683 bis 1688 zu finden. Im Allgemeinen kann für ein Nennmaß von bis zu 500 mm von einem Toleranzwert von 0,1 % bis 0,4 % ausgegangen werden. Die Standzeit von Druckgießformen hängt von der Geometrie des Formteils und den damit verbundenen Prozessparametern ab.
240
5 Integrierte Produkt- und Produktionsprozessgestaltung
Im Rahmen der Untersuchung von neuen Fertigungsverfahren für Druckgießformen sind die thermischen und mechanischen Belastungen während des Betriebs von besonderem Interesse. Die Temperaturbelastung der Form ergibt sich aus der Art der Formmasse, d.h. aus deren thermischen Eigenschaften sowie der Geometrie des Werkstücks. Im Rahmen der Untersuchungen wurde der Fokus auf das Herstellen metallischer Prototypen mittels Thixogießen, einem Sonderverfahren des Druckgießens, gelegt. Das Thixogießen und -schmieden ist eine recht junge Technologie, die erst Anfang der 70er Jahre am MIT, Boston/USA für metallische Werkstoffe entdeckt wurde. Die Formgebung erfolgt im teilerstarrten Zustand. Das Thixoforming als Methode der Formgebung von metallischen Werkstoffen zu Bauteilen beginnt sich aufgrund seiner Vorteile in der Industrie gegenüber anderen Formgießverfahren wie z.B. dem Druckgießen seinen Platz zu sichern. Zu den Vorteilen des Thixogießens gehören eine geringere Formgebungstemperatur und eine geringere Porosität (durch laminares Einströmen) bei guten mechanischen Eigenschaften. Weiterhin sind auch die niedrigen Taktzeiten (durch eine kürzere Erstarrungszeit) und die erhöhte Standzeit der Formwerkzeuge (durch eine niedrigere Temperatur) zu nennen. Das Thixoforming stellt ein Verfahren dar, das für hochbeanspruchte Bauteile komplexer Geometrie durch die Kombination von Ur- (Gießen) und Umformen (Schmieden) neue technische und wirtschaftliche Potenziale erschließt: Es lassen sich Bauteile erzeugen, die druckdicht, wärmebehandelbar und schweißbar sind. Thixoforming ermöglicht die Herstellung sehr komplexer Bauteilgeometrien (wie das Druckgießen) sowie die endabmessungsnahe Fertigung. Die mechanischen Bauteileigenschaften entsprechen denen eines Schmiedebauteils. In der Industrie wurden bisher Bauteile aus verschiedenen Aluminiumlegierungen in großen Stückzahlen für Fahrwerksteile, Bremszylinder usw. hergestellt. Die Untersuchungen zum Rapid Tooling für das Thixogießen wurden zunächst anhand einer einfachen Stufengeometrie durchgeführt. Untersuchte Rapid-Verfahren waren das Direkte und das Indirekte Metall-Lasersintern (DMLS bzw. SLS), das 3D-Keltooling und das 3D-Drucken (ProMetal). Als Referenz dienten gefräste Stahleinsätze. Die Untersuchungsergebnisse zeigen, dass mittels Rapid Tooling hergestellte Werkzeuge grundsätzlich auch für das Abmustern höherschmelzender Metalllegierungen (hier: AlSi7Mg0,3 bei 580 °C) unter Verwendung von Serienparametern geeignet sind. Es gibt jedoch noch Einschränkungen, die zu berücksichtigen sind. Elemente der Werkzeugeinsätze diffundieren aufgrund der hohen Formgebungstemperatur in die Randzonen der Prototypen. Dies ist besonders auffällig (da auch sichtbar) bei Rapid-Verfahren, die zwecks Dichtesteigerung mit Bronze infiltriert werden. Die Untersuchungen zeigen auch, dass sich eine hohe Oberflächenrauheit negativ auf die Entformbarkeit auswirkt. Bei der konstruktiven Auslegung der Formen muss weiterhin auf das Abbildungsverhalten geachtet werden, das sich von der Stahlverwendung unterscheidet. Anschließend wurden weiterführende Untersuchungen mit einer komplexen Impellergeometrie und dem Direkten Lasersintern von metallischen und keramischen Werkstoffen durchgeführt: Abbildung 5.29 zeigt die Werkzeugeinsätze nebst Stammform. Bei der Abmusterung
5.3 Funktionsbewertung und Prototypenfertigung
241
der vier unterschiedlichen Werkzeugeinsätze zeigte sich, dass aufgrund der höheren Oberflächenrauheit des 50 µm-Metallpulvergemischs (DirectSteel 50) sowie des 20 µm-Werkzeugstahlpulvergemischs (DirectSteel H20) eine Entformung der Impeller nicht möglich war. Lediglich mit dem stahlbasierten 20 µm-Pulver (DirectSteel 20) konnten 40 Impeller in AlSi7Mg0,3 bei 580 °C und weitere 8 Impeller aus X210CrW12 bei 1290 °C abgemustert werden, ehe die Kavität nachgab.
Abb. 5.29. Lasergesinterte Werkzeugeinsätze und Stammform
Die keramischen Werkzeugeinsätze aus Zirkonsilikat weisen eine zu hohe offene Porosität auf, so dass bei der ersten Formfüllung eine Infiltration der Einsätze mit dem teilflüssigen Metall stattfindet. Bei der Entformung der Impeller wurden dieser und die Einsätze zerstört. In Abbildung 5.30 sind links oben abgemusterte Impeller aus dem Metallwerkzeug dargestellt, links unten eine Röntgenaufnahme als Nachweis porenfreier Prototypen sowie rechts zwei Abmusterungen mit keramischen Werkzeugeinsätzen. Fazit: Das Rapid Tooling für hochschmelzende Aluminium- und Stahllegierungen ist möglich, aber die erreichbaren Stückzahlen sind deutlich geringer als bei konventionellen Werkzeugen. Neue Technologien wie beispielsweise das Selektive Laserschmelzen (SLM), das Elektronenstrahlschmelzen (EBM) oder das LaserCusing verarbeiten reine Stahllegierungen für den Werkzeugbau und erlangen eine nahezu 100%ige Dichte der Komponenten. Allen Verfahren ist aber gemein, dass eine ausreichende Oberflächenqualität für den Werkzeugbau nur durch mechanische Nachbearbeitung erreicht werden kann. Es ist zu erwarten, dass sich diese Verfahren in naher Zukunft für die Fertigung von Serienwerkzeugen im Sinne eines Rapid Manufacturing etablieren werden.
242
5 Integrierte Produkt- und Produktionsprozessgestaltung
Abb. 5.30. Abgemusterte Impeller
5.3.3 IT-Prototyp zur RP- und RT-Verfahrensauswahl In Kapitel 5.3.2 wurden verschiedene wichtige Randbedingungen und Möglichkeiten zur Herstellung und Funktionsbewertung von Prototypen aufgezeigt. Es wurde deutlich, dass die Bewertung und Auswahl geeigneter Prototypenverfahren eine große Anzahl von z.T. widersprüchlichen Aspekten berücksichtigen bzw. beinhalten muss, um erfolgreich zu sein. In diesem Zusammenhang soll ein entwickeltes Software-Tool den Anwender solcher Verfahren bei der Auswahl unterstützen. Hierzu wurde eine Datenbank entwickelt, in der die Informationen zu den jeweiligen Prototypenverfahren hinterlegt sind. Ein intelligenter Auswahlalgorithmus, basierend auf einer erweiterten AHP-Methodik (Analytischer Hierarchie-Prozess), erlaubt dem Anwender die Auswahl des für seine Zwecke am besten geeigneten Rapid-Verfahrens; die Informationen sind hierfür verfahrensspezifisch hinterlegt. Dem Anwender wird durch das strukturierte Abfragen der wichtigsten Kriterien zur Auswahl eine deutliche Erleichterung beim Abgleich zwischen Anforderungsprofil und Prototyping-Verfahrensprofil gegeben. Dabei werden sowohl wirtschaftliche als auch technologische Randbedingungen abgefragt und abgeglichen. Die AHP-Methode zeichnet sich in diesem Zusammenhang durch die Möglichkeit aus, auch unscharfe Informationen zu bewerten (Haas u. Meixner 2002). Die Bewertung der Formteilkomplexität, ein wichtiges Entscheidungskriterium zum Ausschluss bestimmter Methoden, erfolgt auf der Basis eines erweiterten Pacyna-Kennzahlensatzes. Als Ergebnis der Auswahl wird dem Anwender eine prozentuale Übereinstimmung von abgefragtem Verfahrensprofil und der Eignung des jeweiligen Prototyping-Verfahrens präsentiert. Weitere Informationen lassen
5.3 Funktionsbewertung und Prototypenfertigung
243
sich in der Verfahrensdatenbank abfragen (Abb. 5.31). Der entwickelte SoftwarePrototyp unterstützt auf diese Weise auch den unerfahrenen Benutzer bei der Auswahl und stellt somit eine wirksame Unterstützung zur weiteren Verbreitung des Einsatzes von RP- und RT-Technologien dar.
Abb. 5.31. Ausschnitt aus Verfahrensinformationen des Software-Prototypen
Literatur Dusel KH (2000) Rapid Tooling – Spritzgießen mit Prototyp-Werkzeugen und der Einfluß auf die Bauteileigenschaften. Dissertation, Universität Stuttgart Gebhardt A (2000) Rapid Prototyping: Werkzeuge für die schnelle Produktentstehung. Hanser, München Wien Grönwoldt A (2004) Die Bandbreite der FDM Technologie. Vortrag während des Seminars Rapid Technologies – erfolgreiche Produkte durch effiziente Produktentwicklung (9. März 2004), Aachen Haas R., Meixner O. (2002) Computergestützte Entscheidungsfindung. Redlline Wirtschaft, Frankfurt ISO 527-2 (1993) Kunststoffe; Bestimmung der Eigenschaften aus dem Zugversuch; Teil 2: Prüfbedingungen für Spritzguß- und Extrusions-Formmassen Klocke F, Ader C (2003) Direct Laser Sintering of Ceramics. In: Bourell D (ed) Proceedings of the 14th Annual Solid Freeform Fabrication Symposium. University of Texas, Austin (USA), pp 447–455
244
5 Integrierte Produkt- und Produktionsprozessgestaltung
Klocke F, Wagner C (2003) Coalescence Behaviour of Two Metallic Particles as Base Mechanism of Selective Laser Sintering. In: Annals of the CIRP, Vol. 52/1, S 177–180 König W, Klocke F (1997) Fertigungsverfahren 3. Springer, Berlin Heidelberg New York Langen M (1998) Einsatz des Rapid Prototyping und Rapid Tooling im Rahmen eines Simultaneous Engineering in der Spritzgießverarbeitung. Dissertation, RWTH Aachen Lindner F (2002) Vergleichende Analyse zur Seriennähe von Rapid Tooling-Prozessketten und spritzgegossenen Kunststoffprototypen. Dissertation, RWTH Aachen Michaeli W, Lindner F (2001) Influence of mould materials on the morphological and mechanical properties of injection-moulded prototypes. Macromolecular Engineering and Science 286: 232–236 Pleßmann K et al. (1990) Einfluß der inneren Struktur auf die mechanischen Eigenschaften von Kunststoffen. Kunststoffe 80, H 2: 200–205 Ries H (1988) Veränderungen von Werkstoff- und Formteilstruktur beim Spritzgießen von Thermoplasten. Dissertation, RWTH Aachen Spur G (1981) Einführung in die Urformtechnik. In: Spur G (Hrsg) Handbuch der Fertigungstechnik., Bd 1. Hanser München, S 5 Wagner C (2003) Untersuchungen zum Selektiven Lasersintern von Metallen. Dissertation, RWTH Aachen Wirtz H (2000) Selektives Lasersintern von Keramikformschalen für Gießanwendungen. Dissertation, RWTH Aachen Wohlers T (2003) Wohlers Report 2003 – Rapid Prototyping, Tooling & Manufacturing State of the Industry. Wohlers, Fort Collins
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
245
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung Die konsequente und erfolgreiche Umsetzung des Simultaneous Engineering (SE) oder verwandter Konzepte fordert neben der simultanen Produkt- und Prozessgestaltung auch eine simultane Gestaltung des Produktionssystems (Clausing 1993, S. 3 ff). Die frühzeitige Produktionsgestaltung intendiert die Vermeidung von zeit- und kostenintensiven Änderungen (des Produktes, der Prozesse und des Produktionssystems) in späten Phasen der Produktentstehung sowie die Gewährleistung eines schnellen und reibungslosen Produktionsstarts und -verlaufs. Gleichzeitig werden frühzeitig Informationen über zu erwartende Aufwände für die Produktionsgestaltung verfügbar, die in der Produktentwicklung von Bedeutung sind. So ist es beispielsweise möglich, diese Kosten bereits im Rahmen des Target Costing für das Produkt zu berücksichtigen. Im Einzelnen geht es um die folgenden Teilziele: x Frühzeitige Berücksichtigung von Anforderungen und Restriktionen aus der Produktentwicklung respektive aus dem SE-Team, x frühzeitige Prüfung von Informationen im Hinblick auf Machbarkeit und Auswirkungen u.a. auch auf die Arbeitsplatzgestaltung, x frühzeitige Ermittlung produktionsseitiger Anforderungen, Restriktionen und Potenziale und Rückkopplung dieser Informationen an das SE-Team, x frühzeitige Ableitung von innovativen Produktionskonzepten und Einleitung von Maßnahmen zur Realisierung des Produktionssystems (Neugestaltung oder Anpassung des bestehenden Systems). In diesem Beitrag werden Methoden vorgestellt, die Produktionsplaner und Arbeitsgestalter im Bereich Arbeits- und Betriebsorganisation im Rahmen der integrierten Produkt und Prozessgestaltung unterstützen. Die Methode zur Integrierten Ablauf- und Strukturplanung (IASP) unterstützt durch die Integration von Planungsschritten zur Ablauf- und Strukturplanung, zur Personalplanung, zur Planung der Fertigungssteuerung und der Prüfmittelplanung parallele und integrierte Arbeitsweisen in SE-Teams. Das zweite Instrument, ein System zur prospektiven Arbeitsgestaltung in Concurrent Engineering (CE), kurz Space+, welches als Softwareprototyp zur konzeptiven Gestaltung und Bewertung von Produktionstätigkeiten umgesetzt wurde, setzt schließlich den Fokus auf die personenbezogenen Aspekte der frühzeitigen Produktionsgestaltung. 5.4.1 Methoden zur Ablauf- und Strukturplanung Vorgehensweisen zur Produktionsgestaltung werden üblicherweise in Form von Phasenschemata beschrieben. Eine Untersuchung derartiger Vorgehensweisen zeigt, dass diese die Grundphasen Analyse, Lösungsgenerierung und Bewertung aufweisen (z.B. Eversheim 1996, S. 7-124 ff.; Wildemann 1995, S. 15 ff). Diese Phasen sind jeweils objektbereichsspezifisch in weitere Teilschritte detailliert. Das
246
5 Integrierte Produkt- und Produktionsprozessgestaltung
Vorgehen innerhalb der Phasen der Lösungsgenerierung ist dabei primär auf die Auswahl eines bekannten Lösungskonzeptes für die jeweilige Problemstellung ausgerichtet (z.B. Wiendahl 1996, S. 9-1 ff.). Im Rahmen bisheriger Ansätze existieren weder ein durchgängiges und ausreichend detailliertes Planungsmodell noch formale Verfahren zur Generierung von neuartigen Lösungen. Die methodische Unterstützung des Planungsvorganges im Kontext der Lösungsgenerierung ist fragmentarisch. Durch die im Rahmen des Planungsvorganges und der Bewertung der Teillösungen durchgeführten Iterationen und Rekursionen werden einzelne Planungsvorgänge wiederholt; die unzureichende Transparenz des Lösungswegs erschwert jedoch dieses Wiederholen der Planungsvorgänge, da die Grundlagen der vorausgegangenen Planungsvorgänge nur bedingt zugänglich sind (z.B. Warnecke 1995, S. 243 ff.). Im Bereich der Produktgestaltung liegen Ansätze vor, die die Generierung neuartiger Konzepte thematisieren. Die TRIZ-Methodik hat das Ziel, explizit neuartige Produktkonzepte durch die Anwendung eines formalisierten Vorgehens sowie den Rückgriff auf anwendungsneutrale Prinziplösungen zu entwickeln. Derartige Methoden finden insbesondere im Zusammenhang mit Rechnerhilfsmitteln derzeit eine zunehmende Verbreitung und haben nennenswerte Erfolge bei der Entwicklung neuartiger Produkte erzielen können (z.B. Altschuller 1998, S. 44 ff.). Im Bereich der künstlichen Intelligenz existieren ebenfalls Konzepte zur Generierung von Lösungen für (abstrahierte) Gestaltungsprobleme. Sie verfolgen das Ziel, durch mehrstufige Formalisierung, Zerlegung und Abstraktion der Problemstellung eine Identifikation der zugrundeliegenden Elementarprobleme zu ermöglichen. Die Lösung dieser Probleme erfolgt dann primär durch die Anwendung katalogisierter Elementar-Lösungsprinzipien (z.B. Haberfellner et al. 1997 S. 47 ff.). Ein grundlegender Ansatz diesbezüglich ist der General Problem Solver nach Newell (Newell u. Simon 1972). Zusammenfassend lässt sich feststellen, dass bisherige Ansätze zur Produktionsstrukturierung die Generierung neuartiger, innovativer Produktionskonzepte nicht thematisieren, sondern vielmehr auf die Auswahl und Adaption bekannter Lösungen fokussiert sind. In den Anwendungsfeldern der Produktentwicklung sowie der künstlichen Intelligenz gibt es dagegen Ansätze zur systematischen Generierung neuartiger Konzepte, die diesbezüglich eine formalisierte Vorgehensweise umfassen. 5.4.2 Methoden zur prospektiven Gestaltung und Bewertung von Produktionstätigkeiten Auch im Hinblick auf die frühzeitige Gestaltung und Bewertung von Produktionstätigkeiten und die Ableitung von Qualifikationserfordernissen weist das Methodenrepertoire der SE- sowie der CE-Forschung Defizite auf. In diesbezüglich durchgeführten kriteriengestützten Analysen konnten keine geeigneten (SEtauglichen) Instrumente zur Unterstützung dieser Teilfunktionen der Produktionsgestaltung identifiziert werden. Die Eignungsuntersuchungen bezogen sich dabei sowohl auf Verfahren zur Beschreibung von Arbeit (z.B. Prozessmodellierungs-
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
247
verfahren und Modellierungsverfahren der menschlichen Leistungsfähigkeit; ausführlich in Stahl 1998, S.34 ff.) als auch auf psychologische Arbeitsanalyseverfahren zur Bewertung von Tätigkeiten und Aufgaben (z.B. Tätigkeitsbewertungssystem von Hacker et al. 1995 und KOMPASS von Grote et al. 1999; ausführlich in Mütze-Niewöhner 2003). 5.4.3 Integrierte Produkt- und Prozessgestaltung In den frühen Phasen der Produktionsgestaltung müssen sich Modelle, Methoden und Instrumentarien für die Einsatzplanung von Produktionsmitteln im Rahmen des SE besonderen Anforderungen stellen. So muss mit unsicheren Eingangsdaten aus den frühen Phasen der Produkt- und Prozessplanung gearbeitet werden. Des Weiteren gilt es, die verschiedenen Teilbereiche der Produktionsmitteleinsatzplanung zu einer gesamtoptimierten Prozessplanung zu integrieren und eine Rückkopplung aus der Produktion an die frühen Phasen der Produkt- und Prozessplanung sicherzustellen. Die Integration von Produkt- und Prozessgestaltung kann hier eine schnelle Umsetzung neuer Teilespektren in die Fertigung ermöglichen und damit einen wichtigen Erfolgsfaktor bieten. Methode zur Integrierten Ablauf- und Strukturplanung Die Methode zur Integrierten Ablauf- und Strukturplanung (IASP) unterstützt die schnelle Umsetzung neuer Produkte in die Fertigung bei Einzel- und Kleinserien. Dabei wird die Fertigung so gestaltet, dass sie auch bei Berücksichtigung neuer Teilespektren ein möglichst hohes Maß an Übereinstimmung zwischen den neuen Fertigungsabläufen und den bestehenden Fertigungsstrukturen aufweist. Den gedanklichen Hintergrund bildet dabei der Ansatz, dass die Gestaltung eines Fertigungssystems, das Abläufe und Strukturen integriert, auch eine Integration der Planung voraussetzt. Die Basis für die Methode bildet ein modular aufgebautes Integrationsmodell, das die widersprüchlichen Sichtweisen in der Ablauf- und der Strukturplanung zusammenführt. Der Widerspruch in den Sichtweisen kommt insbesondere in der Einzel- und Kleinserienfertigung zum Tragen, da hier üblicherweise keine unmittelbare und feste Zuordnung von Abläufen zu Ressourcen vorliegt, wie dies z.B. in der Montage oder Serienfertigung der Fall ist. Des Weiteren umfasst das Integrationsmodell die relevanten Planungsebenen für eine Produktionsgestaltung und ermöglicht die Anknüpfung an die Produktentstehung über definierte Schnittstellen. Kernelement des Integrationsmodells bildet das Planungs-Modul zur integrierten Ablauf- und Strukturplanung (Abb. 5.32). Die Anknüpfung des Planungsmoduls an den Prozess der Produktenstehung erfolgt über das Voranalyse-Modul. Das Voranalyse-Modul bildet somit die Schnittstelle zwischen IASP und dem Prozess der Produktentstehung. Mit seiner Hilfe kann aus den planungsrelevanten Daten der Produktentstehung das für die vorliegende Planungssituation geeignete
248
5 Integrierte Produkt- und Produktionsprozessgestaltung
Planungsszenario abgeleitet werden, d.h. es wird festgelegt, auf welcher Ebene innerhalb des Planungsmoduls die Planung des Produktionssystems ansetzen muss. Voranalyse-Modul
Altes Produkt
Neues Produkt
Planungs-Modul Abläufe
Strukturen
Segmentebene
• Teilespektrum • Stückzahlprogno sen
Betriebsmittelebene
Planungsebene
• Restriktionen (KMU)
• Alternative Fertigungsfolgen • Einsatzplanung
Entscheidung über Planungsszenario
Steuerungsebene
= Informationsrückkopplung an vorgelagerte Planungsbereiche
Abb. 5.32. Integrationsmodell
Wesentliche Eingangsdaten für die Analyse sind Veränderungen der Stückzahlen und des Teilespektrums, neue Fertigungstechnologien sowie alternative Fertigungsfolgen. Weitere Bestandteile des Voranalyse-Moduls sind darüber hinaus der Technologie-Check und der Kapazitäts-Check. Im Technologie-Check wird überprüft, ob der Technologiebedarf, der aus dem zukünftigen Teilespektrum resultiert, durch das Technologieangebot gedeckt werden kann, das von der existierenden Produktionsstruktur zur Verfügung gestellt wird. Im Anschluss wird durch den Kapazitäts-Check festgestellt, inwiefern die vorhandenen technologiebezogenen Kapazitäten mit den kapazitiven Anforderungen an die Produktion des zukünftigen Teilespektrums übereinstimmen. Anhand ihrer Ergebnisse sowie unter Berücksichtigung entsprechender unternehmensspezifischer Restriktionen wird entschieden, welches Planungsszenario geeignet ist und auf welcher Planungsebene im Planungsmodul angesetzt wird. Die Planungsabläufe der Integrierten Ablauf- und Strukturplanung sind im Planungsmodul hinterlegt (Abb. 5.33). Dabei dient der vorgestellte Ansatz als Integrationsplattform sowohl für bestehende Planungsmethoden als auch speziell für weitere Vorgehensweisen zur Personalplanung, Prüfplanung und Fertigungs-
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
249
steuerung, die im Rahmen der integrierten Produkt- und Prozessgestaltung entwickelt wurden. Das Integrationsmodell bildet somit ein „logisches Rückgrat“ für produktionsnahe Planungsaktivitäten in Produktentstehungsprozessen. Entsprechend bietet es eine Planungsplattform für die Produktionsgestaltung in einem SE-Team. Die IASP unterstützt dabei den Planer bei der Gestaltung der Planungsprozesse, d.h. auf der Planungsebene. Darüber hinaus bietet sie jedoch auch die Möglichkeit, die frühzeitige Produktionsgestaltung auf der Objektebene zu unterstützen, d.h. bei der konkreten Gestaltung des Produktionssystems. Dazu wurden auf der Planungsebene produktinduzierte Veränderungsschwellwerte identifiziert, um die Ableitung charakteristischer Planungsszenarien zu ermöglichen. Auf der Objektebene wurden detaillierte Typologien für die Beschreibung von Abläufen und Strukturen in der Produktion entwickelt. Diese erlauben es, für eine bestimmte Ablaufkonstellation schnell einen Vorschlag für die entsprechende Strukturgestaltung abzuleiten. Die Integration auf der Planungsebene wird durch die Integration auf der Objektebene konsequent fortgeführt, indem das Voranalyse-Modul um detaillierte Ablauf- und Strukturtypologien ergänzt wird. Weiterhin wird durch die Identifikation von Veränderungsschwellwerten und ihre Verknüpfung mit Planungsszenarien der Bogen aus dem Objektbereich der Fabrik (Veränderungsschwellwerte) zur Gestaltung der Planungsprozesse auf der Planungsebene (Planungsszenarien) geschlagen. Abläufe
Strukturen
Anpasssung des Prozessplans
-
Arbeitsvorbereitung Qualitätsprüfung Disposition
Transport- und Lagerplanung
Personalplanung Arbeitsgestaltung
Ermittlung von Qualifikationsanforderungen
= Anknüpfungspunkte zu Methoden anderer Teilprojekte = aktuelles Planungsszenario
Abb. 5.33. Planungsmodul
250
5 Integrierte Produkt- und Produktionsprozessgestaltung
Veränderungsgrößen beschreiben in diesem Zusammenhang Größen, welche die Abläufe und Strukturen in der Produktion maßgeblich bestimmen und die durch den Prozess der Produktentstehung entscheidend beeinflusst werden (z.B. Stückzahlen). Basierend auf der Auswertung der Projektdaten aus der erstellten Datenbank wurden relevante produktinduzierte Veränderungsgrößen und ihr Einfluss auf die Produktionsgestaltung ermittelt. Darauf aufbauend wurden Schwellwerte erarbeitet, deren Überschreitung bestimmte Planungsaktivitäten bedingt. Dies ermöglicht es schon frühzeitig, unsichere Planungsinformationen mit hoher Änderungswahrscheinlichkeit zu identifizieren und den erforderlichen Planungsprozess auszuwählen. Dementsprechend lassen sich bedeutende Zeitvorteile realisieren und zugleich die Planungsqualität erhöhen sowie der Planungsaufwand verringern. Als Beispiel für einen derartigen Schwellwert kann die Veränderungsgröße „Reduzierung der Herstellkosten“ aufgeführt werden: So ist i.d.R. zur Erzielung einer Kostenreduzierung von 7% eine sog. Reorganisation (ohne strukturelle oder bauliche Veränderungen) mit den entsprechenden Planungsprozessen (Planungsszenarien) ausreichend. Bei Reduzierungen von bis zu 20% der Kosten dagegen ist zu herauszuarbeiten, welche Anforderungen ein entsprechend anderes Planungsszenario stellt. Unter einem Planungsszenario wird hier eine Kombination von Planungsprozessen verstanden. Auf Basis des modellmäßig in das Integrierte Produkt- und Prozessmodell (IPPM) integrierten Fabrikplanungsprozess_Schemas lassen sich alternative Planungsprozesse erarbeiten. In Abhängigkeit von der jeweiligen Betrachtungsebene und dem primären Gestaltungsobjekt (Ablauf oder Struktur) wurden unter Nutzung der Projektdatenbasis und unter Einbeziehung existierender Fabrikplanungsansätze (z.B. Kettner et al. 1984, S. 21 ff.) Planungstypen sowie Planungsmaßnahmen für KMUs definiert. Die IASP ermöglicht es dementsprechend bereits in den frühen Phasen der Produktentstehung, für neue und geänderte Produkte entsprechende Planungsprozesse zur frühzeitigen Produktionsgestaltung zu identifizieren und anzustoßen. Dabei wird der Planer auf der Planungsebene durch das Integrationsmodell unterstützt, auf der Objektebene durch die charakteristischen Wirkzusammenhänge zwischen Ablauf- und Strukturtypologien. Treten im Fall einer Planung gravierende Abweichungen von herkömmlichen Charakteristiken der Produktionsaufgabe auf, erweisen sich bekannte Produktionskonzepte häufig als ungeeignet oder bieten nur eine suboptimale Lösung. Für solche revolutionär neuartigen Ansätze, d.h. keine evolutionären Weiterentwicklungen bestehender Ansätze, besitzt die IASP den Innovationsbaustein, eine Methodik zur expliziten Generierung neuer Produktionskonzepte. Diese gravierenden Abweichungen in den Charakteristika einer Produktionsaufgabe, die den Einsatz neuartiger Produktionskonzepte erforderlich machen, werden entsprechend im Voranalyse-Modul detektiert und modelliert. Diese sog. Innovationstreiber dienen dann als Indikator dafür, welche spezifischen Eigenschaften des Produktionskonzeptes neu generiert werden müssen und in welchem Umfang dies notwendig ist.
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
251
Das Planungsmodul der IASP besitzt für die oben genannten Planungsfälle eine Problemformulierungsmethode, die auf den Prinzipien des General Problem Solver basiert und entsprechend angepasst wurde. Es handelt sich dabei um eine Kombination aus analytischer und synthetischer Planung. Ausgehend vom globalen Problem wird dieses sukzessive in Teilprobleme zerlegt, die anschließend gelöst werden. Aus den Teillösungen wird wiederum die Gesamtlösung aggregiert. Charakteristisch für die sukzessive Zerlegung und Lösung des Planungsproblems ist die modulare, rekursive Anwendung eines universellen Planungsvorgehens. Das Vorgehen in den Phasen wird anhand des Zusammenspiels der einzelnen Teilprozesse beschrieben (Abb. 5.34).
Lösungsfindung
Analyse
Entscheidung Lösung gefunden?
Analyse
Klassifikation nein
ja
Lösung geeignet?
Bewertung nein
fertig
ja
Problem zerlegbar?
Problem zerlegen Teilprobleme in eigenem Planungsprozess lösen Analyse
Klassifikation
nein
Lösung geeignet?
Lösung gefunden?
Bewertung
nein
Problem zerlegen
ja
ja
Bewertung nein
fertig
ja
Bewertung
Konstruktion
Bewertung
Lösung geeignet?
Lösung gefunden?
Konstruktion nein
ja
Bewertung nein
fertig
ja
keine Lösung = Entscheidung
=Prozess
Abb. 5.34. Methode zur Problemformulierung
Eine Problemstellung durchläuft abhängig von ihrer Komplexität und Zerlegbarkeit die Teilprozesse Analyse, Klassifikation, Problemzerlegung, Konstruktion und Bewertung nach dem abgebildeten Schema. Innerhalb des Konstruktionsprozesses können dann unterstützt durch geeignete Methoden, die im Anschluss beschrieben werden, neuartige Konzepte generiert werden. Zur Beschreibung der einzelnen Teilprozesse dient ein Funktionsmodell mit fünf elementaren Funktionen (vgl. Haberfellner u. Daenzer 1997 S. 432 ff.): Abstraktion, Vergleich, Relaxation, Bewertung und Kompilierung (Abb. 5.35).
252
5 Integrierte Produkt- und Produktionsprozessgestaltung
Die methodische Integration von Wissen in diese Problemformulierungsmethode erfolgt auf der Ebene der Funktionen. Der Teilprozess der Konstruktion dient ganz speziell zur Lösungsbestimmung, falls mittels Klassifikation (Vergleich der Problemstellung mit vorhandenen Lösungen) keine Lösung gefunden werden konnte. Die einzelnen Funktionen werden durch TRIZ-Methoden unterstützt.
Heuristisches Wissen
Eingangsinformation
„syntaktische Vereinfachung“
Zusammenfügen von Informationen
Relaxation
Kompilieren
Abstraktion
„semantische Vereinfachung“
Problem -wissen
Vergleich
Vergleich von Wissen unterschiedlicher Art
BewertungsWissen
Ausgangsinformation
Bewertung Bewertungsprozess unterschiedlichen Formalisierungsgrads
Informationsverarbeitung Fluss wissensbezogener Informationen
Lösungswissen
Abb. 5.35. Funktionsmodell der Problemformulierungsmethode
In der Abstraktion gilt es, das betrachtete Problem entsprechend des Grundprinzips der TRIZ-Methodik auf den zugrunde liegenden Widerspruch zu reduzieren, um diesen dann auf abstrakter Ebene zu lösen und im Anschluss auf das konkrete Problem zu erweitern. Effektbezogene Widersprüche können anhand ihrer Symptome mittels der Effektanalyse (angelehnt an die Funktionsanalyse der TRIZ-Methodik) bestimmt werden. Die bis auf grundlegende Widersprüche abstrahierte Problemstellung wird in der Relaxation des Funktionsmodells auf vergleichsrelevante Parameter reduziert. Dieser Schritt orientiert sich an der Beschreibung technischer Widersprüche mittels der so genannten „39 Parameter“. Im Rahmen des Vergleichs erfolgt die Bestimmung einer allgemeinen, abstrakten Lösung für den betrachteten Widerspruch mittels charakteristischer Merkmale des Problems. In diesem Schritt kommen zum einen universelle Prinzipien der TRIZ-Methodik zum Einsatz, die bedingt durch ihren allgemeinen Charakter nicht an den Objektbereich der Fabrikplanung angepasst werden müssen. Dazu zählen Ressourceneinsatz,
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
253
Idealitätsprinzip, Separationsprinzip, Evolutionsprinzip und Standardumformungen. Zum anderen können anhand von objektspezifischen Tabellen analog zu den Widerspruchstabellen der TRIZ-Methodik Prinziplösungen bezogen auf die jeweiligen Widersprüche bestimmt werden. Die abstrakten Prinziplösungen werden im Funktionsschritt des Kompilierens zu konkreten, auf den jeweiligen Objektbereich bezogenen Lösungsvorschlägen erweitert. Hier kann das Prinzip der Empathie unterstützend eingesetzt werden. Das auf diese Weise identifizierte innovative Produktionskonzept wird in einem zweiten Schritt im Rahmen der prospektiven Arbeitsgestaltung weiter detailliert und gleichzeitig bewertet. System zur prospektiven Arbeitsgestaltung und -bewertung Für die frühzeitige, menschengerechte Arbeitsgestaltung sind u. a. Instrumente erforderlich, die den iterativen Prozess des Entwerfens und Bewertens von Produktionstätigkeiten und -aufgaben unterstützen. Zu den aus arbeitswissenschaftlicher Sicht bedeutsamen Gestaltungs- und Bewertungskriterien zählen die Kriterien der Persönlichkeitsentfaltung und -entwicklung. Aus dem SEKontext heraus wird der Bedarf nach solchen unterstützenden Methoden und Instrumenten vorrangig mit Zeit- und Kostenargumenten begründet. Einerseits gilt es, produkt- oder technologieinduzierte, zeit- und kostenintensive arbeitsorganisatorische und personalbezogene Maßnahmen frühzeitig einzuleiten; dabei ist die Arbeitsgestaltung Voraussetzung für die Ableitung von Anforderungsprofilen für die Personalplanung. Andererseits gilt es – angesichts des akuten Mangels an Ingenieuren und technisch ausgebildeten Facharbeitern – vorhandenes Personal zu erhalten bzw. die Beschaffung neuen Personals zu erleichtern (Anwendung von Humankriterien zur Senkung von Fluktuationskosten und Fehlzeiten sowie zur Steigerung der Attraktivität von Arbeitsplätzen). Die Eignung entsprechender Gestaltungsinstrumente hängt entscheidend davon ab, inwieweit sie die kontextuellen Gegebenheiten einer SE-Umgebung tolerieren. Zu nennen sind hier insbesondere die Unvollständigkeit von Informationen, der zunehmende Detaillierungsgrad sowie die Häufigkeit von Iterationen und Modifikationen. Ausgehend von kriteriengestützten Analysen existierender Verfahren zur Beschreibung, Analyse, Bewertung und Gestaltung von Arbeit und den dabei festgestellten Defiziten wurde das System Space+ (System zur prospektiven Arbeitsgestaltung in CE bzw. SE) entwickelt. Mit dem als Softwareprototyp realisierten System steht ein Instrument zur Verfügung, das auf die SE-spezifischen Anforderungen zugeschnitten ist und bereits in frühen Phasen des Produktentstehungsprozesses sowohl die Gestaltung von Produktionstätigkeiten und -aufgaben als auch ihre Bewertung im Hinblick auf Motivierungspotenziale, Entfaltungsmöglichkeiten und Lernrelevanz ermöglicht (Abb. 5.36). Mit Space+ können ferner Qualifikationserfordernisse frühzeitig ermittelt und für die Personalplanung genutzt werden.
254
5 Integrierte Produkt- und Produktionsprozessgestaltung
Space+ Modellierungskonzept
Ar be i
Attribuierungsmethodik
Deskriptorenbibliotheken
g alo
eiten-Referenz inh ka e s t t
Qualifikationsmodell Bewertungsmodelle
Gestaltungsempfehlungen
Software-Prototyp
Abb. 5.36. Module von Space+
Die Modellierung der Produktionstätigkeiten erfolgt in Space+ auf der Basis von Harels Higraphs und seiner sogenannten Blob-Notation (Harel 1988). Mithilfe von Arbeits-, Kooperations- und Verrichtungselementen – bereitgestellt in sog. Deskriptorenbibliotheken – können Aufgaben und Tätigkeiten inhaltlich und bedingungsbezogen beschrieben werden; die methodische Grundlage bildet hier der Position Analysis Questionnaire von McCormick (McCormick et al. 1989). Für die automatisierte Ermittlung der Qualifikationserfordernisse sind alle Deskriptoren mit Anforderungsprofilen verknüpft. Das zugrunde liegende Qualifikationsmodell umfasst 26 Qualifikationsmerkmale zur Beschreibung von kognitiven, affektiven, sensumotorischen und physiologischen Fähigkeiten sowie über 1000 Merkmale zur Abbildung von Kenntnissen und Fertigkeiten (s. hierzu den Katalog der strukturierten Einzelqualifikationen für Metallberufe des Bundesinstituts für berufliche Bildung, BIBB 1984). Eine Referenzbibliothek erlaubt darüber hinaus den Zugriff auf fertigungsrelevante Arbeitseinheiten, die bereits von Experten durch die Zuordnung von Deskriptoren beschrieben und in Bezug auf bestimmte, für die humanorientierte Bewertung relevante Kriterien (Regulationserfordernisse, Zykluscharakter etc.) beurteilt worden sind. Abbildung 5.37 zeigt die Benutzungsoberfläche von Space+ und gibt darüber hinaus einen Überblick über Modellierungselemente und Notation. Zur Beurteilung ihrer Potenziale für die Persönlichkeitsentfaltung/-entwicklung werden die mit Space+ erzeugten Tätigkeitsmodelle (in Echtzeit) anhand der folgenden neun Kriterien bewertet: Denk- und Planungsanforderungen, hierarchische Vollständigkeit, zyklische Vollständigkeit, Kooperations- und Kommunikationserfordernisse, Autonomie, Verantwortung, Rückmeldung, Anfor-
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
255
derungsvielfalt, Lern- und Entwicklungsmöglichkeiten. Die implementierten Bewertungsalgorithmen werten die im Tätigkeitsmodell verwendeten Deskriptoren bzw. die durch sie determinierten Qualifikationserfordernisse aus. Ist eine Bewertung auf der Grundlage von Entitäten nicht möglich, erfolgt sie auf der Basis von vorattribuierten Referenzarbeitseinheiten. Eine spezielle Methodik zur Attribuierung von Arbeitseinheiten sichert die Anwendbarkeit der Bewertungsalgorithmen auch bei zunehmendem Planungsfortschritt und macht es dem Produktionsgestalter dadurch möglich, das Modell der hierarchischen Struktur von Aufgaben/ Tätigkeiten der im SE-Prozess zunehmenden Informationsreife anzupassen und somit unterschiedliche Detaillierungsstufen der Informationsqualität und -quantität abzubilden. Die abrufbaren Gestaltungsempfehlungen unterstützen den Arbeitsgestalter bzw. das Arbeitsgestaltungsteam bei der kontinuierlichen Verbesserung des Entwurfs. (Ausführlichere Darstellungen der einzelnen Module und ihrer Entwicklung finden sich in: Mütze-Niewöhner 2003; Stahl 1998; Stahl et al. 2000.) Tätigkeit
Gruppe
Referenzarbeitseinheiten Arbeitselement
Arbeits- u. Kooperationselemente
Kooperationselement Verrichtungselemente
Deskriptorenbibliotheken
Arbeitseinheit
Arbeitseinheit
(geschlossene Notation)
(offene Notation)
Attribute / Kennwerte
Abb. 5.37. Benutzungsoberfläche, Elemente und Notation von Space+
Einen Schwerpunkt innerhalb der Systementwicklung bildete die Entwicklung der Bewertungsalgorithmen, wobei die Herausforderung darin bestand, den SEspezifischen Anforderungen und dem Anspruch der prospektiven Arbeitsgestaltung gerecht zu werden. Unter Berücksichtigung arbeitspsychologischer, bedingungsbezogener Ansätze und Verfahren wurden die relevanten Merkmale lern- und motivationsfördernder Tätigkeiten systematisch geordnet und selektiert. Jedes der oben genannten Kriterien wurde in einem Bewertungsmodell durch die
256
5 Integrierte Produkt- und Produktionsprozessgestaltung
Festlegung von Einzelkriterien, relativen Kennwerten und Bewertungsvorschriften operationalisiert (Abb. 5.38). Kriterium
Denk- u. Planungsanforderungen (DP)
Ebene
Hierarchische Vollständigkeit (HV) 5
Tätigkeit (TK) DPTK
max({RS AEn n 1, 2, , N }) HV
hrs
¦ ( Gr
rs 1R
min(
rs
Trs TK ; Grrs )) TTK
N
¦T
mit Trs TK
AE n
RS AE n
rs, rs
1R,1, 2R, , 5
n 1
(Visualisierung als Histogramm) N
Aufgabe (AG) DPAG
max({RS AEn n 1, 2, , N }) Trs AG
¦T
AE n
RS AE n
rs, rs 1R,1, 2R, , 5
n 1
(Visualisierung als Histogramm) Arbeitseinheit (AE)
Bestimmung der Regulationsstufe (RS) mit Hilfe des 10-Stufen-Modells von Oesterreich/Volpert 1991 (nicht notwendig bei Nutzung der Referenzarbeitseinheiten)
N = Anzahl Arbeitseinheiten bzw. Aufgaben innerhalb einer Aufgabe bzw. Tätigkeit; hrs = Gewichtungsfaktoren; Grrs = Grenzwert für den Zeitanteil der Regulationsstufen; TrsTK,AG = Zeitanteil der Arbeitseinheiten einer Tätigkeit/Aufgabe mit Regulationsstufe RS
Abb. 5.38. Bewertungsmodelle zu den Bewertungskriterien „Denk- und Planungsanforderungen (Regulationserfordernisse)“ und „Hierarchische Vollständigkeit“
Bei der analytischen Beschreibung der Kriterien der Persönlichkeitsentwicklung und -entfaltung wurde der Prospektivität und dem Faktum der Unvollständigkeit der Informationen u.a. durch die bewusste Beschränkung auf „gestaltbare“ Tätigkeitsmerkmale und Arbeitsbedingungen Rechnung getragen. Nicht berücksichtigt wurden hingegen solche Merkmale, die sich erst nach der Realisierung des Arbeitssystems durch das Zusammenspiel aller oder mehrerer systembestimmender und -regulierender Faktoren ergeben und demzufolge nicht direkt vom Arbeitsgestalter beeinflusst werden können (z.B. Rückmeldung durch Vorgesetzte, Betriebsklima). Mit Ausnahme der über die Blob-Notation repräsentierten Mengenzugehörigkeiten sowie der Kooperationsbeziehungen werden keine Relationen zwischen Aufgaben oder Tätigkeiten ausgewertet, da die Einbeziehung von Kontroll-, Material- oder Informationsflüssen in die Bewertung eine sehr detaillierte Modellierung bereits in den frühen Phasen des SE-Prozesses notwendig machen und damit die Toleranz des Systems gegenüber unvollständigen Informationen stark einschränken würde. Im Gegensatz zu anderen Verfahren setzt Space+ keine vollständige Beschreibung des Arbeitssystems voraus. Dem zunehmenden Detaillierungsgrad der Beschreibung trägt eine weitere Besonderheit von Space+ Rechnung: Es werden nicht nur die Arbeitstätigkeiten, sondern auch die Aufgaben (als Elemente von Arbeitstätigkeiten) mithilfe von Kennwerten bewertet und damit vergleichbar gemacht. Die an die Gestaltung gekoppelten Bewertungsalgorithmen erlauben es, den Gestaltungsentwurf sukzessive zu vervollständigen und/oder zu modifizieren sowie Wechselwirkungen zwischen den Arbeitstätigkeiten des Arbeitssystems zu berücksichtigen. Über ein
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
257
Kontextmenü kann der Systembenutzer für eine markierte Tätigkeit eine Übersicht über alle Tätigkeitskennwerte und Histogramme abrufen (Abb. 5.39).
Abb. 5.39. Anzeige der Tätigkeitskennwerte und Histogramme
Die Listen mit den verwendeten und nicht verwendeten Arbeitseinheiten und Verrichtungselementen stellen insbesondere bei sehr komplexen Tätigkeitsmodellen eine zusätzliche Unterstützung dar. Die neben den Kriterienbezeichnungen angebrachten Schaltflächen sind mit den HTML-basierten Gestaltungsempfehlungen verknüpft. In den Hilfetexten befinden sich ferner Hyperlinks zu themenbezogenen sowie weiterführenden Internetseiten, die dem Systembenutzer Zugang zu weiteren aktuellen Forschungsergebnissen gewähren sollen. Durch die Verwendung der Referenzarbeitseinheiten kann der Prozess der Gestaltung und Umgestaltung von Produktionstätigkeiten erheblich vereinfacht und verkürzt werden. Dies ist für einen effizienten Einsatz des Systems für die prospektive Arbeitsgestaltung in einer SE-Umgebung ganz entscheidend. Der Referenzkatalog fertigungsrelevanter Arbeitseinheiten wurde zusammen mit acht Experten erarbeitet (Auflistung ohne Attribute in Abb. 5.40). Die 54 Arbeitseinheiten wurden von den Experten durch die Zuordnung von Deskriptoren beschrieben und in Bezug auf die für die humanorientierte Bewertung relevanten Kriterien (Regulationserfordernisse, Zykluscharakter etc.) beurteilt (Abb. 5.41).
258
5 Integrierte Produkt- und Produktionsprozessgestaltung
Die Güte der Beschreibung und die Differenzierungsfähigkeit der Deskriptoren wurden durch eine Clusteranalyse überprüft. Cluster
Nr.
1 2 3 4 5 Dokumentieren 6 7 8 9 10 Bereitstellen/ 11 Handhaben 12 13 14 15 Nachregeln 16 17 18 Verwalten 19 20 Transportieren 21 22 23 24 Planen 25 26 27 Bedienen/ Einrichten
fertigungsrelevante Arbeitseinheiten Maschinenbedienung Maschineneinsetzbarkeit Maschineneinstellung Werkzeugeinstellung Arbeitspapiererstellung Arbeitsdokumentation QS-Dokumentation Materialbereitstellung Prüfmittelbereitstellung Vorrichtungsbereitstellung Werkzeugbereitstellung Werkzeugeinbau Maschinenbe-/-entladung Verpackung Maschinennachregelung Störungsbeseitigung Materialverwaltung Prüfmittelverwaltung Vorrichtungsverwaltung Werkzeugverwaltung Transport Arbeitsvorgangsfolgeplg. Maschinenbelegung Materialbedarfsermittlung Mengenplanung Prüfplanung Reihenfolgeplanung
Cluster
Nr.
28 29 30 31 32 Programmieren 33 34 35 Prüfen 36 37 Warten/ 38 Instandhalten 39 Reparieren 40 41 Fehleranalyse/ 42 -behebung 43 44 Gruppen45 organisation 46 47 48 Personal49 management 50 51 52 Überwachen 53 54 Planen
fertigungsrelevante Arbeitseinheiten Terminplanung Transportplanung Nacharbeitsmengenermittl. Personalstärkeplanung Programmerstellung Programmoptimierung Komplettprüfung Sichtprüfung Stichprobenkontrolle Teilprüfung Kleinreparaturen Vorbeug. Instandhaltung Großreparaturen Fehlerursachenanalyse Korrekturmaßnahmenerm. Reklamationsbearbeitung Personaleinsatzplanung Arbeitszeitabstimmung Organisationsregelung Urlaubszeitabstimmung Personalkapazitätsausgl. Personalauswahl Personalführung QS-Serienfreigabe Ablaufüberwachung Fortschrittsüberwachung Reparaturveranlassung
Abb. 5.40. Referenzkatalog fertigungsrelevanter Arbeitseinheiten (ohne Attribute)
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
259
Arbeitselemente (Deskriptoren)
Maschineneinstellung Zahlenmaterial
Optische Anzeigen
Einrichten / Regulieren
Fingerbewegungen
Detailbeachtung
Erkennen im Nahraum
Bedienen von Tastaturen
Bedienen v. Betriebsschaltern
Übertragen von Informationen
Kodieren / Dekodieren von Informationen
Material / Werkstücke nicht in Bearbeitung
Benutzen von stationären Maschinen
Bedienen v. Bedienen v. Steuerelementen Steuerelementen mit diskreten mit kontinuierl. Einstellungen Einstellungen
Legende: RS = Regulationsstufe, ZC = Zykluscharakter, V = Vorbereitend, RC = Rückmeldecharakter, A2 = zeitliche Freiheitsgrade, V1 = Verantwortung
RS 2R
ZC V
RC 0
A2 0
V1 0
Bewertungsrelevante Attribute
Abb. 5.41. Referenzarbeitseinheit „Maschineneinstellung“
Das vollständige System wurde als IT-Prototyp realisiert. Die Programmierung erfolgte in C++ unter SuSE Linux 8.2 und unter Einsatz des Qt-Toolkits 3.0 der Firma Trolltech. Die gewählte Programmierumgebung verbindet die Vorteile der Objektorientierung, z.B. hohe Stabilität, vereinfachte Systemwartung, erleichterte Fehlersuche und -behebung, mit den Vorteilen offener Systeme, die vor allem die Erweiterbarkeit und die Möglichkeit zur Benutzung offener Standards für den Datenaustausch mit externen Systemen (z.B. Vorgabezeitsysteme oder PPSSysteme) betreffen. Zur Systemevaluation wurde eine Versuchsreihe mit 20 Teilnehmern aus Industrie und Wissenschaft durchgeführt, aus der 81 Tätigkeitsmodelle und 46 Expertenbewertungen hervorgingen. Diese konnten zur Untersuchung der Gütekriterien, u.a. mithilfe von Rangkorrelationsanalysen, herangezogen werden. Die Untersuchungsergebnisse wurden im Sinne einer formativen Evaluation zur Optimierung des Systems genutzt (Mütze-Niewöhner 2003). Insgesamt steht mit Space+ ein System zur Verfügung, das auf die CE-spezifischen Anforderungen zugeschnitten ist und bereits in frühen Phasen der Produktionsgestaltung eine parallele bzw. integrierte Bewertung der Produktionsaufgaben und -tätigkeiten im Hinblick auf Motivierungspotenziale, Entfaltungsmöglichkeiten und Lernrelevanz ermöglicht. Bezogen auf den SE-Planungsprozess bilden die Gestaltungs- und Bewertungsergebnisse die Grundlage für die Rückkopplung von Restriktionen und Anforderungen der Produktion an das SE-Team. Umgekehrt können Informationen bzw. Restriktionen aus der Produktentwicklung frühzeitig bei der Produktionssystemgestaltung berücksichtigt und notwendige Anpassungen des entworfenen oder bestehenden Produktionssystems (hier insbesondere: Personal- und Organisationsentwicklungsmaßnahmen) abgeleitet und umgesetzt werden, um einen reibungslosen Produktionsan- und -verlauf zu
260
5 Integrierte Produkt- und Produktionsprozessgestaltung
gewährleisten. Aufgrund der SE-bedingten Unsicherheiten und Vereinfachungen dürfen die Bewertungsergebnisse nicht verabsolutiert werden, sondern sind als Entscheidungshilfe zu verstehen und innerhalb eines kooperativen Gestaltungsprozesses auch als solche zu nutzen. Das System Space+ soll also nicht diktieren, sondern assistieren. 5.4.4 Applikationsmöglichkeiten Als Anwendungsbeispiel wird der Betrachtungsbereich durch ein Werk eines Windenergieanlagenherstellers repräsentiert. In der Ausgangssituation wurden mit 300 Mitarbeitern auf einer Fläche von 18. 000 m² Rotorblätter für Windenergieanlagen gefertigt. Die Wochenkapazität, auf die die vorhandenen Produktionsbereiche ausgelegt waren, betrug etwa zehn Rotorblätter aus Epoxydharz-getränkten Glasfasergelegen. Der zugehörige Produktionsbereich gliederte sich in drei Teilbereiche: die Schalenvorbereitung, in der die Gelege als halbe Schalen gefertigt werden, der Montagebereich und der Bereich der Oberflächenbearbeitung. Der Produktionsablauf für die Vorbereitung und Bereitstellung des Gewebes sah wie folgt aus: Der Gewebehersteller lieferte die Glasfasermatten bereits mit Kunstharz getränkt an die Rotorblatt-Fertigung. Da das so präparierte Material bei Raumtemperatur bereits nach kurzer Zeit auszuhärten beginnt, mussten die Matten sowohl für den Transport als auch für die Zwischenlagerung in Folien eingeschweißt und zusätzlich gekühlt werden. Diese Art der besonderen Behandlung des Materials ist zum einen sehr zeitintensiv und zum anderen mit großen, vermeidbaren Kosten verbunden. Aufgrund einer stark steigenden Marktnachfrage, die eine Verdreifachung der Produktionsmenge mit sich brachte, waren die vorhandenen Strukturen und Abläufe nicht mehr ausreichend. Auch die bisherige Gewebebereitstellung erwies sich in diesem Zusammenhang als ungeeignet. Zudem war der Wareneingang einer steigenden Anzahl an Waren, insbesondere im Fall der eingeschweißten und gekühlten Matten, nicht gewachsen. Ziel der Planungsaktivitäten, bei denen die vorgestellten Methoden zum Einsatz kamen, war zum einen die Bestimmung eines Strukturvorschlages für den Wareneingang und zum anderen die Substitution des kosten- und zeitintensiven Vorbereitungsprozesses der Gewebematten, um diese der Stückzahlentwicklung anzupassen. Die räumlichen Strukturen sowie die Abläufe in den nicht betroffenen Produktionsbereichen sollten dabei unverändert bleiben. Zudem sollten die baulichen Gegebenheiten berücksichtigt werden und entsprechende Änderungen möglichst geringgehalten werden. Die grundlegenden Prozesse und Aufgaben des Wareneingangs sollten ebenfalls erhalten bleiben. In der Analyse erfolgt gemäß dem Funktionsmodell durch Abstraktion eine Bestimmung der Komponenten und Zusammenhänge des betrachteten Systems. Im Beispiel geschah dies anhand einer Ist-Analyse. Aus den darin bestimmten Schwachstellen ließen sich Kernanforderungen an das Planungsergebnis ableiten: So musste der Wareneingang die rechtzeitige Bereitstellung der Waren für die
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
261
Produktion gewährleisten und die Durchführung der Qualitätsprüfungen im vorgeschriebenen Umfang garantieren. Da die Problematik des überlasteten Wareneingangs nicht mittels Klassifikation gelöst werden konnte, wurde der Versuch unternommen, die Problemstellung zu zerlegen. Die Grundfunktionen des Wareneinganges x Annahme der Ware und Erstellung der erforderlichen Belege, x Wareneingangsprüfung und x Transport der Waren in die Bereiche boten sich aufgrund ihrer zeitlichen Abgegrenztheit als Basis für eine Zerlegung der Problemstellung an. Die Lösung der Teilprojekte mittels Klassifikation ergab nur für den Transport einen geeigneten Lösungsvorschlag: Eine Optimierung konnte hier durch die Neugestaltung der Transportwege und insbesondere der Umschlaglager erzielt werden. Eine weitere Zerlegung der Teilprobleme erwies sich in Bezug auf das Teilproblem „Wareneingangsbelege erstellen“ als möglich. Es ergaben sich, analog zu den durchgeführten Tätigkeiten, die Teilprozesse „Belegerstellung“ und „Belegweitergabe“. Beide Probleme ließen sich nicht mittels Klassifikation lösen. Daher wurde auf die Konstruktion zurückgegriffen. Für das Teilproblem „Belegweitergabe“ wurde dadurch offensichtlich, dass sich das konkrete Problem, nämlich die Weiterleitung der Wareneingangsbelege nach ihrer Erstellung an die jeweiligen Bereichsmitarbeiter, als Informationsaustausch zwischen zwei Bereichen abstrahiert betrachten lässt. Der Widerspruch hierbei liegt in der geforderten Geschwindigkeit der Informationsweitergabe einerseits und dem Ort der Bereiche andererseits: Für eine direkte Kommunikation bzw. Weitergabe der Belege von Person zu Person ist die Entfernung zwischen der Warenannahme und dem Segmentwareneingang zu groß. Für einen Vergleich eignen sich die typneutralen Prinziplösungen x x x x x
Phasenübergang Elimination von Objekten Miniaturisierung und Einsatz von Informationsverarbeitung Reduzierung menschlicher Interaktion und Komplexitätsreduzierung.
Der kompilierte Lösungsvorschlag organisiert den Informationsaustausch zwischen dem Warenannahmemitarbeiter und dem Bereichs-Wareneingangsmitarbeiter IT-gestützt anstatt durch den Austausch (physikalischer) Dokumente. Der Widerspruch, der der Grundfunktion Qualitätsprüfung zugrunde liegt, wurde anhand einer Effektanalyse bestimmt. Der Widerspruch entstand durch die sich entgegenstehenden Eigenschaften „gründlich prüfen“ und „Durchlaufzeit einhalten“. Relaxiert ergibt sich ein Widerspruch zwischen den Parametern „Zeit“ und „Qualität“. Eine Lösung dieses Problems bildet laut Widerspruchstabelle eine Erhöhung des Ressourceneinsatzes. Ein verstärkter Einsatz der Mitarbeiter für die Wareneingangsprüfung bedeutet aber gleichzeitig eine Verringerung des Einsatzes bei den Transporttätigkeiten.
262
5 Integrierte Produkt- und Produktionsprozessgestaltung
Für die Vorbereitung und Bereitstellung der Gewebematten ergab sich folgende Kernanforderung: Die Vorbereitung der Gewebematten soll bedarfsorientiert, zeitnah und möglichst kostenneutral erfolgen. Die Klassifikation ergab, dass die kosten- und zeitintensiven Prozessschritte Verpackung, Lagerung und Transport aus anderen Unternehmen reduziert oder ganz eliminiert werden sollten, indem der Vorgang des Durchtränkens mit Epoxydharz durch die eigene Produktion geleistet wird. Eine mögliche Lösung bot die Anschaffung einer Maschine, die diesen Vorgang vor Ort automatisiert. Entsprechend können die Gewebematten im Rohzustand angeliefert sowie gelagert und dann in der Produktion bedarfsorientiert weiterverarbeitet werden. Die neu anzuschaffende Maschine erforderte einen zusätzlichen Maschinenbediener, der darüber hinaus für die oben angesprochene notwendige Entlastung als Transportmitarbeiter sorgen sollte. Die Gesamttätigkeit des potenziellen Produktionsmitarbeiters wurde mittels Space+ bereits in den frühen Phasen der Produktionsgestaltung – unter Berücksichtigung der Lern- und Motivationspotenziale – modelliert und hinsichtlich der Qualifikationserfordernisse ausgewertet. Die Ergebnisse konnten somit frühzeitig einerseits der Personalabteilung und andererseits dem Projektteam für die Investitionsrechnung der zu diesem Zeitpunkt verfolgten Alternativen zur Verfügung gestellt werden. Durch die Einbindung der Personalabteilung war es möglich, in einem schwierigen Arbeitsmarktumfeld gezielt und rechtzeitig die Personalbeschaffung erfolgreich durchzuführen. Literatur Altschuller GS (1998) Erfinden – Wege zur Lösung technischer Probleme. Planung und Information, Cottbus BIBB - Bundesinstitut für Berufsbildungsforschung (Hrsg) (1984) Katalog der strukturierten Einzelqualifikationen. Berlin Clausing DP (1993) World-Class Concurrent Engineering. In: Haug EJ (Hrsg) Concurrent Engineering. Tools and Technologies for Mechanical System Design, vol 108. Springer, Berlin Heidelberg New York, S 3–40 Eversheim W (1996) Integrierte Produkt- und Prozessgestaltung. In: Eversheim W, Schuh G (Hrsg) Hütte: Taschenbuch für Betriebsingenieure (Betriebshütte). Springer, Berlin Heidelberg New York, S 7-124–7-148 Grote G, Wäfler T, Ryser C, Weik S (1999) Wie sich Mensch und Technik sinnvoll ergänzen. Die Analyse automatisierter Produktionssysteme mit KOMPASS. Schriftenreihe Mensch-Technik-Organisation, Bd 19. vdf Hochschulverlag, Zürich Haberfellner R, Daenzer WF (1997) Systems Engineering, Methodik und Praxis, 9. Aufl. Verlag Industrielle Organisation, Zürich Hacker W, Fritsche B, Richter P, Iwanowa A (1995) Tätigkeitsbewertungssystem (TBS). Verfahren zur Analyse, Bewertung und Gestaltung von Arbeitstätigkeiten. Schriftenreihe Mensch-Technik-Organisation, Bd 7. vdf Hochschulverlag, Zürich Harel D (1988) On Visual Formalisms. Communications of the ACM, 5 (31): 514–530 Kettner H, Schmidt J, Greim H-R (1984) Leitfaden der systematischen Fabrikplanung. Hanser, München, Wien
5.4 Arbeits- und Betriebsorganisation in der frühzeitigen Produktionsgestaltung
263
McCormick EJ, Jeanneret PR, Mecham RC (1989) Position Analysis Questionnaire (PAQ) Form C. Consulting Psychologists Press, Palo Alto Mütze-Niewöhner S (2003) System zur prospektiven Arbeitsgestaltung nach den Kriterien „Persönlichkeitsentfaltung und -entwicklung“ im Rahmen von Concurrent Engineering. Dissertation, RWTH Aachen Newell A, Simon H (1972) Human Problem Solving. Prentice-Hall, Englewood Cliffs, NJ (USA) Stahl J (1998) Entwicklung einer Methode zur Integrierten Arbeitsgestaltung und Personalplanung im Rahmen von Concurrent Engineering. Dissertation, RWTH Aachen Stahl J, Mütze S, Luczak H (2000) A Method for Job Design in Concurrent Engineering. Human Factors and Ergonomics in Manufacturing, 3 (10): 291–307 Staudt E (1979) Planung als „Stückwerktechnologie“, demonstriert am Beispiel arbeitsorganisatorischer Experimente im Industriebetrieb. Vandenhoeck & Ruprecht, Göttingen Warnecke H-J (1995) Aufbruch zum fraktalen Unternehmen. Springer, Berlin Heidelberg New York Wiendahl H-P (1996) Grundlagen der Fabrikplanung. In: Eversheim W, Schuh G (Hrsg) Hütte: Taschenbuch für Betriebsingenieure (Betriebshütte). Springer, Berlin Heidelberg New York, S 9-1– 9-30 Wildemann H (1995) Prozessorientierte Neustrukturierung der Fabrik. Zeitschrift für Logistik 2: 15–20
264
5 Integrierte Produkt- und Produktionsprozessgestaltung
5.5 Frühzeitige Gestaltung der Fertigungsleittechnik 5.5.1 Einleitung In der simultanen Entwicklung von Produkt und Prozess spielt die Entwicklung der Fertigungssysteme eine wichtige Rolle, dies trifft insbesondere für die automatisierte Fertigung zu. Die Gestaltung des Fertigungssystems bestimmt wesentlich die Leistungsfähigkeit der gewählten Fertigungsprozesse sowie die Wirtschaftlichkeit der automatisierten Materialflüsse. Konstruktion und Ausstattung von Werkzeugmaschinen haben direkte Wechselwirkungen mit den technologischen Fertigungsprozessen. Ebenso entscheidet die Auslegung der Automatisierungs- und Verkettungsperipherie über die Investitionskosten, die Durchlaufzeiten, den Nutzungsgrad, die Zuverlässigkeit und die Flexibilität des Fertigungssystems. Daher ist die Planung und Auslegung von automatisierten Fertigungssystemen fester Bestandteil eines umfassenden Simultaneous Engineering. Die Entwicklung automatisierter Fertigungssysteme umfasst zum einen die mechanische Konstruktion, zum anderen müssen die Elektrik und Steuerungstechnik der Anlage entworfen werden (Elektrokonstruktion).
Bearbeitungszentrum Lagerplätze, ggf. mehrere Ebenen
Spannplätze
Werkzeugmagazin Transportsystem
Werkstückpalettenwechsler
Abb. 5.42. Typisches Layout eines Flexiblen Fertigungssystems für die Zerspanung
Bei verketteten Maschinensystemen gehört zur Auslegung der Steuerungstechnik auch die Entwicklung eines geeigneten Fertigungsleitsystems (FLS), das die automatisierte Ablaufsteuerung des Fertigungssystems übernimmt. Eingangsgrö-
5.5
Frühzeitige Gestaltung der Fertigungsleittechnik
265
ßen für die Leittechnikentwicklung sind zunächst die spezifizierten Fertigungsprozesse (Arbeitspläne, Stücklisten) sowie der mechanische Aufbau der zu realisierenden Anlage. Einen beispielhaften Aufbau eines typischen Flexiblen Fertigungssystems (FFS) für die zerspanende Fertigung zeigt Abb. 5.42. Die Spezifikation der in diesem System umzusetzenden Materialflüsse und Fertigungsschritte ist die Grundlage für die Ausarbeitung des steuerungstechnischen Automatisierungskonzeptes, das festlegt, welche Steuerungskomponenten benötigt werden, wo sie installiert und wie sie vernetzt werden. Dies bezieht sich sowohl auf die Hard- als auch auf die Software. Einen Überblick über die wesentlichen Phasen des Lebenszyklus eines Fertigungsleitsystems gibt Abb. 5.43. Anlagenentwicklung
Technologieentwicklung Hardware Technologieentwicklung Software
Ramp-Up
Betrieb
Umbau
Planung
Steuerung
Bedienen und Beobachten
Ramp-Up
Produktionshochlauf
Inbetriebnahme Gesamtsystem
Test von Teilfunktionen
Installation der Anlage
Gesamttest und Freigabe
Änderung, Anpassung
Test und Simulation
Entwicklung Sicherheitskonzept
Konzeptrealisierung
Test und Simulation
Projektierung Lösungskonzept
Entwicklung Bedienungskonzept
Anforderungsanalyse
Komponentenentwicklung
Projektmanagement
Projektierung anlagenspezifischer Lösungen
Projektierung der Änderungen, Erweiterungen
Architekturentwicklung
Prozessentwicklung
Entwicklungsprozessmanagement
Anlagenkonstruktion
Planung
Basisentwicklung Leittechnik
Diagnose und Wiederanlauf Service und Wartung
Dokumentation Produktdatenmanagement
Abb. 5.43. Lebenszyklus eines Fertigungsleitsystems
Im Folgenden werden Methoden und Werkzeuge vorgestellt, die insbesondere die Basisentwicklung, die Projektierung und die Inbetriebnahme von Leitsoftware unterstützen. Dabei wird das Ziel verfolgt, den Entwicklungsprozess zu vereinfachen und zu beschleunigen, um dadurch die Entwicklungskosten des Fertigungssystems zu reduzieren und einen frühen Start des Produktionsanlaufes zu ermöglichen. Die Phase der Basisentwicklung umfasst die Aspekte eines systematischen Managements des Softwareentwicklungsprozesses sowie die methodische und technologische Entwicklung der Fertigungsleitsoftware. Diese beschäftigt sich schwerpunktmäßig mit der Gestaltung geeigneter Datenmodelle für unterschiedliche FFS, der Gestaltung der Steuerungslogik des Leitsystems sowie dem Aufbau von Softwarearchitekturen und Komponentenmodellen für Fertigungsleitsysteme. Darüber hinaus ist auch die Entwicklung intuitiver, an das jeweilige Fertigungssystem angepasster Benutzerschnittstellen und Prozessvisuali-
266
5 Integrierte Produkt- und Produktionsprozessgestaltung
sierungssysteme von besonderer Bedeutung. Schlussendlich wird die Leittechnikentwicklung in die übergreifende Prozessentwicklung eingeordnet. Zur frühzeitigen Gestaltung von Fertigungsleitsoftware werden in Kap. 5.5.2 ein Methodenbaukasten und die dazugehörigen CASE-Tools (Computer-Aided Software Engineering) vorgestellt, die sich insbesondere mit der Entwicklung der Kernkomponenten eines Fertigungsleitsystems – den Steuerungsmodulen – beschäftigen. Diese übernehmen die übergreifende und zelleninterne Ablauf- und Materialflusssteuerung des FFS. Kap. 5.5.3 beschreibt einen Ansatz zur Entwicklung einer neuartigen, agentenbasierten Architektur für Fertigungsleitsysteme, die das Ziel universeller, reaktiver Leitsoftwarekomponenten verfolgt. Darauf aufbauend wird eine Test- und Simulationsumgebung entwickelt, welche den Test und die Inbetriebnahme von Fertigungsleitsystemen unterstützt. Von zunehmender Bedeutung ist ebenfalls die informationstechnische Integration des Fertigungsleitsstems in die unternehmensinterne IT-Landschaft, um auf unkomplizierte Weise bestehende Stamm- und Auftragsdaten für Konfiguration und Test der Leitsoftware zu übernehmen. Die Entwicklung FFS-spezifischer Prozessvisualisierungssysteme ist Gegenstand von Kap. 5.5.4. Hier wird eine interaktive Entwicklungsumgebung für die Umsetzung intuitiver, grafischer Benutzerschnittstellen für Fertigungsleitsysteme vorgestellt. 5.5.2 Methoden und Werkzeuge zur Erstellung von Fertigungsleitsoftware Eine kostengünstige Softwareerstellung gewinnt bei der Realisierung moderner Produktionsanlagen zunehmend an Bedeutung. Aufgrund der individuellen Ausprägung der Anlagen gibt es keine Standardlösungen, die sich ohne großen Aufwand an spezifische Informationsstrukturen, Abläufe etc. anpassen lassen. Bisherige Lösungen auf diesem Gebiet zeichnen sich häufig durch eine monolithische Softwarearchitektur aus. Anpassungen an kundenspezifische Belange sind i.A. nur in beschränktem Maße über Parametertabellen möglich. Neben der damit verbundenen erschwerten Wiederverwendbarkeit bestehender Anwendungen ergeben sich vor allem Auswirkungen auf die Qualität der erstellten Software. Zur Darstellung ablauforientierter Strukturen, die im Bereich produktionsnaher Softwaresysteme verstärkt benötigt werden, bieten konventionelle objektorientierte Methoden zudem nur eingeschränkte Möglichkeiten. Vor diesem Hintergrund wurde ein Lösungsansatz entworfen, der eine ganzheitliche und durchgängige Unterstützung des Entwicklers bei der Erstellung individueller Lösungen im Bereich der Fertigungsleittechnik beinhaltet. Hierfür wurde eine neue objektorientierte Modellierungsmethode sowie die zugehörigen Modellierungs- und Softwaregenerierungswerkzeuge für FLS-Software entwickelt (Langen 1998). Dem Anwender werden somit Werkzeuge zur Verfügung gestellt, mit denen er ein Fertigungsleitsystem gemäß seinen spezifischen Bedürfnissen und Anforderungen schnell, einfach und sicher modellieren kann. Aus dem entwickelten Modell heraus soll die benötigte Software weitgehend automatisch generiert werden, wobei das Programmieren in einer Hochsprache
5.5
Frühzeitige Gestaltung der Fertigungsleittechnik
267
wie C++ soweit wie möglich vermieden wird. Die neue Modellierungsmethode bietet mit Ressourcen- und Dynamikobjekten zwei Sichten auf ein zu modellierendes System, die statische und ablaufbezogene Aspekte trennen. Diese Trennung unterstützt neben einer transparenten Abbildung auch die Wiederverwendung von Softwarebausteinen. Ressourcenklassen dienen der Modellierung von im System vorhandenen realen Objekten, wie Maschinen, Lager und Paletten, aber auch von organisatorischen Aspekten wie beispielsweise Arbeitsplätzen. Die Eigenschaften dieser Objekte werden mithilfe von Attributen, Methoden, Vererbung und Zustandsmodellen abgebildet. Dynamikklassen erfassen auszuführende Systemabläufe wie z.B. die Durchführung von Bereitstellaufträgen für Werkzeuge (Abb. 5.44). Bei diesen steht die Modellierung der einzelnen Ablaufschritte und der Steuerungslogik im Fertigungssystem, also die Modellierung der Systemdynamik, im Mittelpunkt. Konventionelle objektorientierte Modellierungsmethoden bieten den an dieser Stelle so wichtigen Detaillierungsgrad jedoch nicht. Sind z.B. Änderungen an dem Bereitstellablauf vorzunehmen oder kommen neue Ressourcenobjekte hinzu, so ist lediglich die betroffene Dynamikklassen-Methode anzupassen.
Abb. 5.44. Modellierung mit Ressourcen- und Dynamikobjekten
Neben der Modellierungsmethode sind für eine effiziente und kostengünstige Softwareentwicklung entsprechende rechnerbasierte Werkzeuge und Hilfsmittel von entscheidender Bedeutung. Zur Unterstützung des Entwicklers, sowohl beim Entwurf als auch bei der Erstellung von Softwaresystemen, wurde daher eine integrierte Entwicklungsumgebung konzipiert, die eine durchgängige Anwendungserstellung auf Basis der entwickelten Modellierungsmethode erlaubt. Die Entwicklungsumgebung umfasst die sechs Komponenten Ressourcenmodellierer, Dynamikmodellierer, Layoutmodellierer, Anwendungsgenerator,
268
5 Integrierte Produkt- und Produktionsprozessgestaltung
Dokumentationsgenerator sowie das zentrale Repository, in dem die Datenbestände der vorgenannten Anwendungen abgelegt und verwaltet werden. Ressourcen- und Dynamikmodellierer sind zwei grafisch-interaktive Werkzeuge zur Erstellung und Spezifikation der oben eingeführten Ressourcen- und Dynamikklassen bzw. -objekte des Softwaresystems. Dabei überprüfen die Eingabedialoge automatisch, ob die angelegten Klassen vollständig und syntaktisch korrekt sind. Der Layoutmodellierer dient zur Abbildung des Layouts der zu steuernden Produktionsanlage. Die erzeugten Ressourcenobjekte können mit diesem Werkzeug zueinander in Beziehung gesetzt werden. Dies bezieht sich vorwiegend auf Arbeitsplätze, Zellen, Maschinen und sonstige Geräte, deren Anordnung den Materialfluss bestimmt. Um aus den erstellten Modellen lauffähige Softwarekomponenten zu erzeugen, kann der Anwendungsgenerator eingesetzt werden. Dieser wertet die im Repository vorhandenen Modellkomponenten und -informationen aus und erzeugt die zur Kompilierung der lauffähigen Steuerungssoftware benötigten Quellcodedateien. Zur Generierung der Dokumentation eines Entwicklungsprojektes existiert ebenfalls ein eigenes Werkzeug, der Dokumentationsgenerator: Dieser erzeugt eine Dokumentation im Postscript-Format, die beispielsweise als Online-Hilfe oder Handbuch verwendbar ist, wobei er die für jedes Element der Modellierungsmethode innerhalb des Ressourcen- bzw. Dynamikmodellierers erstellte Beschreibung sowie die erstellten Grafiken nutzt. Die Vorteile der beschriebenen Werkzeugunterstützung liegen insbesondere in der Automatisierung aufwändiger Tätigkeiten wie der Codegenerierung, der leichten Änderbarkeit eines Modells verbunden mit dessen Konsistenzsicherung sowie in der Erleichterung der Wiederverwendbarkeit auf Projekt-, Design- und Codeebene. Die Realisierung der benötigten Systemplattform als verteiltes Objektsystem, das eine transparente Verteilung der Software auf verschiedene Rechner ermöglicht, erleichtert eine Dezentralisierung erstellter Anwendungen. Die Softwarebausteine sind dabei unabhängig von einer konkreten Applikation als einzelne Bausteine konzipiert, um ein breites Einsatzspektrum abzudecken und bieten die für eine effiziente Anwendungsentwicklung benötigte Flexibilität. Damit ermöglichen die entwickelten Methoden und Werkzeuge eine grafisch-interaktive Modellierung produktionsnaher Softwaresysteme. Als Erweiterung zu der oben beschriebenen Entwicklungsumgebung wurden die Methoden und Werkzeuge zur Modellierung der Dynamikobjekte und der damit verknüpften Steuerungsabläufe weiterentwickelt. Notwendig wurden diese Erweiterungen aufgrund der zunehmenden Verteilung von Komponenten eines Fertigungsleitsystems und der damit einhergehenden zunehmenden Nebenläufigkeit der Rechenprozesse. Die Steuerungsabläufe eines FLS werden in unterschiedlichen Modulen auf unterschiedlichen Rechnern durchgeführt. Zwischen den einzelnen Modulen bestehen vielfältige Abhängigkeiten und Verknüpfungen: Komponenten können in unterschiedlichen Struktur- und Hierarchiebeziehungen zueinander stehen und komplexe Ursache-Wirkungsketten bilden. Als Grundlage für eine informationstechnische Steuerung der Prozesse muss zu Beginn der Softwareentwicklung ein Modell dieser komplexen Ursache-Wirkungs-Kette erstellt wer-
5.5
Frühzeitige Gestaltung der Fertigungsleittechnik
269
den. Gängige objektorientierte Notationen wie die Modellierungssprache UML (Unifield Modelling Language) bieten jedoch nur unzureichende Unterstützung (Jahn et al. 2001). Deshalb wurde eine Notation (Ereignis-Reaktions-Graphen) entwickelt, die eine einfache Modellierung und Visualisierung der Systemabläufe in Zusammenarbeit mit den Experten des jeweiligen Anwendungsgebietes in einer frühen Phase der Systemanalyse erlaubt. Ereignis-Reaktions-Graphen (ERG) verbinden die Vorteile von Activity-Diagrammen und Petri-Netzen und beinhalten im Wesentlichen vier Komponenten: die Ereignisproduzenten, die Ereigniskonsumenten, die Ereignisse sowie die Reaktionen auf Ereignisse. Diese Komponenten werden entsprechend der Ablauflogik durch Pfeile miteinander verbunden. ERGs ermöglichen den Überblick über die alternativen Prozessabläufe im FLS auf einem hohen Abstraktionsniveau; die frühzeitige Evaluierung der Graphen hilft Fehler und Missverständnisse noch vor dem Design eines ersten Prototyps zu entdecken. Die Integration der neu entwickelten Ansätze in den Entwicklungsprozess erfolgte mithilfe eines entwicklungsbegleitenden Vorgehensmodells. In jeder Phase des Modellierungsprozesses (Komponentenmodellierung, Datenflussmodellierung etc.) werden dem Anwender außerdem grafische Hilfsmittel (Rational Rose, Micrografx Flowcharter etc.) zur Verfügung gestellt, die zudem eine Integration mit externen Werkzeugen bieten. So können die ERGs z.B. in Rational Rose modelliert und anschließend im Micrografx Flowcharter simuliert werden (Abb. 5.45). Einfache Integration der ERGs ins Modell Integriert
Darstellung und Simulation im ABC Flowcharter
Abb. 5.45. Simulierbare Ereignis-Reaktions-Graphen
Bei einem Start der Simulation muss zunächst die Startmarke der Simulation bestimmt werden. Ist dies erfolgt, kann der Benutzer das ERG entweder im Einzelschrittmodus (vor- und rückwärts) durchlaufen oder einen automatischen
270
5 Integrierte Produkt- und Produktionsprozessgestaltung
Durchlauf initiieren. Dieser wird nur bei einer Entscheidung – etwa bei alternativen Abläufen – unterbrochen. Stößt die Simulation auf einen alternativen Zweig, wird eine Entscheidung durch den Benutzer mithilfe eines eigenen Dialoges erfragt. Die Simulation der ERGs ermöglicht die intuitive Evaluierung der erarbeiteten Ablaufmodelle sowie einen visuellen Überblick über das modellierte System. Dadurch kann eine signifikante Verbesserung der Effektivität, Effizienz und Qualität der heutigen Entwicklungsprozesse erreicht werden. 5.5.3 Entwicklung agentenorientierter Fertigungsleitsysteme Durch die heute herrschenden wirtschaftlichen Randbedingungen sind handhabbare, flexible Fertigungssysteme für die Produktion wichtiger als jemals zuvor. Die Anforderungen im Hinblick auf Flexibilität, Anpassungsfähigkeit, Skalierbarkeit, Wartbarkeit, Benutzerfreundlichkeit, Vernetzbarkeit und Funktionalität sind im Vergleich zu den ersten FFS deutlich gestiegen. Daneben führte die Notwendigkeit zur Koordination nebenläufiger Prozesse in der Fertigungsleittechnik zu dezentralen Produktionsstrategien und Steuerungskonzepten, die auf handhabbaren autonomen Fertigungseinheiten basieren. Softwaretechnisch können dezentrale Steuerungskonzepte mithilfe eines agentenbasierten Ansatzes umgesetzt werden. Im Folgenden soll daher ein methodischer Entwicklungsprozess für agentenorientierte Fertigungsleitsysteme vorgestellt werden, der die zeit- und kostensparende Realisierung von aufgabenspezifischen Multiagentensystemen (MAS) unterstützt. Zur Einführung in die angewandte Agententechnologie für die Fertigungsleittechnik sei auf Kurth (2002) verwiesen. Entwurf eines agentenorientierten Entwicklungsprozesses Um die effiziente Realisierung eines aufgabenspezifischen Multiagentensystems für die Fertigungsleitsoftware zu ermöglichen, muss auf wiederverwendbare Komponenten für die Agenten und die Infrastruktur des MAS zurückgegriffen werden (Abb. 5.46). Diese Basiskomponenten stellen die Grundfunktionalitäten zum Aufbau eines generischen Multiagentensystems bereit. Sie beinhalten jedoch keine aufgaben- bzw. anlagenspezifische Funktionalität, die den Einsatzbereich für weitere Aufgabenstellungen einschränken könnte. Die aufgabenspezifische Funktionalität wird im Verlauf des agentenorientierten Entwicklungsprozesses zu dem generischen Multiagentensystem ergänzt. Hierzu werden die Agenten- und Infrastrukturkomponenten mittels objektorientierter Mechanismen an die konkreten Aufgabenstellungen angepasst und um funktionale Komponenten ergänzt. Auf diese Weise wird eine anlagenspezifische Softwarearchitektur geschaffen. Die adaptierten Komponenten werden dann entsprechend des Ist-Zustands des zu steuernden Fertigungssystems instanziiert, bevor das agentenorientierte Informationssystem für fertigungsleittechnische Steuerungsaufgaben in Betrieb genommen werden kann.
5.5 Generisches Multiagentensystem
Frühzeitige Gestaltung der Fertigungsleittechnik
Wiederverwendbare Wiederverwendbare Komponenten Komponenten Agentenkomponenten
271
Aufgabenspezifische Aufgabenspezifische Komponenten Komponenten
Infrastrukturkomponenten Hilfskomponenten
Agentenorientierter Agentenorientierter Entwicklungsprozess Entwicklungsprozess Adaption Adaption & & Instanziierung Instanziierung der der Komponenten Komponenten Aufgabenspezifisches Multiagentensystem
Adaptiertes Agentensystem
Abb. 5.46. Komponentenbasierter Ansatz für MAS in der Fertigungsleittechnik
Der agentenorientierte Entwicklungsprozess beschreibt das Vorgehen bei der Realisierung von agentenorientierten Informationssystemen. Ein solches problembezogenes Vorgehensmodell stellt für einen Entwickler eine strukturierte Anleitung zur Erstellung einer funktionsfähigen und den vorgegebenen Anforderungen entsprechenden Software dar. Für die systematische Entwicklung agentenorientierter Informationssysteme wird der Entwicklungsprozess analog zu den Lebensphasen eines Softwaresystems in sechs Entwicklungsphasen (Planungsphase, Definitionsphase, Entwurfsphase, Implementierungsphase, Abnahme- und Einführungsphase, Wartungs- und Pflegephase) untergliedert (Balzert 1998). Diese Phasen werden bei der Softwareerstellung schrittweise nacheinander durchlaufen, wobei die Ergebnisse einer vorhergehenden Phase die Grundlage für die weitere Entwicklung in der hierauf folgenden Phase bilden. Die Phasen müssen jedoch nicht streng sequenziell durchlaufen werden. Falls erforderlich ist der Rücksprung zu einer vorhergehenden Phase jederzeit möglich (iterativer Softwareentwicklungsprozess). Abbildung 5.47 gibt einen groben Überblick über die Arbeitsschritte in den einzelnen Entwicklungsphasen bei der agentenorientierten Softwareentwicklung. Nach Durchführung der typischen Tätigkeiten zur Projektorganisation in der Planungsphase, beispielsweise der Anforderungsspezifikation an das Multiagentensystem in Zusammenarbeit mit dem Endanwender, beginnen die Kerntätigkeiten der agentenorientierten Softwareentwicklung. Zunächst müssen in der Definitionsphase die statischen Aspekte der Agenten analysiert und definiert werden. Neben der Identifikation von Softwareagenten werden die Strukturbeziehungen innerhalb des Agentensystems definiert. Danach wird das agentenübergreifende Zusammenspiel innerhalb des Multiagentensystems spezifiziert.
272
5 Integrierte Produkt- und Produktionsprozessgestaltung
Abb. 5.47. Überblick über den agentenorientierten Softwareentwicklungsprozess
Während in der Definitionsphase die Anforderungen des Kunden und die Randbedingungen des Anwendungsgebietes fokussiert werden, erfolgt in der darauf folgenden Entwurfsphase die Umsetzung in eine agentenorientierte Softwarearchitektur. Hierzu werden die wiederverwendbaren Komponenten für die Agenten- und die Infrastrukturkomponenten aufgabenspezifisch angepasst. In dieser Phase werden beispielsweise spezialisierte Softwareagenten für die Steuerung der Fertigungsressourcen von den generischen Softwareagenten abgeleitet. Während in der Definitionsphase lediglich die Dynamik des Multiagentensystems bei der agentenübergreifenden Kommunikation definiert wurde, wird in der Entwurfsphase das agenteninterne Verhalten festgelegt. Darüber hinaus werden in der Entwurfsphase die wiederverwendbaren Komponenten für die Agenten mit den Infrastrukturkomponenten zu einem Softwaresystem verbunden. Anschließend wird in der Implementierungsphase die aufgabenspezifische Funktionalität des Softwaresystems basierend auf dieser Softwarearchitektur implementiert und in das generische Multiagentensystem integriert. Bevor das Agentensystem in Betrieb genommen werden kann, muss die aufgabenspezifische Architektur in der Abnahme- und Einführungsphase instanziiert werden. So muss beispielsweise für jede in der konkreten Fertigungsanlage verfügbare Fertigungsressource eine Instanz des entsprechenden Softwareagenten
5.5
Frühzeitige Gestaltung der Fertigungsleittechnik
273
angelegt werden. Damit die Agenten das Fertigungssystem steuern können, muss außerdem der aktuelle Zustand des Fertigungssystems datentechnisch abgebildet werden. Hierzu ist eine Systeminventur durchzuführen, in deren Verlauf alle für das Multiagentensystem relevanten Bestandteile des Fertigungssystems inventarisiert und in einer Datenbank abgelegt werden. Während des laufenden Betriebs eines Multiagentensystems müssen dann die Agenten an sich wandelnde Randbedingungen angepasst werden. Neben der Beseitigung von Störungen werden hierzu in der Wartungs- und Pflegephase u.a. Instanzen von Softwareagenten angelegt bzw. entfernt. Umsetzung einer Simulations- und Testumgebung für Fertigungsleitsysteme Um den Entwicklungsprozess von Fertigungsleitsystemen und deren Inbetriebnahme in industriellen FFS zu beschleunigen, bedarf es neben einer methodischen Vorgehensweise in der Entwicklung auch zusätzlicher Werkzeuge, um den Test der entwickelten Software zu vereinfachen und zu beschleunigen (Abb. 5.48). Dabei können drei wichtige Handlungsfelder – das testoptimierte Systemdesign, die Testplanung sowie die Testdurchführung – identifiziert werden (Abb. 5.49). Unter einem testoptimierten Systemdesign versteht man die Strukturierung des Fertigungsleitsystems in kohärente, entkoppelte Softwarekomponenten, die nach einem einheitlichen Komponentenmodell erstellt werden. Entkopplung ist in diesem Zusammenhang auch gleichbedeutend mit autonomer Lauffähigkeit, d.h. dass Störungen einzelner Komponenten andere Komponenten möglichst wenig beeinflussen. Basisentwicklung Leitsystem
Anlagenentwicklung
Anforderungskatalog
Vorhandene Komponenten
Architektur, Systemdesign
Realisierung
Test von Einzelkomponenten
Gesamttest, Freigabe
Inbetriebnahme
Anpassung
Abnahme, Hochlauf
Betrieb
Test
Abb. 5.48. Entwicklungsprozess von Fertigungsleitsystemen
Darüber hinaus ermöglicht eine weitgehend offene Gestaltung der Leitsoftware einen direkten Zugriff auf die einzelnen Steuerungsfunktionen, die individuell getestet werden können. Die in Weck u. Possel-Dölken (2003a) erläuterte agenten-
274
5 Integrierte Produkt- und Produktionsprozessgestaltung
basierte Architektur für Steuerungskomponenten eines Fertigungsleitsystems ist ein typisches Beispiel für das testoptimierte Systemdesign. Testoptimiertes Systemdesign Entkopplung der Systemkomponenten
Autonome Lauffähigkeit einzelner Komp.
Direkter Zugriff auf Funktionen
Allgemeingültige Schnittstellen
Individuelle, flexible Simulation
Rückführung von Testergebnissen und –erfahrungen in die Entwicklung
Testplanung Gestaltung der Sollprozesse zur Freigabe
Definition von Metriken
Definition von Testszenarien
Analyse externer Datenquellen
Entwicklung von Testwerkzeugen
Verwaltung der Testszenarien, Dokumentation
Verwaltung gesammelter Erfahrungen
Automatisierung von Testprozessen
Testdurchführung Akquirierung testrelevanter Daten
Erzeugung von Testszenarien
Durchspielen von Testszenarien
Abb. 5.49. Methode zum systematischen Testen von Leitsoftware
Um durchgängige Fertigungsfolgen und Materialflüsse zu verifizieren, ist weiterhin eine Simulationsumgebung erforderlich. Zielsetzung bei der Simulation ist die Funktionsüberprüfung der agentenorientierten Steuerungssoftware unter verschiedenen Randbedingungen. Durch die Simulation lässt sich das Systemverhalten in der späteren Produktion bereits im Vorfeld überprüfen, sodass beispielsweise das Fehlermanagement und die Engpassressourcenverwaltung kontrolliert werden können. Die entwickelten Simulationswerkzeuge ermöglichen die Erprobung der Auswirkungen einer Modifikation sowohl im Fertigungssystem als auch in der Leitsoftware ohne Beeinträchtigung des laufenden Produktionsbetriebs. Darüber hinaus kann durch das gezielte Erzeugen ausgewählter Ereignisse (z.B. Störungen an Maschinen) die Funktionsfähigkeit der Leitsoftware optimiert und verifiziert werden. Voraussetzung für eine realistische Simulation sind geeignete Testszenarien. Ein solches Testszenario umfasst eine vorgegebene Menge von Fertigungsaufträgen, die nach erfolgter Feinplanung in das Fertigungsleitsystem eingelastet werden. Jedes Testszenario zielt darauf ab, eine bestimmte Materialflusskonstellation abzubilden, um das Verhalten der Steuerungsmodule des Fertigungsleitsystems unter definierten Randbedingungen evaluieren und nachweisen zu können (Abb. 5.50). Der Erfolg der im Rahmen der Test- und Inbetriebnahmephase durchgeführten Simulationsläufe hängt wesentlich von den zur Verfügung stehenden Auftragsdaten ab, die in Form von Auftragsszenarien durchgespielt werden. Für die Datenakquise realistischer Fertigungsinformationen können PPS-Systeme herangezogen werden. Solche Systeme können wesentliche Stammdaten für das Fertigungsleitsystem bereitstellen, z.B. Arbeitsplatzdaten, Arbeitspläne und Produktdaten, Betriebsmittel-, Bestands- oder Auftragsdaten (Weck u. Possel-Dölken 2003b).
Szenariomanagement
5.5
Erstellen und Verwalten von Auftragslisten
Simuliertes Fertigungssystem
Fertigungsleitsystem
Vorgabe einer Auftragsliste
Frühzeitige Gestaltung der Fertigungsleittechnik
Testszenarien Testszenarien == Auftragsszenarien Auftragsszenarien
Fertigungsleitsystem Fertigungsleitsystem Steuerungsmodule Steuerungsmodule
Abarbeiten der vorgegebenen Aufträge
Visualisierung Visualisierung der der Anlagenabläufe Anlagenabläufe
275
Vorgabe des Simulationstaktes und von Ereignissen (z.B. Störungen) SimulationsSimulationssteuerung steuerung
EreignisEreignissteuerung steuerung
Abb. 5.50. Realisierte Testumgebung für Fertigungsleitsysteme
Die in Abbildung 5.51 dargestellte PPS-Connector Schnittstelle ermöglicht sowohl den Import von Daten aus dem PPS-System in die Fertigungsleitsoftware als auch die Synchronisation von Stammdaten, die redundant sowohl in der PPSDatenbank als auch der Datenbank des Leitsystems vorliegen. Über diese Schnittstelle kann die Auftragshistorie des PPS-Systems genutzt werden, um realistische Auftragslisten zum Testen des Leitsystems zu erzeugen.
276
5 Integrierte Produkt- und Produktionsprozessgestaltung
PPS Client-Rechner
Szenariomanagement
Bedienen & Beobachten Leitsystem Client-Rechner
Auftragsjournal
PPS Datenbankserver
Leitsystem Steuerungsrechner PPS-Connector Schnittstelle
Leitsystem Datenbankserver
Abb. 5.51. Kopplung von PPS-System und Fertigungsleitsoftware
Anwendung in fertigungsleittechnischen MAS Die beschriebenen Methoden fanden in unterschiedlichen Projekten Anwendung und wurden kontinuierlich erweitert. So wurde beispielsweise ein agentenorientiertes Technologiedatenmanagement-System entwickelt, welches das Management und die Verwaltung von NC-Programmen zwischen global verteilten Produktionsstandorten in der Fertigungsindustrie unterstützt (Weck u. Kurth 1999). Dabei übernehmen auf den NC-Steuerungen der Werkzeugmaschinen installierte Softwareagenten den Abgleich teilespezifischer Bearbeitungsprogramme und Technologiedaten. Aktualisierte oder neue Daten werden automatisch über das Internet bekannt gegeben und in den entsprechenden NC-Steuerungen der einzelnen Standorte aktualisiert. Ebenso wurde eine agentenbasierte Ablaufsteuerung für das Integrierte Fertigungs- und Montagesystem entwickelt, welche die dynamische reaktive Planung und Steuerung von Fertigungsprozessen und Materialflüssen ermöglicht. Dabei werden die Fertigungs- sowie die Engpassressourcen des Fertigungssystems, z.B. die Paletten, durch autonom handelnde Softwareagenten vertreten. Ein zentraler Auktionator übernimmt neue Fertigungsaufträge und schreibt diese in Form einer Auktion zur Bearbeitung aus. Die Agenten der Fertigungsressourcen errechnen nun entsprechend der ihnen vorgegebenen Kostenrechnungsfunktion Angebote für die einzelnen Arbeitsgänge der ausgeschriebenen Aufträge, wobei derjenige Agent mit dem besten Angebot durch den Auktionator den Zuschlag erhält. Über diesen Planungsprozess hinaus überwachen die Agenten auch die laufende Fertigung. Kommt es zu ungeplanten Stillständen bzw. Problemen starten die Agenten einen Umplanungsprozess, der zu einer Umverteilung der vergebenen Fertigungsaufträge führt (Kurth 2002).
5.5
Frühzeitige Gestaltung der Fertigungsleittechnik
277
5.5.4 Interaktive Entwicklung von Visualisierungssystemen Ein aktuelles Problem moderner Leit- und Steuerungstechnik für flexible, integrierte Produktionsanlagen ist die Flexibilität und Konfigurierbarkeit sowie die Eingriffsmöglichkeit des Anlagenbedieners in automatisierte Fertigungsabläufe. Derzeit stehen zwar funktional ausreichende Leitsysteme für die Steuerung flexibler Fertigungssysteme zur Verfügung, diese Systeme unterstützen jedoch die Interaktionsmöglichkeit des Anlagenbedieners mit den automatisierten Fertigungsabläufen meist nur ungenügend. Hohe Komplexität und mangelnde Benutzerorientierung der Steuerungssoftware erschweren bislang in vielen Fällen die problemlose Bedienung der Anlage. Dies hat zur Folge, dass bereits kleinere Fehler den automatischen Ablauf zum Stillstand bringen können und somit eine hohe Verfügbarkeit der Anlage nicht gewährleistet werden kann. Verstärkt wird dies durch die fehlende Transparenz interner Abläufe. Häufig führt diese Unzufriedenheit mit dem Steuerungssystem zu einer Abschaltung der Software. Wertvolle Investitionen in Produktionsanlagen können dadurch nicht wirtschaftlich genutzt werden. Als Folge beklagt die Industrie die mangelnde Rentabilität vorhandener Anlagen und sucht nach Alternativen (vgl. Fili 1999). Es wurden nun Lösungsansätze untersucht, die auf eine hohe Transparenz und Überschaubarkeit der Leitsoftwaresysteme flexibler Fertigungsanlagen setzen. Aus hochautomatisierten Systemen mit automatisiertem Werkstück- oder gar Werkzeugfluss müssen überschaubare, vom Menschen steuerbare Fertigungszellen werden, bei denen die Handhabbarkeit durch den Anlagenbediener im Vordergrund steht (Hoffmann 2000). So konnte ein Softwarewerkzeug für die Realisierung flexibler, benutzerorientierter und robuster Leitsysteme für flexible Fertigungsanlagen geschaffen werden. Kern dieser Software ist ein grafisches Prozess-Tool (GPT), welches bereits in die Phase der Modellierung des Produktionssystems integriert werden kann (Abb. 5.52). Hierfür wird eine grafische Repräsentation der Anlage zur Modellierung einer nutzergerechten Softwarestruktur genutzt, die eine hohe Bedienbarkeit und damit eine effektive Fertigungssteuerung der Produktionsanlage ermöglicht. Um darüber hinaus Rationalisierungspotenziale bei der Projektierung anlagenspezifischer Lösungen zu erschließen, wurde eine grafische Bibliothek mit wiederverwendbaren Softwarekomponenten realisiert. So können beispielsweise neue Fertigungszellen assistentengestützt konfiguriert (Verbindung zu Datenbank sowie Steuerungsmodulen, Layout etc.) und in die Oberfläche des Leitsystems eingefügt werden. Durch die Kombination aus neu entwickelten Softwarewerkzeugen mit hierauf abgestimmten Softwarekomponenten lassen sich benutzerorientierte Oberflächen zeit- und kostensparend realisieren. Außerdem können mithilfe des entwickelten Softwaresystems die Produktionsabläufe in automatisierten Fertigungssystemen so dargestellt werden, dass dem Anlagenbediener neben dem Verständnis des Steuerungsablaufs auch der steuernde Eingriff in den Produktionsablauf einer hybriden (manuell/ automatisiert gesteuerten) Produktionsanlage ermöglicht wird. Auf diese Weise kann die Flexibilität der Abläufe innerhalb des Fertigungssystems nachhaltig gesteigert werden.
278
5 Integrierte Produkt- und Produktionsprozessgestaltung
Zur Validierung der entwickelten Werkzeuge und Komponenten wurde eine Bedienoberfläche am institutseigenen Integrierten Fertigungs- und Montagesystem (IFMS) realisiert und erfolgreich in den Fertigungsbetrieb überführt.
Abb. 5.52. Visualisierungssystem GPT
5.5.5 Zusammenfassung und Ausblick Fertigungsleitsysteme erleichtern nachhaltig die Bedienung Flexibler Fertigungssysteme, stellen jedoch immer noch einen erheblichen Kostenfaktor dar. Dies liegt vor allem darin begründet, dass ein Fertigungsleitsystem an jedes FFS angepasst werden muss, sowohl im Bereich der Steuerungslogik als auch im Bereich der Benutzerinteraktion und Visualisierung. Um die Entwicklung des Leitsystems möglichst frühzeitig in den Anlagenentwicklungsprozess zu integrieren und um die Entwicklungszeiten signifikant zu verkürzen, bedarf es geeigneter Entwicklungsmethoden und Werkzeuge. Die hier vorgestellten Lösungen umfassen einerseits einen durchgängigen Entwicklungsprozess für moderne, verteilte Leitsysteme, andererseits werden Softwarewerkzeuge vorgestellt, welche die Spezifizierung und Implementierung von Leitsoftware unterstützen. Darüber hinaus wird eine Test- und Simulationsumgebung vorgestellt, mit der die Inbetriebnahme teilweise vorweggenommen und damit verkürzt werden kann. Während die Entwicklung von FLS durch die entwickelten Werkzeuge ausreichend unterstützt wird, besteht insbesondere hinsichtlich des schnellen Produktionsanlaufes automatisierter Fertigungssysteme weiterer Handlungsbedarf. Dies umfasst sowohl die Anbindung kommerzieller Anlagensimulationswerkzeuge an die Fertigungsleittechnik als auch die Anbindung virtueller Steuerungskomponenten, um durchgängige, realistische Testszenarien an der virtuellen Anlage durchspielen zu können. Schlussendlich ist eine Erweiterung der vorgestellten
5.5
Frühzeitige Gestaltung der Fertigungsleittechnik
279
Testwerkzeuge wünschenswert, welche die Erzeugung realitätsnaher Testszenarien aus Ist-Daten bestehender FFS, z.B. aus einem Fahrtenschreiber, ermöglicht. Literatur Balzert H (1998) Lehrbuch der Softwaretechnik, Band 1. Spektrum Akademischer Verlag, Heidelberg Fili W (1999) Rechtzeitig überholen, bevor es der Fortschritt tut. Industrieanzeiger Nr. 3: 60 Hoffmann G (2000) Roboter im Mittelpunkt der Fabrikautomation. WB Werkstatt und Betrieb 133: 160–164 Jahn D, Kurth A, Peters A, Weck M (2001) COSMOSplus – Komponentenbasierte Steuerungssoftware für dezentral organisierte Produktionsanlagen. In: Adam W, Pritschow G, Uhlmann E, Weck M (Hrsg) Modulare flexible Systeme in der Fertigung. VDI Verlag, Düsseldorf, S. 49–64 Kurth A (2002) Entwicklung agentenorientierter Informationssysteme für die Fertigungsleittechnik. Dissertation, RWTH Aachen Langen R (1998) Methoden und Werkzeuge zur Erstellung von Fertigungsleitsoftware. Dissertation, RWTH Aachen Weck M, Kurth A (1999) Modellierung und Koordination verteilter Produktionssysteme. ZwF 94: 589–592 Weck M, Possel-Dölken F (2003a) Agile Shop Floor Control with COSMOSplus. Proceedings of the 17th International Conference on Production Research (ICPR-17), Blacksburg (USA) Weck M, Possel-Dölken F (2003b) Vertikale Integration. Vom ERP-System zur Werkzeugmaschine und zurück. wt Werkstattstechnik 93: 366–373
6 Trends
Erfolgreiche Unternehmen entwickeln ihre Produkte in interdisziplinären Prozessen, die über die reine Konstruktion von Produkten weit hinausgehen. Aufgrund der Interdisziplinarität, der hohen Vernetzung der Prozesse und der geringen zur Verfügung stehenden Entwicklungszeit sind diese Prozesse durch eine hohe Komplexität gekennzeichnet. Dieser Komplexität kann nur durch einen geeigneten Methodeneinsatz und ein aktives Projektmanagement entgegengesteuert werden. Prozesse sowie Methoden- und IT-Einsatz werden in produzierenden Unternehmen heutzutage in einem Rahmenwerk, dem so genannten Produktentwicklungssystem, geregelt; durch die Produktentwicklungssysteme werden die Prozesse, die Methoden und die IT-Systeme integriert. In besonderem Maße werden beispielsweise von der Automobilindustrie angepasste Produktentwicklungssysteme für das Management der integrierten Produkt- und Prozessgestaltung genutzt. Aufgrund des immer stärkeren Kostendrucks wird der effiziente Ressourceneinsatz in der integrierten Produktentwicklung weiter an Bedeutung gewinnen. Für die Organisation und das Informationsmanagement bedeutet dies, dass sowohl die Projektauswahl als auch die Projektsteuerung einen wesentlichen Erfolgsfaktor darstellt. Die Projektauswahl sollte auf strategischer Ebene erfolgen, um einen langfristigen Kompetenzaufbau zu unterstützen; die Projektsteuerung muss die aktuellen Projektstände erfassen und eine Entscheidung über die Fortführung der Projekte ermöglichen. Nur dadurch kann sichergestellt werden, dass die Ressourcen effizient für Erfolg versprechende Entwicklungen verwendet werden. Die wichtigste Ressource im Bereich der integrierten Produkt- und Prozessgestaltung sind die Mitarbeiter: Der Einsatz der Mitarbeiter entsprechend ihrer Qualifikationen und Kompetenzen ist wesentlich für eine effiziente Produktentwicklung. Neben der internen Betrachtung ist besonderes Augenmerk auf die Integration von Entwicklungspartnern zu legen. Die steigende Produktkomplexität – insbesondere durch einen höheren Softwareanteil in den Produkten – führt dazu, dass Unternehmen nur noch selten über alle notwendigen Kompetenzen verfügen, um Produkte selbständig zu entwickeln. Die kompetenzbasierte Vergabe von Fremdentwicklungsumfängen und das unternehmensübergreifende Projektmanagement werden deshalb als Erfolgsfaktoren weiter an Bedeutung gewinnen. Die Daten- und Informationsbasis für die integrierte Produkt- und Prozessgestaltung wird künftig mithilfe von leistungsfähigen Product Life Cycle Management-Systemen realisiert, die die verschiedenen Prozesse durchgängig unterstützen. In künftigen PLM-Systemen wird durch eine bidirektionale Schnittstelle zwischen der Engineering- und der Produktionssoftware eine durchgängige Verwaltung und Nutzung von Lebenszyklusinformationen ermöglicht. PLM-Systeme
282
6 Trends
werden somit als durchgängige IT-Unterstützung von Produktentwicklungssystemen als eine Form der Umsetzung einer integrierten Produkt- und Prozessgestaltung an Bedeutung gewinnen. Die integrierte Produktdefinition und Technologieplanung spielt eine wesentliche Rolle in den frühen Phasen der Produktentstehung. Nur bei einer genauen Kenntnis der Einflüsse auf die Märkte und das Unternehmen kann eine langfristige Planung erfolgen. Die immer umfangreicheren Quellen benötigen eine Methoden- und Systemunterstützung, um effizient genutzt werden zu können. Langfristige Entwicklungen sollten insbesondere bei der strategischen Planung des Produktprogramms und der Projektauswahl berücksichtigt werden. Aufgrund der zunehmenden Anzahl von Wettbewerbern aus Niedriglohnländern und aufgrund des steigenden Funktions- und Qualitätsstandards der Produkte dieser Wettbewerber wird die Differenzierung allein über Leistungsmerkmale im Wettbewerb zunehmend schwieriger. Von daher ist es wichtig, die Kundenanforderungen genau zu erfassen und zu bewerten, um auch in einem preisgetriebenen Wettbewerb bestehen zu können. Die Erfüllung der Qualitätsstandards über den gesamten Entwicklungsprozess muss sichergestellt werden. Neben der Produktplanung wird damit die Technologieplanung als wesentlicher Bestandteil zum einen für die langfristige Sicherung der Kompetenzen und zum anderen für die kurzfristige Sicherstellung eines qualitäts- und kostengerechten Produktionsprozesses an Bedeutung gewinnen. Die integrierte Produkt- und Produktionsprozessgestaltung wird zurzeit zwar in den Prozessdokumentationen vieler Unternehmen als implementiert dargestellt, in der Praxis funktioniert die Abstimmung jedoch nur selten. In der integrierten Produkt- und Produktionsprozessgestaltung liegen erhebliche Potenziale für eine effektive und effiziente Produktentwicklung sowie für die spätere Herstellung der Produkte. Die frühzeitige Auswahl geeigneter Fertigungsverfahren und die Rückkopplung der Anforderungen, welche die Fertigung an das Bauteil stellt, beinhalten ein erhebliches Kostensenkungspotenzial. Häufig steht einer Integration noch ein Abteilungsdenken im Wege, das durch die Anwendung und das Leben des Prozessgedankens überwunden werden kann. Der nötigen Akzeptanz des Prozessgedankens geht ein Verständnis der Prozesse voraus. An dieser Stelle können Referenzprozesse als Hilfsmittel dienen, die für die Beteiligten die Informationsbedarfe und -abhängigkeiten transparent darstellen. Ein wesentliches Mittel für die Abstimmung von Entwicklungsergebnissen sind die Rapid Prototyping-Modelle: Mit ihrer Hilfe kann die Abstimmung mit den Kunden und den (internen) Abteilungen gezielt und effizient stattfinden. Zusätzlich gewinnen die Rapid-Technologien in Zukunft durch die zunehmende Individualisierung und die damit verbundenen sinkenden Stückzahlen an Bedeutung, da sie zur Herstellung sowohl der Produkte als auch der Werkzeuge genutzt werden können. Zusammenfassend kann gesagt werden, dass die integrierte Produkt- und Prozessgestaltung mit den Bereichen Organisation und Informationsmanagement, integrierte Produktdefinition und Technologieplanung sowie integrierte Produktund Produktionsprozessgestaltung einen wesentlichen Beitrag für die nachhaltige Wettbewerbsfähigkeit produzierender Unternehmen liefert: anforderungs- und kostengerechte Produkte.
Sachverzeichnis
Ablauf- und Strukturplanung 248, 250 Absatzmengenprognose 104 Agent-PDM 62, 63, 69, 70, 145, 147 Änderungseinflüsse 160, 164 -Analyse 166 Anforderungsmanagement 151, 154, 155 Arbeitsgestaltung 257 Aufgabendelegation 62, 66 Bearbeitungszeit 212, 217 CAD-Modell 151, 159, 163, 166 CASE 270 Concept Modeling 229, 230 Conjoint Analyse 103 Constraint-Graph 154, 161, 164 Constraints 135, 140, 149, 152, 153, 154 -dynamisch 141 -statisch funktional 141, 145 -statisch relational 141 Constraint-Solver 167 Controlling 116, 125, 184
-Kräfte 237, 238 -Verhalten 238 Ereignis-Reaktions-Graph 273, 274 EXPRESS 56 FE-Analyse 161, 162, 167 Fehler -Definition 125 -Minimierung 125, 127 Feingießen 234, 237, 238, 240 Fertigungsleitsoftware 269, 270, 274, 280 Fertigungstoleranzen 197 Fertigungszeit 210, 218 FIS 75, 77, 79, 81, 88 -Gestaltung 78, 89 -personenorientierte Konzepte 78, 79, 89 -technokratische Konzepte 78, 84, 89 Formteil 232, 238 -Eigenschaften 236 -Geometrie 233, 242 -Komplexität 245 Fuzzy 123, 152, 157, 176 Geschäftsprozess 183, 184
Daten -Austausch 133, 134, 139, 140 Datenaufbereitung 85 Datenmodell 127, 133, 134, 137, 138, 139, 140, 142, 147 Dynamikklassen 271, 272 Entformung 243
House of Quality 101, 102, 105, 107 integriertes Produkt- und Prozessdatenmodell 55, 58 Integriertes Produkt- und Prozessdatenmodell 61, 69
284
Sachverzeichnis
Kano-Modell 98 Kapitalwertberechnung 111 KDD 79, 85 Keltool 234, 237, 243 Kommunikation Kommunikationsinfrastruktur 57 Kommunikationsregeln 63, 65, 68 Kompetenzbewertung 28, 29, 30, 31, 50 Konstruktion -parametrisch 151, 155, 159, 167 Kosten - Erfassung 107 - Schätzung 108 -Erfassung 108 -Minimierung 118 -Schäzung 109 kreislaufwirtschaftliches Grobkonzept 103 Kundenforderung - Erfassung 94 - Strukturierung 97 Lasersintern 234, 237, 238 -Keramik 240, 241 -Metall 243 Merkmalskosten 193, 201 Metallspritzen 234, 237 Modellierungsmethode 196, 270, 271, 272 Model-View-Controller Ansatz 138 monitoring 78, 79, 84, 88, 129 Multiagentensystem 274, 275, 280 Nachgiebigkeitsmatrix 221 PDM-System 133, 135, 137, 138, 139, 145, 147 Petrinetze 194, 203 Prinzip der ToleranzkostenSensitivitätsanalyse 198 Produktentwicklung -simultane 132, 136 Produktionsgestaltung 248 Produktstruktur 133, 156 -Netz 148 -Sicht 147, 148 -Sichten 149 PROFIS 80, 81, 85, 89
projektmanagement 26 Projektmanagement 21, 22, 24, 27, 48, 49, 51, 64, 66, 125, 129 ProSerF 93 Prototyp 228, 231, 232, 235, 237, 239 -Fertigung 196, 210 -IT 245 -Kunststoff 232 Prototypen -Metall 242 Prozessketten -Gestaltung 178 Prozesssimulation 180 Prozess-Tool -graphisch 281 Prüfmittelmanagement 203, 205, 207, 208 Quality Gates 26, 34, 35, 125, 126 Rapid Manufacturing 228, 229, 238 Rapid Prototyping 228, 229, 231 Rapid Tooling 228, 229, 231, 239, 243, 244 Ressourcenklassen 271, 272 Restriktionsmanagement 151, 154, 157 Risiko -Analyse 117, 122 -Bewertung 117 -Minimierung 118 -Prioritätszahl 120 scanning 78, 79, 84, 88 Schwindung 235, 236 Segmentierung - Makrosegmentierung 94 - Mikrosegmentierung 99 Sensoren 79, 82, 84, 89 -Software 142, 144 Signale -schwache 77, 78, 79, 81, 82, 84, 86, 87, 89 Simulation 218, 219, 222, 225 Software -Agenten 276, 277, 280 -Entwicklung 269, 271, 272, 275, 276 Softwareagent 142, 143 Steifigkeit 219, 220 Steifigkeits 222 STEP 56, 134, 139, 140
285 Stereolithographie 238 Streckspannung 233, 234, 235 Structured Analysis and Design Technique 194, 207 Suchstrategien 84 Team 42, 54 -Effizienz 35, 39, 41 -Gestaltung 36, 41, 49, 94 -Organisation 23, 26, 28, 66, 146 Technologie -Bewertung 171, 175, 187 -Informationssystem 171, 173 -Ketten 171, 175, 178, 179, 187 -Management 183, 187 -Planung 172, 173, 178, 180 -Portfolio 176 Technologiemanagement 171 Toleranzen 193, 195, 197, 198, 199, 201, 202, 208 Toleranzkostenkurve 199, 200
Toleranzkosten-Sensitivitätsanalyse 193, 196, 197, 202, 207 Toleranzvarianz 202 UML 273 Umwelt 103, 119, 121 -FMEA 120 -QFD 119 -Target Costing 120 Varianten-Bewertungs-Matrix 100 Versprödung 234 Verzug 235, 236 Wirtschaftlichkeitsbewertung 28, 48, 49 Workflow-Management-System 57, 66 Zeitermittlung 211, 217, 218 Zielgruppenfestlegung - allgemein 94 - kundenbezogen 99