Noch keinen Zugang? Dann testen Sie unser Angebot jetzt 3 Monate kostenfrei. Einfach anmelden und los geht‘s!
Angemeldet bleiben
Ausgewählte Ausgabe: 04-2017 Ansicht: Modernes Layout
| Artikelseite 1 von 6

Skin Model Shapes: ein neuer Ansatz zur Toleranzsimulation auf Basis von Punktwolken und Oberflächennetzen

Skin Model Shapes: a Novel Approach for the Tolerance Analysis Based on Point Clouds and Surface Meshes


Inhalt: Die Toleranzsimulation ist ein essentielles Werkzeug zur frühzeitigen Analyse der Auswirkungen von Bauteil- abweichungen auf funktions- und qualitätskritische Baugruppenmaße. Dieser Beitrag stellt einen neuen Ansatz zur Toleranzsimulation auf Basis von Punktwolken und Ober-flächennetzen unter Berücksichtigung von Formabweichungen und in Übereinstimmung mit Toleranznormen vor und erläutert das, diesem Ansatz zugrundeliegende, Konzept der Skin Model Shapes.
Abstract: The tolerance simulation is an essential tool in computer-aided product and process development, which allows the early prediction of the effects of geometrical part deviations on assembly key characteristics. The paper highlights a novel approach for the computer-aided tolerance analysis based on point clouds and surface meshes considering form deviations and in conformance to international tolerancing standards and illustrates the underlying concept of Skin Model Shapes.

1 Einleitung und Motivation

Stetig steigende Kundenanforderungen und verschärfter Kostendruck zwingen Unternehmen frühzeitig im Produktentwicklungsprozess, den Einfluss qualitäts- und funktionsmindernder Einflussgrößen abzuschätzen, um potentielle Produkt- und Fertigungsfehler von Beginn an zu vermeiden [1]. Zu diesen qualitäts- und funktionsmindernden Einflussgrößen gehören besonders geometrische Bauteilab- weichungen, die als Abweichungen vom Nennmaß zu verstehen sind und zwangsläufig an jedem gefertigten Bauteil beobachtet werden können. Heutzutage werden die erlaubten Bauteilabweichungen durch Toleranzen, die während der Produktentwicklung und Konstruktion vergeben werden, eingeschränkt. Die Toleranzvergabe geht jedoch mit einer großen Kosten- und Qualitätsverantwortung einher, da zu eng gewählte Toleranzen im Allgemeinen zwar zu einer sicheren Erfüllung der geforderten Produktqualität führen, dafür jedoch sehr genaue und damit teure Fertigungs- und Prüfprozesse erfordern, wohingegen zu weite Toleranzen Kosteneinsparungen in der Fertigung ermöglichen, allerdings zu einem Verfehlen der Qualitätsziele, zu höherem Ausschuss und zu Nacharbeit führen können.
Viele Unternehmen haben dieses Problem mittlerweile erkannt und setzen vermehrt Toleranzsimulationswerkzeuge ein, die Produktentwicklungsteams bei der Toleranzvergabe durch die frühzeitige und kosteneffiziente virtuelle Vorhersage der Einflüsse von Bauteiltoleranzen und verschiedener Montagekonzepte unterstützen [2]. Allerdings bringen etablierte Methoden und Werkzeuge zur Toleranzanalyse schwerwiegende Nachteile in Hinblick auf die Berücksichtigung von Formabweichungen mit sich und sind darüber hinaus nicht vollständig konform zu internationalen Toleranznormen, wie den ISO-Normen für die geometrische Produktspezifikation (GPS) oder den Geometric Dimensioning and Tolerancing (GD&T) Standards der ASME.
Das Konzept der Skin Model Shapes als neuartiger Ansatz für die Toleranzanalyse auf Basis von Punktwolken und Oberflächennetzen soll diese Schwächen überwinden und eine realitätsnahe Vorhersage der Einflüsse von Bauteilabweichungen auf verschiedenste qualitäts- und funktionskritische Baugruppenmaße erlauben.

2 Ein Kurzüberblick über etablierte Toleranzanalyseverfahren

Die Toleranzanalyse ist aufgrund ihrer wesentlichen Bedeutung für das rechnerunterstützte Toleranzmanagement ein vielfach behandeltes Forschungsthema [3]. So wurden in den letzten Jahrzehnten zahlreiche Toleranzanalyseansätze entwickelt, wie zum Beispiel ein- oder zweidimensionale Tolerance Stacks, die Toleranzanalyse auf Basis von Vektorketten, parame- trische Ansätze, die Methode der Deviation Domains oder Tolerance Maps [3–5]. Zudem wurden diese Ansätze auf verschiedenste Problemfälle angewandt, wie beispielsweise statische Baugruppen, überbestimmte Systeme oder bewegte Mechanismen. Diese Ansätze zur Toleranzanalyse bilden auch die mathematischen Grundlagen für eine beachtliche Zahl an kommerziellen Toleranzsimulationswerkzeugen (oft als Computer-Aided Tolerancing (CAT)-Werkzeuge bezeichnet), wie beispielsweise „3 DCS“, „CETo l6“, „MECAMaster“ und „VSA“.
Neben der Entwicklung und Anwendung dieser Toleranzanalyseverfahren widmen sich zahlreiche wissenschaftliche Arbeiten auch dem Vergleich und der kritischen Gegenüberstellung dieser Toleranzanalysemethoden (siehe hierzu bspw. [4, 5]). Auf Basis dieser Arbeiten lässt sich festhalten, dass etablierte Toleranzanalysemethoden nicht in der Lage sind, Formabweichungen ganzheitlich zu berücksichtigen und zudem Schwächen in Bezug auf die Abbildung kombinierter dreidimensionaler Toleranzzonen, von Hüll- und Unabhängigkeitsprinzip, Materialbedingungen sowie von Bezugsreihen-folgen haben. Folglich kommen diese Arbeiten zu dem Schluss, dass keines der etablierten Toleranzanalyseverfahren vollständig mit den gängigen Toleranznormen übereinstimmt und sich dies auch in den kommerziell verfügbaren Softwarewerkzeugen für die Toleranzsimulation spiegelt [5].

Seite des Artikels
Autoren

Dipl.-Wirtsch.-Ing. Benjamin Schleich

Lehrstuhl für Konstruktionstechnik
Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU)
Martensstraße 9
91058 Erlangen
Tel.: 0 91 31/85-2 32 20
E-Mail: schleich@mfk.fau.de
www.mfk.fau.de

Prof. Dr.-Ing.  Sandro Wartzack

Lehrstuhl für Konstruktionstechnik
FAU Erlangen-Nürnberg
Martensstr. 9
91058 Erlangen
https://www.mfk.uni-erlangen.de/web/