Library

Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
Filter
  • 2005-2009  (14)
  • 1955-1959
  • 1890-1899
  • ddc:080  (8)
  • ddc:620  (6)
  • 1
    Publication Date: 2016-06-09
    Description: In this paper we revisit the a priori turbulent flame speed tabulation (TFST) technique for a given parameter space within the region of flamelet combustion-regimes. It can be used as a subgrid-scale (SGS) model in Large Eddy Simulation (LES). In a first step, stationary laminar flamelets are computed and stored over the progress variable following the ideas of flamelet generated manifolds (FGM). In a second step, the incompressible one-dimensional Navier-Stokes equations supplemented by the equation for the progress variable are solved on a grid that resolves all turbulent scales. Additionally, turbulent transport is implemented via the linear eddy model (LEM). The turbulent flame structures are solved until a statistically stationary mean value of the turbulent flame speed has been reached. The results are stored in a table that could be used by large scale premixed combustion models, e.g. front tracking schemes. First results are compared quantitatively with direct numerical simulations (DNS) taken from literature. Then it is illustrated in one example how the new method could help to fix constants in algebraic models for turbulent flame speeds. Further it is shown how the technique can be extended to incorporate turbulent strain effects. Finally we investigate the effect of the use of detailed and tabulated chemistry under unsteady conditions.
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 2
    facet.materialart.
    Unknown
    Publication Date: 2019-10-24
    Keywords: ddc:080
    Language: German
    Type: annualzib , doc-type:report
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 3
    Publication Date: 2016-06-09
    Description: A world-wide used program for the simulation of fire-induced flows is the Fire Dynamics Simulator (FDS) which originally was developed for a purely serial execution on single-processor computing systems. Due to steadily increasing problem sizes and accuracy requirements as well as restrictions in storage capacity and computing power on single-processor systems, the efficient simulation of the considered fire scenarios can only be achieved on modern high-performance systems based on multi-processor architectures. The transition to those systems requires the elaborate parallelization of the underlying numerical methods which must guarantee the same result for a given problem as the corresponding serial execution. Unfortunately, one fundamental serial serial solver of FDS, the pressure solver, only possesses a low degree of inherent parallelizm. Its current parallelization may cause additional numerical errors, casually leading to significant losses of accuracy or even numerical instabilities. In order to ensure that the parallelization errors are limited by the leading error of the numerical scheme such that second order convergence for the whole method can be acchieved, optimized parallelization concepts must be designed. With respect to these considerations this articles gives an overview of the current parallel pressure solver as well as the problems related to it and presents an alternative method, SCARC, to overcome the existing complicacies. Part I explains the theory, concept and implementation of this new strategy, whereas Part II describes a series of validation and verification tests to proof its correctness.
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 4
    Publication Date: 2016-06-09
    Description: Because CFD programs, like FDS, generally consist of a large number of different components representing the variety of participating numerical algorithms and chemical / physical processes, it is nearly impossible to verify such codes in their entirety, for example with comparisons of fire tests. Instead, a careful verification and validation with respect to the underlying mathematical conditions and applied numerical schemes is indispensable. In particular, error cancelations between single program components can only be detected by such detailed component-level tests. In part I of this article series a conceptual deficiency of the FDS program package with regard to multi-mesh computations was illustrated and an alternative domain decomposition strategy FDS-ScaRC was introduced. In this second part we will present the structure of a comprehensive test concept and the needs for a more mathematically and numerically orientated test procedure that is much more suited for a reliable evaluation than only a simple visual comparison of the numerical results with experimental fire tests. After a general introduction of our test concept we will demonstrate the high potential of the new FDS-\scarc{} technique compared to the FDS-FFT technique which is used in the FDS program package as yet. Based on this concept, we will present a comprehensive set of analytical and numerical test results.
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 5
    facet.materialart.
    Unknown
    Publication Date: 2019-10-24
    Keywords: ddc:080
    Language: German
    Type: annualzib , doc-type:report
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 6
    Publication Date: 2016-06-09
    Description: In this paper we propose a technique for a priori turbulent flame speed tabulation (TFST) for a given parameter space in standard combustion-regime diagrams. It can be used as a subgrid-scale (SGS) model in Large Eddy Simulation (LES). In a first step, stationary laminar flamelets are computed and stored over the progress variable following the ideas of flamelet generated manifolds (FGM). In a second step, the incompressible one-dimensional Navier-Stokes equations supplemented by the equation for the progress variable are solved on a grid that resolves all turbulent scales. Additionally, turbulent transport is implemented via the linear eddy model (LEM). The turbulent flame structures are solved until a statistically stationary mean value of the turbulent flame speed has been reached. The results are stored in a table that could be used by large scale premixed combustion models, e.g. front tracking schemes. Results are compared to an algebraic model and to direct numerical simulations (DNS).
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 7
    Publication Date: 2016-06-09
    Description: The influence of thermal stratification on autoignition at constant volume and high pressure is investigated under turbulent conditions using the one-dimensional Linear-Eddy Model (LEM) and detailed hydrogen/air chemistry. Results are presented for the influence of initial temperature inhomogeneities on the heat release rate and the relative importance of diffusion and chemical reactions. The predicted heat release rates are compared with heat release rates of Chen et al. and Hawkes et al. obtained by two-dimensional Direct Numerical Simulations (DNS). Using the definition of Chen et al. for the displacement speed of the H2 mass fraction tracked at the location of maximum heat release, and a comparison of budget terms, different combustion modes including ignition front propagation and deflagration waves are identified and the results are compared to the DNS data. The LEM approach shows qualitatively and quantitatively reasonable agreement with the DNS data over the whole range of investigated temperature fluctuations. The results presented in this work suggest that LEM is a potential candidate as a sub-model for CFD calculations of HCCI engines.
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 8
    Publication Date: 2016-06-09
    Description: Im Rahmen dieser Arbeit wurde ein individuell anpassungsfähiges Modell entwickelt und implementiert, das die Perfusion in menschlichen soliden Tumoren beschreibt und für verschiedene Zeitpunkte w¨ahrend regionaler Hyperthermie ein lokal abhängiges Temperaturprofil berechnet. Da vor jeder Simulation alle wichtigen Parameter anhand von Ultraschall-, MRT- oder Angiogrammbildern individuell bestimmt werden können, wird eine patientenspezifische Aussage ¨uber das intratumorale Antwortverhalten bereits vor der eigentlichen Behandlung möglich. In Abh¨angigkeit von der Qualität der zur Verfügung stehenden anatomischen Daten über das zu simulierende Gebiet kann das Modell beliebig verfeinert oder bei Mangel an detaillierten Informationen auch mit Minimaldaten und reduzierter räumlicher Genauigkeit benutzt werden. Die für eine Simulation benötigten 2- oder 3- dimensionalen Geometrien können leicht mit der am ZIB entwickelten Software Amira erstellt und zur Berechnung in KARDOS, einem ebenfalls am ZIB implementierten Löser für nichtlineare partielle Differentialgleichungen, eingelesen werden. Mit Hilfe dieses Modells wird eine einfache, aber realistische und aussagekräftige Simulation für die Therapieplanung einer klinischen Hyperthermieanwendung ermöglicht, die innerhalb kurzer Zeit vorbereitet und durchgeführt werden kann.
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 9
    Publication Date: 2016-06-30
    Description: In dieser Arbeit werden effiziente Co-Reservierungs-Algorithmen vorgestellt, mit denen Rechenressourcen mehrerer Cluster im Grid reserviert werden können. Es werden fünf Algorithmen vorgestellt, die flexible Co-Reservierungsanfragen ermöglichen. In einer Co-Reservierungsanfrage müssen die angeforderten CPUs der Teilreservierungen exakt festgelegt werden. Die Cluster und die Startzeiten, bei denen die Teilreservierungen durchgeführt werden, ermittelt ein Co-Reservierungs-Algorithmus erst bei der Anfragebearbeitung. Die Benutzer können die Startzeit in der Anfrage eingrenzen, in dem sie eine früheste Startzeit und eine Deadline angeben. In den bisher entwickelten Reservierungsverfahren können Benutzer nur starre Co-Reservierungsanfragen stellen, in denen sie für alle Attribute der Teilreservierungen exakte Werte angeben müssen. Eine flexible Co-Reservierungsanfrage erlaubt einem Grid-Reservierungsdienst optimierte Reservierungsvarianten durchzuführen, da er aus vielen Reservierungsvarianten auswählen kann. Die Anwendungen von lokalen Benutzern können durch die Grid-Reservierungen verzögert werden. Bei der Auswahl der Reservierungsvarianten kann ein Grid-Reservierungsdienst dies berücksichtigen und den negativen Einfluß der Grid-Reservierungen verringern. Bei zwei Co-Reservierungs-Algorithmen werden auch zusätzliche Sortiervorgaben des Klienten bei der Auswahl der Reservierungsvarianten beachtet. Die Algorithmen wurden durch Simulationen mit dem Workload eines realen großen Supercomputers ausgewertet. Die Untersuchungen zeigen, daß sowohl die lokalen als auch die Grid-Benutzer von den flexiblen Anfragen profitieren können. Den lokalen Benutzern wurden die Ressourcen weniger oft durch zu früh gestellte Reservierungsanfragen entzogen. Die Grid- Benutzer können ihrerseits komfortabel eine optimierte Reservierungsvariante durchführen lassen.
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 10
    Publication Date: 2016-06-30
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 11
    Publication Date: 2020-08-05
    Keywords: ddc:080
    Language: English
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 12
    Publication Date: 2020-08-05
    Description: In dieser Diplomarbeit werden grundlegende Probleme der kostenoptimalen Dimensionierung von Telekommunikationsnetzwerken untersucht. Diese werden als lineare gemischt ganzzahlige Programme formuliert, wobei sich in der Modellierung auf die Konzepte Routing und Kapazitätszuweisung beschränkt wird. Es werden parallel drei übliche, aus der Praxis motivierte Möglichkeiten behandelt, die auf gerichteten oder ungerichteten Kanten eines Netzwerkes installierte Kapazität zu nutzen. Diese unterscheiden wir als DIrected, BIdirected und UNdirected. Die studierten Probleme treten als Relaxierungen vieler realistischer Fragestellungen der Netzwerkoptimierung auf. Sie enthalten elementare Strukturen, deren Studium ausschlaggebend ist für das Verständnis komplexerer Modelle. Letztere können zusätzliche Erfordernisse berücksichtigen, wie zum Beispiel die Ausfallsicherheit von Netzwerken. Zur Lösung solcher NP-schweren Optimierungsprobleme werden erfolgreich Branch & Bound und Schnittebenenverfahren kombiniert (Branch & Cut). Für die Wirksamkeit dieser Algorithmen ist es sehr nützlich, möglichst genaue Kenntnisse der Struktur der Seitenflächen der zugrundeliegenden Polyeder zu haben, welche die konvexe Hülle der Lösungsmenge beschreiben. Es sind starke gültige Ungleichungen zu finden, welche hochdimensionale Seitenflächen oder sogar Facetten definieren. Diese sollten zudem schnell separiert werden können und die numerische Stabilität der Algorithmen möglichst nicht beeinflussen. Diese Arbeit beschäftigt sich im Wesentlichen mit der sehr allgemeinen Rundungstechnik Mixed- Integer Rounding (MIR) zur Verstärkung gültiger Ungleichungen unter Verwendung der Ganzzahligkeitsnebenbedingungen. Es wird eine MIR-Prozedur motiviert, bestehend aus den Schritten Aggregieren, Substituieren, Komplementieren und Skalieren, welche durch Ausnutzung der Struktur der gegebenen Parameter zu einer gültigen Basisungleichung führt, die dann durch MIR eine starke und oft facetten-induzierende Ungleichung gibt. Es werden verschieden Klassen solcher Ungleichungen untersucht und auf ihre Praxistauglichkeit beim Einsatz in Branch & Cut-Verfahren getestet. Nach einer kurzen Einführung werden in Kapitel 2 die für uns in dieser Diplomarbeit relevanten Probleme definiert. Kapitel 3 gibt eine ausführliche Übersicht über die Technik MIR.Wir beschäftigen uns vor allen Dingen mit den Begriffen Superadditivität und Lifting und behandeln Aspekte wie Numerik und beschränkte Variablen. Kapitel 4 und Kapitel 5 umfassen Untersuchungen zu so genannten cut sets. Diese Polyeder werden durch Schnitte in Netzwerken definiert und relaxieren die von uns behandelten Probleme. Hauptsächlich durch MIR entwickeln wir sowohl neue als auch bekannte Klassen von facetten-definierenden Ungleichungen für cut sets, wobei strukturelle Unterschiede herausgearbeitet werden, die durch die drei verschiedenen Typen der Kapzitätsbereitstellung und durch beschränkte Variablen entstehen. Als ein zentrales Resultat wird bewiesen unter welchen Bedingungen facetten-induzierende Ungleichungen für cut sets auch Facetten der zugehörigen relaxierten Polyeder sind. Im Kapitel 6 geben wir weitere Typen von MIR-Ungleichungen an, die auf anderen Netzwerkstrukturen basieren und weisen ferner auf offene Fragen sowie interessante Ideen hin. Das Kapitel 7 widmet sich schließlich der Entwicklung und Implementation von Separationsalgorithmen. Wir testen einige der entwickelten Ungleichungsklassen mit Hinblick auf Ihre Wirksamkeit zur Lösung von realistischen Problemen der Netzwerkdimensionierung aus der Telekommunikation und diskutieren die Ergebnisse.
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 13
    Publication Date: 2016-06-30
    Description: Diese Arbeit dokumentiert den Entwurf und die Implementierung einer NFS-Schnittstelle zum ZIBDMS. Das ZIBDMS, welches derzeit am Zuse-Institut Berlin entwickelt wird, ist ein Managementsystem für verteilte Daten in heterogenen Umgebungen [10]. Es soll die einfache Benutzung von Mechanismen zur Replikation sowie neue Möglichkeiten des Zugriffs und der Verwaltung von Metadaten und Datenobjekten ermöglichen. Dem Nutzer bietet das System verschiedene Sichten: Neben der klassischen, hierarchischen Sicht mit Verzeichnissen und Dateien wird auch eine attributbasierte Zugriffsmethode angeboten, in der Datenobjekte ausschließlich über Attribut/Wert-Paare referenziert werden. Für den Benutzer transparent, soll sich das System im Hinblick auf die Verfügbarkeit von Daten und Metadaten selbsttätig optimieren. Um Skalierbarkeit gew¨ahrleisten zu können, werden intern Peer-to-Peer- Techniken entwickelt und benutzt. Die NFS-Schnittstelle erhöht die Nutzbarkeit des Systems, da Client- Implementierungen für nahezu alle Betriebssysteme zur Verfügung stehen. Der Benutzer kann so über das gewohnte Dateisystem Daten und Metadaten pflegen, ohne spezifisches Vorwissen zu benötigen. In dieser Arbeit wird untersucht, inwiefern sich die Semantik des ZIBDMS auf jene des NFS-Protokolls übertragen läßt. Weiterhin wird das Konzept von Pseudodateien beschrieben und diskutiert, inwiefern es eine brauchbare Lösung darstellt, den im Vergleich zur NFS-Semantik wesentlich größeren Funktionsumfang des ZIBDMS für den Anwender nutzbar zu machen. Pseudodateien sind nicht-persistente Objekte, welche für den Benutzer als reguläre Datei sichtbar werden und die erweiterte Funktionalitäten wie die Bearbeitung von Metadaten oder die Platzierung von Replikaten über die Dateisystem-Sicht des NFS zur Verfügung stellen sollen. Schließlich werden Leistungsmessungen an den benutzten Komponenten des ZIBDMS vorgenommen und vergleichbaren Systemen gegen übergestellt. Die Aufmerksamkeit liegt hier auf der zugrundeliegenden Katalog-Technologie sowie dem durch das NFS-Protokoll verursachten Overhead.
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 14
    Publication Date: 2022-07-19
    Description: In der Arbeit wird die computergestützte Planung von chirurgisch gesetzten Knochenfrakturen bzw. Knochenschnitten (sogenannten Osteotomien) an dreidimensionalen, computergrafischen Schädelmodellen, sowie die Umpositionierung separierter knöcherner Segmente im Kontext der rekonstruktiven MKG-Chirurgie behandelt. Durch die 3D Modellierung und Visualisierung anatomischer Strukturen, sowie der 3D Osteotomie- und Umstellungsplanung unter Einbeziehung der resultierenden Weichgewebedeformation wird den Chirurgen ein Werkzeug an die Hand gegeben, mit dem eine Therapieplanung am Computer durchgeführt und diese in Hinblick auf Funktion und Ästhetik bewertet werden kann. Unterschiedliche Strategien können dabei erprobt und in ihrer Auswirkung erfasst werden. Dazu wird ein methodischer Ansatz vorgestellt, der zum einen die chirurgische Planung im Vergleich zu existierenden Ansätzen deutlich verbessert und zum anderen eine robuste Weichgewebeprognose, durch den Einsatz geeigneter Planungsmodelle und eines physikalisch basierten Weichgewebemodells unter Nutzung numerischer Lösungsverfahren in die Planung integriert. Die Visualisierung der Planungsergebnisse erlaubt sowohl eine anschauliche und überzeugende, präoperative Patientenaufklärung, als auch die Demonstration möglicher Vorgehensweisen und deren Auswirkungen für die chirurgische Ausbildung. Ferner ergänzen die Planungsdaten die Falldokumentation und liefern einen Beitrag zur Qualitätssicherung. Die Arbeit ist in sieben Kapitel gegliedert und wie folgt strukturiert: Zuerst wird die medizinische Aufgabenstellung bei der chirurgischen Rekonstruktion von Knochenfehlbildungen und -fehlstellungen in der kraniofazialen Chirurgie sowie die daraus resultierenden Anforderungen an die Therapieplanung beschrieben. Anschließend folgt ein umfassender Überblick über entsprechende Vorarbeiten zur computergestützten Planung knochenverlagernder Operationen und eine kritische Bestandsaufnahme der noch vorhandenen Defizite. Nach der Vorstellung des eigenen Planungsansatzes wird die Generierung individueller, qualitativ hochwertiger 3D Planungsmodelle aus tomografischen Bilddaten beschrieben, die den Anforderungen an eine intuitive, 3D Planung von Umstellungsosteotomien entsprechen und eine Simulation der daraus resultierenden Weichgewebedeformation mittels der Finite-Elemente Methode (FEM) ermöglichen. Die Methoden der 3D Schnittplanung an computergrafischen Modellen werden analysiert und eine 3D Osteotomieplanung an polygonalen Schädelmodellen entwickelt, die es ermöglicht, intuitiv durch Definition von Schnittlinien am 3D Knochenmodell, eine den chirurgischen Anforderungen entsprechende Schnittplanung unter Berücksichtigung von Risikostrukturen durchzuführen. Separierte Knochensegmente lassen sich im Anschluss interaktiv umpositionieren und die resultierende Gesamtanordnung hinsichtlich einer funktionellen Rehabilitation bewerten. Aufgrund des in dieser Arbeit gewählten, physikalisch basierten Modellierungsansatzes kann unter Berücksichtigung des gesamten Weichgewebevolumens aus der Knochenverlagerung direkt die resultierende Gesichtsform berechnet werden. Dies wird anhand von 13 exemplarischen Fallstudien anschaulich demonstriert, wobei die Prognosequalität mittels postoperativer Fotografien und postoperativer CT-Daten überprüft und belegt wird. Die Arbeit wird mit einem Ausblick auf erweiterte Modellierungsansätze und einem Konzept für eine integrierte, klinisch einsetzbare Planungsumgebung abgeschlossen.
    Description: In cranio-maxillofacial surgery, physicians are often faced with skeletal malformations that require complex bone relocations. Especially in severe cases of congenital dysgnathia (misalignment of upper and lower jaw) or hemifacial microsomia (asymmetric bone and tissue development), where multiple bone segments are to be mobilized and relocated simultaneously and in relation to each other, careful preoperative planning is mandatory. At present in clinical routine not all possible strategies can be planned and assessed with regard to functional rehabilitation. Moreover, the aesthetic outcome, i.e. the postoperative facial appearance, can only be estimated by a surgeon's experience and hardly communicated to the patient. On this account, a preoperative planning of complex osteotomies with bone relocations on a computerized model of a patient's head, including a reliable three-dimensional prediction and visualization of the post-surgical facial appearance is a highly appreciated possibility cranio-maxillofacial surgeons are longing for. This work, being performed at Zuse Institute Berlin (ZIB), addresses such a computer based 3D~surgery planning. A processing pipeline has been established and a simulation environment has been developed on basis of the software Amira, enabling a surgeon to perform bone cuts and bone rearrangements in an intuitive manner on virtual patient models. In addition, a prediction of the patients' postoperative appearance according to the relocated bone can be simulated and visualized realistically. For a meaningful planning of surgical procedures, anatomically correct patient models providing all relevant details are reconstructed from tomographic data with high fidelity. These patient models reliably represent bony structures as well as the facial soft tissue. Unstructured volumetric grids of the soft tissue are generated for a fast and efficient numerical solution of partial differential equations, describing tissue deformation on the foundation of 3D elastomechanics. The planning of osteotomies (bone cuts) for the mobilization and relocation of bone segments is performed in accordance to the planning on basis of life size replicas of a patient's skull, i.e. stereolitographic models. Osteotomy lines can be drawn on top of the polygonal planning models using suitable input devices. After evaluation of the consequence of a planned cut with regard to vulnerable inner structures (nerves, teeth etc.) the model is separated accordingly. A relocation of bone segments can be performed unrestrictedly in 3D or restricted to a translation or rotation within arbitrarily chosen planes under consideration of cephalometric guidelines. Bone and tooth collisions can be evaluated for functional analysis or orthodontic treatment planning with possible integration of digitized dental plaster casts. As a result of the preoperative planning, a single transformation matrix, encoding translation and rotation, or a sequence of such matrices are provided for each bone segment. Both the osteotomy paths and the transformation parameters can finally be used for intra-operative navigation. In the course of the planning, the relocated positions of bone segments serve as an input for the simulation of the resulting soft tissue deformation. Since bone and surrounding soft tissue share common boundaries that are either fixed or translocated, the resulting configuration of the entire tissue volume can be computed from the given boundary displacements by numerical minimization of the internal strain energy on basis of a biomechanical model, using a finite-element approach. In collaboration with different surgeons and hospitals more than 25 treatments have been accompanied by preoperative planning so far ranging from mandibular and midfacial hypoplasia to complex hemifacial microsomia. 13 of these cases are presented within this work. Simulation results were validated on the basis of photographs as well as of postoperative CT data, showing a good correlation between simulation and postoperative outcome. Further aspects of improving the modeling approach are discussed. It has been demonstrated that 3D~osteotomy planning on virtual patient models can be performed intuitively, and that 3D~tissue deformation for cranio-maxillofacial osteotomy planning can be predicted numerically without using heuristic ratios. It can be stated that by using 3D~planning software, a surgeon gains a better spatial understanding of complex dysplasia, and the 3D~soft tissue prediction gives an additional criterion for the assessment of the planned strategy. It turned out that, especially in complex cases such as hemifacial microsomia or for decisions bet­ween mono- and bimaxillary advancements, a 3D~planning aid is extremely helpful. The conclusion is, that images and animations created within the planning phase provide a valuable planning criterion for maxillofacial surgeons as well as a demonstrative information for patients and their relatives, thus greatly enhancing patient information, as well as surgical education. All data that result from the planning are also important for documentation and quality assurance. 3D osteotomy planning, including soft tissue prediction, likely will become a new paradigm of plastic and reconstructive surgery planning in the future. An assortment of results can be found under: http://www.zib.de/visual/medical/projects
    Keywords: ddc:620
    Language: German
    Type: doctoralthesis , doc-type:doctoralThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. More information can be found here...