Library

Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
Filter
  • Opus Repository ZIB  (16)
  • ddc:020  (9)
  • ddc:620  (7)
Source
  • Opus Repository ZIB  (16)
Years
Keywords
Language
  • 1
    Publication Date: 2020-08-05
    Description: We estimate potential energy savings in IP-over-WDM networks achieved by switching off router line cards in low-demand hours. We compare three approaches to react on dynamics in the IP traffic over time, FUFL, DUFL and DUDL. They provide different levels of freedom in adjusting the routing of lightpaths in the WDM layer and the routing of demands in the IP layer. Using MILP models based on three realistic network topologies as well as realistic demands, power, and cost values, we show that already a simple monitoring of the lightpath utilization in order to deactivate empty line cards (FUFL) brings substantial benefits. The most significant savings, however, are achieved by rerouting traffic in the IP layer (DUFL), which allows emptying and deactivating lightpaths together with the corresponding line cards. A sophisticated reoptimization of the virtual topologies and the routing in the optical domain for every demand scenario (DUDL) yields nearly no additional profits in the considered networks. These results are independent of the ratio between the demand and capacity granularities, the time scale and the network topology, and show little dependency on the demand structure.
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 2
    Publication Date: 2020-12-11
    Description: Vorbemerkung Beim Schreiben dieses Artikels, der auf Veränderungen der Kommunikations- und Publikationstechniken und ihre Bedeutung hinweist, ist uns mehr als je zuvor bewusst geworden, wie beschränkt das Medium Papier ist. Es gibt z. B. keine Hyperlinks, durch die man unmittelbar das Erwähnte erleben oder überprüfen kann. Ein schneller Wechsel vom Wort zum Bild, zum Ton oder Video ist nicht möglich. Wer will schon lange URLs abtippen und Medienbrüche erleiden? Wir haben uns daher entschlossen, eine textidentische Version dieses Artikels mit allen URLs – sie liegt Ihnen hier vor – elektronisch anzubieten und in der für die "Gegenworte" (BBAW) gekürzten Fassung nur durch [URL] anzudeuten, dass der Leser an dieser Stelle einfach in der elektronischen Version einen Klick ins Internet machen sollte. Und damit sind wir bereits mitten im Thema.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 3
    Publication Date: 2016-06-09
    Description: In this paper we revisit the a priori turbulent flame speed tabulation (TFST) technique for a given parameter space within the region of flamelet combustion-regimes. It can be used as a subgrid-scale (SGS) model in Large Eddy Simulation (LES). In a first step, stationary laminar flamelets are computed and stored over the progress variable following the ideas of flamelet generated manifolds (FGM). In a second step, the incompressible one-dimensional Navier-Stokes equations supplemented by the equation for the progress variable are solved on a grid that resolves all turbulent scales. Additionally, turbulent transport is implemented via the linear eddy model (LEM). The turbulent flame structures are solved until a statistically stationary mean value of the turbulent flame speed has been reached. The results are stored in a table that could be used by large scale premixed combustion models, e.g. front tracking schemes. First results are compared quantitatively with direct numerical simulations (DNS) taken from literature. Then it is illustrated in one example how the new method could help to fix constants in algebraic models for turbulent flame speeds. Further it is shown how the technique can be extended to incorporate turbulent strain effects. Finally we investigate the effect of the use of detailed and tabulated chemistry under unsteady conditions.
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 4
    Publication Date: 2020-12-11
    Description: Zwischen dem Bibliotheksverbund Bayern (BVB) und dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) besteht seit Ende 2007 eine Strategische Allianz, die auf zwei Säulen beruht: einer langfristigen Entwicklungspartnerschaft einerseits und der Kooperation im Dienstleistungsbereich mit der Integration der Verbundkataloge andererseits. Ende 2008 wurde das erste Entwicklungsprojekt "Literaturverwaltungsprogramme" abgeschlossen, dessen Ergebnisse in dieser Handreichung in Form von Handlungsempfehlungen für Bibliotheken vorgestellt werden. Ziel des Projekts war es, den Datenaustausch zwischen den Bibliotheks- und Verbundkatalogen des BVB und KOBV und gängigen Literaturverwaltungsprogrammen zu optimieren. Neben Handlungsempfehlungen für die Implementierung neuer Exportschnittstellen und die Verbesserung bestehender Exportmöglichkeiten werden Hinweise auf verbesserte Nutzerführung gegeben. Die Empfehlungen beziehen sich vorwiegend auf den Datenaustausch zwischen den Bibliothekssystemen Aleph 500, MetaLib und WebOPAC/InfoGuide und den Literaturverwaltungsprogrammen Citavi, EndNote, RefWorks und Zotero.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 5
    Publication Date: 2016-06-09
    Description: A world-wide used program for the simulation of fire-induced flows is the Fire Dynamics Simulator (FDS) which originally was developed for a purely serial execution on single-processor computing systems. Due to steadily increasing problem sizes and accuracy requirements as well as restrictions in storage capacity and computing power on single-processor systems, the efficient simulation of the considered fire scenarios can only be achieved on modern high-performance systems based on multi-processor architectures. The transition to those systems requires the elaborate parallelization of the underlying numerical methods which must guarantee the same result for a given problem as the corresponding serial execution. Unfortunately, one fundamental serial serial solver of FDS, the pressure solver, only possesses a low degree of inherent parallelizm. Its current parallelization may cause additional numerical errors, casually leading to significant losses of accuracy or even numerical instabilities. In order to ensure that the parallelization errors are limited by the leading error of the numerical scheme such that second order convergence for the whole method can be acchieved, optimized parallelization concepts must be designed. With respect to these considerations this articles gives an overview of the current parallel pressure solver as well as the problems related to it and presents an alternative method, SCARC, to overcome the existing complicacies. Part I explains the theory, concept and implementation of this new strategy, whereas Part II describes a series of validation and verification tests to proof its correctness.
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 6
    Publication Date: 2016-06-09
    Description: Because CFD programs, like FDS, generally consist of a large number of different components representing the variety of participating numerical algorithms and chemical / physical processes, it is nearly impossible to verify such codes in their entirety, for example with comparisons of fire tests. Instead, a careful verification and validation with respect to the underlying mathematical conditions and applied numerical schemes is indispensable. In particular, error cancelations between single program components can only be detected by such detailed component-level tests. In part I of this article series a conceptual deficiency of the FDS program package with regard to multi-mesh computations was illustrated and an alternative domain decomposition strategy FDS-ScaRC was introduced. In this second part we will present the structure of a comprehensive test concept and the needs for a more mathematically and numerically orientated test procedure that is much more suited for a reliable evaluation than only a simple visual comparison of the numerical results with experimental fire tests. After a general introduction of our test concept we will demonstrate the high potential of the new FDS-\scarc{} technique compared to the FDS-FFT technique which is used in the FDS program package as yet. Based on this concept, we will present a comprehensive set of analytical and numerical test results.
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 7
    Publication Date: 2020-12-11
    Description: Gemeinsame Web-Auftritte zu organisieren, die sich über mehrere Institutionen und Fachgebiete erstrecken, ist eine anspruchsvolle und faszinierende Aufgabe, die auf verschiedene Weise gelingen, aber auch scheitern kann. Wer sich daran versucht, tut gut daran, sich über bestimmte Prinzipien und technische Mittel zu informieren, die das fortgeschrittene Web ihm heute bietet. Das Internet, das World Wide Web und das moderne Web 2.0 sind in einer fast zwanzig Jahre dauernden Kollaboration einer globalen Gemeinschaft von Entwicklern und Anwendern entstanden. Es enthält heute eine Fülle sofort einsetzbarer Komponenten, von der „Benutzerdefinierten Google-Suche Beta“ mit Google‘s PageRanking auf ausgewählten Web-Seiten bis hin zum automatisierten Web-Server mit Content-Management für das „Mitmach-Web“. Der Artikel stellt nur eine kleine Auswahl solcher Lösungen vor und macht den Versuch, einige Prinzipien des Web 2.0 so herauszuarbeiten, dass die notwendige Kommunikation zwischen Managern, Technikern, Redakteuren und Organisatoren in der kleinen Kollaboration unterstützt wird. „Kleine Kollaboration“ bedeutet hier, dass es nicht um die globale Vernetzung von technischen Großgeräten der e-Science gehen soll, auch nicht um die Super-Suchmaschine in Europa, sondern um die Unterstützung der Zusammenarbeit und Kommunikation von Wissenschaftlern und Museumsfachleuten mit Ihren Nutzern.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 8
    Publication Date: 2024-01-12
    Description: Im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) wird für die automatisierte Fernleihe der Zentrale-Fernleihserver (ZFL-Server) der Firma Sisis eingesetzt. Die Software ist in der KOBV-Zentrale installiert. Der ZFL-Server dient im KOBV sowohl für die Bestellung von Monographien als auch für die Bestellung von Aufsatzkopien aus Zeitschriften. Prinzipiell gibt es zwei Verfahren, mit denen sich Bibliotheken an der automatisierten Fernleihe beteiligen können: das E-Mail-Verfahren und das SLNP-Verfahren. Auf beide wird im Handbuch eingegangen. Die automatisierte Fernleihe wurde im KOBV eingeführt, um die Fernleihe für die Benutzer zu beschleunigen, das Verfahren für die Bibliotheksmitarbeiter zu vereinfachen und den Arbeitsaufwand zu reduzieren. Sie basiert darauf, dass eine Bestellung anhand eines gefundenen Treffers ausgelöst wird – d.h. die bibliographischen Daten sind bereits verifiziert und in einem Katalog nachgewiesen. Anschließend wird die Bestellung über den ZFL-Server automatisch ausgeführt und verwaltet – sowohl in der regionalen KOBV-Fernleihe als auch in der verbundübergreifenden Fernleihe mit den deutschen Bibliotheksverbünden. Der ZFL-Server besteht aus verschiedenen technischen Komponenten. Eine dieser Komponenten ist das Bibliothekskonto, eine Internetanwendung, in der die Bestellverwaltung des ZFL-Servers für die Bibliotheksbediensteten transparent abläuft. Dazu hat jede Bibliothek im Bibliothekskonto eine eigene, Passwort-geschützte Dienstoberfläche. Im Laufe des Jahres 2009 hat die KOBV-Zentrale das Bibliothekskonto grundlegend überarbeitet; die neue Version wurde im September 2009 freigegeben. Neben der Überabeitung des Interfaces – so wird den Bibliotheken auf der Startseite nun eine Übersicht ihrer laufenden Bestellungen angezeigt und dient als direkter Einstieg in die Bearbeitung – wurde das Bibliothekskonto um folgende Funktionen erweitert: Bestellung zurücklegen (HOLD), Vormerkungen, Bestellungen zur Anfrage, Abbruch des Leitweges (auch verbundübergreifend), erweiterte Kommentarfunktion, Bestellnummernsuche in allen Verbünden. Das Handbuch, das die Vorgänge der Bestellverwaltung im Bibliothekskonto beschreibt, wurde in der nun vorliegenden 3. Auflage um die Beschreibung der neuen Funktionen ergänzt. An dieser Stelle ein Dank an die Kolleginnen und Kollegen aus den KOBV-Bibliotheken – Frau Bruske (UB der Freien Universität Berlin), Frau Ebert (UB der Europa-Universität Viadrina Frankfurt (Oder)), Frau Preuß (UB der Technischen Universität Berlin) und Herrn Ringmayer (Zentral- und Landesbibliothek Berlin) – für die tatkräftige Unterstützung bei der Entwicklung der neuen Funktionen.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 9
    Publication Date: 2020-12-11
    Description: The Cooperative Library Network Berlin-Brandenburg (KOBV), Germany, addresses the problem of how to integrate resources found outside the library and library holdings into a single discovery tool. It presents a solution that uses open source technology to develop a next-generation catalog interface called the Library Search Engine. This pilot project was launched in 2007 with the library of Albert Einstein Science Park, Potsdam. The idea was to design and develop a fast and convenient search tool, integrating local holdings (books, journals, journal articles) as well as relevant scientific subject information such as open access publications and bibliographies.
    Keywords: ddc:020
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 10
    Publication Date: 2016-02-15
    Description: Wissenschaftliche Bibliotheken sind Vermittler von digitalen Medieninhalten. Sie müssen ihren Nutzern einen Zugang zu ihnen ermöglichen. Digitales Rechte Management (DRM), eingesetzt von den Verlagen, soll Nutzung und Zugang kontrollieren. Bibliotheken stehen DRM daher misstrauisch gegenüber, da dieses als Gefahr für die Wissenschaft und ihre (digitalen) Bibliotheken gesehen wird. Nur eine effektive Auseinandersetzung der wissenschaftlichen Bibliotheken mit der jeweiligen Politik der Verlage und den Verfahrensweisen bei DRM ermöglicht es ihnen, ihre Rolle als Vermittler und 'Gedächtnis der Menschheit' auch weiterhin erfolgreich wahrnehmen zu können. Unbestritten ist, dass DRM in seiner restriktiven Form die tägliche Arbeit der Bibliotheken erschwert. Deshalb müssen sie sich aktiv an der Standardisierung, der Entwicklung von Nutzungskonzepten und der Gestaltung der Rahmenbedingungen beteiligen.
    Description: Academic libraries are mediators of digital content. They have to ensure access for their patrons. Digital Rights Management (DRM), used by publishers, should control access and usage. Libraries mistrust DRM, because it is seen as a danger to scholarship, sciences and their (digital) libraries. Libraries only can persist as the 'archive of all human knowledge' if they start an effective controversy about the publishers' policies and if they know how DRM works. It is uncontentious that the restrictive form of DRM will complicate the everyday work of libraries. Therefore they have to engage in the prozess of standardization, in the development of concepts of usage and in the definition of general conditions of DRM.
    Keywords: ddc:020
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 11
    Publication Date: 2016-06-09
    Description: In this paper we propose a technique for a priori turbulent flame speed tabulation (TFST) for a given parameter space in standard combustion-regime diagrams. It can be used as a subgrid-scale (SGS) model in Large Eddy Simulation (LES). In a first step, stationary laminar flamelets are computed and stored over the progress variable following the ideas of flamelet generated manifolds (FGM). In a second step, the incompressible one-dimensional Navier-Stokes equations supplemented by the equation for the progress variable are solved on a grid that resolves all turbulent scales. Additionally, turbulent transport is implemented via the linear eddy model (LEM). The turbulent flame structures are solved until a statistically stationary mean value of the turbulent flame speed has been reached. The results are stored in a table that could be used by large scale premixed combustion models, e.g. front tracking schemes. Results are compared to an algebraic model and to direct numerical simulations (DNS).
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 12
    Publication Date: 2016-06-09
    Description: The influence of thermal stratification on autoignition at constant volume and high pressure is investigated under turbulent conditions using the one-dimensional Linear-Eddy Model (LEM) and detailed hydrogen/air chemistry. Results are presented for the influence of initial temperature inhomogeneities on the heat release rate and the relative importance of diffusion and chemical reactions. The predicted heat release rates are compared with heat release rates of Chen et al. and Hawkes et al. obtained by two-dimensional Direct Numerical Simulations (DNS). Using the definition of Chen et al. for the displacement speed of the H2 mass fraction tracked at the location of maximum heat release, and a comparison of budget terms, different combustion modes including ignition front propagation and deflagration waves are identified and the results are compared to the DNS data. The LEM approach shows qualitatively and quantitatively reasonable agreement with the DNS data over the whole range of investigated temperature fluctuations. The results presented in this work suggest that LEM is a potential candidate as a sub-model for CFD calculations of HCCI engines.
    Keywords: ddc:620
    Language: English
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 13
    Publication Date: 2020-12-11
    Description: Wissenschaftler sind an qualitativ hochwertiger Information interessiert, selten an Informationsversorgung selbst. Es ist ihnen in Fragen der Organisation meistens egal, von welchem Versorger sie das Material, das sie benötigen, bekommen. Sie wollen einfach nur alles, was sie brauchen, jederzeit, überall, sofort und möglichst kostengünstig oder gar kostenlos haben. Im Prinzip ist das möglich. Seit mindestens zehn Jahren werden so gut wie alle wissenschaftlichen Dokumente (Artikel, Messdaten,…) elektronisch erstellt. Eigentlich bräuchte man diese nur ins Internet zu stellen, und damit wäre alles verfügbar. Irgendwie funktioniert diese einfache Idee nicht so richtig, obwohl viele Anstrengungen von den verschiedensten Einrichtungen und Individuen unternommen werden, z. B. durch Open-Access-Bemühungen. Was sind die Gründe dafür? Die Fortschritte beim schnellen Zugriff auf Information im Internet sind atemberaubend (siehe Google), dennoch ist der zielgerichtete Zugriff auf wissenschaftlich relevante Information weiterhin nur oberflächlich vorhanden. Die Hindernisse sind vielfältiger Natur: Bequemlichkeit und Unwissen der Autoren, Gewohnheiten der Nutzer und Informationsvermittler, Barrieren durch Copyrights und Verlagsstrategien, Eitelkeiten. In diesem Artikel werden einige der Probleme erläutert, die dem Traum des Aufbaus der wissenschaftlichen Universalbibliothek entgegenstehen. Gleichzeitig wird skizziert, wie man auf dem Weg zur Verwirklichung des Traums ein Stück vorankommen und wie die zukünftige wissenschaftliche Informationsversorgung gestaltet werden kann.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 14
    Publication Date: 2020-12-11
    Description: Bereits seit den siebziger Jahren katalogisieren Bibliotheken arbeitsteilig in Verbünden. Allerdings macht die Kooperation bislang oftmals an den Grenzen traditionell gewachsener Verbundstrukturen halt. Das ist ein Grund dafür, dass in Deutschland und Österreich das gleiche Buch im schlimmsten Fall an zahlreichen Stellen gleichzeitig katalogisiert wird, ohne dass der eine von der Arbeit des anderen profitiert. In dem folgenden Report werden erstmals konkrete Schritte beschrieben, die eine verteilte Katalogisierung über Verbundgrenzen hinweg verbessern. Dazu gehören Vereinbarungen für die Indexierung und die Suche über Z39.50, Regeln für gegenseitige Datenlieferungen und nicht zuletzt die Einführung einer eindeutigen Identifikationsnummer, die die erstkatalogisierende Institution vergibt. Der vorliegende Artikel ist ein vorläufiger Zwischenbericht der von der Arbeitsgemeinschaft der Verbundsysteme eingesetzten Arbeitsgruppe „Kooperative Neukatalogisierung“.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 15
    Publication Date: 2024-01-12
    Description: Im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) wird für die Online-Fernleihe der Zentrale-Fernleihserver (ZFL-Server) der Firma Sisis eingesetzt. Die Software ist in der KOBV-Zentrale installiert. Der ZFL-Server dient im KOBV sowohl für die Bestellung von Monographien als auch für die Bestellung von Aufsatzkopien aus Zeitschriften. Prinzipiell gibt es zwei Verfahren, mit denen sich Bibliotheken an der Online-Fernleihe beteiligen können: das E-Mail-Verfahren und das SLNP-Verfahren. Auf beide wird im Handbuch eingegangen. Die Online-Fernleihe wurde im KOBV eingeführt, um die Fernleihe für die Benutzer zu beschleunigen, das Verfahren für die Bibliotheksmitarbeiter zu vereinfachen und den Arbeitsaufwand zu reduzieren. Sie basiert darauf, dass eine Bestellung anhand eines gefundenen Treffers ausgelöst wird – d.h. die bibliographischen Daten sind bereits verifiziert und in einem Katalog nachgewiesen. Anschließend werden die Fernleihbestellungen über den ZFL-Server automatisch ausgeführt und verwaltet – sowohl in der regionalen KOBV-Fernleihe als auch in der verbundübergreifenden Fernleihe mit den deutschen Bibliotheksverbünden. Der ZFL-Server besteht aus verschiedenen technischen Komponenten. Eine dieser Komponenten ist das Bibliothekskonto, eine Internetanwendung, in der die Bestellverwaltung des ZFL-Servers für die Bibliotheksbediensteten transparent gemacht wird. Sowohl für die aktive als auch für die passive Fernleihe ist im Bibliothekskonto der Status der Bearbeitung zu jedem Zeitpunkt ersichtlich, z.B. in welcher Bibliothek sich die Bestellung gerade befindet, wann sie dort eingegangen ist und wann sie weggeschickt wurde, ob mit positivem oder negativem Ergebnis. Das Bibliothekskonto ist damit für die Bibliothek ein komfortables Instrument zum Überwachen der Fernleihbestellungen, in dem sie zudem – falls notwendig – in den Bestellvorgang eingreifen kann. Dazu hat jede Bibliothek im Bibliothekskonto eine eigene, Passwort-geschützte Dienstoberfläche. Das vorliegende Handbuch beschreibt die Vorgänge der Bestellverwaltung im Bibliothekskonto. Es richtet sich an Bibliotheksmitarbeiter, die sich mit den einzelnen Arbeitsschritten der Online-Fernleihe vertraut machen wollen. Darüber hinaus ist es zum Nachschlagen gedacht, wenn sich in der täglichen Arbeit Unklarheiten ergeben.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 16
    Publication Date: 2022-07-19
    Description: In der Arbeit wird die computergestützte Planung von chirurgisch gesetzten Knochenfrakturen bzw. Knochenschnitten (sogenannten Osteotomien) an dreidimensionalen, computergrafischen Schädelmodellen, sowie die Umpositionierung separierter knöcherner Segmente im Kontext der rekonstruktiven MKG-Chirurgie behandelt. Durch die 3D Modellierung und Visualisierung anatomischer Strukturen, sowie der 3D Osteotomie- und Umstellungsplanung unter Einbeziehung der resultierenden Weichgewebedeformation wird den Chirurgen ein Werkzeug an die Hand gegeben, mit dem eine Therapieplanung am Computer durchgeführt und diese in Hinblick auf Funktion und Ästhetik bewertet werden kann. Unterschiedliche Strategien können dabei erprobt und in ihrer Auswirkung erfasst werden. Dazu wird ein methodischer Ansatz vorgestellt, der zum einen die chirurgische Planung im Vergleich zu existierenden Ansätzen deutlich verbessert und zum anderen eine robuste Weichgewebeprognose, durch den Einsatz geeigneter Planungsmodelle und eines physikalisch basierten Weichgewebemodells unter Nutzung numerischer Lösungsverfahren in die Planung integriert. Die Visualisierung der Planungsergebnisse erlaubt sowohl eine anschauliche und überzeugende, präoperative Patientenaufklärung, als auch die Demonstration möglicher Vorgehensweisen und deren Auswirkungen für die chirurgische Ausbildung. Ferner ergänzen die Planungsdaten die Falldokumentation und liefern einen Beitrag zur Qualitätssicherung. Die Arbeit ist in sieben Kapitel gegliedert und wie folgt strukturiert: Zuerst wird die medizinische Aufgabenstellung bei der chirurgischen Rekonstruktion von Knochenfehlbildungen und -fehlstellungen in der kraniofazialen Chirurgie sowie die daraus resultierenden Anforderungen an die Therapieplanung beschrieben. Anschließend folgt ein umfassender Überblick über entsprechende Vorarbeiten zur computergestützten Planung knochenverlagernder Operationen und eine kritische Bestandsaufnahme der noch vorhandenen Defizite. Nach der Vorstellung des eigenen Planungsansatzes wird die Generierung individueller, qualitativ hochwertiger 3D Planungsmodelle aus tomografischen Bilddaten beschrieben, die den Anforderungen an eine intuitive, 3D Planung von Umstellungsosteotomien entsprechen und eine Simulation der daraus resultierenden Weichgewebedeformation mittels der Finite-Elemente Methode (FEM) ermöglichen. Die Methoden der 3D Schnittplanung an computergrafischen Modellen werden analysiert und eine 3D Osteotomieplanung an polygonalen Schädelmodellen entwickelt, die es ermöglicht, intuitiv durch Definition von Schnittlinien am 3D Knochenmodell, eine den chirurgischen Anforderungen entsprechende Schnittplanung unter Berücksichtigung von Risikostrukturen durchzuführen. Separierte Knochensegmente lassen sich im Anschluss interaktiv umpositionieren und die resultierende Gesamtanordnung hinsichtlich einer funktionellen Rehabilitation bewerten. Aufgrund des in dieser Arbeit gewählten, physikalisch basierten Modellierungsansatzes kann unter Berücksichtigung des gesamten Weichgewebevolumens aus der Knochenverlagerung direkt die resultierende Gesichtsform berechnet werden. Dies wird anhand von 13 exemplarischen Fallstudien anschaulich demonstriert, wobei die Prognosequalität mittels postoperativer Fotografien und postoperativer CT-Daten überprüft und belegt wird. Die Arbeit wird mit einem Ausblick auf erweiterte Modellierungsansätze und einem Konzept für eine integrierte, klinisch einsetzbare Planungsumgebung abgeschlossen.
    Description: In cranio-maxillofacial surgery, physicians are often faced with skeletal malformations that require complex bone relocations. Especially in severe cases of congenital dysgnathia (misalignment of upper and lower jaw) or hemifacial microsomia (asymmetric bone and tissue development), where multiple bone segments are to be mobilized and relocated simultaneously and in relation to each other, careful preoperative planning is mandatory. At present in clinical routine not all possible strategies can be planned and assessed with regard to functional rehabilitation. Moreover, the aesthetic outcome, i.e. the postoperative facial appearance, can only be estimated by a surgeon's experience and hardly communicated to the patient. On this account, a preoperative planning of complex osteotomies with bone relocations on a computerized model of a patient's head, including a reliable three-dimensional prediction and visualization of the post-surgical facial appearance is a highly appreciated possibility cranio-maxillofacial surgeons are longing for. This work, being performed at Zuse Institute Berlin (ZIB), addresses such a computer based 3D~surgery planning. A processing pipeline has been established and a simulation environment has been developed on basis of the software Amira, enabling a surgeon to perform bone cuts and bone rearrangements in an intuitive manner on virtual patient models. In addition, a prediction of the patients' postoperative appearance according to the relocated bone can be simulated and visualized realistically. For a meaningful planning of surgical procedures, anatomically correct patient models providing all relevant details are reconstructed from tomographic data with high fidelity. These patient models reliably represent bony structures as well as the facial soft tissue. Unstructured volumetric grids of the soft tissue are generated for a fast and efficient numerical solution of partial differential equations, describing tissue deformation on the foundation of 3D elastomechanics. The planning of osteotomies (bone cuts) for the mobilization and relocation of bone segments is performed in accordance to the planning on basis of life size replicas of a patient's skull, i.e. stereolitographic models. Osteotomy lines can be drawn on top of the polygonal planning models using suitable input devices. After evaluation of the consequence of a planned cut with regard to vulnerable inner structures (nerves, teeth etc.) the model is separated accordingly. A relocation of bone segments can be performed unrestrictedly in 3D or restricted to a translation or rotation within arbitrarily chosen planes under consideration of cephalometric guidelines. Bone and tooth collisions can be evaluated for functional analysis or orthodontic treatment planning with possible integration of digitized dental plaster casts. As a result of the preoperative planning, a single transformation matrix, encoding translation and rotation, or a sequence of such matrices are provided for each bone segment. Both the osteotomy paths and the transformation parameters can finally be used for intra-operative navigation. In the course of the planning, the relocated positions of bone segments serve as an input for the simulation of the resulting soft tissue deformation. Since bone and surrounding soft tissue share common boundaries that are either fixed or translocated, the resulting configuration of the entire tissue volume can be computed from the given boundary displacements by numerical minimization of the internal strain energy on basis of a biomechanical model, using a finite-element approach. In collaboration with different surgeons and hospitals more than 25 treatments have been accompanied by preoperative planning so far ranging from mandibular and midfacial hypoplasia to complex hemifacial microsomia. 13 of these cases are presented within this work. Simulation results were validated on the basis of photographs as well as of postoperative CT data, showing a good correlation between simulation and postoperative outcome. Further aspects of improving the modeling approach are discussed. It has been demonstrated that 3D~osteotomy planning on virtual patient models can be performed intuitively, and that 3D~tissue deformation for cranio-maxillofacial osteotomy planning can be predicted numerically without using heuristic ratios. It can be stated that by using 3D~planning software, a surgeon gains a better spatial understanding of complex dysplasia, and the 3D~soft tissue prediction gives an additional criterion for the assessment of the planned strategy. It turned out that, especially in complex cases such as hemifacial microsomia or for decisions bet­ween mono- and bimaxillary advancements, a 3D~planning aid is extremely helpful. The conclusion is, that images and animations created within the planning phase provide a valuable planning criterion for maxillofacial surgeons as well as a demonstrative information for patients and their relatives, thus greatly enhancing patient information, as well as surgical education. All data that result from the planning are also important for documentation and quality assurance. 3D osteotomy planning, including soft tissue prediction, likely will become a new paradigm of plastic and reconstructive surgery planning in the future. An assortment of results can be found under: http://www.zib.de/visual/medical/projects
    Keywords: ddc:620
    Language: German
    Type: doctoralthesis , doc-type:doctoralThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. More information can be found here...