Library

Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
Filter
  • Opus Repository ZIB  (78)
  • 2005-2009  (78)
  • German  (78)
Source
Years
Year
Keywords
Language
  • 1
    Publication Date: 2020-12-11
    Description: Im Mai 2009 wurde Wolfram|Alpha gestartet, ein Service, der seinen Namen von seinem Entwickler, dem britischen Mathematiker Stephen Wolfram, ableitet. Dem Benutzer soll nicht nur eine Liste von Webseiten als Ergebnis auf Anfragen geliefert werden, sondern Antworten auf konkrete Fragen geben. In diesem Report soll gezeigt werden, warum sichWolframjAlpha von Suchmaschinen abgrenzt und was die Berechnung von Antworten auf natürlichsprachliche Fragen möglich machen kann.
    Description: Wolfram|Alpha was started in May 2009 and it's a service whose name derives from the british mathematician Stephen wolfram. As a result for a request the user is not just supported with a list of websites but with answers for concrete questions. In this report it will be shown why Wolfram|Alpha seperates from search engines and moreover what makes the computation of answers for natural language queries possible.
    Keywords: ddc:004
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 2
    Publication Date: 2020-12-11
    Description: Vorbemerkung Beim Schreiben dieses Artikels, der auf Veränderungen der Kommunikations- und Publikationstechniken und ihre Bedeutung hinweist, ist uns mehr als je zuvor bewusst geworden, wie beschränkt das Medium Papier ist. Es gibt z. B. keine Hyperlinks, durch die man unmittelbar das Erwähnte erleben oder überprüfen kann. Ein schneller Wechsel vom Wort zum Bild, zum Ton oder Video ist nicht möglich. Wer will schon lange URLs abtippen und Medienbrüche erleiden? Wir haben uns daher entschlossen, eine textidentische Version dieses Artikels mit allen URLs – sie liegt Ihnen hier vor – elektronisch anzubieten und in der für die "Gegenworte" (BBAW) gekürzten Fassung nur durch [URL] anzudeuten, dass der Leser an dieser Stelle einfach in der elektronischen Version einen Klick ins Internet machen sollte. Und damit sind wir bereits mitten im Thema.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 3
    Publication Date: 2020-12-11
    Description: Zwischen dem Bibliotheksverbund Bayern (BVB) und dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) besteht seit Ende 2007 eine Strategische Allianz, die auf zwei Säulen beruht: einer langfristigen Entwicklungspartnerschaft einerseits und der Kooperation im Dienstleistungsbereich mit der Integration der Verbundkataloge andererseits. Ende 2008 wurde das erste Entwicklungsprojekt "Literaturverwaltungsprogramme" abgeschlossen, dessen Ergebnisse in dieser Handreichung in Form von Handlungsempfehlungen für Bibliotheken vorgestellt werden. Ziel des Projekts war es, den Datenaustausch zwischen den Bibliotheks- und Verbundkatalogen des BVB und KOBV und gängigen Literaturverwaltungsprogrammen zu optimieren. Neben Handlungsempfehlungen für die Implementierung neuer Exportschnittstellen und die Verbesserung bestehender Exportmöglichkeiten werden Hinweise auf verbesserte Nutzerführung gegeben. Die Empfehlungen beziehen sich vorwiegend auf den Datenaustausch zwischen den Bibliothekssystemen Aleph 500, MetaLib und WebOPAC/InfoGuide und den Literaturverwaltungsprogrammen Citavi, EndNote, RefWorks und Zotero.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 4
    facet.materialart.
    Unknown
    Publication Date: 2019-10-24
    Keywords: ddc:080
    Language: German
    Type: annualzib , doc-type:report
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 5
    Publication Date: 2019-01-29
    Description: In dieser Arbeit wird ein neuer Ansatz zur Modellierung von thermal signifikanten Gefäßsträngen im Hyperthermie-Kontext betrachtet. Ausgehend von einer Konvektions-Diffusions-Gleichung wird durch Reskalierung des Massenflussterms eine Reduktion des Adergebietes auf eine 1D-Struktur erreicht. Nach numerischen Vorbetrachtungen wird die Grenzgleichung innerhalb einer verallgemeinerten Sobolev-Algebra formuliert. Die Untersuchung der Lösungsfamilie in klassischen Funktionenräumen zeigt, dass deren schwacher Grenzwert die Lösung der korrespondierenden Diffusions-Gleichung ist. Die Diskretisierung einer formalen Grenzgleichung mit Linienstromanteil stellt jedoch eine gute Approximation an die Diskretisierung des ursprünglichen Problems dar, wenn man die lokale Maschenweite an die Gefäßradien koppelt und bei erhöhtem Genauigkeitsbedarf auf ein vollständiges 3D-Modell umschaltet.
    Keywords: ddc:510
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 6
    Publication Date: 2016-06-30
    Description: Aktuelle Entwicklungen zeigen, dass Peer-to-Peer (P2P) Anwendungen wie Skype oder Bittorrent im Internet immer mehr an Bedeutung gewinnen. In den letzten Jahren hat es einen explosionsartigen Anstieg an Nutzern und Daten in solchen Netzen gegeben. Dabei stellt der eigentliche Dateitransfer zwischen zwei Rechnern kein großes Problem mehr dar und auch der Speicherbedarf für die große Menge an Daten kann durch die Weiterentwicklung der Hardware gut gedeckt werden. Das eigentliche Problem liegt vielmehr darin, den Rechner zu finden, der die gewünschten Daten hat. Client-Server Architekturen, wie zum Beispiel Napster, haben sich als ungünstig herausgestellt. Wenige Server, die eine große Anzahl an Clients bedienen müssen, sind einerseits sehr anfällig gegenüber Angriffen und Ausfällen (Single Point of Failure)und kommen auch nicht mit der ständig wachsenden Anzahl an Nutzern zurecht. Verteilte Hashtabellen (DHT) bieten hier einen guten Lösungsansatz, der mit einer großen Anzahl an Nutzern skaliert und ausfallsicher ist. Andere dezentrale Lösungen, wie zum Beispiel das P2P Netzwerk Gnutella haben zwar das Problem des Single Point of Failure gelöst, jedoch haben sie starke Nachteile bei der Suche nach Keys. Bei einer Suche wird ein Broadcast verwendet (jeder schickt die Anfrage an jeden weiter) und damit ein enormer Netzwerkverkehr erzeugt. In "Why Gnutella Can't Scale. No, Really" wird erklärt, dass eine Suchanfrage bei Standardeinstellungen in der Clientsoftware einen Netzwerkverkehr von 17MB erzeugt. Deswegen wird zusätzlich eine Lösung benötigt, die Keys und Values geordnet verteilt, damit sie gezielt gesucht werden können. Aus diesem Grund beschäftigt sich die folgende Arbeit mit einer völlig dezentralen Architektur, die außerdem eine sinnvolle Platzierung der Keys vornimmt. Die dezentrale Architektur hat den Vorteil, dass die Endgeräte den Hauptteil des Dienstes selbst erbringen und damit jeder zusätzliche Teilnehmer seine eigenen Ressourcen beisteuert. Diese Arbeit präsentiert Chord#, eine dezentrale, skalierbare und selbstorganisierende verteilte Hashtabelle. Chord# wurde ausgewählt, da in dieser Arbeit auch Wert auf Bereichsabfragen gelegt wurde. Diese sind zum Beispiel bei dem Chord Algorithmus nicht möglich, da dieser eine Hashfunktion für die Keys verwendet und somit die Daten zwar gleichmäßig aber unsortiert auf die Teilnehmer verteilt. Es wird in dieser Arbeit gezeigt, dass mit Hilfe von Chord# auch ohne die Hashfunktion gute Ergebnisse erzielt werden. Außerdem können durch den Verzicht auf die Hashfunktion Bereichsabfragen ermöglicht werden. Dafür wird der Chord# Algorithmus in Java implementiert (ca. 1500 Zeilen Code) und in dem Forschungsnetz PlanetLab ausführlich auf Laufzeiten, Instandhaltungskosten und Skalierung getestet.
    Description: Recent developments show that peer-to-peer (p2p) applications, such as Skype or Bittorrent have become increasingly important in the internet. Over the last years there has been a rapid growth of both users and data in such networks. However, the actual file transfer between two peers is not really an issue anymore. The same holds true for data storage, since the new hardware grants users enough space to store their data. The real problem is finding the peers that possess the desired data. Client-server architectures like Napster have proven to be ineffective addressing that problem. One or few servers being responsible for many peers are vulnerable to attacks or failures (single point of failure). Additionally, they are unable to cope with the rapidly growing number of peers. Distributed hashtables (DHT) are a good approach to solve these problems, since they scale nicely with large numbers of peers and provide a high tolerance for errors. Other decentralized solutions like the p2p network Gnutella solved the problem of Single Point of Failure but show considerable disadvantages when searching for keys. The peers in Gnutella use a broadcast (sending the message to all peers they know)resulting in massive traffic. According to "Why Gnutella Can't Scale. No, Really.", each search using standard client settings yields 17MB traffc. This calls for a different solution, distributing keys and values to peers quickly and efficiently so they can be found fast. For that reason this thesis focuses on a fully distributed architecture using organized key placement. One major advantage of distributed architecture is the fact, that the peers do most of the work themselves. This way, new peers joining the network add resources to it. This thesis presents Chord#, a scalable, self-organizing and completely decentralized DHT. It has been chosen due to its capability to allow range queries. The regular Chord algorithm does not support range queries, because of the hashfunction it uses to evenly distribute the keys among the peers. This results in similar or logical coherent keys most likely not being close together in the network. This thesis shows Chord# achieving same results as Chord - regarding performance costs - without the hashfunction. In dropping the hashfunction this algorithm allows the use of range queries. The Chord# algorithm is implemented in Java (about 1500 lines of code) and thoroughly tested in the research network PlanetLab. The results are evaluated regarding performance, maintenance and scalability.
    Keywords: ddc:004
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 7
    Publication Date: 2020-12-11
    Description: Eines der Hauptanliegen bei der Initiierung des Kooperativen Bibliotheksverbundes Berlin-Brandenburg (KOBV) war die Schaffung einer modernen, leistungsfähigen Informationsinfrastruktur unter Einbeziehung möglichst aller Bibliotheken der in ihrer Dichte und Vielfalt in Deutschland einmaligen Bibliothekslandschaft. Sie wurde beim Aufbau des KOBV durch die Wahl des Verbundmodelles mit seinen offenen, integrativen Strukturen befördert. Die Ziele und Strategien des KOBV leiten sich aus dem Grundauftrag der Bibliotheken her, ihre NutzerInnen optimal mit Medien und Informationen zu versorgen. Mit dem KOBV haben die Bibliotheken eine gemeinsame Plattform und ein regionales Netzwerk geschaffen, mit deren Hilfe sie die Informationsinfrastruktur in Berlin und Brandenburg zusammen aufgebaut und grundlegend verbessert haben. Nach rund elf Jahren ist der KOBV in eine neue Phase eingetreten, indem er – unter Wahrung seiner institutionellen Eigenständigkeit – eine Strategische Allianz mit dem Bibliotheksverbund Bayern (BVB) eingegangen ist und die bislang auf die Region bezogene Kooperation der Bibliotheken überregional ausgeweitet hat. Wenn auch die Universalbibliotheken des KOBV in dieser Zusammenarbeit einen Kurswechsel zur zentralen Katalogisierung vollziehen, bedeutet dies für den KOBV insgesamt keinen Paradigmenwechsel: Er bleibt ein dezentraler Verbund und wird sein flexibles technisches Mischkonzept von verteilter und zentraler Datenhaltung fortführen. Dieses lässt den Bibliotheken die Freiheit zu entscheiden, ob sie zentral oder dezentral katalogisieren möchten. Die KOBV-Zentrale, die im KOBV keine Aufgaben in der Katalogisierung wahrnimmt, wird wie bislang allen Mitgliedsbibliotheken die ASP-Dienste und weiteren Angebote gleichermaßen zur Verfügung stellen und die Dienstleistungen für NutzerInnen und Bibliotheken weiter ausbauen. Mit dem vorhandenen Know How, der eingesetzten modernen Technologie und der strategischen Entscheidung, Ressourcen und Kompetenzen mit dem BVB zu bündeln und durch verbundübergreifende arbeitsteilige Verfahren Synergien zu gewinnen, ist der KOBV gut aufgestellt, um die Herausforderungen der kommenden Jahre anzugehen und das Leistungsspektrum der KOBV-Bibliotheken durch die Entwicklung neuer Dienste auszuweiten.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 8
    Publication Date: 2020-12-15
    Description: Entwurf und Entwicklung eines eingebetteten Hauptspeicher-Datenbanksystems mit Snapshot-Reads.
    Description: Design and implementation of an embedded main memory database with snapshot reads.
    Keywords: ddc:004
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 9
    Publication Date: 2020-12-11
    Description: Eigentlich war der erste Autor nur zu einem Grußwort zur Tagung „GML² 2009 - Grundfragen Multi¬medialen Lehrens und Lernens“ eingeladen. Daraus wurde ein E-Learning-bezogener Vortrag, der – basierend auf Erfahrungen im Fach Mathematik – einen kritischen Blick auf die E-Learning-Szene in Deutschland wirft und diese mit entsprechenden Aktivitäten weltweit vergleicht. Dies ist die in seinen mathematischen Teilen gekürzte, in den E-Learning-Anteilen ein wenig erweiterte schriftliche Fassung des Vortrags. Der Artikel stammt nicht von E-Learning-Spezialisten sondern von Personen, die sich seit fast zwanzig Jahren mit elektronischer Information und Kommunikation (kurz: IuK) – insbesondere in der Mathematik – beschäftigen. Nach einer Definition von Michael Kerres kennzeichnet der Begriff E-Learning (electronic learning – elektronisch unterstütztes Lernen) alle Formen von Lernen, bei denen digitale Medien für die Präsentation und Distribution von Lernmaterialien und/oder zur Unterstützung zwischenmenschlicher Kommunikation zum Einsatz kommen, siehe z.B. http://de.wikipedia.org/wiki/E-Learning. IuK und E-Learning haben nach dieser Begriffsbildung viele Berührungspunkte. Deswegen wagen wir es, unsere positiven und negativen Erfahrungen im Bereich IuK in diesem Eröffnungsvortrag zu berichten, einige Entwicklungslinien zu vergleichen und eine eigene Kurzversion der Definition von E-Learning (besser E-Teaching and -Learning) voranzustellen: „Lehren und Lernen mit Unterstützung elektronischer Hilfsmittel“.
    Keywords: ddc:510
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 10
    Publication Date: 2016-06-30
    Description: Das Ziel dieser Arbeit ist die Schaffung einer Zugriffs-Komponente für das Grid-Datenmanagement-System ZIB-DMS, das dessen transparente Einbindung in den Verzeichnisbaum eines Linux-Systems erlaubt. Dazu wird unter Verwendung des FUSE-Rahmenwerkes ein Userspace-Dateisystem mit Anbindung an das ZIB-DMS konzipiert und implementiert. Im Fokus stehen dabei die Abbildung der erweiterten Verwaltungsmechanismen des Systems auf die limitierte Schnittstelle hierarchischer Dateisysteme und die dazu notwendigen Änderungen am ZIB-DMS.
    Description: The goal of this work is to create an access component for the Grid data management system ZIB-DMS, that allows a transparent integration into the directory tree of a Linux system. For this purpose the FUSE framework is used to design and implement a userspace file system with connections to the ZIB-DMS. The focus is on the mapping of the extended management mechanisms of the system to the limited interface of hierarchical file systems and the therefore necessary changes to ZIB-DMS.
    Keywords: ddc:004
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 11
    Publication Date: 2020-12-11
    Description: When planning teams for projects with specific goals, employees of a company have to group together so well, that all necessary knowledge for conquering the project’s challenges are met within the member’s skills. A tool that facilitates semantic web technologies can support the team recruiter, who is responsible for chosing the members of the team, in terms of finding the most efficient combinations of the company’s employees based on their expertises.
    Language: German
    Type: conferenceobject , doc-type:conferenceObject
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 12
    Publication Date: 2020-12-11
    Description: Eines der Hauptanliegen bei der Initiierung des Kooperativen Bibliotheksverbundes Berlin-Brandenburg (KOBV) war die Schaffung einer modernen, leistungsfähigen Informationsinfrastruktur unter Einbeziehung möglichst aller Bibliotheken der in ihrer Dichte und Vielfalt in Deutschland einmaligen Bibliothekslandschaft. Sie wurde beim Aufbau des KOBV durch die Wahl des Verbundmodelles mit seinen offenen, integrativen Strukturen befördert. Die Ziele und Strategien des KOBV leiten sich aus dem Grundauftrag der Bibliotheken her, ihre NutzerInnen optimal mit Medien und Informationen zu versorgen. Mit dem KOBV haben die Bibliotheken eine gemeinsame Plattform und ein regionales Netzwerk geschaffen, mit deren Hilfe sie die Informationsinfrastruktur in Berlin und Brandenburg zusammen aufgebaut und grundlegend verbessert haben. Nach rund elf Jahren ist der KOBV in eine neue Phase eingetreten, indem er – unter Wahrung seiner institutionellen Eigenständigkeit – eine Strategische Allianz mit dem Bibliotheksverbund Bayern (BVB) eingegangen ist und die bislang auf die Region bezogene Kooperation der Bibliotheken überregional ausgeweitet hat. Wenn auch die Universalbibliotheken des KOBV in dieser Zusammenarbeit einen Kurswechsel zur zentralen Katalogisierung vollziehen, bedeutet dies für den KOBV insgesamt keinen Paradigmenwechsel: Er bleibt ein dezentraler Verbund und wird sein flexibles technisches Mischkonzept von verteilter und zentraler Datenhaltung fortführen. Dieses lässt den Bibliotheken die Freiheit zu entscheiden, ob sie zentral oder dezentral katalogisieren möchten. Die KOBV-Zentrale, die im KOBV keine Aufgaben in der Katalogisierung wahrnimmt, wird wie bislang allen Mitgliedsbibliotheken die ASP-Dienste und weiteren Angebote gleichermaßen zur Verfügung stellen und die Dienstleistungen für NutzerInnen und Bibliotheken weiter ausbauen. Mit dem vorhandenen Know How, der eingesetzten modernen Technologie und der strategischen Entscheidung, Ressourcen und Kompetenzen mit dem BVB zu bündeln und durch verbundübergreifende arbeitsteilige Verfahren Synergien zu gewinnen, ist der KOBV gut aufgestellt, um die Herausforderungen der kommenden Jahre anzugehen und das Leistungsspektrum der KOBV-Bibliotheken durch die Entwicklung neuer Dienste auszuweiten.
    Language: German
    Type: incollection , doc-type:Other
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 13
    Publication Date: 2020-12-11
    Description: Eigentlich war der erste Autor nur zu einem Grußwort zur Tagung „GML 2009 - Grundfragen Multimedialen Lehrens und Lernens“ eingeladen. Aber wie es bei der Vorbereitung zu solchen „Auftritten“ manchmal so kommt, wurde daraus ein E-Learning-bezogener Vortrag, der – basierend auf Erfahrungen im Fach Mathematik – einen kritischen Blick auf die E-Learning-Szene in Deutschland wirft und diese mit entsprechenden Aktivitäten weltweit vergleicht. Dies ist die in seinen mathematischen Teilen gekürzte, in den E-Learning-Anteilen ein wenig erweiterte schriftliche Fassung des Vortrags.
    Language: German
    Type: conferenceobject , doc-type:conferenceObject
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 14
    Publication Date: 2020-12-11
    Description: Beim Schreiben dieses Artikels, der auf Veränderungen der Kommunikations- und Publikationstechniken und ihre Bedeutung hinweist, ist uns mehr als je zuvor bewusst geworden, wie beschränkt das Medium Papier ist. Es gibt z. B. keine Hyperlinks, durch die man unmittelbar das Erwähnte erleben oder überprüfen kann. Ein schneller Wechsel vom Wort zum Bild, zum Ton oder Video ist nicht möglich. Wer will schon lange URLs abtippen und Medienbrüche erleiden? Wir haben uns daher entschlossen, eine textidentische Version dieses Artikels mit allen URLs – sie liegt Ihnen hier vor – elektronisch anzubieten und in der für die "Gegenworte" (BBAW) gekürzten Fassung nur durch [URL] anzudeuten, dass der Leser an dieser Stelle einfach in der elektronischen Version einen Klick ins Internet machen sollte. Und damit sind wir bereits mitten im Thema.
    Language: German
    Type: article , doc-type:article
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 15
    Publication Date: 2020-12-11
    Description: Gemeinsame Web-Auftritte zu organisieren, die sich über mehrere Institutionen und Fachgebiete erstrecken, ist eine anspruchsvolle und faszinierende Aufgabe, die auf verschiedene Weise gelingen, aber auch scheitern kann. Wer sich daran versucht, tut gut daran, sich über bestimmte Prinzipien und technische Mittel zu informieren, die das fortgeschrittene Web ihm heute bietet. Das Internet, das World Wide Web und das moderne Web 2.0 sind in einer fast zwanzig Jahre dauernden Kollaboration einer globalen Gemeinschaft von Entwicklern und Anwendern entstanden. Es enthält heute eine Fülle sofort einsetzbarer Komponenten, von der „Benutzerdefinierten Google-Suche Beta“ mit Google‘s PageRanking auf ausgewählten Web-Seiten bis hin zum automatisierten Web-Server mit Content-Management für das „Mitmach-Web“. Der Artikel stellt nur eine kleine Auswahl solcher Lösungen vor und macht den Versuch, einige Prinzipien des Web 2.0 so herauszuarbeiten, dass die notwendige Kommunikation zwischen Managern, Technikern, Redakteuren und Organisatoren in der kleinen Kollaboration unterstützt wird. „Kleine Kollaboration“ bedeutet hier, dass es nicht um die globale Vernetzung von technischen Großgeräten der e-Science gehen soll, auch nicht um die Super-Suchmaschine in Europa, sondern um die Unterstützung der Zusammenarbeit und Kommunikation von Wissenschaftlern und Museumsfachleuten mit Ihren Nutzern.
    Language: German
    Type: article , doc-type:article
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 16
    Publication Date: 2021-01-21
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 17
    Publication Date: 2021-01-21
    Language: German
    Type: bachelorthesis , doc-type:bachelorThesis
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 18
    Publication Date: 2020-12-11
    Description: Gemeinsame Web-Auftritte zu organisieren, die sich über mehrere Institutionen und Fachgebiete erstrecken, ist eine anspruchsvolle und faszinierende Aufgabe, die auf verschiedene Weise gelingen, aber auch scheitern kann. Wer sich daran versucht, tut gut daran, sich über bestimmte Prinzipien und technische Mittel zu informieren, die das fortgeschrittene Web ihm heute bietet. Das Internet, das World Wide Web und das moderne Web 2.0 sind in einer fast zwanzig Jahre dauernden Kollaboration einer globalen Gemeinschaft von Entwicklern und Anwendern entstanden. Es enthält heute eine Fülle sofort einsetzbarer Komponenten, von der „Benutzerdefinierten Google-Suche Beta“ mit Google‘s PageRanking auf ausgewählten Web-Seiten bis hin zum automatisierten Web-Server mit Content-Management für das „Mitmach-Web“. Der Artikel stellt nur eine kleine Auswahl solcher Lösungen vor und macht den Versuch, einige Prinzipien des Web 2.0 so herauszuarbeiten, dass die notwendige Kommunikation zwischen Managern, Technikern, Redakteuren und Organisatoren in der kleinen Kollaboration unterstützt wird. „Kleine Kollaboration“ bedeutet hier, dass es nicht um die globale Vernetzung von technischen Großgeräten der e-Science gehen soll, auch nicht um die Super-Suchmaschine in Europa, sondern um die Unterstützung der Zusammenarbeit und Kommunikation von Wissenschaftlern und Museumsfachleuten mit Ihren Nutzern.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 19
    Publication Date: 2020-08-05
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 20
    Publication Date: 2020-08-05
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 21
    Publication Date: 2022-07-19
    Description: Basierend auf einem vorhandenen Ansatz zur Einführung von anisotropen Tetraedern im Randbereich eines reinen Tetraedergitters wird ein Gittergenerator für hybride Gitter implementiert. Das hybride Gitter besteht in Randnähe primär aus anisotropen Prismen und im Inneren der Geometrie aus isotropen Tetraedern. Eine erhöhte Auflösung im Randbereich soll zu besseren Ergebnissen von numerischen Strömungssimulationen führen, für welche eine problemangepasste Diskretisierung des zu untersuchenden Gebietes benötigt wird. In dem zuvor genannten Ansatz wird eine Reihe von Übergangselementen vorgeschlagen, die an scharfen Kanten der Oberfläche platziert werden sollen. Im Rahmen dieser Diplomarbeit wird die Idee der Übergangselemente aufgegriffen und bei hybriden Gittern eingesetzt, um auch komplexe Eingabegeometrien vergittern zu können. Der ursprüngliche Gittergenerierungprozess wird überarbeitet und erweitert. Eine neue Menge an Übergangselementen wird eingeführt, es werden gekrümmte Extrusionsvektoren verwendet und es wird die Auswertung der medialen Oberfläche vorgenommen, um Überschneidungen im hybriden Gitter zu vermeiden. Der Gittergenerator wird als Modul in das Visualisierungs- und Analyseprogramm Amira implementiert und die erstellten hybriden Gitter werden auf ihre Elementqualität und die Güte der Strömungssimulationsergebnisse hin überprüft.
    Description: Based on an existing approach for the introduction of anisotropic tetrahedra near the surface boundary of a tetrahedral grid a grid generator for hybrid grids is implemented. The hybrid grid consists near the surface boundary primarily of anisotropic prisms and inside the geometry of isotropic tetrahedra. An increased resolution near the boundary should lead to better results of numerical flow simulations, which needs a problem specific discretization of the analyzed domain. In the aforementioned approach a set of transition elements is suggested, which should be placed at sharp surface corners. As a part of this diploma thesis the concept of using transition elements is applied for creating hybrid grids even for very complex input geometries. The initial grid generation process is revised and enhanced. A new set of transition elements is introduced, curved extrusion vectors are used and the medial surface is evaluated to avoid intersections in the hybrid grid. The grid generator is implemented as a module for the visualization and analysis tool Amira and the element quality of the generated hybrid grids and the quality of flow simulations performed on the grids are tested.
    Keywords: ddc:004
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 22
    Publication Date: 2022-07-19
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 23
    Publication Date: 2022-07-19
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 24
    Publication Date: 2024-01-12
    Description: Im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) wird für die automatisierte Fernleihe der Zentrale-Fernleihserver (ZFL-Server) der Firma Sisis eingesetzt. Die Software ist in der KOBV-Zentrale installiert. Der ZFL-Server dient im KOBV sowohl für die Bestellung von Monographien als auch für die Bestellung von Aufsatzkopien aus Zeitschriften. Prinzipiell gibt es zwei Verfahren, mit denen sich Bibliotheken an der automatisierten Fernleihe beteiligen können: das E-Mail-Verfahren und das SLNP-Verfahren. Auf beide wird im Handbuch eingegangen. Die automatisierte Fernleihe wurde im KOBV eingeführt, um die Fernleihe für die Benutzer zu beschleunigen, das Verfahren für die Bibliotheksmitarbeiter zu vereinfachen und den Arbeitsaufwand zu reduzieren. Sie basiert darauf, dass eine Bestellung anhand eines gefundenen Treffers ausgelöst wird – d.h. die bibliographischen Daten sind bereits verifiziert und in einem Katalog nachgewiesen. Anschließend wird die Bestellung über den ZFL-Server automatisch ausgeführt und verwaltet – sowohl in der regionalen KOBV-Fernleihe als auch in der verbundübergreifenden Fernleihe mit den deutschen Bibliotheksverbünden. Der ZFL-Server besteht aus verschiedenen technischen Komponenten. Eine dieser Komponenten ist das Bibliothekskonto, eine Internetanwendung, in der die Bestellverwaltung des ZFL-Servers für die Bibliotheksbediensteten transparent abläuft. Dazu hat jede Bibliothek im Bibliothekskonto eine eigene, Passwort-geschützte Dienstoberfläche. Im Laufe des Jahres 2009 hat die KOBV-Zentrale das Bibliothekskonto grundlegend überarbeitet; die neue Version wurde im September 2009 freigegeben. Neben der Überabeitung des Interfaces – so wird den Bibliotheken auf der Startseite nun eine Übersicht ihrer laufenden Bestellungen angezeigt und dient als direkter Einstieg in die Bearbeitung – wurde das Bibliothekskonto um folgende Funktionen erweitert: Bestellung zurücklegen (HOLD), Vormerkungen, Bestellungen zur Anfrage, Abbruch des Leitweges (auch verbundübergreifend), erweiterte Kommentarfunktion, Bestellnummernsuche in allen Verbünden. Das Handbuch, das die Vorgänge der Bestellverwaltung im Bibliothekskonto beschreibt, wurde in der nun vorliegenden 3. Auflage um die Beschreibung der neuen Funktionen ergänzt. An dieser Stelle ein Dank an die Kolleginnen und Kollegen aus den KOBV-Bibliotheken – Frau Bruske (UB der Freien Universität Berlin), Frau Ebert (UB der Europa-Universität Viadrina Frankfurt (Oder)), Frau Preuß (UB der Technischen Universität Berlin) und Herrn Ringmayer (Zentral- und Landesbibliothek Berlin) – für die tatkräftige Unterstützung bei der Entwicklung der neuen Funktionen.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 25
    facet.materialart.
    Unknown
    Publication Date: 2019-10-24
    Keywords: ddc:080
    Language: German
    Type: annualzib , doc-type:report
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 26
    Publication Date: 2020-08-05
    Description: Das heutige Leben ist durchdrungen von komplexen Technologien. Ohne Kommunikationsnetze, Internet, Mobilfunk, Logistik, Verkehrstechnik, medizinische Apparate, etc. könnte die moderne Gesellschaft nicht funktionieren. Fast alle dieser Technologien haben einen hohen Mathematikanteil. Der "normale Bürger"' weiss davon nichts, der Schulunterricht könnte dem ein wenig abhelfen. Einige mathematische Aspekte dieser Technologien sind einfach und sogar spielerisch intuitiv zugänglich. Solche Anwendungen, die zusätzlich noch der Lebensumwelt der Schüler zugehören, können dazu genutzt werden, die mathematische Modellierung, also die mathematische Herangehensweise an die Lösung praktischer Fragen, anschaulich zu erläutern. Gerade in der diskreten Mathematik können hier, quasi "nebenbei" mathematische Theorien erarbeitet und Teilaspekte (Definitionen, Fragestellungen, einfache Sachverhalte) durch eigenständiges Entdecken der Schüler entwickelt werden. Wir beginnen mit einigen Beispielen.
    Keywords: ddc:510
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 27
    facet.materialart.
    Unknown
    Publication Date: 2020-08-05
    Description: Den kürzesten Weg in einem Graphen zu finden ist ein klassisches Problem der Graphentheorie. Über einen Vortrag zu diesem Thema beim Tag der Mathematik 2007 von R. Borndörfer kam ich in Kontakt mit dem Konrad-Zuse-Zentrum (ZIB), das sich u.a. mit Wegeoptimierung beschäftigt. Ein Forschungsschwerpunkt dort ist im Rahmen eines Projekts zur Chipverifikation das Zählen von Lösungen, das, wie wir sehen werden, eng mit dem Zählen von Wegen zusammenhängt. Anhand von zwei Fragen aus der Graphentheorie soll diese Facharbeit unterschiedliche Lösungsmethoden untersuchen. Wie bestimmt man den kürzesten Weg zwischen zwei Knoten in einem Graphen und wie findet man alle möglichen Wege? Nach einer Einführung in die Graphentheorie und einer Konkretisierung der Probleme wird zunächst für beide eine Lösung mit auf Graphen basierenden Algorithmen vorgestellt. Während der Algorithmus von Dijkstra sehr bekannt ist, habe ich für das Zählen von Wegen einen eigenen Algorithmus auf der Basis der Tiefensuche entwickelt. Im zweiten Teil der Arbeit wird das Konzept der ganzzahligen Programmierung vorgestellt und die Lösungsmöglichkeiten für Wegeprobleme, die sich darüber ergeben. Schließlich wurden die vorgestellten Algorithmen am Beispiel des S- und U-Bahnnetzes von Berlin implementiert und mit Programmen, die die gleichen Fragen über ganzzahlige Programmierung lösen, verglichen.
    Keywords: ddc:510
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 28
    Publication Date: 2020-08-05
    Description: Dieser kurze Aufsatz zur Algorithmengeschichte ist Eberhard Knobloch, meinem Lieblings-Mathematikhistoriker, zum 65. Geburtstag gewidmet. Eberhard Knobloch hat immer, wenn ich ihm eine historische Frage zur Mathematik stellte, eine Antwort gewusst – fast immer auch sofort. Erst als ich mich selbst ein wenig und dazu amateurhaft mit Mathematikgeschichte beschäftigte, wurde mir bewusst, wie schwierig dieses „Geschäft“ ist. Man muss nicht nur mehrere (alte) Sprachen beherrschen, sondern auch die wissenschaftliche Bedeutung von Begriffen und Symbolen in früheren Zeiten kennen. Man muss zusätzlich herausfinden, was zur Zeit der Entstehung der Texte „allgemeines Wissen“ war, insbesondere, was seinerzeit gültige Beweisideen und -schritte waren, und daher damals keiner präzisen Definition oder Einführung bedurfte. Es gibt aber noch eine Steigerung des historischen Schwierigkeitsgrades: Algorithmengeschichte. Dies möchte ich in diesem Artikel kurz darlegen in der Hoffnung, dass sich Wissenschaftshistoriker dieses Themas noch intensiver annehmen, als sie das bisher tun. Der Grund ist, dass heute Algorithmen viele Bereiche unserer Alltagswelt steuern und unser tägliches Leben oft von funktionierenden Algorithmen abhängt. Daher wäre eine bessere Kenntnis der Algorithmengeschichte von großem Interesse.
    Keywords: ddc:510
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 29
    Publication Date: 2016-02-15
    Description: Wissenschaftliche Bibliotheken sind Vermittler von digitalen Medieninhalten. Sie müssen ihren Nutzern einen Zugang zu ihnen ermöglichen. Digitales Rechte Management (DRM), eingesetzt von den Verlagen, soll Nutzung und Zugang kontrollieren. Bibliotheken stehen DRM daher misstrauisch gegenüber, da dieses als Gefahr für die Wissenschaft und ihre (digitalen) Bibliotheken gesehen wird. Nur eine effektive Auseinandersetzung der wissenschaftlichen Bibliotheken mit der jeweiligen Politik der Verlage und den Verfahrensweisen bei DRM ermöglicht es ihnen, ihre Rolle als Vermittler und 'Gedächtnis der Menschheit' auch weiterhin erfolgreich wahrnehmen zu können. Unbestritten ist, dass DRM in seiner restriktiven Form die tägliche Arbeit der Bibliotheken erschwert. Deshalb müssen sie sich aktiv an der Standardisierung, der Entwicklung von Nutzungskonzepten und der Gestaltung der Rahmenbedingungen beteiligen.
    Description: Academic libraries are mediators of digital content. They have to ensure access for their patrons. Digital Rights Management (DRM), used by publishers, should control access and usage. Libraries mistrust DRM, because it is seen as a danger to scholarship, sciences and their (digital) libraries. Libraries only can persist as the 'archive of all human knowledge' if they start an effective controversy about the publishers' policies and if they know how DRM works. It is uncontentious that the restrictive form of DRM will complicate the everyday work of libraries. Therefore they have to engage in the prozess of standardization, in the development of concepts of usage and in the definition of general conditions of DRM.
    Keywords: ddc:020
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 30
    Publication Date: 2020-12-15
    Description: Die Angebotsplanung im öffentlichen Nahverkehr umfasst die Aufgaben der Netz-, Linien-,Fahr- und Preisplanung. Wir stellen zwei mathematische Optimierungsmodelle zur Linien- und Preisplanung vor. Wir zeigen anhand von Berechnungen für die Verkehrsbetriebe in Potsdam(ViP), dass sich damit komplexe Zusammenhänge quantitativ analysieren lassen. Auf diese Weise untersuchen wir die Auswirkungen von Freiheitsgraden auf die Konstruktion von Linien und die Wahl von Reisewegen der Passagiere, Abhängigkeiten zwischen Kosten und Reisezeiten sowie den Einfluss verschiedener Preissysteme auf Nachfrage und Kostendeckung.
    Keywords: ddc:510
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 31
    Publication Date: 2020-11-16
    Description: Der Artikel gibt einen Einblick in das reiche Feld der Zusammenarbeit zwischen Mathematik und Medizin. Beispielhaft werden drei Erfolgsmodelle dargestellt: Medizinische Bildgebung, mathematische Modellierung und Biosignalverarbeitung im Bereich der Dynamik des Herzens sowie mathematische Modellierung und Simulation in der Krebstherapie Hyperthermie und der Mund-Kiefer-Gesichts-Chirurgie. In allen Fällen existiert ein Gleichklang der Interessen von Medizin und Mathematik: Beide Disziplinen wollen die Resultate schnell und zuverlässig. Für die Klinik heißt das, dass notwendige Rechnungen in möglichst kurzer Zeit, und zwar auf dem PC, ablaufen müssen und dass die Resultate so genau und belastbar sein müssen, dass medizinische Entscheidungen darauf aufbauen können. Für die Mathematik folgt daraus, dass höchste Anforderungen an die Effizienz der verwendeten Algorithmen und die darauf aufbauende Software in Numerik und Visualisierung zu stellen sind. Jedes Kapitel endet mit einer Darstellung der Perspektive des jeweiligen Gebietes. Abschließend werden mögliche Handlungsoptionen für Politik und Wirtschaft diskutiert.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 32
    Publication Date: 2020-08-05
    Description: Millionen von Menschen werden allein in Deutschland täglich von Bussen, Bahnen und Flugzeugen transportiert. Der öffentliche Personenverkehr (ÖV) ist von großer Bedeutung für die Lebensqualität einzelner aber auch für die Leistungsfähigkeit ganzer Regionen. Qualität und Effizienz von ÖV-Systemen hängen ab von politischen Rahmenbedingungen (staatlich geplant, wettbewerblich organisiert) und der Eignung der Infrastruktur (Schienensysteme, Flughafenstandorte), vom vorhandenen Verkehrsangebot (Fahr- und Flugplan), von der Verwendung angemessener Technologien (Informations-, Kontroll- und Buchungssysteme) und dem bestmöglichen Einsatz der Betriebsmittel (Energie, Fahrzeuge und Personal). Die hierbei auftretenden Entscheidungs-, Planungs- und Optimierungsprobleme sind z.T. gigantisch und "schreien" aufgrund ihrer hohen Komplexität nach Unterstützung durch Mathematik. Dieser Artikel skizziert den Stand und die Bedeutung des Einsatzes von Mathematik bei der Planung und Durchführung von öffentlichem Personenverkehr, beschreibt die bestehenden Herausforderungen und regt zukunftsweisende Maßnahmen an.
    Keywords: ddc:510
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 33
    Publication Date: 2022-04-11
    Description: Mit dem Informationsdienst Math&Industry soll ein Prototyp eines dezentralen Informationssystems für Förderprogramme und Forschungsprojekte geschaffen werden, das sich auf andere Programme (bezüglich angewandter Mathematik, aber auch darüber hinaus) übertragen lässt. Das betrifft sowohl die Konzeption (Strukturierung der Informationen) als auch die Werkzeuge, die anderen BMBF-Förderprogrammen zur Verfügung gestellt werden können. Damit sollen diese in die Lage versetzt werden, die in Math&Industry entwickelten Konzepte und Werkzeuge an ihre spezifischen Bedürfnisse anzupassen.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 34
    Publication Date: 2022-07-19
    Description: In dieser Arbeit wird eine Serie von Remeshing-Verfahren um die Berücksichtigung von nicht-mannigfaltigen Dreiecksvernetzungen und Merkmalskantenzügen erweitert. Die betrachteten Verfahren arbeiten im Wesentlichen lokal. Daher können die im Rahmen dieser Arbeit entwickelten Erweiterungen, die nicht-mannigfaltige Kantenzüge und Merkmalskantenzüge betreffen, separat beschrieben werden. Dabei wird ein Ansatz verfolgt, beide Arten von besonderen Kantenzügen aufgrund ihrer Gemeinsamkeiten einheitlich zu behandeln. Dieser besteht zum einen darin, eine Korrespondenz zwischen Kantenzügen auf der Eingabe- und der Ausgabefläche zu erhalten, indem die Remeshing-Operationen auf den Kantenzügen in entsprechend eingeschränkter Weise verwendet werden. Zum anderen wird beschrieben, wie die Abtastdichte der Kantenzüge dynamisch an die Abtastdichte der Umgebung angepasst werden kann, um für weitgehende Isotropie in der Nähe von Merkmalskantenzügen zu sorgen.
    Description: A unified approach for consistent remeshing of arbitrary non-manifold triangle meshes with additional user-defined feature lines is presented. The method is based on local operations only and produces meshes of high regularity and triangle quality while preserving the geometry as well as topology of the feature lines as well as the input mesh.
    Keywords: ddc:004
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 35
    Publication Date: 2020-12-11
    Description: In dieser Diplomarbeit wird untersucht, wie auf der Basis von Literaturreferenzen ein Zitationsgraph durch ein automatisches Verfahren aufgebaut werden kann. Zur Lösung des Problems werden Probabilistische Relationale Modelle herangezogen. Eine problemspezifische Erweiterung des Modells ermöglicht es, dass bestehende Unsicherheiten im Zitationsgraphen mit Hilfe eines Inferenzverfahrens aufgelöst werden können. Zur Evaluierung des Verfahren werden Experimente auf dem Cora-Datensatz durchgeführt.
    Keywords: ddc:004
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 36
    facet.materialart.
    Unknown
    Publication Date: 2019-10-24
    Keywords: ddc:000
    Language: German
    Type: annualzib , doc-type:report
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 37
    Publication Date: 2020-12-11
    Description: Wissenschaftler sind an qualitativ hochwertiger Information interessiert, selten an Informationsversorgung selbst. Es ist ihnen in Fragen der Organisation meistens egal, von welchem Versorger sie das Material, das sie benötigen, bekommen. Sie wollen einfach nur alles, was sie brauchen, jederzeit, überall, sofort und möglichst kostengünstig oder gar kostenlos haben. Im Prinzip ist das möglich. Seit mindestens zehn Jahren werden so gut wie alle wissenschaftlichen Dokumente (Artikel, Messdaten,…) elektronisch erstellt. Eigentlich bräuchte man diese nur ins Internet zu stellen, und damit wäre alles verfügbar. Irgendwie funktioniert diese einfache Idee nicht so richtig, obwohl viele Anstrengungen von den verschiedensten Einrichtungen und Individuen unternommen werden, z. B. durch Open-Access-Bemühungen. Was sind die Gründe dafür? Die Fortschritte beim schnellen Zugriff auf Information im Internet sind atemberaubend (siehe Google), dennoch ist der zielgerichtete Zugriff auf wissenschaftlich relevante Information weiterhin nur oberflächlich vorhanden. Die Hindernisse sind vielfältiger Natur: Bequemlichkeit und Unwissen der Autoren, Gewohnheiten der Nutzer und Informationsvermittler, Barrieren durch Copyrights und Verlagsstrategien, Eitelkeiten. In diesem Artikel werden einige der Probleme erläutert, die dem Traum des Aufbaus der wissenschaftlichen Universalbibliothek entgegenstehen. Gleichzeitig wird skizziert, wie man auf dem Weg zur Verwirklichung des Traums ein Stück vorankommen und wie die zukünftige wissenschaftliche Informationsversorgung gestaltet werden kann.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 38
    Publication Date: 2016-06-30
    Description: Die Diplomarbeit präsentiert ein Transaktionsverfahren für strukturierte Overlay-Netzwerke, das an die Erfordernisse verteilter Informationssysteme mit relationalem Datenmodell angepasst ist. Insbesondere wird der Einsatz von Transaktionen für verteilte Wikis betrachtet, die moderne Funktionalitäten, wie Metadaten und zusätzliche Indexe für die Navigation, unterstützen. Konsistenz und Dauerhaftigkeit der gespeicherten Daten erfordert die Behandlung von Knotenausfällen. Die Arbeit schlägt dafür das Zellenmodell vor: Das Overlay wird aus replizierten Zustandsmaschinen gebildet, um Verfügbarkeit zu gewährleisten. Das Transaktionsverfahren baut darauf auf und verwendet Two-Phase-Commit mit Fehlererkennung und Widerherstellung von ausgefallenen Transaktionsmanagern. Anwendungen wird eine Auswahl an pessimistischen und hybrid-optimistischen Nebenläufigkeitskontrollverfahren geboten, die die Minimierung von Latenzeffekten und die schnelle Ausführung von Nur-Lese-Transaktionen ermöglichen. Für die Beispielanwendung Wiki wird der erforderliche Pseudocode angegeben und die verschiedenen Nebenläufigkeitskontrollverfahren hinsichtlich ihrer Nachrichtenkomplexität verglichen.
    Description: The diploma thesis presents a transaction processing scheme for structured overlay networks and uses it to develop a distributed Wiki application based on a relational data model. The Wiki supports rich metadata and additional indexes for navigation purposes. Ensuring consistency and durability requires handling of node failures. Such failures are masked by providing high availability of nodes. This in turn is achieved by constructing the overlay from replicated state machines (cell model). Atomicity is realized using two phase commit with additional support for failure detection and restoration of the transaction manager. The developed transaction processing scheme provides the application with a mixture of pessimistic, hybrid optimistic and multiversioning concurrency control techniques to minimize the impact of replication on latency and optimize for read operations. The pseudocode of the relevant Wiki functions is presented and the different concurrency control techniques are evaluated in terms of message complexity.
    Keywords: ddc:004
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 39
    Publication Date: 2020-12-11
    Description: Bereits seit den siebziger Jahren katalogisieren Bibliotheken arbeitsteilig in Verbünden. Allerdings macht die Kooperation bislang oftmals an den Grenzen traditionell gewachsener Verbundstrukturen halt. Das ist ein Grund dafür, dass in Deutschland und Österreich das gleiche Buch im schlimmsten Fall an zahlreichen Stellen gleichzeitig katalogisiert wird, ohne dass der eine von der Arbeit des anderen profitiert. In dem folgenden Report werden erstmals konkrete Schritte beschrieben, die eine verteilte Katalogisierung über Verbundgrenzen hinweg verbessern. Dazu gehören Vereinbarungen für die Indexierung und die Suche über Z39.50, Regeln für gegenseitige Datenlieferungen und nicht zuletzt die Einführung einer eindeutigen Identifikationsnummer, die die erstkatalogisierende Institution vergibt. Der vorliegende Artikel ist ein vorläufiger Zwischenbericht der von der Arbeitsgemeinschaft der Verbundsysteme eingesetzten Arbeitsgruppe „Kooperative Neukatalogisierung“.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 40
    Publication Date: 2014-02-26
    Description: Die Zentrale des Kooperativen Bibliotheksverbunds Berlin-Brandenburg (KOBV) betreibt seit Januar 2004 das KOBV-Portal, in dem u.a. vielfältige Open-Linking-Dienste eingebunden sind. Dieser Beitrag erläutert Open-Linking allgemein und stellt die KOBV spezifischen Dienste im Detail vor. Dabei wird auch die Zugriffsentwicklung auf die KOBV-Open-Linking-Dienste evaluiert. Ein Ergebnis ist, dass signifikante Steigerungen der Nutzung erst dann bewirkt werden, wenn Maßnahmen durchgeführt werden, die erstens die Open-Linking-Dienste stärker ins Bewusstsein der NutzerInnen rücken und zweitens den Weg dorthin im KOBV-Portal verkürzen. Vor allem muss ein schneller Weg zu den Open-Linking-Diensten gewährleistet sein, um die Nutzung deutlich zu steigern. Um zusätzlich den Bekanntheitsgrad der Open-Linking-Dienste bundesweit zu erhöhen, regt die KOBV-Zentrale andere Bibliotheken und Verbünde dazu an, analoge Open-Linking-Dienste einzurichten. Auf diese Weise wird die Handhabung von Open-Linking selbstverständlicher.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 41
    Publication Date: 2014-02-26
    Description: Dieser Artikel berichtet über eine erfolgreiche Schüleraktivität, die seit Jahren am Zuse-Institut Berlin (ZIB) bei Besuchen von Schülergruppen erprobt und verfeinert worden ist. Das hier zusammengestellte Material ist gedacht als Basis für eine Unterrichtseinheit in Leistungskursen Mathematik an Gymnasien. Inhaltlich wird von einem zwar für Schüler (wie auch Lehrer) neuen, aber leicht fasslichen Gegenstand ausgegangen: der Drei-Term-Rekursion für Besselfunktionen. Die Struktur wird erklärt und in ein kleines Programm umgesetzt. Dazu teilen sich die Schüler selbstorganisierend in Gruppen ein, die mit unterschiedlichen Taschenrechnern "um die Wette" rechnen. Die Schüler und Schülerinnen erfahren unmittelbar die katastrophale Wirkung von an sich kleinen'' Rundungsfehlern, sie landen -- ebenso wie der Supercomputer des ZIB -- im Bessel'schen Irrgarten''. Die auftretenden Phänomene werden mathematisch elementar erklärt, wobei lediglich auf das Konzept der linearen Unabhängigkeit zurückgegriffen wird. Das dabei gewonnene vertiefte Verständnis fließt ein in die Konstruktion eines klassischen Algorithmus sowie eines wesentlich verbesserten Horner-artigen Algorithmus.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 42
    Publication Date: 2016-06-09
    Description: Im Rahmen dieser Arbeit wurde ein individuell anpassungsfähiges Modell entwickelt und implementiert, das die Perfusion in menschlichen soliden Tumoren beschreibt und für verschiedene Zeitpunkte w¨ahrend regionaler Hyperthermie ein lokal abhängiges Temperaturprofil berechnet. Da vor jeder Simulation alle wichtigen Parameter anhand von Ultraschall-, MRT- oder Angiogrammbildern individuell bestimmt werden können, wird eine patientenspezifische Aussage ¨uber das intratumorale Antwortverhalten bereits vor der eigentlichen Behandlung möglich. In Abh¨angigkeit von der Qualität der zur Verfügung stehenden anatomischen Daten über das zu simulierende Gebiet kann das Modell beliebig verfeinert oder bei Mangel an detaillierten Informationen auch mit Minimaldaten und reduzierter räumlicher Genauigkeit benutzt werden. Die für eine Simulation benötigten 2- oder 3- dimensionalen Geometrien können leicht mit der am ZIB entwickelten Software Amira erstellt und zur Berechnung in KARDOS, einem ebenfalls am ZIB implementierten Löser für nichtlineare partielle Differentialgleichungen, eingelesen werden. Mit Hilfe dieses Modells wird eine einfache, aber realistische und aussagekräftige Simulation für die Therapieplanung einer klinischen Hyperthermieanwendung ermöglicht, die innerhalb kurzer Zeit vorbereitet und durchgeführt werden kann.
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 43
    Publication Date: 2016-06-30
    Description: Die Arbeit präsentiert ein Transaktionsverfahren für strukturierte Overlay-Netzwerke, das an die Erfordernisse verteilter Informationssysteme mit relationalem Datenmodell angepasst ist. Insbesondere wird der Einsatz von Transaktionen für verteilte Wikis betrachtet, die moderne Funktionalitäten, wie Metadaten und zusätzliche Indexe für die Navigation, unterstützen. Konsistenz und Dauerhaftigkeit der gespeicherten Daten erfordert die Behandlung von Knotenausfällen. Die Arbeit schlägt dafür das Zellenmodell vor: Das Overlay wird aus replizierten Zustandsmaschinen gebildet, um Verfügbarkeit zu gewährleisten. Das Transaktionsverfahren baut darauf auf und verwendet Two-Phase-Commit mit Fehlererkennung und Widerherstellung von ausgefallenen Transaktionsmanagern. Anwendungen wird eine Auswahl an pessimistischen und hybrid-optimistischen Nebenläufigkeitskontrollverfahren geboten, die die Minimierung von Latenzeffekten und die schnelle Ausführung von Nur-Lese-Transaktionen ermöglichen. Für die Beispielanwendung Wiki wird der erforderliche Pseudocode angegeben und die verschiedenen Nebenläufigkeitskontrollverfahren hinsichtlich ihrer Nachrichtenkomplexität verglichen.
    Description: The report presents a transaction processing scheme for structured overlay networks and uses it to develop a distributed Wiki application based on a relational data model. The Wiki supports rich metadata and additional indexes for navigation purposes. Ensuring consistency and durability requires handling of node failures. Such failures are masked by providing high availability of nodes. This in turn is achieved by constructing the overlay from replicated state machines (cell model). Atomicity is realized using two phase commit with additional support for failure detection and restoration of the transaction manager. The developed transaction processing scheme provides the application with a mixture of pessimistic, hybrid optimistic and multiversioning concurrency control techniques to minimize the impact of replication on latency and optimize for read operations. The pseudocode of the relevant Wiki functions is presented and the different concurrency control techniques are evaluated in terms of message complexit
    Keywords: ddc:004
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 44
    Publication Date: 2016-06-30
    Description: Berlin als Stadtstaat ist Kommune und Land der Bundesrepublik zugleich und Standort vieler renommier-ter Wissenschafts- und Kultureinrichtungen. In enger Zusammenarbeit der Wissenschaftseinrichtungen mit dem IT-Dienstleistungszentrum Berlin (ITDZ, ehemals Landesbetrieb für Informationstechnik), der für die Behörden Berlins zuständigen Einrichtung, wurde seit 1993 ein landeseigenes Glasfasernetz mit einer derzeitigen Länge von 856 km Glasfaserkabel (je Kabel bis zu 144 Einzelfasern) zur gemeinsamen Nutzung von Wissenschaft und Verwaltung errichtet und weiter ausgebaut. 1994 erfolgte der offizielle Start des Berliner Wissenschaftsnetzes BRAIN (Berlin Research Area Information Network), als durch einen Beschluss des Senats von Berlin die Nutzung des landeseigenen Glasfasernetzes durch die Wissen-schaftseinrichtungen festgeschrieben wurde. Bereits 1995 wurden durch die Wissenschaftseinrichtungen auf diesem Glasfasernetz die ersten sieben Anschlüsse in ATM-Technik (Classical BRAIN-ATM) in Betrieb genommen, 1999 wurden anschließend auch erste Strecken in Ethernet-Technik (Classical BRAIN-GE) betrieben. Diese heterogenen Netze mit unterschiedlichen Netzgeräten wurden dezentral von den Netzadministratoren der beteiligten Einrichtungen nach globalen Absprachen betreut. Die dezentrale Administration erschwerte das Management und die Erweiterungen der Gesamtnetze. Basierend auf den vorliegenden Erfahrungen vereinbarten die Berliner Wissenschaftseinrichtungen, ein technisch neues Verbundnetz in Gigabit-Ethernet-Technik mit einheitlichen Geräten und einem zentralen Netzwerkmana-gement aufzubauen und zu betreiben. Seit November 2003 betreibt BRAIN auf dem landeseignen Glasfasernetz ein auf MPLS-Technik basie-rendes Gigabit-Ethernet-Netz, das „BRAIN-Verbundnetz“, mit den Diensten LAN-to-LAN-Kopplung der Einrichtungen, regionaler IP-Verkehr, Übergang zum Verwaltungsnetz und WiN-Backup. Das BRAIN-Verbundnetz löste die dezentral betreuten Vorläufernetze komplett ab. Von den derzeit 27 BRAIN-Teilnehmern nutzen 24 Einrichtungen an 53 in der Stadt verteilten Standorten die Dienste des BRAIN-Verbundnetzes, 18 Standorte sind mit 1000 Mbit/s und 35 Standorte mit 100 Mbit/s angeschlossen. Für verteilte Standorte einer Einrichtung besteht zudem die Möglichkeit, diese über dedizierte Fasern oder Bandbreiten miteinander zu vernetzen. Seit dem 2. Quartal 2007 wird im Rahmen eines Pilotprojekts der Nutzen eines zentral gemanagten Fibre Channel-Netzwerks "BRAIN-SAN" ermittelt, um Möglichkeiten einer verteilten Datenhaltung der Berliner Hochschulen und wissenschaftlichen Einrichtungen zu schaf-fen. Zusätzlich zu den vorgenannten Diensten nutzt der DFN-Verein die BRAIN-Struktur für die Verbindun-gen der X-WiN-Kernnetzknoten in Berlin und Potsdam untereinander und für Zugangsleitungen zu den Anwendern. Mit Stand 2007 nutzt das Berliner Wissenschaftsnetz BRAIN vom landeigenen Glasfasernetz 2100 km Einzelfasern und verbindet insgesamt 43 Einrichtungen (BRAIN-Teilnehmer und DFN-Anwender) aus Wissenschaft, Bildung und Kultur mit 129 Standorten. Der Betrieb von BRAIN wird im wesentlichen durch seine Nutzer finanziert. Das Land Berlin trägt aller-dings pauschal die überwiegenden Kosten für die Wartung des Glasfasernetzes, soweit es vom ITDZ be-reit gestellt wird. Zentrales Planungs- und Steuerungsorgan für BRAIN ist die von der Senatsverwaltung für Bildung, Wis-senschaft und Forschung eingerichtete BRAIN-Planungsgruppe. Sie besteht aus Mitarbeitern der Rechen-zentren der drei Berliner Universitäten und des ZIB. Nach außen wird BRAIN in rechtlicher und wirtschaftlicher Hinsicht treuhänderisch vom ZIB vertreten, die BRAIN-Geschäftsstelle befindet sich ebenfalls im ZIB.
    Description: Berlin as a city state is both local authority and federal state of the Federal Republic, as well as a location of many renowned institutions of research and culture. In close cooperation of the institutions of research with the IT service centre Berlin (ITDZ, the former Landesbetrieb für Informationstechnik) - which is the appropriate facility for the authorities of Berlin - a glass fibre network of a total extension of 856 kilome-tres of fibre optics (144 fibres each cable optic) for the common use of research and administration has been established and advanced since 1993. In 1994, when a resolution of the Senate of Berlin laid down the use of the appropriate fibre networks by the research facilities, this was the official beginning of the Berlin Research Area Information Network (BRAIN). The first seven interfaces in this fibre network in ATM technology (Classical BRAIN-ATM) were already established by the research facilities in 1995. In 1999, first systems run in Ethernet technology (Classical BRAIN-GE). These heterogeneous networks with different interfaces have been supported locally by the network administrators of the research facili-ties following global agreements. Management and advancement of the overall networks were encum-bered by these local administrations. Based on the existing experience, Berlin's research facilities agreed on the building and advancement of a technically new integrated network in gigabit Ethernet technology with standardised facilities and a centrally managed network. Since November 2003 the Berlin Research Area Information Network established a Gigabit Ethernet - called “BRAIN Integrated Network” - based on MPLS technology, including LAN to LAN linking of the facilities, local IP traffic, interface to the administration's network and WIN back-up. This BRAIN Inte-grated Network has completely replaced the locally administered predecessor networks. 24 of 27 BRAIN participants use the services of the BRAIN Integrated Network on 53 locations spread all over the city. 18 locations are connected with 1000 Mbit/s and 35 locations with 100 Mbit/s. Moreover, spread locations of a single facility have the possibililty to communicate by dedicated fibres or bandwidths. From the 2nd quarter 2007 within the scope of a pilot scheme, the advantage of a centrally administered fibre channel network "BRAIN-SAN" will be determined in order to accomplish possibilities of a spread data manage-ment of Berlin's universities and research facilities. In addition to the aforementioned services the DFN association makes use of BRAIN's structure for the connection of the X-WiN-core network nodes in Berlin and Potsdam und for access pathways to the us-ers. As from 2007, Berlin's research network BRAIN uses 2100 kilometres of single fibres from the country's fibre glass network and connects a total of 43 facilities (BRAIN participants and DFN users) from re-search, education and culture with 129 locations. The operations of BRAIN are funded basically by its users. However, the country of Berlin bears most of the costs for the maintenance of the glass fibre network, as far as it is provided by ITDZ. Central planning and steering body for BRAIN is the BRAIN planning group, which has been arranged by the administration of the Senatsverwaltung für Bildung, Wissenschaft und Forschung. It consists of staff from the computing centres of Berlin's three universities and of ZIB. BRAIN is represented legally and economically on a trust basis by the ZIB, where the BRAIN office is located also.
    Keywords: ddc:004
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 45
    Publication Date: 2020-12-11
    Description: Die Intention ist der kooperative Aufbau einer Infrastruktur durch die Bibliotheksverbünde, um den Nutzern Volltext-Angebote dauerhaft und komfortabel zur Verfügung zu stellen: Zeitschriftenartikel und elektronische Dokumente werden mittels Suchmaschinentechnologie indexiert und unter Berücksichtigung von Zugriffsrechten zugänglich gemacht. Realisiert ist dies bereits im KOBV-Volltextserver, der seit Ende 2005 im Routinebetrieb läuft. Vorstellbar ist ein überregionales Netz von Volltextservern der Verbünde, die mittels Suchmaschinentechnologie indiziert und nahtlos in das regionale und lokale Literaturangebot integriert werden. Bei den lizenzierten Materialien sind insbesondere auch die Rechte der Verlage zu wahren und entsprechende Rechtemanagement-Verfahren einzusetzen. Es gilt, transparente Verfahren zu konzipieren und umzusetzen, um für die Verlage die notwendige Vertrauensbasis zu schaffen und gleichzeitig den Einrichtungen ihren berechtigten Zugriff auf die Volltexte zu sichern. Der vorliegende Text ist die schriftliche Fassung eines Vortrages auf dem 3. Leipziger Kongress für Information und Bibliothek "Information und Ethik", der vom 19.-22. März 2007 im Congress Center Leipzig stattfand.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 46
    Publication Date: 2020-12-11
    Description: Zur Unterstützung der Bibliotheken bei ihren Open-Access-Aktivitäten betreibt die KOBV-Zentrale seit Anfang 2005 den Service "Opus- und Archivierungsdienste". Die KOBV-Zentrale agiert als Application Service Provider (ASP) für sämtliche technischen Komponenten des Publikationsprozesses, indem sie die gesamte technische Infrastruktur bereitstellt und betreibt – angefangen bei den lokalen Publikationsservern bis hin zu lokalen Repositories zur Archivierung der elektronischen Dokumente. Der vorliegende Text ist die schriftliche Fassung eines gleichnamigen Vortrages auf der 31. ASpB-Tagung "Kooperation versus Eigenprofil?" der Arbeitsgemeinschaft der Spezialbibliotheken, die vom 25.-28. September 2007 in der Technischen Universität Berlin stattfand.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 47
    Publication Date: 2024-01-12
    Description: Im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) wird für die Online-Fernleihe der Zentrale-Fernleihserver (ZFL-Server) der Firma Sisis eingesetzt. Die Software ist in der KOBV-Zentrale installiert. Der ZFL-Server dient im KOBV sowohl für die Bestellung von Monographien als auch für die Bestellung von Aufsatzkopien aus Zeitschriften. Prinzipiell gibt es zwei Verfahren, mit denen sich Bibliotheken an der Online-Fernleihe beteiligen können: das E-Mail-Verfahren und das SLNP-Verfahren. Auf beide wird im Handbuch eingegangen. Die Online-Fernleihe wurde im KOBV eingeführt, um die Fernleihe für die Benutzer zu beschleunigen, das Verfahren für die Bibliotheksmitarbeiter zu vereinfachen und den Arbeitsaufwand zu reduzieren. Sie basiert darauf, dass eine Bestellung anhand eines gefundenen Treffers ausgelöst wird – d.h. die bibliographischen Daten sind bereits verifiziert und in einem Katalog nachgewiesen. Anschließend werden die Fernleihbestellungen über den ZFL-Server automatisch ausgeführt und verwaltet – sowohl in der regionalen KOBV-Fernleihe als auch in der verbundübergreifenden Fernleihe mit den deutschen Bibliotheksverbünden. Der ZFL-Server besteht aus verschiedenen technischen Komponenten. Eine dieser Komponenten ist das Bibliothekskonto, eine Internetanwendung, in der die Bestellverwaltung des ZFL-Servers für die Bibliotheksbediensteten transparent gemacht wird. Sowohl für die aktive als auch für die passive Fernleihe ist im Bibliothekskonto der Status der Bearbeitung zu jedem Zeitpunkt ersichtlich, z.B. in welcher Bibliothek sich die Bestellung gerade befindet, wann sie dort eingegangen ist und wann sie weggeschickt wurde, ob mit positivem oder negativem Ergebnis. Das Bibliothekskonto ist damit für die Bibliothek ein komfortables Instrument zum Überwachen der Fernleihbestellungen, in dem sie zudem – falls notwendig – in den Bestellvorgang eingreifen kann. Dazu hat jede Bibliothek im Bibliothekskonto eine eigene, Passwort-geschützte Dienstoberfläche. Das vorliegende Handbuch beschreibt die Vorgänge der Bestellverwaltung im Bibliothekskonto. Es richtet sich an Bibliotheksmitarbeiter, die sich mit den einzelnen Arbeitsschritten der Online-Fernleihe vertraut machen wollen. Darüber hinaus ist es zum Nachschlagen gedacht, wenn sich in der täglichen Arbeit Unklarheiten ergeben.
    Keywords: ddc:020
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 48
    facet.materialart.
    Unknown
    Publication Date: 2019-10-24
    Keywords: ddc:000
    Language: German
    Type: annualzib , doc-type:report
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 49
    Publication Date: 2016-06-30
    Description: In dieser Arbeit werden effiziente Co-Reservierungs-Algorithmen vorgestellt, mit denen Rechenressourcen mehrerer Cluster im Grid reserviert werden können. Es werden fünf Algorithmen vorgestellt, die flexible Co-Reservierungsanfragen ermöglichen. In einer Co-Reservierungsanfrage müssen die angeforderten CPUs der Teilreservierungen exakt festgelegt werden. Die Cluster und die Startzeiten, bei denen die Teilreservierungen durchgeführt werden, ermittelt ein Co-Reservierungs-Algorithmus erst bei der Anfragebearbeitung. Die Benutzer können die Startzeit in der Anfrage eingrenzen, in dem sie eine früheste Startzeit und eine Deadline angeben. In den bisher entwickelten Reservierungsverfahren können Benutzer nur starre Co-Reservierungsanfragen stellen, in denen sie für alle Attribute der Teilreservierungen exakte Werte angeben müssen. Eine flexible Co-Reservierungsanfrage erlaubt einem Grid-Reservierungsdienst optimierte Reservierungsvarianten durchzuführen, da er aus vielen Reservierungsvarianten auswählen kann. Die Anwendungen von lokalen Benutzern können durch die Grid-Reservierungen verzögert werden. Bei der Auswahl der Reservierungsvarianten kann ein Grid-Reservierungsdienst dies berücksichtigen und den negativen Einfluß der Grid-Reservierungen verringern. Bei zwei Co-Reservierungs-Algorithmen werden auch zusätzliche Sortiervorgaben des Klienten bei der Auswahl der Reservierungsvarianten beachtet. Die Algorithmen wurden durch Simulationen mit dem Workload eines realen großen Supercomputers ausgewertet. Die Untersuchungen zeigen, daß sowohl die lokalen als auch die Grid-Benutzer von den flexiblen Anfragen profitieren können. Den lokalen Benutzern wurden die Ressourcen weniger oft durch zu früh gestellte Reservierungsanfragen entzogen. Die Grid- Benutzer können ihrerseits komfortabel eine optimierte Reservierungsvariante durchführen lassen.
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 50
    Publication Date: 2020-02-11
    Description: "`Volkssport Sudoku"' titelt der Stern in seiner Ausgabe vom 24. Mai2006. In der Tat traut sich derzeit kaum noch eine Zeitung, ohne Sudoku zu erscheinen. Die Begeisterung am Lösen dieser Zahlenrätsel offenbart eine unvermutete Freude am algorithmischen Arbeiten. Mathematisch kann man Sudokus als lineare diophantische Gleichungssysteme mit Nichtnegativitätsbedingungen formulieren. Solche ganzzahligen linearen Programme sind die wichtigsten Modellierungswerkzeuge in zahlreichen Anwendungsgebieten wie z.B. der Optimierung von Telekommunikations- und Verkehrsnetzen. Moderne Verfahren zur Lösung dieser Optimierungsprobleme sind durch Sudokus allerdings deutlich weniger zu beeindrucken als Zeitungsleser.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 51
    Publication Date: 2014-02-26
    Description: Das deutschsprachige Bibliothekswesen verfügt mit den \glqq Regeln für den Schlagwortkatalog \grqq (RSWK) unter Verwendung der \glqq Schlagwortnormdatei \grqq (SWD) über ein Instrumentarium, welches zusammen mit einem \glqq Faceted Browsing \grqq das bisher bestehende Angebot für ein Information Retrieval optimal ergänzen kann. Die Verbindung zwischen Standardvokabular (SWD) und Kettenbildung (RSWK) einerseits und eine nach Facetten-Eigenschaften gegliederte Navigation andererseits unterstützt bestmöglich eine inhaltlich bezogene Recherche. Die Stärken und Schwächen der RSWK/SWD werden erörtert und auch Klassifikationen (DDC und RVK) als mögliche Facetten diskutiert.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 52
    Publication Date: 2016-06-30
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 53
    Publication Date: 2014-11-21
    Description: Wir beschäftigen uns mit dem Problem der Betriebsplanung von Laserschweißrobotern im Karosseriebau. Gegeben ist eine Menge von Schweißnähten, die innerhalb einer Fertigungszelle an einem Karosserieteil gefertigt werden müssen. Die Schweißnähte werden durch mehrere parallel betriebene Roboter bearbeitet. Die Aufgabe besteht darin, für jeden Roboter eine Reihenfolge und eine zeitliche Koordinierung seiner Bewegungen zu finden, so dass alle Schweißnähte innerhalb der Taktzeit der Fertigungszelle bearbeitet werden und so wenig Laserquellen wie möglich eingesetzt werden. Dabei müssen einige Nebenbedingungen berücksichtigt werden. Für dieses spezielle Schweißproblem haben wir eine Formulierung als gemischt-ganzzahliges lineares Programm entwickelt, welches sich für die untersuchten praktischen Fälle sehr schnell lösen lässt.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 54
    Publication Date: 2016-06-30
    Keywords: ddc:000
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 55
    Publication Date: 2014-02-26
    Description: Wir erleben zu Beginn des aufkommenden Informationszeitalters mit dem Siegeszug von Google und anderen Internet-Technologien einen Wandel im Verhalten von Wissenschaftlern und Studenten, der mit dem Einsatz von {\sl Google Scholar} und {\sl Google Book Search} einen Paradigmenwechsel für Bibliotheken und Informationsversorger gleichkommt. Der Artikel untersucht die technischen Hintergründe für den Erfolg dieser besonderen Art des Information Retrievals: Fulltext Indexing und Citation Ranking als besondere Form des Information Minig. Er diskutiert Stärken und auch Schwächen des Google-Ansatzes. Der Autor stellt sich auch der Frage, unter welchen Bedingungen es möglich ist, ein zu {\sl Google Scholar} und der {\sl Google Book Search} konkurrenzfähiges Retrieval in der Landschaft der Bibliotheken und Bibliotheksverbünde zu entrichten. Die These ist, dass dieses unter Einsatz des {\sl Open Source} Indexierers {\sl Lucene} und des Web-Robots {\sl Nutch} möglich ist. Bibliotheken können durch gezielten Einsatz solcher Internet-Technologien dem Nutzer die Leistungen, welche Google uns mit seinen Tools im {\sl Visible Web} und mit Referenzen auf {\sl Citations} in der Welt der Literatur zur Verfügung stellt, in vergleichbarer Art auch für ihre eigenen durch Lizenzen geschützten digitalen Journale und ihre speziellen lokal verfügbaren Ressourcen, auf die Internet-Suchmaschinen keine Zugriff haben, anbieten. Es besteht die Hoffnung, dass Nutzer dann nicht - wie in einer kürzlichen Studie des OCLC konstatiert - überwiegend im Internet verbleiben, sondern bei ihrer Suche auch den Weg zu den Angeboten der örtlichen Bibliothek attraktiv finden.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 56
    Publication Date: 2022-07-19
    Language: German
    Type: doctoralthesis , doc-type:doctoralThesis
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 57
    Publication Date: 2014-02-26
    Description: Was Komplexität ist, weiß niemand so richtig. In vielen Wissenschaftsgebieten wird der Begriff Komplexität verwendet, überall mit etwas anderer Bedeutung. Mathematik und Informatik hab en eine eigene Theorie hierzu entwickelt: die Komplexitätstheorie. Sie stellt zwar grundlegende Begriffe bereit, aber leider sind die meisten wichtigen Fragestellungen noch ungelöst. Diese kurze Einführung konzentriert sich auf einen speziellen, aber bedeutenden Aspekt der Theorie: Lösbarkeit von Problemen in deterministischer und nichtdeterministischer polynomialer Zeit. Hinter der für Uneingeweihte etwas kryptischen Frage "P = NP?" verbirgt sich das derzeit wichtigste Problem der Komplexitätstheorie. Anhand dieser Fragestellung werden einige Aspekte der Theorie erläutert und formell erklärt, was "P = NP?" bedeutet. Es geht nicht nur um komplizierte algorithmische Mathematik und Informatik, sondern um grundsätzliche Fragen unserer Lebensumwelt. Kann man vielleicht beweisen, dass es für viele Probleme unseres Alltags keine effizienten Lösungsmethoden gibt?
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 58
    Publication Date: 2020-03-11
    Description: Die Functional Requirements for Bibliographic Records, kurz FRBR, sind eine Empfehlung der International Federation of Library Associations and Institutions (IFLA) von 1998 zur Neustrukturierung von Bibliothekskatalogen. Mit den FRBR wird ein logisches Denkmodell für bibliografische Beschreibungen vorgelegt. Die Diskussion über dieses Modell befindet sich im deutschsprachigen Raum - anders als im angloamerikanischen - noch in den Anfängen. Dem möchte dieser Aufsatz entgegen wirken, indem die Frage gestellt wird, inwieweit sich die logisch gedachten FRBR-Einheiten in den existierenden Daten wieder finden lassen. Dazu werden die Entitäten mit den dazugehörigen Attributen dem in der Bibliothekswelt Deutschlands und Österreichs üblichen MAB-Format (Maschinelles Austauschformat für Bibliotheken) gegenübergestellt und auf ihre Kompatibilität hin untersucht. Die Autoren sind Mitglieder der überregionalen {\glqq}Expertengruppe Datenformate{\grqq}, in der Formatfragen, die das Bibliothekswesen betreffen, diskutiert werden, insbesondere aber das MAB-Format gepflegt wird.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 59
    Publication Date: 2014-02-26
    Description: Zahlreiche lokale, nationale und internationale Informationsportale existieren mit zum Teil gleichen Angeboten und Dienstleistungen nebeneinander. Da der Aufbau und Betrieb von Portalen kostspielig ist, sollten die einzelnen Dienstleistungen abgestimmt und sinnvoll untereinander vernetzt werden. Für eine solch anzustrebende Kooperation unter Portalen ist es notwendig, ein jeweils eigenes Portalprofil zu definieren, um bei einer Gegenüberstellung der Profile die Abgrenzungen und Verknüpfungspunkte deutlich werden zu lassen. Die KOBV-Zentrale möchte mit der Profilbeschreibung des KOBV-Portals beginnen und so die eigenen Angebote des regionalen Portals mit denen anderer auf sinnvolle Weise verknüpfen. Für diese Positionsbestimmung werden die Dienstleistungen, die Zielgruppe, die Kriterien für die Ressourcenauswahl sowie die Abgrenzung zu anderen Portalen dargelegt.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 60
    facet.materialart.
    Unknown
    Publication Date: 2019-10-24
    Keywords: ddc:000
    Language: German
    Type: annualzib , doc-type:report
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 61
    facet.materialart.
    Unknown
    Publication Date: 2014-02-26
    Description: Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmas chine Google haben gezeigt, dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr ef fektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. % Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. \glqq Autonomous Citation Indexing\grqq, ACI). Letzteres erzeugt aus einer Menge von nicht-vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Ranking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/postscript
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 62
    Publication Date: 2020-03-09
    Description: Die Autoren schreiben dieses Papier aus der eingeschränkten Sicht der Mathematik und der Informationstechnik. Um den speziellen Beitrag dieser Disziplinen überhaupt diskutieren zu können, sehen wir uns jedoch gezwungen, einen Rahmen abzustecken, den wir für das Jahr 2020 vorhersehen -- nach Wahrscheinlichkeit und aus unserem engeren fachlichen Blickwinkel. Vorab bitten wir schon einmal bei den medizinischen Fachleuten um Nachsicht, wenn wir uns in ihrem Revier allzu dillettantisch bewegen. Vielleicht fördert aber auch unser eingeschränkter Blickwinkel ansonsten unbedachte Aspekte zutage -- das hoffen wir zumindest.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 63
    Publication Date: 2020-11-13
    Description: Seit einigen Jahren lizenzieren Bibliotheken mit erheblichem finanziellen Aufwand elektronische Zeitschriften. Anders als bei einer Papierausgabe ist der dauerhafte Zugriff auf die bezahlten Dokumente allerdings nicht garantiert: Die e-Zeitschriften liegen auf dem Verlagsserver, und der Verlag schaltet den Zugriff (meist IP-Range des Campus) auf seinem Server frei. Wird der Zugriff von Verlagsseite abgeschaltet, erlöschen sämtliche Zugriffsrechte, auch auf die in der Vergangenheit lizenzierten und bezahlten Zeitschriften. Auf die neuen Abonnementbedingungen hat das Friedrich-Althoff-Konsortium (FAK) reagiert und in seinen Vertr"agen den Erwerb der Archivdaten beim Auslaufen eines Vertrages festgeschrieben. Im Rahmen eines Projektes baut die KOBV-Zentrale einen Zeitschriftenserver auf, um den Zugriff auf die lizenzierten elektronischen Zeitschriften auch nach Ablauf der Lizenzverträge zu gewährleisten. Den Grundstock bilden die vom FAK in den Jahren 1997-2003 lizenzierten elektronischen Zeitschriften der Verlage Kluwer Academic Press, Springer und Elsevier - ein Volumen von rund 1.600 Zeitschriftentiteln mit knapp 1.400.000 Artikeln. Beim Aufbau des Zeitschriftenservers kommt der vertraglich-organisatorischen Komponente eine ebenso wichtige Rolle zu wie der technischen Realisierung. Hier hat die KOBV-Zentrale ein transparentes Verfahren konzipiert und umgesetzt, um für die Verlage die notwendige Vertrauensbasis zu schaffen und gleichzeitig den Einrichtungen ihren berechtigten Zugriff auf die Zeitschriften-Volltexte zu sichern. Die Zeitschriftenartikel werden sowohl im Rahmen des KOBV-Volltextservers, einem neuen Internet-Dienst der KOBV-Zentrale, zugänglich gemacht - volltext-indiziert mit der Suchmaschine Swish-e - als auch integriert in die Metadatensuche und den Open-Linking-Dienst des KOBV-Portals. Während die Metadatenrecherche und die Sicht auf die Abstracts für alle offen sind, ist der Zugriff auf die Artikel-Volltexte auf die an den Verträgen beteiligten Einrichtungen beschränkt. Dazu wurde ein Authentifizierungsverfahren auf der Basis von IP-Ranges eingerichtet. Der vorliegende Text ist die schriftliche Fassung eines gleichnamigen Vortrages auf der ASpB-Tagung 2005 \glqq Spezialbibliotheken zwischen Auftrag und Ressourcen{\grqq} der Arbeitsgemeinschaft der Spezialbibliotheken, die vom 06.-09. September 2005 in der Technischen Universität München stattfand.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 64
    Publication Date: 2020-08-05
    Description: In dieser Diplomarbeit werden grundlegende Probleme der kostenoptimalen Dimensionierung von Telekommunikationsnetzwerken untersucht. Diese werden als lineare gemischt ganzzahlige Programme formuliert, wobei sich in der Modellierung auf die Konzepte Routing und Kapazitätszuweisung beschränkt wird. Es werden parallel drei übliche, aus der Praxis motivierte Möglichkeiten behandelt, die auf gerichteten oder ungerichteten Kanten eines Netzwerkes installierte Kapazität zu nutzen. Diese unterscheiden wir als DIrected, BIdirected und UNdirected. Die studierten Probleme treten als Relaxierungen vieler realistischer Fragestellungen der Netzwerkoptimierung auf. Sie enthalten elementare Strukturen, deren Studium ausschlaggebend ist für das Verständnis komplexerer Modelle. Letztere können zusätzliche Erfordernisse berücksichtigen, wie zum Beispiel die Ausfallsicherheit von Netzwerken. Zur Lösung solcher NP-schweren Optimierungsprobleme werden erfolgreich Branch & Bound und Schnittebenenverfahren kombiniert (Branch & Cut). Für die Wirksamkeit dieser Algorithmen ist es sehr nützlich, möglichst genaue Kenntnisse der Struktur der Seitenflächen der zugrundeliegenden Polyeder zu haben, welche die konvexe Hülle der Lösungsmenge beschreiben. Es sind starke gültige Ungleichungen zu finden, welche hochdimensionale Seitenflächen oder sogar Facetten definieren. Diese sollten zudem schnell separiert werden können und die numerische Stabilität der Algorithmen möglichst nicht beeinflussen. Diese Arbeit beschäftigt sich im Wesentlichen mit der sehr allgemeinen Rundungstechnik Mixed- Integer Rounding (MIR) zur Verstärkung gültiger Ungleichungen unter Verwendung der Ganzzahligkeitsnebenbedingungen. Es wird eine MIR-Prozedur motiviert, bestehend aus den Schritten Aggregieren, Substituieren, Komplementieren und Skalieren, welche durch Ausnutzung der Struktur der gegebenen Parameter zu einer gültigen Basisungleichung führt, die dann durch MIR eine starke und oft facetten-induzierende Ungleichung gibt. Es werden verschieden Klassen solcher Ungleichungen untersucht und auf ihre Praxistauglichkeit beim Einsatz in Branch & Cut-Verfahren getestet. Nach einer kurzen Einführung werden in Kapitel 2 die für uns in dieser Diplomarbeit relevanten Probleme definiert. Kapitel 3 gibt eine ausführliche Übersicht über die Technik MIR.Wir beschäftigen uns vor allen Dingen mit den Begriffen Superadditivität und Lifting und behandeln Aspekte wie Numerik und beschränkte Variablen. Kapitel 4 und Kapitel 5 umfassen Untersuchungen zu so genannten cut sets. Diese Polyeder werden durch Schnitte in Netzwerken definiert und relaxieren die von uns behandelten Probleme. Hauptsächlich durch MIR entwickeln wir sowohl neue als auch bekannte Klassen von facetten-definierenden Ungleichungen für cut sets, wobei strukturelle Unterschiede herausgearbeitet werden, die durch die drei verschiedenen Typen der Kapzitätsbereitstellung und durch beschränkte Variablen entstehen. Als ein zentrales Resultat wird bewiesen unter welchen Bedingungen facetten-induzierende Ungleichungen für cut sets auch Facetten der zugehörigen relaxierten Polyeder sind. Im Kapitel 6 geben wir weitere Typen von MIR-Ungleichungen an, die auf anderen Netzwerkstrukturen basieren und weisen ferner auf offene Fragen sowie interessante Ideen hin. Das Kapitel 7 widmet sich schließlich der Entwicklung und Implementation von Separationsalgorithmen. Wir testen einige der entwickelten Ungleichungsklassen mit Hinblick auf Ihre Wirksamkeit zur Lösung von realistischen Problemen der Netzwerkdimensionierung aus der Telekommunikation und diskutieren die Ergebnisse.
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 65
    Publication Date: 2016-06-30
    Description: Diese Arbeit dokumentiert den Entwurf und die Implementierung einer NFS-Schnittstelle zum ZIBDMS. Das ZIBDMS, welches derzeit am Zuse-Institut Berlin entwickelt wird, ist ein Managementsystem für verteilte Daten in heterogenen Umgebungen [10]. Es soll die einfache Benutzung von Mechanismen zur Replikation sowie neue Möglichkeiten des Zugriffs und der Verwaltung von Metadaten und Datenobjekten ermöglichen. Dem Nutzer bietet das System verschiedene Sichten: Neben der klassischen, hierarchischen Sicht mit Verzeichnissen und Dateien wird auch eine attributbasierte Zugriffsmethode angeboten, in der Datenobjekte ausschließlich über Attribut/Wert-Paare referenziert werden. Für den Benutzer transparent, soll sich das System im Hinblick auf die Verfügbarkeit von Daten und Metadaten selbsttätig optimieren. Um Skalierbarkeit gew¨ahrleisten zu können, werden intern Peer-to-Peer- Techniken entwickelt und benutzt. Die NFS-Schnittstelle erhöht die Nutzbarkeit des Systems, da Client- Implementierungen für nahezu alle Betriebssysteme zur Verfügung stehen. Der Benutzer kann so über das gewohnte Dateisystem Daten und Metadaten pflegen, ohne spezifisches Vorwissen zu benötigen. In dieser Arbeit wird untersucht, inwiefern sich die Semantik des ZIBDMS auf jene des NFS-Protokolls übertragen läßt. Weiterhin wird das Konzept von Pseudodateien beschrieben und diskutiert, inwiefern es eine brauchbare Lösung darstellt, den im Vergleich zur NFS-Semantik wesentlich größeren Funktionsumfang des ZIBDMS für den Anwender nutzbar zu machen. Pseudodateien sind nicht-persistente Objekte, welche für den Benutzer als reguläre Datei sichtbar werden und die erweiterte Funktionalitäten wie die Bearbeitung von Metadaten oder die Platzierung von Replikaten über die Dateisystem-Sicht des NFS zur Verfügung stellen sollen. Schließlich werden Leistungsmessungen an den benutzten Komponenten des ZIBDMS vorgenommen und vergleichbaren Systemen gegen übergestellt. Die Aufmerksamkeit liegt hier auf der zugrundeliegenden Katalog-Technologie sowie dem durch das NFS-Protokoll verursachten Overhead.
    Keywords: ddc:080
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 66
    Publication Date: 2014-02-26
    Description: In diesem Bericht wurden Erfahrungen mit der Suchmaschine FAST im Rahmen des Projektes Verteilter Contentspeicher sowie die Suchmaschine FAST beschrieben. Das Ziel des Projektes Verteilter Contentspeicher war die Speicherung, Erschließung und das Angebot der digitalen Bestände der Journale und Dokumente der KOBV-Bibliotheken zu ermöglichen. Die Eignung der Suchmaschine FAST für das Projektvorhaben wurde systematisch und gründlich getestet, indem verschiedene Dokumentmengen mit FAST indexiert wurden.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 67
    Publication Date: 2021-02-01
    Description: Der Artikel beschreibt ein mathematisches Optimierungssystem zur Betriebsplanung in großen Wassernetzen, das bei den Berliner Wasserbetrieben eingesetzt wird. Für das Berliner Versorgungsnetz werden Optimierungsergebnisse vorgestellt.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 68
    Publication Date: 2014-02-26
    Description: \\ Zusammenfassung: Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KOBV) betreibt für das KOBV-Portal einen Austausch von Beschreibungen zu elektronischen Ressourcen (Metadaten), der zwisc zwischen verschiedenen Informationsportalen in der Region durchgeführt wird. Die unterschiedlichen Informationsportale verwenden verschiedene Metadaten-Schemata und Austausch-Formate für ihre Ressourcebeschreibungen. Um die Heterogenität der Metadaten zu überwinden, wurde der KOBV-Metadaten-Austausch-Parser (KMA-Parser) entwickelt. Andere Metadaten-Schemata werden auf das KOBV-Metadaten-Schema abgebildet. Der KMA-Parser führt gegebenenfalls eine Format-Transformation durch, konvertiert die Inhalte einzelner Elemente über Konkordanzen und erzeugt neue Metadaten-Elemente aus vorhandenen Feldern. Er validiert den Inhalt auf Vollständigkeit und steuert den Austausch der Metadaten zwischen den Portalen. Der Umwandlungsprozess funktioniert jedoch nicht nur in die Richtung des KOBV-Portals, sondern auch in die entgegengesetzte Richtung. Der Artikel beschreibt die einzelnen Vorgänge im KMA-Parser und schildert die Erfahrungen im Umgang mit der Heterogenität von Metadaten. Die gewonnenen Erfahrungen verweisen auf grundlegende Perspektiven in der universellen Zusammenarbeit von Informationsanbietern und -providern.The Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) has built a framework for a bi-directional exchange workflow of electronic resourcesÆ descriptions (metadata) between the KOBV Portal and other Information Portals in the region. The Information Portals use different exchange formats, metadata schemata and controlled vocabularies for their descriptions of resources. In order to overcome this metadata heterogeneity, an application, the KOBV Metadata Exchange Parser (KMA-Parser), has been developed. The KMA-Parser maps the local portalsÆ metadata schemata into the metadata schema of the KOBV Portal. If necessary, it transforms the exchange format, converts contents of individual elements by means roduces new metadata elements on the basis of existent elements. It checks elementsÆ contents on completeness and controls the metadata exchange between the portals. However, the transformation process takes place not only towards the KOBV Portal, but al so vice versa. The article describes the individual processes in the KMA Parser and depicts the experiences in handling the metadataÆs heterogeneity. The experiences gathered give an idea of the prospects for a universal cooperation between information suppliers and providers.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: text/plain
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 69
    Publication Date: 2014-02-26
    Description: Das Travelling-Salesman-Problem (TSP) ist das am intensivsten untersuchte kombinatorische Optimierungsproblem. In diesem Abschnitt wird eine Einführung in das TSP gegeben. Es werden Problemstellungen erläutert, Anwendungen skizziert und einige Schwierigkeiten bei der korrekten Modellierung der Zielfunktion dargelegt. Es ist gar nicht so klar, was in einem konkreten Problem die wirkliche Entfernung ist. Exakte und approximative Lösungsverfahren werden an Beispielen skizziert, und es wird angedeutet, dass man, obwohl TSPs zu den theoretisch schweren Problemen zählen, in der Praxis TSPs von atemberaubender Größe lösen kann.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 70
    Publication Date: 2014-02-26
    Description: Mit der Installation des neuen Hochleistungsrechners für die norddeutschen Länder (HLRN) steht den Wissenschaftlern ein außergewöhnlich leistungsfähiges System zur Verfügung. Durch die Verteilung der Rechenelemente auf zwei verschiedene Standorte in Berlin (ZIB) und Hannover (RRZN) entstehen jedoch auch neue Herausforderungen für den Betrieb und die effiziente Nutzung des Rechners. Inhalt dieses Projektes ist die Erforschung und Lösung der durch die Verteilung des Systems hervorgerufenen Probleme (z.B. Scheduling, Kommunikation, I/O). Es werden effiziente Lösungen zur Bereitstellung eines virtuellen, hoch-performanten und transparenten Systems entwickelt, die auf vergleichbare Installationen übertragbar sind.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/postscript
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 71
    Publication Date: 2014-11-10
    Description: In diesem Artikel werden die Optimierungsmodelle und -verfahren beschrieben, die bei der Planung des Kernnetzes und der Zugangsinfrastruktur des X-WiN verwendet wurden.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 72
    Publication Date: 2014-02-26
    Description: Die Anwendung mathematischer Methoden und Verfahren wird immer mehr zur Voraussetzung innovativer Produkte und Dienstleistungen. Um neue Produkte und Dienstleistungen zu entwickeln, müssen die Produktions- und technologischen Prozesse mathematisch modelliert, beschrieben und optimiert werden. Diesen Umstand Rechnung tragend, hat das Bundesministerium für Bildung und Forschung (BMBF) 1993 begonnen, den Einsatz mathematischer Verfahren und Methoden in der Mathematik über ein spezielles Mathematikprogramm zu fördern. Inzwischen hat die vierte Förderperiode des Mathematikprogramms begonnen. \par Das Medium Internet und insbesondere das WWW sind für die Sichtbarkeit und Transparenz wissenschaftlicher Resultate in den letzten zehn Jahren immer wichtiger geworden. Wer nicht im Web "'sichtbar"' ist, läuft Gefahr, nicht wahrgenommen zu werden. Intention und Ziel des durchgeführten Projekts war es, ein Konzept für eine qualitativ hochwertige und umfassende Darstellung des BMBF Mathematikprogramms, insbesondere der in den Projekten erzielten Ergebnisse, zu entwickeln und zu realisieren und damit den Stellenwert und die Akzeptanz mathematischer Forschung in der Gesellschaft zu festigen und den Wissenstransfer zwischen mathematischer Forschung sowie Forschung und Entwicklung in der Wirtschaft und dem Dienstleistungsbereich zu fördern.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 73
    Publication Date: 2014-02-26
    Description: Die KOBV-Zentrale betreibt mit dem KOBV-Portal neben der Metasuche in freien Online-Katalogen und Datenbanken ein Nachweisinstrument für elektronische Ressourcen, die von den Bibliotheken Berlin-Brandenburgs lizenziert sind und darüber hinaus diejenigen, die frei zugänglich sowie wissenschaftlich relevant sind. Die Erschließung der freien Ressourcen übernimmt eine kooperative Fachredaktion, die sich aus FachreferentInnen und -lektorInnen aus der Region rekrutiert. Dabei übernimmt jede beteiligte Person die Betreuung einer oder mehrerer Fachgruppen der Dewey Decimal-Classification (DDC) eigenverantwortlich. Die Aufgabe aller FachredakteurInnen besteht in der inhaltlichen Beschreibung, der Klassifizierung, der Vergabe von Schlagworten und der regelmäßigen Reevaluation der einzelnen Ressourcen. Die KOBV-Zentrale hat hierfür einen Kriterienkatalog entwickelt, der als Grundlage für die Beurteilung von elektronischen Ressourcen dient. Erschlossen werden die Ressourcen schließlich über ein webbasierte Eingabe-Tool, dem Metadata-Tool der KOBV-Zentrale. Über eine Mailingliste wird der Abstimmungsbedarf untereinander gedeckt und Diskussionen geführt, die das Projekt weiterführen sollen. Der Artikel beschreibt das Konzept der kooperativen Fachredaktion für freie Ressourcen, die Vorgänge und die Arbeiten, die für die Initiierung notwendig waren.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 74
    Publication Date: 2020-11-13
    Description: \documentclass[12pt]{article} \usepackage{german} \parindent=0pt \begin{document} Im KOBV wird für die Online-Fernleihe der Zentrale-Fernleihserver (ZFL-Server) der Firma Sisis eingesetzt. Die Software ist in der KOBV-Zentrale installiert. Der ZFL-Server dient im KOBV sowohl für die Bestellung von Monographien als auch für die Bestellung von Aufsatzkopien aus Zeitschriften. Prinzipiell gibt es zwei Verfahren, mit denen sich Bibliotheken an der Online-Fernleihe beteiligen können: das E-Mail-Verfahren und das SLNP-Verfahren. Auf beide wird im Handbuch eingegangen. Die Online-Fernleihe wurde im KOBV eingeführt, um die Fernleihe für die Benutzer zu beschleunigen, das Verfahren für die Bibliotheksmitarbeiter zu vereinfachen und den Arbeitsaufwand zu reduzieren. Sie basiert darauf, dass eine Bestellung anhand eines gefundenen Treffers ausgelöst wird - d.h. die bibliographischen Daten sind bereits verifiziert und in einem Katalog nachgewiesen. Anschlie\"send werden die Fernleihbestellungen über den ZFL-Server automatisch ausgeführt und verwaltet - sowohl in der regionalen KOBV-Fernleihe als auch in der verbundübergreifenden Fernleihe mit den deutschen Bibliotheksverbünden. Der ZFL-Server besteht aus verschiedenen technischen Komponenten. Eine dieser Komponenten ist das Bibliothekskonto, eine Internetanwendung, in der die Bestellverwaltung des ZFL-Servers im Internet für die Bibliotheksbediensteten transparent gemacht wird. Sowohl für die aktive als auch für die passive Fernleihe ist im Bibliothekskonto der Status der Bearbeitung zu jedem Zeitpunkt ersichtlich, z.B. in welcher Bibliothek sich die Bestellung gerade befindet, wann sie dort eingegangen ist und wann sie weggeschickt wurde, ob mit positivem oder negativem Ergebnis. Das Bibliothekskonto ist damit für die Bibliothek ein komfortables Instrument zum Überwachen der Fernleihbestellungen, in dem sie zudem - falls notwendig - in den Bestellvorgang eingreifen kann. Dazu hat jede Bibliothek im Bibliothekskonto eine eigene, Passwort-geschützte Dienstoberfläche. Das vorliegende Handbuch beschreibt die Vorgänge der Bestellverwaltung im Bibliothekskonto. Es richtet sich an Bibliotheksmitarbeiter, die sich mit den einzelnen Arbeitsschritten der Online-Fernleihe vertraut machen wollen. Darüber hinaus ist es zum Nachschlagen gedacht, wenn sich in der täglichen Arbeit Unklarheiten ergeben. \end{document}
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Format: application/postscript
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 75
    Publication Date: 2022-07-19
    Description: Inhalt dieser Diplomarbeit ist ein Beleuchtungs- und Visualisierungsmodell für Pflanzen im interaktiven Landschaftsrendering. Ziel ist die qualitativ hochwertige Darstellung von einzelnen Individuen nahe des Betrachters, der seine Position in einer ansonsten statischen Szene frei wählen kann. Um dies zu erreichen wird zunächst vorgestellt, wie ausgehend von einfachen 3D-Modellen und Materialien ein physikalisch basiertes Reflexionsmodell parametrisiert werden kann. Grund hierfür ist der oftmals vorhandene umfangreiche Datenbestand, der auf die OpenGL-Materialien oder ähnliche Shader optimiert ist. Anschließend wird gezeigt, wie die Echtzeit-Renderingtechniken Shadow Mapping und Precomputed Radiance Transfer kombiniert werden können, um sowohl exakte hochfrequente direkte Beleuchtung als auch niederfrequentes indirektes Streulicht zu berücksichtigen. Diese Kombination wird an Hand der Pfad-Notation des Monte-Carlo-Path-Tracing eingeführt und begründet.
    Keywords: ddc:000
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 76
    Publication Date: 2022-07-19
    Description: In der Arbeit wird die computergestützte Planung von chirurgisch gesetzten Knochenfrakturen bzw. Knochenschnitten (sogenannten Osteotomien) an dreidimensionalen, computergrafischen Schädelmodellen, sowie die Umpositionierung separierter knöcherner Segmente im Kontext der rekonstruktiven MKG-Chirurgie behandelt. Durch die 3D Modellierung und Visualisierung anatomischer Strukturen, sowie der 3D Osteotomie- und Umstellungsplanung unter Einbeziehung der resultierenden Weichgewebedeformation wird den Chirurgen ein Werkzeug an die Hand gegeben, mit dem eine Therapieplanung am Computer durchgeführt und diese in Hinblick auf Funktion und Ästhetik bewertet werden kann. Unterschiedliche Strategien können dabei erprobt und in ihrer Auswirkung erfasst werden. Dazu wird ein methodischer Ansatz vorgestellt, der zum einen die chirurgische Planung im Vergleich zu existierenden Ansätzen deutlich verbessert und zum anderen eine robuste Weichgewebeprognose, durch den Einsatz geeigneter Planungsmodelle und eines physikalisch basierten Weichgewebemodells unter Nutzung numerischer Lösungsverfahren in die Planung integriert. Die Visualisierung der Planungsergebnisse erlaubt sowohl eine anschauliche und überzeugende, präoperative Patientenaufklärung, als auch die Demonstration möglicher Vorgehensweisen und deren Auswirkungen für die chirurgische Ausbildung. Ferner ergänzen die Planungsdaten die Falldokumentation und liefern einen Beitrag zur Qualitätssicherung. Die Arbeit ist in sieben Kapitel gegliedert und wie folgt strukturiert: Zuerst wird die medizinische Aufgabenstellung bei der chirurgischen Rekonstruktion von Knochenfehlbildungen und -fehlstellungen in der kraniofazialen Chirurgie sowie die daraus resultierenden Anforderungen an die Therapieplanung beschrieben. Anschließend folgt ein umfassender Überblick über entsprechende Vorarbeiten zur computergestützten Planung knochenverlagernder Operationen und eine kritische Bestandsaufnahme der noch vorhandenen Defizite. Nach der Vorstellung des eigenen Planungsansatzes wird die Generierung individueller, qualitativ hochwertiger 3D Planungsmodelle aus tomografischen Bilddaten beschrieben, die den Anforderungen an eine intuitive, 3D Planung von Umstellungsosteotomien entsprechen und eine Simulation der daraus resultierenden Weichgewebedeformation mittels der Finite-Elemente Methode (FEM) ermöglichen. Die Methoden der 3D Schnittplanung an computergrafischen Modellen werden analysiert und eine 3D Osteotomieplanung an polygonalen Schädelmodellen entwickelt, die es ermöglicht, intuitiv durch Definition von Schnittlinien am 3D Knochenmodell, eine den chirurgischen Anforderungen entsprechende Schnittplanung unter Berücksichtigung von Risikostrukturen durchzuführen. Separierte Knochensegmente lassen sich im Anschluss interaktiv umpositionieren und die resultierende Gesamtanordnung hinsichtlich einer funktionellen Rehabilitation bewerten. Aufgrund des in dieser Arbeit gewählten, physikalisch basierten Modellierungsansatzes kann unter Berücksichtigung des gesamten Weichgewebevolumens aus der Knochenverlagerung direkt die resultierende Gesichtsform berechnet werden. Dies wird anhand von 13 exemplarischen Fallstudien anschaulich demonstriert, wobei die Prognosequalität mittels postoperativer Fotografien und postoperativer CT-Daten überprüft und belegt wird. Die Arbeit wird mit einem Ausblick auf erweiterte Modellierungsansätze und einem Konzept für eine integrierte, klinisch einsetzbare Planungsumgebung abgeschlossen.
    Description: In cranio-maxillofacial surgery, physicians are often faced with skeletal malformations that require complex bone relocations. Especially in severe cases of congenital dysgnathia (misalignment of upper and lower jaw) or hemifacial microsomia (asymmetric bone and tissue development), where multiple bone segments are to be mobilized and relocated simultaneously and in relation to each other, careful preoperative planning is mandatory. At present in clinical routine not all possible strategies can be planned and assessed with regard to functional rehabilitation. Moreover, the aesthetic outcome, i.e. the postoperative facial appearance, can only be estimated by a surgeon's experience and hardly communicated to the patient. On this account, a preoperative planning of complex osteotomies with bone relocations on a computerized model of a patient's head, including a reliable three-dimensional prediction and visualization of the post-surgical facial appearance is a highly appreciated possibility cranio-maxillofacial surgeons are longing for. This work, being performed at Zuse Institute Berlin (ZIB), addresses such a computer based 3D~surgery planning. A processing pipeline has been established and a simulation environment has been developed on basis of the software Amira, enabling a surgeon to perform bone cuts and bone rearrangements in an intuitive manner on virtual patient models. In addition, a prediction of the patients' postoperative appearance according to the relocated bone can be simulated and visualized realistically. For a meaningful planning of surgical procedures, anatomically correct patient models providing all relevant details are reconstructed from tomographic data with high fidelity. These patient models reliably represent bony structures as well as the facial soft tissue. Unstructured volumetric grids of the soft tissue are generated for a fast and efficient numerical solution of partial differential equations, describing tissue deformation on the foundation of 3D elastomechanics. The planning of osteotomies (bone cuts) for the mobilization and relocation of bone segments is performed in accordance to the planning on basis of life size replicas of a patient's skull, i.e. stereolitographic models. Osteotomy lines can be drawn on top of the polygonal planning models using suitable input devices. After evaluation of the consequence of a planned cut with regard to vulnerable inner structures (nerves, teeth etc.) the model is separated accordingly. A relocation of bone segments can be performed unrestrictedly in 3D or restricted to a translation or rotation within arbitrarily chosen planes under consideration of cephalometric guidelines. Bone and tooth collisions can be evaluated for functional analysis or orthodontic treatment planning with possible integration of digitized dental plaster casts. As a result of the preoperative planning, a single transformation matrix, encoding translation and rotation, or a sequence of such matrices are provided for each bone segment. Both the osteotomy paths and the transformation parameters can finally be used for intra-operative navigation. In the course of the planning, the relocated positions of bone segments serve as an input for the simulation of the resulting soft tissue deformation. Since bone and surrounding soft tissue share common boundaries that are either fixed or translocated, the resulting configuration of the entire tissue volume can be computed from the given boundary displacements by numerical minimization of the internal strain energy on basis of a biomechanical model, using a finite-element approach. In collaboration with different surgeons and hospitals more than 25 treatments have been accompanied by preoperative planning so far ranging from mandibular and midfacial hypoplasia to complex hemifacial microsomia. 13 of these cases are presented within this work. Simulation results were validated on the basis of photographs as well as of postoperative CT data, showing a good correlation between simulation and postoperative outcome. Further aspects of improving the modeling approach are discussed. It has been demonstrated that 3D~osteotomy planning on virtual patient models can be performed intuitively, and that 3D~tissue deformation for cranio-maxillofacial osteotomy planning can be predicted numerically without using heuristic ratios. It can be stated that by using 3D~planning software, a surgeon gains a better spatial understanding of complex dysplasia, and the 3D~soft tissue prediction gives an additional criterion for the assessment of the planned strategy. It turned out that, especially in complex cases such as hemifacial microsomia or for decisions bet­ween mono- and bimaxillary advancements, a 3D~planning aid is extremely helpful. The conclusion is, that images and animations created within the planning phase provide a valuable planning criterion for maxillofacial surgeons as well as a demonstrative information for patients and their relatives, thus greatly enhancing patient information, as well as surgical education. All data that result from the planning are also important for documentation and quality assurance. 3D osteotomy planning, including soft tissue prediction, likely will become a new paradigm of plastic and reconstructive surgery planning in the future. An assortment of results can be found under: http://www.zib.de/visual/medical/projects
    Keywords: ddc:620
    Language: German
    Type: doctoralthesis , doc-type:doctoralThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 77
    Publication Date: 2024-02-09
    Description: Die hierarchische Organisation von Dateien beherrscht Computersysteme seit vielen Jahren und wird sich vermutlich auch in Zukunft weiterhin durchsetzen. Dennoch stößt diese Verwaltungsmethode in einem klassischen hierarchischen Dateisystem bei dem jährlichen rasanten Zuwachs an neuen Daten an ihre Grenzen, auch wenn Nutzer eine ausgefeilte Verzeichnisstruktur mit einer disziplinierten Namensgebung konsequent auf- und ausbauen. Um den Überblick über die Dateien zu behalten, werden in dieser Arbeit neue Verwaltungsmethoden vorgestellt und in die hierarchische Dateisystemsicht eingebettet. Auf der Basis des hierarchischen Dateisystems bietet ein metadatenbasiertes Dateisystem neben dem hierarchischen Zugriff noch einen flexiblen, assoziativen Zugriff auf Dateien über virtuelle Objekte, indem Suchmethoden in Form einer Anfrage auf in einer Datenbank gespeicherte Index- und Metadaten angewendet werden. Das Ergebnis dieser Abfrage wird mit Hilfe von virtuellen Verzeichnissen und virtuellen Dateien in einer übersichtlichen Form dargestellt, so dass eine Nutzung der hierarchischen Sicht weiterhin intuitiv fortgesetzt wird. Das Datenmanagementsystem ZIBDMS, welches einen verteilten Metadatenkatalog und einen Dateireplikationskatalog beinhaltet, ermöglicht es, die oben genannten Verwaltungsmethoden für die NFS-Schnittstelle, CORBA-Middleware und Web Services transparent zu implementieren. Zudem stellt ZIBDMS weitere neue Dateiverwaltungsmethoden zur Verfügung, die sich in die hierarchische Dateisystemsicht integrieren lassen. Metadaten in Form von Attribut-Wert-Paaren lassen sich als virtuelle Datei darstellen und editieren. Eine Collection bietet die Möglichkeit, Dateien in einem logischen virtuellen Ordner zu organisieren. Mit einem Dependency-Graph lassen sich Dateien zueinander in Relation stellen, so dass eine Linkstruktur zwischen Dateien ausgedrückt werden kann. Das Verweiskonzept eines klassischen hierarchischen Dateisystems wird im ZIBDMS um eine neue Verweisart Weak-Link erweitert, um einen aktualisierbaren, konsistenten und zyklenfreien symbolischen Link anzubieten. In einer hierarchischen Sicht lässt sich durch Verweise ein Baum bilden, in dem eine Navigation und Verweisauflistung möglich sind, was außer ZIBDMS noch kein anderes System bietet.
    Description: The hierarchical organization of files has dominated computer systems for many years and this will probably not change in the near future. However, with the rapid annual growth of new data this classical hierarchical file system management method reaches its limitations, even when the user consistently sets up and continually expands an elaborated directory structure with well-disciplined naming. This paper introduces new management methods to maintain an overview of all files which can be embedded in the hierarchical file system. A metadata-based file system, which is based on the hierarchical file system, offers, in addition to hierarchical access, a more flexible and associative access to files via virtual objects by providing query capabilities of index- and metadata which are stored in a database. The query results are presented in a clearly-arranged form of virtual directories and virtual files so that the intuitive hierarchical view continues to be maintained. The data management system ZIBDMS, which contains a distributed metadata catalog and a file replication catalog, permits a transparent implementation of these management methods for the NFS interface, CORBA-middleware or web services. Furthermore, ZIBDMS provides other new file management methods that can be integrated into the hierarchical file system view. Metadata in form of attribute-value-pairs can be presented and edited with a virtual file. A Collection makes it possible to organize files in logical virtual folders. Using a Dependency graph, files can be related to each other and expressed through a link structure between these files. In the ZIBDMS the reference concept of a classical hierarchal file system is extended with a new kind of reference called Weak Link in order to provide up-to-date, consistent and cycle-free symbolic links. With the references a tree can be established in a hierarchical view in which navigation and listing of references are possible; this capability is only possible in the ZIBDMS system.
    Keywords: ddc:000
    Language: German
    Type: reportzib , doc-type:preprint
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 78
    Publication Date: 2024-02-09
    Description: Die hierarchische Organisation von Dateien beherrscht Computersysteme seit vielen Jahren und wird sich vermutlich auch in Zukunft weiterhin durchsetzen. Dennoch stößt diese Verwaltungsmethode in einem klassischen hierarchischen Dateisystem bei dem jährlichen rasanten Zuwachs an neuen Daten an ihre Grenzen, auch wenn Nutzer eine ausgefeilte Verzeichnisstruktur mit einer disziplinierten Namensgebung konsequent auf- und ausbauen. Um den Überblick über die Dateien zu behalten, werden in dieser Arbeit neue Verwaltungsmethoden vorgestellt und in die hierarchische Dateisystemsicht eingebettet. Auf der Basis des hierarchischen Dateisystems bietet ein metadatenbasiertes Dateisystem neben dem hierarchischen Zugriff noch einen flexiblen, assoziativen Zugriff auf Dateien über virtuelle Objekte, indem Suchmethoden in Form einer Anfrage auf in einer Datenbank gespeicherte Index- und Metadaten angewendet werden. Das Ergebnis dieser Abfrage wird mit Hilfe von virtuellen Verzeichnissen und virtuellen Dateien in einer übersichtlichen Form dargestellt, so dass eine Nutzung der hierarchischen Sicht weiterhin intuitiv fortgesetzt wird. Das Datenmanagementsystem ZIBDMS, welches einen verteilten Metadatenkatalog und einen Dateireplikationskatalog beinhaltet, ermöglicht es, die oben genannten Verwaltungsmethoden für die NFS-Schnittstelle, CORBA-Middleware und Web Services transparent zu implementieren. Zudem stellt ZIBDMS weitere neue Dateiverwaltungsmethoden zur Verfügung, die sich in die hierarchische Dateisystemsicht integrieren lassen. Metadaten in Form von Attribut-Wert-Paaren lassen sich als virtuelle Datei darstellen und editieren. Eine Collection bietet die Möglichkeit, Dateien in einem logischen virtuellen Ordner zu organisieren. Mit einem Dependency-Graph lassen sich Dateien zueinander in Relation stellen, so dass eine Linkstruktur zwischen Dateien ausgedrückt werden kann. Das Verweiskonzept eines klassischen hierarchischen Dateisystems wird im ZIBDMS um eine neue Verweisart Weak-Link erweitert, um einen aktualisierbaren, konsistenten und zyklenfreien symbolischen Link anzubieten. In einer hierarchischen Sicht lässt sich durch Verweise ein Baum bilden, in dem eine Navigation und Verweisauflistung möglich sind, was außer ZIBDMS noch kein anderes System bietet.
    Description: The hierarchical organization of files has dominated computer systems for many years and this will probably not change in the near future. However, with the rapid annual growth of new data this classical hierarchical file system management method reaches its limitations, even when the user consistently sets up and continually expands an elaborated directory structure with well-disciplined naming. This paper introduces new management methods to maintain an overview of all files which can be embedded in the hierarchical file system. A metadata-based file system, which is based on the hierarchical file system, offers, in addition to hierarchical access, a more flexible and associative access to files via virtual objects by providing query capabilities of index- and metadata which are stored in a database. The query results are presented in a clearly-arranged form of virtual directories and virtual files so that the intuitive hierarchical view continues to be maintained. The data management system ZIBDMS, which contains a distributed metadata catalog and a file replication catalog, permits a transparent implementation of these management methods for the NFS interface, CORBA-middleware or web services. Furthermore, ZIBDMS provides other new file management methods that can be integrated into the hierarchical file system view. Metadata in form of attribute-value-pairs can be presented and edited with a virtual file. A Collection makes it possible to organize files in logical virtual folders. Using a Dependency graph, files can be related to each other and expressed through a link structure between these files. In the ZIBDMS the reference concept of a classical hierarchal file system is extended with a new kind of reference called Weak Link in order to provide up-to-date, consistent and cycle-free symbolic links. With the references a tree can be established in a hierarchical view in which navigation and listing of references are possible; this capability is only possible in the ZIBDMS system.
    Keywords: ddc:000
    Language: German
    Type: masterthesis , doc-type:masterThesis
    Format: application/pdf
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. More information can be found here...