- University of Hildesheim ›
- Bibliothek ›
- Forschen & Publizieren ›
- Publizieren ›
- Universitätsverlag ›
- Verlagsprogramm ›
- Sachgebiete ›
- Wirtschaft, Mathematik und Informatik
Verlagsprogramm Wirtschaft, Mathematik und Informatik
S/N | Publication |
---|---|
8. |
Christiane Klaes
(2022):
Linked Open Data-Strategien zum Identity Management in einer Fachontologie Prototypische Entwicklung eines Workflows zur Aufbereitung und zum Interlinking von Personennamen
130 pages.
Universitätsverlag Hildesheim.
abstract Semantic Web-Technologien und -Anwendungen erfahren gegenwärtig eine hohe Aufmerksamkeit im Forschungsfeld der Wissensrepräsentation. Daten über Personen bilden oft zentrale Knotenpunkte einer Wissensbasis, um verteilte Informationen miteinander zu verknüpfen und zu kontextualisieren. Mit der Fachontologie „LexDo“ wird im Umfeld der europäischen Forschungsinfrastruktur ELEXIS eine neue Linked Open Data-Ressource für die Disziplin der Lexikographie und Wörterbuchforschung entwickelt, die das Wissen der Domäne bündeln und vernetzen soll. Die Integration kuratierter Personendaten in die Fachontologie dient zunächst der Erschließung fachspezifischer Publikationen im Suchportal „ElexiFinder“. Die vorliegende Arbeit zeigt, wie ein solches Personenregister aus den Metadaten einer bestehenden Fachbibliographie mit semi-automatischen Methoden aufgebaut, bereinigt und als Linked Open Data aufbereitet werden kann. Vor diesem Hintergrund wird ein modularer Workflow zur Transformation von Namensliteralen in Entitäten des Semantic Web konzipiert, der Skalierbarkeit und eine hohe Datenqualität gleichermaßen berücksichtigt. Basierend auf Überlegungen zur RDF-Modellierung in LexDo für ein semantisch konsistentes Linking mit Referenzdatensets werden Algorithmen und Funktionen zur Datenbereinigung und zum Interlinking im Open-Source-Tool „OpenRefine“ anhand eines Testauszugs der Fachbibliographie umfassend evaluiert. Die Ergebnisse der Evaluierung münden in praxisorientierte Empfehlungen für den weiteren Ausbau und den Routinebetrieb der Fachontologie.
Semantic Web technologies and applications are steadily gaining traction in the field of knowledge representation. Data about persons are important linking nodes in a variety of Linked Open Data resources across different domains and use cases. The domain ontology „LexDo“ is a newly developed knowledge base for the field of Lexicography and Dictionary Research, primarily intended for publication indexing within the digital library „ElexiFinder“, which is part of the European research infrastructure ELEXIS. This study is focused on developing a modular workflow for populating LexDo with data on persons extracted from bibliographic metadata. To this end, the open source tool „OpenRefine“ is used to semi-automatically clean and transform name literals into Semantic Web entities, which are then linked to reference datasets (VIAF, Wikidata). OpenRefine’s algorithms for clustering and interlinking are evaluated in detail for a sample of persons, focusing on the tool’s possibilities to leverage scalability and data quality. The study’s results lead to practice-oriented recommendations for the ongoing development and long-term maintenance of the domain ontology „LexDo“. |
7. |
Jonas Labode
(2019):
Evaluation des Einsatzes von Elektrofahrzeugen in betrieblichen Fahrzeugflotten mit spezifischen Methoden des Carsharing. Untersuchungen von Nachhaltigkeit und Wirtschaftlichkeit sowie Ansätzen zur Steigerung dieser
177 pages.
Universitätsverlag Hildesheim.
Hildesheim, Univ., Diss. 2019
abstract Die Elektromobilität gilt zunehmend als Hoffnungsträger zur Schadstoffreduktion im Verkehrssektor. Als prädestiniertes Einsatzfeld für Elektrofahrzeuge wird in der Literatur oft die gewerbliche Fahrzeugnutzung genannt, da diese sich durch rationale, wirtschaftlichkeitsorientierte Entscheidungsprozesse und gut vorhersagbare Mobilitätsbedarfe auszeichnet. |
6. |
Julia Judith Jürgens
(2018):
Prozessorientierte Visualisierung im Patent-Retrieval
390 pages.
Universitätsverlag Hildesheim.
Hildesheim, Univ., Diss. 2018
abstract In der Informationswissenschaft nimmt der Benutzer eine entscheidende Position bei der Erforschung neuer Ansätze ein. Aus diesem Grund stehen in dieser Dissertation Patent Information Professionals, die Nutzer von Patent-Retrieval-Systemen, im Mittelpunkt. In einem nutzerzentrierten Gestaltungsprozess wird der Fragestellung nachgegangen, inwiefern Aufgaben im Rahmen des Patent-Retrievals durch Visualisierungen unterstützt werden können und ob sich Mehrwerte im Vergleich zu textuellen Benutzeroberflächen identifizieren lassen. Um dies zu erforschen, wird der Patent-Retrieval-Prozess in einem ersten Schritt analysiert und ein Information Seeking-Modell entwickelt, das die Kernphasen abbildet. Daraufhin liefern bereits durchgeführte Studien und eigene Befragungen Erkenntnisse in Bezug auf besonders aufwendige Prozessschritte. In Kombination mit den Anforderungen und Bedürfnissen der Information Professionals an Recherchesysteme und dem Wissen über bereits für das Patent-Retrieval entwickelte visuelle Werkzeuge ergibt sich eine angemessene Grundlage für die Erstellung eigener Visualisierungskonzepte. Mithilfe von Prototypen werden diese iterativ mit Patentrechercheuren und Fachexperten evaluiert und weiterentwickelt. Anhand des finalen Produkts, einem interaktiven Webprototyp, werden durch quantitative und qualitative Forschungsmethoden Mehrwerte ermittelt. Schlussendlich dienen die gewonnenen Erkenntnisse dazu, Empfehlungen für die Integration von Visualisierungen in Patent-Retrieval-Systeme zu formulieren. |
5. |
Martin Kreh
(2018):
A Link to the Math. Connections Between Number Theory and Other Mathematical Topics
323 pages.
Universitätsverlag Hildesheim.
Hildesheim, Diss. 2017
abstract Number theory is one of the oldest mathematical areas. This is perhaps one of the reasons why there are many connections between number theory and other areas inside mathematics. This thesis is devoted to some of those connections. In the first part of this thesis I describe known connections between number theory and twelve other areas, namely analysis, sequences, applied mathematics (i.e., probability theory and numerical mathematics), topology, graph theory, linear algebra, geometry, algebra, differential geometry, complex analysis, physics and computer science, and algebraic geometry. We will see that the concepts will not only connect number theory with these areas but also yield connections among themselves. In the second part I present some new results in four topics connecting number theory with computer science, graph theory, algebra, and linear algebra and analysis, respectively. [...] In the next topic I determine the neighbourhood of the neighourhood of vertices in some special graphs. This problem can be formulated with generators of subgroups in abelian groups and is a direct generalization of a corresponding result for cyclic groups. In the third chapter I determine the number of solutions of some linear equations over factor rings of principal ideal domains R. In the case R = Z this can be used to bound sums appearing in the circle method. Lastly I investigate the puzzle “Lights Out” as well as variants of it. Of special interest is the question of complete solvability, i.e., those cases in which all starting boards are solvable. I will use various number theoretical tools to give a criterion for complete solvability depending on the board size modulo 30 and show how this puzzle relates to algebraic number theory. |
4. |
Holm Arno Leonhardt
(2018):
The Development of Cartel+ Theory between 1883 and the 1930s – from International Diversity to Convergence
Hildesheimer Beiträge zu Theologie und Geschichte
vol. 10.
number / issue 10.
94 pages.
Universitätsverlag Hildesheim.
This publication is also available in German language
abstract Cartel theory, being the doctrine of the cooperation between entrepreneurs of the same industry, was founded in 1883 by the Austrian Friedrich Kleinwächter. This theory, with its specific concepts, was essentially confined to the German-speaking world until World War I. Other cultural or language areas such as the Anglosphere and the Romanic countries had different terminologies and different insights into the topic: There were theories about syndicates, combinations or trusts. The peculiarities of the respective economic cultures hindered a unification of the terms, their meanings and their underlying theories up to the early 1920s. From the mid-1890s, German cartel theory had undergone several conceptual reforms and outdid its foreign-language counterparts in terms of differentiation. Until about 1910, cartel theory (besides American trust theory) had become the most respected theory on economic unions. After World War I, international cartels became needed. Since 1929, the terminology of German cartel theory became fundamental for the corresponding debates, which had taken place first at the International Economic Conference of the League of Nations in 1927. With the entry into the 1930s, the German cartel doctrine had become a scientific standard worldwide. This recognition makes it clear that German economic science was by no means in every respect ‹backward› in the interwar period, which is the current state of research. Therefore, German economics was better prepared than any other national economic discipline for the development of an ever more organized economy as evoked by the extensive cartelization and state-initiated regulation of the 1930s. So, cartel-related expertise was increasingly used in the policy of the controlled economy of the Third Reich. |
3. |
Jennifer Krisch
(2017):
Sprachliche Kontrolle von Anforderungsdokumenten
237 pages.
Universitätsverlag Hildesheim.
Hildesheim, Univ., Diss. 2017
abstract In der Softwareentwicklung beschreiben Anforderungen, wie sich ein System oder eine Komponente in bestimmten Situationen verhalten soll. Anforderungen stellen also Vorgaben an die Software dar, die entwickelt werden soll. Die natürliche Sprache ist noch immer das vorherrschende Mittel, um Anforderungen zu formulieren. Aus dem Anforderungstext werden Testfälle abgeleitet, mit welchen überprüft wird, ob die in den Anforderungen beschriebenen Funktionen korrekt umgesetzt wurden. Da die Aufwendungen für die Testaktivitäten einen großen Teil der Entwicklungszeit und Entwicklungskosten einnehmen, besteht Bedarf an der sprachlichen Kontrolle von Anforderungstexten. Ist eine Anforderung so formuliert, dass sie beispielsweise aufgrund fehlender Information zu Interpretationsspielraum führt, kann dies dazu führen, dass ein falscher Testfall abgeleitet wird oder eine Funktion falsch entwickelt wird. Ein Ziel dieser Arbeit ist, zu untersuchen, welche Kriterien eine Anforderung aus sprachwissenschaftlicher Sicht erfüllen muss, um als testbar zu gelten bzw. welche sprachlichen Phänomene dazu führen, dass eine Anforderung nicht testbar ist. Hierfür werden Leitlinien aus der technischen Dokumentation sowie Literatur aus dem Bereich des Requirements Engineering analysiert. Die identifizierten Phänomene werden in einem Qualitätsmodell für testbare Anforderungen zusammengetragen, nach linguistischen Kriterien sortiert und nach Kritikalität bewertet. Für ausgewählte Phänomene aus dem Qualitätsmodell wird untersucht, inwiefern sich automatisierte Prüfmethoden entwickeln lassen, die kritische Instanzen der Phänomene zuverlässig identifizieren, also diejenigen, die Interpretationsspielraum verursachen können. Für die Analyse der Phänomene werden computerlinguistische Analysemethoden eingesetzt und Regeln entwickelt, die auf (morpho-)syntaktische Annotationen zugreifen. Sprachliche Phänomene, die einen Einfluss auf die Testbarkeit einer Anforderung haben, lassen sich durch die verwendeten computerlinguistischen Analysemethoden automatisiert identifizieren. Für bestimmte Phänomene können zudem Regeln entworfen werden, welche zuverlässig zwischen den kritischen und unkritischen Instanzen eines Phänomens unterscheiden. Die formbasierte Computerlinguistik stößt allerdings an ihre Grenzen, wenn diese Unterscheidung auf Welt- und Expertenwissen beruht. Die entwickelten Analysemethoden heben sich von existierenden Werkzeugen zur Überprüfung von Texten dadurch ab, dass nicht nur reine Wortlistenabgleiche durchgeführt werden, sondern auch der Satzkontext, in welchem die Phänomene auftreten, in die Analyse miteinbezogen wird. Dieser Ansatz kann die Anzahl der Fehlwarnungen an den Benutzer erheblich reduzieren, sodass der Aufwand bei der Durchsicht der potentiell kritischen Instanzen gesenkt werden kann. |
2. |
Carola Gerwig
(2017):
Optimierung der Energiebilanzen im Microgrid
159 pages.
Universitätsverlag Hildesheim.
Hildesheim, Univ., Diss. 2017
abstract Die Reduktion der Treibhausgasemissionen gehört zu den maßgeblichen Zielen, welche mit der Neuausrichtung der Energienetze hin zu erneuerbaren Energien verfolgt werden. Vor diesem Hintergrund bedarf es geeigneter Modelle und Methoden, mit welchen dezentrale, erneuerbare Energieanlagen in die Energienetze eingebunden und effizient genutzt werden können. Die vorliegende Arbeit stellt dar, wie durch die Vernetzung von lokalen Energieerzeugern und Verbrauchern zu Microgrids eine umweltfreundliche Energieversorgung vor Ort gestaltet werden kann und quantifiziert das Potential dieses Konzepts. |
1. |
Holm Leonhardt
(2016):
Die Entwicklung der Kartelltheorie+ zwischen 1883 und den 1930er Jahren : Von internationaler Vielfalt zu Konvergenz
Hildesheimer Beiträge zu Theologie und Geschichte
vol. 1.
83 pages.
Universitätsverlag Hildesheim.
Diese Publikation ist auch in einer englischsprachigen Fassung erschienen
abstract Die Kartelltheorie, die Lehre von der Kooperation zwischen Unternehmern der gleichen Branche, wurde 1883 vom Österreicher Friedrich Kleinwächter begründet. Diese Theorie mit ihren spezifischen Begrifflichkeiten war bis zum Ersten Weltkrieg im Wesentlichen auf den deutschsprachigen Raum begrenzt. Andere Kulturgebiete wie die Anglosphäre und die Romania hatten abweichende Terminologien und anders gelagerte Erkenntnisperspektiven: es gab dort Syndikats-, Kombinations- oder Trusttheorien. Differenzen in der Wirtschaftskultur verhinderten bis nach dem Ersten Weltkrieg eine Verschmelzung der Begriffsfelder und Theorien. Ab Mitte der 1890er Jahre durchlief die deutschsprachige Kartelltheorie mehrere Begriffsreformen und gewann gegenüber ihren fremdsprachigen Pendants an Differenziertheit. Bis etwa 1910 war die Kartelltheorie (neben der amerikanischen Trustlehre) zur renommiertesten Zusammenschlusstheorie geworden. Nach dem Ersten Weltkrieg wurde das Bedürfnis nach internationalen Kartellen vordringlich. Den von der Weltwirtschaftskonferenz des Völkerbunds 1927 angestoßenen Debatten darüber wurde ab 1929 die Terminologie der deutschen Kartelltheorie zugrundegelegt. Mit Eintritt in die 1930er Jahren war diese Lehre weltweit zum Standard geworden. Jene Anerkennung der deutschen Kartelltheorie macht deutlich, dass die deutsche Volkswirtschaftslehre der Zwischenkriegszeit keineswegs durchweg «rückständig» war. Für die Entwicklung hin zu immer mehr ‹Organisiertem Wirtschaften›, wie sie die 1930er Jahre mit ihrer umfassenden Kartellierung und staatlich initiierter Regulierung brachten, war sie besser vorbereitet als jede andere Nationalökonomie. Kartelltheoretisches Wissen ging später in die Lenkungswirtschaft des Dritten Reiches ein. |