Theresa Kruse: Das Erlernen der mathematischen Fachsprache der Graphentheorie durch Lehramtsstudierende mithilfe eines elektronischen Wörterbuches

In diesem Dissertationsprojekt soll die Verwendung von elektronischen Wörterbüchern im Bereich der Mathematik untersucht werden, genauer im Teilgebiet der Graphentheorie: Unterstützt die Verwendung eines elektronischen Wörterbuches die Herausbildung fachsprachlicher Textproduktionskompetenzen? Und wenn ja: wie?
Um valide Ergebnisse zu erzielen, muss das Wörterbuch an die Bedürfnisse der Nutzenden angepasst sein. Deshalb soll hier ein Wörterbuch für die potenzielle Zielgruppe, Studierende der Mathematik für das Lehramt an Grundschulen, mit Methoden des user-centered design erstellt und dabei ein Verfahren entwickelt und dokumentiert werden, wie sich solche Wörterbücher auch für andere mathematische Bereiche weitgehend automatisiert erstellen lassen.

Eine Evaluation der Wörterbuchnutzung erfolgt mittels einer quantitativen und qualitativen Analyse anhand von Textproduktionsaufgaben. Von dem Dissertationsprojekt sind neue Erkenntnisse für die Hochschuldidaktik im Bereich der Mathematik sowie für die Theorie von Fachwörterbüchern zu erwarten.

Julian Hocker: Semantic Web-Technologien für qualitative Codierung

Im Rahmen der Dissertation soll aus informationswissenschaftlicher Sicht der Prozess der Qualitativen Codierung besser verstanden werden und es sollen digitale Werkzeuge entwickelt werden, um diese zu unterstützen. Der Fokus soll dabei darauf liegen, wie auch bei qualitativen Forschungsmethoden Möglichkeiten zum Austausch und zur Transparenz im Forschungsprozess eingesetzt werden können.

Besonders interessant sind hierbei Austausch und die Wiederverwendung von Codierungsschemata, da diese oftmals bereits in Publikationen beschrieben wurden. Um Austausch und Wiederverwendung zu verbessern, wird eine Ontologie entworfen und ein Softwaretool entwickelt, das diesen Austausch unterstützt. Für eine Bedarfsanalyse werden qualitative Interviews durchgeführt.

Fritz Kliche: Die Erschließung heterogener Textquellen für die Digital Humanities

Material aus stets neuen Quellen strömt in die Archive, die den Digital Humanities zur Arbeit an Texten zur Verfügung stehen. Die Archive stellen eine Fülle von Textmaterial aus Zeitungen, Blogs, Foren und dem breiten Angebot von User-generated Content bereit. Doch mit der wachsenden Zahl der Quellen steigt die Heterogenität der Daten: Die Archive präsentieren die Daten in einer jeweils eigenen Datenstruktur. Die textlichen Inhalte werden von strukturierenden Elementen ummantelt und mit Metadaten angereichert (z. B. zum Erscheinungsdatum, Autor, Datenquelle, etc.), deren Umfang und Format sich mit unterschiedlichen Datenstrukturen unterscheiden. Die Arbeit anhand von Daten aus unterschiedlichen Quellen verlangt die Erschließung der heterogenen Datenstrukturen. 


Hier setzen die Forschungsfragen des vorgelegten Vorhabens an: Welche sprachtechnologischen Methoden eignen sich, um innerhalb einer gegebenen Textsorte auch in heterogenen Datenstrukturen die textlichen Inhalte trennscharf aus dem text-strukturierenden Material herauszuschneiden, die Metadaten zu interpretieren und die Daten in ein standardisiertes und computerlinguistisch weiterverarbeitbares Format zu überführen? Welche Spannbreite heterogener Datenstrukturen lässt sich homogenisieren? Welches Potential liegt für diese Aufgaben in rechenintensiven NLP-Anwendungen wie Syntaxparsern oder Methoden zum Maschinellen Lernen, vor dem Hintergrund der großen Textmengen für die Arbeit am Korpus? Die Arbeit validiert sprachtechnologische Anwendungen unterschiedlicher Komplexitätstiefen und mündet in ein Werkzeug zur Erschließung heterogenen Datenmaterials für die Digital Humanities.

Ornella Wandji Tchami: Verbs in medical corpora of different degrees of specialisation: From linguistics descriptions to a computational application in text simplification

Standard medical language often contains specialized and technical verbal phraseology, which is hard to understand for lay persons. Therefore, the understanding of medical documents is sometimes compromised, although it is crucial for the success of communication between patients and medical staff. The purpose of our study is to propose a model for the automatic simplification of specialized medical texts intended for the general public. The tool should identify the specialized usages of verbs and replace them with easily understandable equivalents. We start from a comparative analysis of verbal phraseologies, within four medical corpora with French texts, which are differentiated according to the levels of expertise of the authors and intended readership ; C1 : texts written by medical experts for medical experts, C2 : texts written by medical experts for medical students, C3 : texts written by medical experts for lay people, C4 : discussions of the people participating on some medical forums. This analysis focuses particularly on subjects and complements of verbs, on verbal valency patterns, collocational patterns and semantic preferences, and allows us to capture the similarities and specificities of the studied discourses and to therefore identify the types of constructions that may need to be simplified. The semantic annotation of the corpora is based on semantic information provided by the Snomed International Terminology (11 categories). Within the framework of this PhD project, a prototype of the simplification tool will be provided.  

Gabriele Irle: Emotionen während der Internetsuche

Das menschliche Suchverhalten wird in der Informationswissenschaft im Fachgebiet Information Seeking erforscht. Das Promotionsvorhaben widmet sich der Untersuchung von Emotionen bei der Internetsuche. Erkenntnisse darüber können als Grundlage für Verbesserungen von Informationssystemen und zur Unterstützung des Informationssuchenden dienen. Das Promotionsvorhaben sieht eine Kombination aus Leitfadeninterviews und Stimulated Recall in den USA und Deutschland vor und folgt der Grounded-Theory-Methodologie.

Jennifer Krisch: Sprachliche und sachliche Kontrolle von natürlich sprachlichen Anforderungsdokumenten

Die Kommunikation zwischen Auftraggeber und Auftragnehmer in Industrieprojekten verläuft meist über Pflichtenhefte und Lastenhefte. Diese Spezifikationsdokumente beinhalten Anforderungen, welche Aussagen über Eigenschaften oder Leistungen eines Produktes, eines Prozesses oder der am Prozess beteiligten Personen machen. Da Spezifikationsdokumente eine zentrale Rolle in der Entwicklung spielen, sollten diese regelmäßig auf ihre Qualität kontrolliert werden. Ziel bei dieser Qualitätskontrolle ist es, sprachliche und sachliche Fehler in den Spezifikationstexten zu ermitteln und anschließend zu beseitigen.

In der geplanten Promotion soll untersucht werden, inwiefern eine computerlinguistische Korpusanalysemethodik dazu dienen kann, sachliche und sprachliche Inkonsistenzen in Lastenheften zu identifizieren und diese den Lastenheftautoren zu signalisieren, damit die Autoren die potentiell fehlerhaften Anforderungen nochmals überarbeiten und somit verbessern können. Hierbei soll auch ein Fokus darauf liegen, wie diese Warnungen aufgebaut sein könnten: Es sollen nicht nur Warnungen an den Lastenheftautor gegeben, sondern wo immer möglich auch konkrete Verbesserungsvorschläge gemacht werden. Für welche Art von Problemen computerlinguistische Verfahren einsetzbar sind, inwiefern die Warnungen konkretisiert werden können und wie gut sich die computerlinguistischen Verfahren in ein benutzerfreundliches System zur Kontrolle von Lastenheften integrieren lassen, soll in der Dissertation untersucht werden. Gleichzeitig wird untersucht, welche Phänomene, die sprachliche oder sachliche Inkonsistenzen auslösen, durch eine generelle (computer-) linguistische Modellierung erfasst werden können.

Die Promotion wird in der Forschungsabteilung der Daimler AG am Standort Böblingen/Hulb durchgeführt und durch die Universität Hildesheim betreut.

Julia Jürgens: Prozessorientierte Visualisierung im Patent-Retrieval

Die Suche nach Patenten ist ein komplexer, iterativer Prozess. Es gibt mehrere Herausforderungen, mit denen Information Professionals bei der Recherche konfrontiert sind. Dies ist zum einen die Vielzahl an existierenden Patenten (50-90 Millionen), aus denen einige wenige relevante identifiziert werden müssen. Zum anderen erschweren die linguistischen Eigenheiten der Patentdokumente das Retrieval. Neben technischen und juristischen Teilen sind insbesondere die ungewöhnlichen und vagen Formulierungen ein Problem. Letztere werden bewusst eingesetzt, um die Erfindung nicht klar offenzulegen und sie möglichst breit zu halten. Ein weiterer Aspekt ist die begrenzte Zeit, die Patentexperten für eine Suche zur Verfügung haben. Gleichzeitig müssen die Rechercheergebnisse aber eine hohe Qualität aufweisen, in einigen Fällen ist ein Recall von 1 gefordert. Um diese Anforderungen möglichst optimal zu erfüllen, sind Systeme und Werkzeuge erforderlich, die die Information Professionals unterstützen. 

Eine Möglichkeit ist das Forschungsgebiet Information Visualization, das die Visualisierung abstrakter Daten umfasst und Nutzern somit eine andere Sichtweise auf Daten bietet. Visualisierungen eignen sich, um Informationen effektiv und effizient zu kommunizieren, da sie durch die visuellen Fähigkeiten von Menschen schneller erfassbar sind als die vergleichbare Menge an Text.

Das Dissertationsprojekt beschäftigt sich daher mit der Entwicklung von Visualisierungen, die die Experten während des Patent-Retrieval unterstützen. Sie sollen in verschiedenen Phasen des Prozesses Anwendung finden und interaktiv bedienbar sein. Im Fokus der Entwicklung stehen die Nutzer, die durch mehrere Evaluationen eingebunden werden.

Das Promotionsprojekt entsteht in Kooperation mit dem FIZ Karlsruhe und wird an der Universität Hildesheim durchgeführt.

Katrin Werner: Bewertung von Suchergebnissen: Zur Rolle von Erwartungseinflüssen im Umgang mit Suchmaschinen

Die Informationssuche im Internet ist ein iterativer Prozess bei dem sich Ziel- und Lösungsvorstellungen aneinander annähern. Nutzer lernen im Verlauf ihrer Suche neue Dinge hinzu, die den Fortgang der Suche beeinflussen oder der Fokus ihrer Suche verschiebt sich im Suchprozess, weil das ursprüngliche Informationsbedürfnis an neue Gegebenheiten angepasst wird. Darüber hinaus unterscheiden sich technische und inhaltliche Kompetenz nicht nur innerhalb der Nutzerschaft, sondern auch zwischen unterschiedlichen Informationsbedürfnissen.

Ein zentraler Indikator zur Beurteilung der Systemqualität im Kontext von Suchmaschinen ist die Benutzerzufriedenheit. Das Ziel dieses Dissertationsprojektes ist es, den Einfluss von Benutzererwartungen auf die Bewertung von Suchergebnissen zu untersuchen. In Anlehnung an Erkenntnisse aus der Kundenzufriedenheitsforschung werden dazu in experimentellen Benutzerstudien personen- und kontextabhängige Einflussfaktoren auf die Benutzerzufriedenheit untersucht und das individuelle Suchverhalten unter kontrollierten Bedingungen beobachtet.

Julia Maria Struß: Crosslinguales Produktretrieval: Extrahieren von Produkteigentschaften und Analyse zugehöriger Meinungsäußerungen

Das Promotionsprojekt ist im Bereich des Opinion Mining resp. der Sentiment Analysis - einem jungen Forschungsgebiet, das sich mit der Identizierung und Klassizierung von Meinungsäußerungen in natürlichsprachigem Text, z.B. Zeitungsartikeln, Foreneinträgen und Produktrezensionen, befasst - angesiedelt. Im vorliegenden Promotionsprojekt wurden die Produktrezensionen als Anwendungsfall gewählt. Diese stellen sowohl für private Internetnutzer als auch für Unternehmen eine zunehmend wichtige Informationsquelle bezüglich der Qualität von Produkten und ihren Komponenten dar. Die Anzahl der im Internet verfügbaren Kundenrezensionen ist mittlerweile auf ein Maß angewachsen, das eine manuelle Auswertung nahezu unmöglich macht und eine maschinelle Unterstützung fordert. Im Rahmen des Promotionsvorhabens soll ein Prototyp entstehen, der automatisch die in den Rezensionen genannten Produkteigenschaften und die korrespondierende Meinung extrahiert und zusammenfasst. Der Schwerpunkt liegt dabei auf der Mehrsprachigkeit, die die Berücksichtigung von Kundenrezensionen und den darin enthaltenen Meinungsäußerungen in verschiedenen Sprachen zum Ziel hat.  

Verena Möller: English passive constructions in the interlanguage of German learners

 

In den letzten Jahren wurde in Baden-Württemberg eine Vielzahl von Veränderungen vorgenommen, die die Lernumgebungen betreffen, in denen Schüler die englische Sprache lernen bzw. erwerben. Grundschulen führten immersiv-reflektiven Englischunterricht ein, während immer mehr weiterführende Schulen ihren Schülern die Möglichkeit zur Teilnahme an bilingualem Sachfachunterricht eröffneten. Da insbesondere in der Sekundarstufe unterschiedliche Genres geschriebenen Textes zum Einsatz kommen, wurde das englische Passiv als diagnostisches Kriterium für die Analyse geschriebener Lernersprache von Schülern der 11. Klasse ausgewählt.

In diesem Promotionsprojekt wurden zwei Textkorpora zusammengestellt. In einem Lehrmittelkorpus wurden Materialien sowohl für den Fremdsprachenunterricht als auch für den bilingualen Sachfachunterricht gesammelt, um zu untersuchen, wie stark die Materialien aus den verschiedenen Lernumgebungen in Bezug auf das englische Passiv tatsächlich variieren. Zur Untersuchung der Lernersprache diente ein Korpus aus etwa 850 argumentativen Schülertexten. Verschiedene Werkzeuge zur linguistischen Annotation (Tokenizer, Lemmatizer, POS-Tagger etc.) wurden getestet, um ein optimales Auffinden sowohl zielsprachlicher als auch fehlerhafter Passivkonstruktionen zu ermöglichen. Die Annotation mit Metadaten zu einer Reihe von Lernervariablen (Begabung, Motivation etc.) ergänzt dieses Korpus.

Das Projekt wurde im Rahmen einer Co-Tutelle-Vereinbarung zwischen der Universität Hildesheim und der Université catholique de Louvain durchgeführt.

Ben Heuwing: Modellierung von Usability-Evaluationsergebnissen für die integrierte Analyse und nachhaltige Nutzung

Usability-Beauftragte, die innerhalb von Entwicklungsorganisationen tätig sind, setzen Methoden wie Nutzertests, Expertenevaluationen und Umfragen ein, um aktuelle Fragestellungen zu beantworten. Dabei können sich Aspekte der Problemstellung wiederholen, etwa die Anwendungsdomäne oder die Nutzergruppe. In vorherigen Studien können daher Erkenntnisse erarbeitet worden sein, die für die aktuelle Fragestellung relevant und anwendbar sind. Diese verbergen sich jedoch häufig in Präsentationsfolien oder umfangreichen Berichten. Den Zugriff auf diese Infomationen zu ermöglichen hat das Potential, die Arbeit von Usability-Beauftragten effizienter zu gestalten und dabei zu helfen, die Wiederholung von Usability-Fehlern zu vermeiden.

Im Rahmen des Promotionsprojektes werden mögliche Anwendungsfälle für das Informationsmanagement für Ergebnisse aus dem nutzerzentrierten Entwicklungsprozess erhoben und ein Informationsmodell dafür entworfen. Darauf aufbauend wird ein interaktiver Prototyp eines Informationssystems („Usability-Informationssystem“) für einen spezifischen Anwendungsfall entwickelt, welches den effizienten Zugriff auf diese Ergebnisse und damit zusammenhängende Informationen ermöglicht. Der erarbeitete Prototyp wird im Projektkontext evaluiert und  die Ergebnisse auf die ermittelten Anwendungsfälle übertragen.

Anke Reinhold: Linked Science in der Bildungsforschung – Nutzerzentrierte Modellierung und Evaluation einer Ontologie für qualitative Forschungsdaten der Unterrichtsvideographie mit Semantic MediaWiki

Luigi Squillante: Multiword expressions in languages with a rich morphology: a theoretical and computational study on the Italian language.

My research deals with a large set of phenomena lying on a continuum between lexicon and syntax and that can be labeled with the name of multiword expressions (MWEs), that is sequences of words that can be seen as a single unit at some level of linguistic analysis. In recent years this topic has gained much attention from the scientific community, especially in computational and lexicographic studies which nowadays can access and process a large amount of textual data.

I am interested in a deep theoretical reflection on the phenomenon (which has no unifying definition in present-day linguistics) starting from a computational treatment of MWEs which includes the comparison and improvement of the strategies for the automatic extraction from texts, and the effort to systematize the categories in which the great variety of entities labeled as MWEs can be grouped. Such categorization should come out from the different behavior that MWEs exhibit with respect to linguistic and statistical parameters, so that it will totally result from the data in a bottom-up perspective.

Since most of the studies on this topic focus on the English language, my research is oriented on languages with a richer morphology, like Italian. Finally I am interested in analyzing the MWEs in the special language of physics, which is a localized linguistic dominion that is particularly rich in MWEs composed by common words.

Daniela Becks: Entwicklung eines Framework für die begriffliche Optimierung von Patentanfragen

Das Dissertationsprojekt findet in Kooperation mit FIZ Karlsruhe statt und setzt auf dem vorangehenden Projekt PatentAid auf. Es zielt darauf ab, die Recherche innerhalb der Patentdomäne zu erleichtern, denn insbesondere die Auswahl geeigneter Terme sowie die Formulierung einer entsprechenden Suchanfrage stellen große Herausforderungen innerhalb dieser Domäne dar. Im Rahmen des Kooperationsprojektes werden verschiedene Anfragestrategien untersucht, hinsichtlich ihrer Mehrwerte für die Patentrecherche bewertet und abschließend in einen Prototyp integriert.

Christoph Schindler: Informationspraxen in der Bildungsforschung. Ethnografische Informationsforschung für praxisbasiertes Design von Infrastrukturen

Das Projekt untersucht Informationspraxen in dem heterogenen Feld der Bildungsforschung und fokussiert die Erzeugung und den Gebrauch von Informationen bei der Datenerhebung und -analyse. Dabei werden fünf unterschiedliche Forschungsprojekteder Bildungsforschung mit ihren Informationspraxen im Detail ethnografisch erforscht und längerfristig begleitet. Hintergrund der Forschung sind jüngste Diskussionen um E-Science, Informationsinfrastrukturen und virtuelle Forschungsumgebungen sowie entsprechende wissenschaftspoltische Erwartungen an Informationstechnologien zur Unterstützung des Forschungsprozesses.

Die ethnografische Informationsforschung wird in Auseinandersetzung mit der informationswissenschaftlichen Bedarfsanalyse erstellt. Dabei wird sich dezidiert an den Workplace-Studies aus dem Bereich des Computer Supported Collaborative Work (CSCW) sowie den empirischen Labor- und Technologiestudien der Science and Technology Studies (STS) orientiert. Der eigene Forschungsansatz geht dabei weder von einem Technik noch von einem Sozialdeterminismus aus, sondern betrachtet die Informationspraxen als ein hybrides Zusammenwirken von technologischen und sozialen Zusammenhängen. Die Forschung untersucht dies an einer Bandbreite von fünf Forschungsprojekten, die zwar alle Bildung zum Gegenstand haben, diese jedoch an Schulen mit unterschiedlichen methodischen Ansätzen erforschen. Bei der Erhebung der eigenen Daten wird auf ein Methoden-Mix zurückgegriffen, der in seinem Kernbestand aus Artefaktanalyse, Experteninterview sowie teilnehmender Beobachtung besteht.

 

Saskia-Janina Untiet-Kepp: Adaptives Feedback zur Unterstützung in kollaborativen Lernumgebungen

Wikis werden vermehrt in der Hochschullehre und in anderen Kontexten eingesetzt, da sie selbstorganisiertes Lernen und Arbeiten ermöglichen und damit die Anforderungen des Konstruktivismus erfüllen. Das Ermöglichen von selbstorganisiertem Lernen bedeutet jedoch nicht, dass es auch stattfindet. Stattdessen bedarf auch die Selbstorganisation einer Anleitung und Begleitung. Durch die Fülle an Daten und Inhalten, die durch das Konzept des User- bzw. Learner-generated Content in Wikis entstehen, ist eine solche Begleitung durch die Lehrenden jedoch erschwert. Aus diesem Grund wird im Rahmen dieser Arbeit der Ansatz einer automatisierten Unterstützung vorgestellt, um die Selbstorganisation der Lernenden zu fördern.
Diese automatisierte Unterstützung besteht im Rahmen dieser Arbeit aus einer adaptiven Feedbackkomponente, die durch die Verschränkung der Ansätze des Computer-supported collaborative learning (CSCL), den Prinzipien von Wikis, der Erkenntnisse zum selbstorganisierten Lernen mit den Techniken der adaptiven Kollaborationsunterstützung und den Erkenntnissen der Feedbackforschung zu einem integrierenden Modell entwickelt wird. Die so entstehende adaptive Feedbackkomponente analysiert die Beteiligung der Lernenden und ordnet sie anhand der Analyseergebnisse einer von vier Stufen der Selbstorganisation zu. Je nach Einstufung wird dann entsprechendes informatives tutorielles Feedback generiert, das sowohl die eigene Beteiligung aufzeigt als auch Hinweise für weitere Aktivitäten und mögliche Kollaborationspartner gibt.
In einem Design-based Research-Ansatz wird in iterativer Vorgehensweise eine wiki- basierte Lernumgebung um diese adaptive Feedbackkomponente ergänzt und anhand von Logfile-Analysen, schriftlichen und mündlichen Befragungen sowie Inhaltsanalysen untersucht.
Die    Ergebnisse    zeigen,    dass    mit    Hilfe    des    adaptiven    Feedbacks Selbstorganisationsprozesse    insbesondere    bei    einer    schwach    ausgeprägten Selbstorganisationskompetenz befördert werden können. Darüber hinaus wird außerdem weiteres Forschungs- und Entwicklungspotenzial aufgedeckt.

Matthias Görtz: Social Software als Informationsquelle am Arbeitsplatz - Modellierung des Informationssuchverhaltens von Young Professionals in der Unternehmensberatung

Durch den Wandel web-basierter Anwendungen von informativ hin zu sozial und den Einzug einer neuen, jungen Gruppe von Berufseinsteigern in die Belegschaften heutiger Organisationen entstehen eine Reihe von Fragen in Bezug auf die Gestaltung der betrieblichen Informationsumgebung. Welche Rolle spielen sogenannte soziale Software-Anwendungen als Informationsquellen am Arbeitsplatz? Weisen junge Berufseinsteiger gemeinsame Einstellungen, Bedürfnisse und Verhaltensweisen in der Suche nach Information auf? 

Ziel dieser informationswissenschaftlichen Dissertation ist die Beantwortung dieser Fragen im Rahmen einer spezifischen Betrachtungsperspektive und Untersuchungsmethode, sowie eines bestimmten Kontexts und Umfangs. Dabei liegt der Schwerpunkt auf der Modellierung aufgabenbezogenen Informationssuchverhaltens junger Berufseinsteiger in der Unternehmensberatung. Dazu werden die Eigenschaften von sozialer Software sowie der von ihr bereitgestellten Information analysiert und ihre Rolle in der Nutzung von Informationsquellen erhoben. Ein zweistufiger Ansatz aus quantitativen und qualitativen Methoden ermöglicht es, die Rolle von sozialer Software als Informationsquelle am Arbeitsplatz zu analysieren und Empfehlungen zu deren Integration in eine soziale elektronische Informationsumgebung abzuleiten.


Görtz, Matthias (2011): Social Software as a Source of Information in the Workplace Modeling Information Seeking Behavior of Young Professionals in Management Consulting. Boizenburg: Werner Hülsbusch [Schriften zur Informationswissenschaft, 59]

Carola Carstens: Ontologiebasierte Query Expansion – Retrieval-Unterstützung für die Domäne der Erziehungswissenschaft

Inspiriert von den aktuellen Entwicklungen im Semantic Web, in dessen Kontext in zunehmendem Maße Domänenontologien und semantisch annotierte Daten publiziert werden, untersucht diese Dissertation, wie sich derartige ontologische Strukturen zur Query Expansion nutzen lassen. Vor diesem Hintergrund wird analysiert, wie sich eine Forschungskontext-Ontologie für die Query Expansion in einem domänenspezifischen Retrievalsystem der Erziehungswissenschaft, der FIS Bildung-Literaturdatenbank, einsetzen lässt.

Um die Potenziale der ontologiebasierten Query Expansion (QE) in diesem Anwendungskontext zu ermitteln, wird ein Retrieval-Prototyp eingesetzt, welcher unterschiedliche Stufen ontologiebasierter QE-Mechanismen implementiert. Auf dieser Basis werden sowohl automatische als auch interaktive Retrieval-Experimente durchgeführt. Auf Grundlage der automatischen Experimente lassen sich die Query Expansion-Effekte einzelner ontologischer Relationen analysieren und vergleichen. Die interaktiven Experimente hingegen zielen darauf ab, die Effektivität der ontologiebasierten QE-Mechanismen in einem realistischeren Anwendungskontext zu untersuchen und Erkenntnisse über das Suchverhalten von Nutzern in ontologiebasierten QE-Umgebungen zu gewinnen.

René Hackl-Sommer: Transparentes Ranking und Relevanz-Feedback im Patentretrieval

Die Anforderungen und Bedingungen des Patentretrieval fanden im Information Retrieval lange Zeit keine große Beachtung. Erst in jüngerer Zeit ist Interesse daran aufgekommen. Die überwiegende Mehrheit der Ansätze arbeitet allerdings mit vollautomatischen Methoden. In der vorliegenden Arbeit wird dagegen der Benutzer in den Vordergrund gestellt. In einem iterativen Entwicklungszyklus unter mehrfacher Benutzerevaluierung wird dazu eine methodische Umsetzung konzipiert, der die erforderliche Transparenz der Verfahren hervorhebt. Mit PatentAide wird ein prototypisches Retrievalsystem entwickelt, um das Anwendungspotential der IR-Techniken Ranking und Relevanz-Feedback in interaktiven Szenarios zu untersuchen. Die Testpersonen ziehen einen Mehrwert aus den angebotenen Verfahren und betonen die Aufgabenangemessenheit.

Hackl-Sommer, René (2010): Transparentes Ranking und Relevanz-Feedback im Patentretrieval. Eggenstein-Leopoldshafen: FIZ Karlsruhe.

Glenn Langemeier: Virtuelle Mitglieder in virtuellen Teams - Modellierung, Umsetzung und Evaluation eines analytischen Verfahrens innerhalb einer CSCL-Umgebung

Kooperatives Lernen zeichnet sich gegenüber dem individuellen Lernen durch eine Vielzahl von Vorteilen aus. Diese äußern sich vornehmlich in einer potentiell erhöhten Lernmotivation, welche sich wiederum in einem positiveren Lernerfolg niederschlägt. Darüber hinaus bietet diese Lernform Möglichkeiten zum Erwerb von Sozialkompetenz und weiteren wichtigen Schlüsselkompetenzen wie beispielsweise Kommunikations- und Kooperationskompetenz.Die vorliegende Arbeit untersucht primär Möglichkeiten, um während der Zusammenarbeit die Ausprägungen aller Teammitglieder hinsichtlich der vorhandenen Rollen zu bestimmen, so dass die Tutorkomponente ihr Unterstützungsangebot an die Rollenzusammensetzung des jeweiligen virtuellen Teams anpassen kann. Ergänzend dazu wurde eine Studie durchgeführt, die sich mit den für diese spezielle Form der Zusammenarbeit typischen Problemen befasst. Das Ziel bestand darin, ein Konzept für eine Problemidentifikationskomponente als Teil der Tutorkomponente zu entwickeln, mit deren Hilfe Problemsituationen während der Zusammenarbeit durch den virtuellen Tutor entdeckt werden können. Die Untersuchungen und Evaluationen sowohl zur Rollen- als auch zur Problemanalyse fanden im wesentlichen auf der Grundlage von Benutzertests und Befragungen statt.

Langemeier, Glenn (2008): Virtuelle Mitglieder in virtuellen Teams. Modellierung, Umsetzung und Evaluation eines analytischen Verfahrens innerhalb einer CSCL-Umgebung. Universität Hildesheim, Dissertation. - URL:  web1.bib.uni-hildesheim.de/edocs/2008/559360231/meta/ - Zugriffsdatum: 17.03.2011

Ralph Kölle: Java lernen in virtuellen Teams - Kompensation defizitärer Rollen durch Simulation

Kern der Arbeit ist die Entwicklung eines Rollenmodells für virtuelle Lernteams, die im Bereich der objektorientierten Softwareentwicklung tätig sind. Die Untersuchungen konzentrieren sich dabei auf die synchrone, kurzfristige Zusammenarbeit. Auf der Basis einer Teamanalyse werden Rollenprofile der Teams ermittelt und Defizite identifiziert, die anschließend durch Rollensimulation geeignet kompensiert werden sollen. Dazu wurde zunächst die Rolle des Informationsbeschaffers simuliert, der den Teams bei Problemsituationen durch Bereitstellung von Beispieldokumenten unterstützend zur Seite steht. Die Simulation wurde mittels Wizard-Of-Oz-(WOz) Experimenten evaluiert. Die Ergebnisse überraschen teilweise und werfen eine Reihe weiterer Fragestellungen auf, die es für eine Weiterentwicklung des Konzepts zu diskutieren gilt.

Kölle, Ralph (2007): Java lernen in virtuellen Teams. Kompensation defizitärer Rollen durch Simulation. Boizenburg: Werner Hülsbusch [Schriften zur Informationswissenschaft Bd. 47].

Elisabeth Kamentz: Adaptivität von hypermedialen Lernsystemen : Ein Vorgehensmodell für die Konzeption einer Benutzermodellierungskomponente unter Berücksichtigung kulturbedingter Benutzereigenschaften

Im Mittelpunkt dieser Arbeit steht ein Benutzermodellierungsansatz, der kulturbedingte Benutzereigenschaften als einen determinierenden Faktor bei der Entwicklung von adaptiven hypermedialen Lernanwendungen betrachtet. Besondere Berücksichtigung finden dabei mehrere der von Kulturanthropologen definierten Kulturdimensionen, die kulturspezifischen Merkmale verschiedener wissenschaftlicher Stile und Diskursstrukturen sowie die Einflüsse kultureller Werte auf Konventionen des Designs von grafischen Benutzerschnittstellen. Ausgehend von der Annahme, dass das jeweilige kulturspezifische Bildungssystem zur Herausbildung des Lernstils eines Einzelnen beiträgt und sich somit auch auf die Akzeptanz und Effektivität der genutzten Software auswirkt, wird diese Analyse auf den Bereich der Didaktik ausgeweitet. Diese kulturorientierte Adaptationsstrategie sieht zunächst den Einsatz von zwei Erhebungsmethoden vor. Das Ziel der Evaluation von Lernprogrammen aus verschiedenen Kulturen in den Bereichen Layout und multimediale Gestaltung, Interaktion und Navigation, Inhaltspräsentation und Didaktik besteht in der Ermittlung von kulturbedingten Designmerkmalen. In der hier betrachteten Fallstudie erfolgt ein Vergleich von britischen und deutschen Lernprogrammen.


Kamentz, Elisabeth (2006): Adaptivität von hypermedialen Lernsystemen. Ein Vorgehensmodell für die Konzeption einer Benutzermodellierungskomponente unter Berücksichtigung kulturbedingter Benutzereigenschaften. Diss. Universität Hildesheim, Hildesheim. Institut für Angewandte Sprachwissenschaft. Online verfügbar unter web1.bib.uni-hildesheim.de/edocs/2006/509905455/doc/509905455.pdf, zuletzt geprüft am 02.03.2011.

Thomas Mandl: Tolerantes Information Retrieval: Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche

Der COSIMIR-Algorithmus leistet Ähnlichkeitsretrieval aus Datenbanken auf der Basis neuronaler Netze. COSIMIR trägt die Adaptivität in den Kern von Information Retrieval Algorithmen und verankert eine lernende Komponente im Kern eines Information Retrieval Systems. Das Ausnutzen von bereits menschlichen Entscheidungen erlaubt die Integration kognitiver Fähigkeiten. Im Mittelpunkt steht ein neuronales Netz, das die Ähnlichkeitsberechnung auch in einem multimodalen Umfeld erlernen kann. Neuronale Netze zeichnen aus sich durch Fehlertoleranz, Effizienz und die Fähigkeit zur vagen Verarbeitung von Informationen. Zahlreiche Information Retrieval Modelle basieren auf neuronalen Netzen, jedoch schöpfen sie das Paradigma nur unzureichend aus. Das COSIMIR-Modell beruht auf dem Backpropagation-Algorithmus und lernt die Berechnung die Ähnlichkeit zwischen Anfrage und Dokument zu berechnen. Dadurch trägt es die kognitive Modellierung in den Kern des Information Retrieval.

Mandl, Thomas (2001): Tolerantes Information Retrieval: Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche. Konstanz: Universitätsverlag [Schriften zur Informationswissenschaft Bd. 39] (vergriffen) URL web1.bib.uni-hildesheim.de/edocs/2005/480465738/meta/