Im Rahmen der Dissertation soll aus informationswissenschaftlicher Sicht der Prozess der Qualitativen Codierung besser verstanden werden und es sollen digitale Werkzeuge entwickelt werden, um diese zu unterstützen. Der Fokus soll dabei darauf liegen, wie auch bei qualitativen Forschungsmethoden Möglichkeiten zum Austausch und zur Transparenz im Forschungsprozess eingesetzt werden können.
Besonders interessant sind hierbei Austausch und die Wiederverwendung von Codierungsschemata, da diese oftmals bereits in Publikationen beschrieben wurden. Um Austausch und Wiederverwendung zu verbessern, wird eine Ontologie entworfen und ein Softwaretool entwickelt, das diesen Austausch unterstützt. Für eine Bedarfsanalyse werden qualitative Interviews durchgeführt.
Material aus stets neuen Quellen strömt in die Archive, die den Digital Humanities zur Arbeit an Texten zur Verfügung stehen. Die Archive stellen eine Fülle von Textmaterial aus Zeitungen, Blogs, Foren und dem breiten Angebot von User-generated Content bereit. Doch mit der wachsenden Zahl der Quellen steigt die Heterogenität der Daten: Die Archive präsentieren die Daten in einer jeweils eigenen Datenstruktur. Die textlichen Inhalte werden von strukturierenden Elementen ummantelt und mit Metadaten angereichert (z. B. zum Erscheinungsdatum, Autor, Datenquelle, etc.), deren Umfang und Format sich mit unterschiedlichen Datenstrukturen unterscheiden. Die Arbeit anhand von Daten aus unterschiedlichen Quellen verlangt die Erschließung der heterogenen Datenstrukturen.
Hier setzen die Forschungsfragen des vorgelegten Vorhabens an: Welche sprachtechnologischen Methoden eignen sich, um innerhalb einer gegebenen Textsorte auch in heterogenen Datenstrukturen die textlichen Inhalte trennscharf aus dem text-strukturierenden Material herauszuschneiden, die Metadaten zu interpretieren und die Daten in ein standardisiertes und computerlinguistisch weiterverarbeitbares Format zu überführen? Welche Spannbreite heterogener Datenstrukturen lässt sich homogenisieren? Welches Potential liegt für diese Aufgaben in rechenintensiven NLP-Anwendungen wie Syntaxparsern oder Methoden zum Maschinellen Lernen, vor dem Hintergrund der großen Textmengen für die Arbeit am Korpus? Die Arbeit validiert sprachtechnologische Anwendungen unterschiedlicher Komplexitätstiefen und mündet in ein Werkzeug zur Erschließung heterogenen Datenmaterials für die Digital Humanities.
Standard medical language often contains specialized and technical verbal phraseology, which is hard to understand for lay persons. Therefore, the understanding of medical documents is sometimes compromised, although it is crucial for the success of communication between patients and medical staff. The purpose of our study is to propose a model for the automatic simplification of specialized medical texts intended for the general public. The tool should identify the specialized usages of verbs and replace them with easily understandable equivalents. We start from a comparative analysis of verbal phraseologies, within four medical corpora with French texts, which are differentiated according to the levels of expertise of the authors and intended readership ; C1 : texts written by medical experts for medical experts, C2 : texts written by medical experts for medical students, C3 : texts written by medical experts for lay people, C4 : discussions of the people participating on some medical forums. This analysis focuses particularly on subjects and complements of verbs, on verbal valency patterns, collocational patterns and semantic preferences, and allows us to capture the similarities and specificities of the studied discourses and to therefore identify the types of constructions that may need to be simplified. The semantic annotation of the corpora is based on semantic information provided by the Snomed International Terminology (11 categories). Within the framework of this PhD project, a prototype of the simplification tool will be provided.
Das menschliche Suchverhalten wird in der Informationswissenschaft im Fachgebiet Information Seeking erforscht. Das Promotionsvorhaben widmet sich der Untersuchung von Emotionen bei der Internetsuche. Erkenntnisse darüber können als Grundlage für Verbesserungen von Informationssystemen und zur Unterstützung des Informationssuchenden dienen. Das Promotionsvorhaben sieht eine Kombination aus Leitfadeninterviews und Stimulated Recall in den USA und Deutschland vor und folgt der Grounded-Theory-Methodologie.
Die Kommunikation zwischen Auftraggeber und Auftragnehmer in Industrieprojekten verläuft meist über Pflichtenhefte und Lastenhefte. Diese Spezifikationsdokumente beinhalten Anforderungen, welche Aussagen über Eigenschaften oder Leistungen eines Produktes, eines Prozesses oder der am Prozess beteiligten Personen machen. Da Spezifikationsdokumente eine zentrale Rolle in der Entwicklung spielen, sollten diese regelmäßig auf ihre Qualität kontrolliert werden. Ziel bei dieser Qualitätskontrolle ist es, sprachliche und sachliche Fehler in den Spezifikationstexten zu ermitteln und anschließend zu beseitigen.
In der geplanten Promotion soll untersucht werden, inwiefern eine computerlinguistische Korpusanalysemethodik dazu dienen kann, sachliche und sprachliche Inkonsistenzen in Lastenheften zu identifizieren und diese den Lastenheftautoren zu signalisieren, damit die Autoren die potentiell fehlerhaften Anforderungen nochmals überarbeiten und somit verbessern können. Hierbei soll auch ein Fokus darauf liegen, wie diese Warnungen aufgebaut sein könnten: Es sollen nicht nur Warnungen an den Lastenheftautor gegeben, sondern wo immer möglich auch konkrete Verbesserungsvorschläge gemacht werden. Für welche Art von Problemen computerlinguistische Verfahren einsetzbar sind, inwiefern die Warnungen konkretisiert werden können und wie gut sich die computerlinguistischen Verfahren in ein benutzerfreundliches System zur Kontrolle von Lastenheften integrieren lassen, soll in der Dissertation untersucht werden. Gleichzeitig wird untersucht, welche Phänomene, die sprachliche oder sachliche Inkonsistenzen auslösen, durch eine generelle (computer-) linguistische Modellierung erfasst werden können.
Die Promotion wird in der Forschungsabteilung der Daimler AG am Standort Böblingen/Hulb durchgeführt und durch die Universität Hildesheim betreut.
Die Suche nach Patenten ist ein komplexer, iterativer Prozess. Es gibt mehrere Herausforderungen, mit denen Information Professionals bei der Recherche konfrontiert sind. Dies ist zum einen die Vielzahl an existierenden Patenten (50-90 Millionen), aus denen einige wenige relevante identifiziert werden müssen. Zum anderen erschweren die linguistischen Eigenheiten der Patentdokumente das Retrieval. Neben technischen und juristischen Teilen sind insbesondere die ungewöhnlichen und vagen Formulierungen ein Problem. Letztere werden bewusst eingesetzt, um die Erfindung nicht klar offenzulegen und sie möglichst breit zu halten. Ein weiterer Aspekt ist die begrenzte Zeit, die Patentexperten für eine Suche zur Verfügung haben. Gleichzeitig müssen die Rechercheergebnisse aber eine hohe Qualität aufweisen, in einigen Fällen ist ein Recall von 1 gefordert. Um diese Anforderungen möglichst optimal zu erfüllen, sind Systeme und Werkzeuge erforderlich, die die Information Professionals unterstützen.
Eine Möglichkeit ist das Forschungsgebiet Information Visualization, das die Visualisierung abstrakter Daten umfasst und Nutzern somit eine andere Sichtweise auf Daten bietet. Visualisierungen eignen sich, um Informationen effektiv und effizient zu kommunizieren, da sie durch die visuellen Fähigkeiten von Menschen schneller erfassbar sind als die vergleichbare Menge an Text.
Das Dissertationsprojekt beschäftigt sich daher mit der Entwicklung von Visualisierungen, die die Experten während des Patent-Retrieval unterstützen. Sie sollen in verschiedenen Phasen des Prozesses Anwendung finden und interaktiv bedienbar sein. Im Fokus der Entwicklung stehen die Nutzer, die durch mehrere Evaluationen eingebunden werden.
Das Promotionsprojekt entsteht in Kooperation mit dem FIZ Karlsruhe und wird an der Universität Hildesheim durchgeführt.
Die Informationssuche im Internet ist ein iterativer Prozess bei dem sich Ziel- und Lösungsvorstellungen aneinander annähern. Nutzer lernen im Verlauf ihrer Suche neue Dinge hinzu, die den Fortgang der Suche beeinflussen oder der Fokus ihrer Suche verschiebt sich im Suchprozess, weil das ursprüngliche Informationsbedürfnis an neue Gegebenheiten angepasst wird. Darüber hinaus unterscheiden sich technische und inhaltliche Kompetenz nicht nur innerhalb der Nutzerschaft, sondern auch zwischen unterschiedlichen Informationsbedürfnissen.
Ein zentraler Indikator zur Beurteilung der Systemqualität im Kontext von Suchmaschinen ist die Benutzerzufriedenheit. Das Ziel dieses Dissertationsprojektes ist es, den Einfluss von Benutzererwartungen auf die Bewertung von Suchergebnissen zu untersuchen. In Anlehnung an Erkenntnisse aus der Kundenzufriedenheitsforschung werden dazu in experimentellen Benutzerstudien personen- und kontextabhängige Einflussfaktoren auf die Benutzerzufriedenheit untersucht und das individuelle Suchverhalten unter kontrollierten Bedingungen beobachtet.
Das Promotionsprojekt ist im Bereich des Opinion Mining resp. der Sentiment Analysis - einem jungen Forschungsgebiet, das sich mit der Identizierung und Klassizierung von Meinungsäußerungen in natürlichsprachigem Text, z.B. Zeitungsartikeln, Foreneinträgen und Produktrezensionen, befasst - angesiedelt. Im vorliegenden Promotionsprojekt wurden die Produktrezensionen als Anwendungsfall gewählt. Diese stellen sowohl für private Internetnutzer als auch für Unternehmen eine zunehmend wichtige Informationsquelle bezüglich der Qualität von Produkten und ihren Komponenten dar. Die Anzahl der im Internet verfügbaren Kundenrezensionen ist mittlerweile auf ein Maß angewachsen, das eine manuelle Auswertung nahezu unmöglich macht und eine maschinelle Unterstützung fordert. Im Rahmen des Promotionsvorhabens soll ein Prototyp entstehen, der automatisch die in den Rezensionen genannten Produkteigenschaften und die korrespondierende Meinung extrahiert und zusammenfasst. Der Schwerpunkt liegt dabei auf der Mehrsprachigkeit, die die Berücksichtigung von Kundenrezensionen und den darin enthaltenen Meinungsäußerungen in verschiedenen Sprachen zum Ziel hat.
In den letzten Jahren wurde in Baden-Württemberg eine Vielzahl von Veränderungen vorgenommen, die die Lernumgebungen betreffen, in denen Schüler die englische Sprache lernen bzw. erwerben. Grundschulen führten immersiv-reflektiven Englischunterricht ein, während immer mehr weiterführende Schulen ihren Schülern die Möglichkeit zur Teilnahme an bilingualem Sachfachunterricht eröffneten. Da insbesondere in der Sekundarstufe unterschiedliche Genres geschriebenen Textes zum Einsatz kommen, wurde das englische Passiv als diagnostisches Kriterium für die Analyse geschriebener Lernersprache von Schülern der 11. Klasse ausgewählt.
In diesem Promotionsprojekt wurden zwei Textkorpora zusammengestellt. In einem Lehrmittelkorpus wurden Materialien sowohl für den Fremdsprachenunterricht als auch für den bilingualen Sachfachunterricht gesammelt, um zu untersuchen, wie stark die Materialien aus den verschiedenen Lernumgebungen in Bezug auf das englische Passiv tatsächlich variieren. Zur Untersuchung der Lernersprache diente ein Korpus aus etwa 850 argumentativen Schülertexten. Verschiedene Werkzeuge zur linguistischen Annotation (Tokenizer, Lemmatizer, POS-Tagger etc.) wurden getestet, um ein optimales Auffinden sowohl zielsprachlicher als auch fehlerhafter Passivkonstruktionen zu ermöglichen. Die Annotation mit Metadaten zu einer Reihe von Lernervariablen (Begabung, Motivation etc.) ergänzt dieses Korpus.
Das Projekt wurde im Rahmen einer Co-Tutelle-Vereinbarung zwischen der Universität Hildesheim und der Université catholique de Louvain durchgeführt.
Usability-Beauftragte, die innerhalb von Entwicklungsorganisationen tätig sind, setzen Methoden wie Nutzertests, Expertenevaluationen und Umfragen ein, um aktuelle Fragestellungen zu beantworten. Dabei können sich Aspekte der Problemstellung wiederholen, etwa die Anwendungsdomäne oder die Nutzergruppe. In vorherigen Studien können daher Erkenntnisse erarbeitet worden sein, die für die aktuelle Fragestellung relevant und anwendbar sind. Diese verbergen sich jedoch häufig in Präsentationsfolien oder umfangreichen Berichten. Den Zugriff auf diese Infomationen zu ermöglichen hat das Potential, die Arbeit von Usability-Beauftragten effizienter zu gestalten und dabei zu helfen, die Wiederholung von Usability-Fehlern zu vermeiden.
Im Rahmen des Promotionsprojektes werden mögliche Anwendungsfälle für das Informationsmanagement für Ergebnisse aus dem nutzerzentrierten Entwicklungsprozess erhoben und ein Informationsmodell dafür entworfen. Darauf aufbauend wird ein interaktiver Prototyp eines Informationssystems („Usability-Informationssystem“) für einen spezifischen Anwendungsfall entwickelt, welches den effizienten Zugriff auf diese Ergebnisse und damit zusammenhängende Informationen ermöglicht. Der erarbeitete Prototyp wird im Projektkontext evaluiert und die Ergebnisse auf die ermittelten Anwendungsfälle übertragen.
My research deals with a large set of phenomena lying on a continuum between lexicon and syntax and that can be labeled with the name of multiword expressions (MWEs), that is sequences of words that can be seen as a single unit at some level of linguistic analysis. In recent years this topic has gained much attention from the scientific community, especially in computational and lexicographic studies which nowadays can access and process a large amount of textual data.
I am interested in a deep theoretical reflection on the phenomenon (which has no unifying definition in present-day linguistics) starting from a computational treatment of MWEs which includes the comparison and improvement of the strategies for the automatic extraction from texts, and the effort to systematize the categories in which the great variety of entities labeled as MWEs can be grouped. Such categorization should come out from the different behavior that MWEs exhibit with respect to linguistic and statistical parameters, so that it will totally result from the data in a bottom-up perspective.
Since most of the studies on this topic focus on the English language, my research is oriented on languages with a richer morphology, like Italian. Finally I am interested in analyzing the MWEs in the special language of physics, which is a localized linguistic dominion that is particularly rich in MWEs composed by common words.
Das Dissertationsprojekt findet in Kooperation mit FIZ Karlsruhe statt und setzt auf dem vorangehenden Projekt PatentAid auf. Es zielt darauf ab, die Recherche innerhalb der Patentdomäne zu erleichtern, denn insbesondere die Auswahl geeigneter Terme sowie die Formulierung einer entsprechenden Suchanfrage stellen große Herausforderungen innerhalb dieser Domäne dar. Im Rahmen des Kooperationsprojektes werden verschiedene Anfragestrategien untersucht, hinsichtlich ihrer Mehrwerte für die Patentrecherche bewertet und abschließend in einen Prototyp integriert.
Das Projekt untersucht Informationspraxen in dem heterogenen Feld der Bildungsforschung und fokussiert die Erzeugung und den Gebrauch von Informationen bei der Datenerhebung und -analyse. Dabei werden fünf unterschiedliche Forschungsprojekteder Bildungsforschung mit ihren Informationspraxen im Detail ethnografisch erforscht und längerfristig begleitet. Hintergrund der Forschung sind jüngste Diskussionen um E-Science, Informationsinfrastrukturen und virtuelle Forschungsumgebungen sowie entsprechende wissenschaftspoltische Erwartungen an Informationstechnologien zur Unterstützung des Forschungsprozesses.
Die ethnografische Informationsforschung wird in Auseinandersetzung mit der informationswissenschaftlichen Bedarfsanalyse erstellt. Dabei wird sich dezidiert an den Workplace-Studies aus dem Bereich des Computer Supported Collaborative Work (CSCW) sowie den empirischen Labor- und Technologiestudien der Science and Technology Studies (STS) orientiert. Der eigene Forschungsansatz geht dabei weder von einem Technik noch von einem Sozialdeterminismus aus, sondern betrachtet die Informationspraxen als ein hybrides Zusammenwirken von technologischen und sozialen Zusammenhängen. Die Forschung untersucht dies an einer Bandbreite von fünf Forschungsprojekten, die zwar alle Bildung zum Gegenstand haben, diese jedoch an Schulen mit unterschiedlichen methodischen Ansätzen erforschen. Bei der Erhebung der eigenen Daten wird auf ein Methoden-Mix zurückgegriffen, der in seinem Kernbestand aus Artefaktanalyse, Experteninterview sowie teilnehmender Beobachtung besteht.
Wikis werden vermehrt in der Hochschullehre und in anderen Kontexten eingesetzt, da sie selbstorganisiertes Lernen und Arbeiten ermöglichen und damit die Anforderungen des Konstruktivismus erfüllen. Das Ermöglichen von selbstorganisiertem Lernen bedeutet jedoch nicht, dass es auch stattfindet. Stattdessen bedarf auch die Selbstorganisation einer Anleitung und Begleitung. Durch die Fülle an Daten und Inhalten, die durch das Konzept des User- bzw. Learner-generated Content in Wikis entstehen, ist eine solche Begleitung durch die Lehrenden jedoch erschwert. Aus diesem Grund wird im Rahmen dieser Arbeit der Ansatz einer automatisierten Unterstützung vorgestellt, um die Selbstorganisation der Lernenden zu fördern.
Diese automatisierte Unterstützung besteht im Rahmen dieser Arbeit aus einer adaptiven Feedbackkomponente, die durch die Verschränkung der Ansätze des Computer-supported collaborative learning (CSCL), den Prinzipien von Wikis, der Erkenntnisse zum selbstorganisierten Lernen mit den Techniken der adaptiven Kollaborationsunterstützung und den Erkenntnissen der Feedbackforschung zu einem integrierenden Modell entwickelt wird. Die so entstehende adaptive Feedbackkomponente analysiert die Beteiligung der Lernenden und ordnet sie anhand der Analyseergebnisse einer von vier Stufen der Selbstorganisation zu. Je nach Einstufung wird dann entsprechendes informatives tutorielles Feedback generiert, das sowohl die eigene Beteiligung aufzeigt als auch Hinweise für weitere Aktivitäten und mögliche Kollaborationspartner gibt.
In einem Design-based Research-Ansatz wird in iterativer Vorgehensweise eine wiki- basierte Lernumgebung um diese adaptive Feedbackkomponente ergänzt und anhand von Logfile-Analysen, schriftlichen und mündlichen Befragungen sowie Inhaltsanalysen untersucht.
Die Ergebnisse zeigen, dass mit Hilfe des adaptiven Feedbacks Selbstorganisationsprozesse insbesondere bei einer schwach ausgeprägten Selbstorganisationskompetenz befördert werden können. Darüber hinaus wird außerdem weiteres Forschungs- und Entwicklungspotenzial aufgedeckt.
Durch den Wandel web-basierter Anwendungen von informativ hin zu sozial und den Einzug einer neuen, jungen Gruppe von Berufseinsteigern in die Belegschaften heutiger Organisationen entstehen eine Reihe von Fragen in Bezug auf die Gestaltung der betrieblichen Informationsumgebung. Welche Rolle spielen sogenannte soziale Software-Anwendungen als Informationsquellen am Arbeitsplatz? Weisen junge Berufseinsteiger gemeinsame Einstellungen, Bedürfnisse und Verhaltensweisen in der Suche nach Information auf?
Ziel dieser informationswissenschaftlichen Dissertation ist die Beantwortung dieser Fragen im Rahmen einer spezifischen Betrachtungsperspektive und Untersuchungsmethode, sowie eines bestimmten Kontexts und Umfangs. Dabei liegt der Schwerpunkt auf der Modellierung aufgabenbezogenen Informationssuchverhaltens junger Berufseinsteiger in der Unternehmensberatung. Dazu werden die Eigenschaften von sozialer Software sowie der von ihr bereitgestellten Information analysiert und ihre Rolle in der Nutzung von Informationsquellen erhoben. Ein zweistufiger Ansatz aus quantitativen und qualitativen Methoden ermöglicht es, die Rolle von sozialer Software als Informationsquelle am Arbeitsplatz zu analysieren und Empfehlungen zu deren Integration in eine soziale elektronische Informationsumgebung abzuleiten.
Görtz, Matthias (2011): Social Software as a Source of Information in the Workplace Modeling Information Seeking Behavior of Young Professionals in Management Consulting. Boizenburg: Werner Hülsbusch [Schriften zur Informationswissenschaft, 59]
Inspiriert von den aktuellen Entwicklungen im Semantic Web, in dessen Kontext in zunehmendem Maße Domänenontologien und semantisch annotierte Daten publiziert werden, untersucht diese Dissertation, wie sich derartige ontologische Strukturen zur Query Expansion nutzen lassen. Vor diesem Hintergrund wird analysiert, wie sich eine Forschungskontext-Ontologie für die Query Expansion in einem domänenspezifischen Retrievalsystem der Erziehungswissenschaft, der FIS Bildung-Literaturdatenbank, einsetzen lässt.
Um die Potenziale der ontologiebasierten Query Expansion (QE) in diesem Anwendungskontext zu ermitteln, wird ein Retrieval-Prototyp eingesetzt, welcher unterschiedliche Stufen ontologiebasierter QE-Mechanismen implementiert. Auf dieser Basis werden sowohl automatische als auch interaktive Retrieval-Experimente durchgeführt. Auf Grundlage der automatischen Experimente lassen sich die Query Expansion-Effekte einzelner ontologischer Relationen analysieren und vergleichen. Die interaktiven Experimente hingegen zielen darauf ab, die Effektivität der ontologiebasierten QE-Mechanismen in einem realistischeren Anwendungskontext zu untersuchen und Erkenntnisse über das Suchverhalten von Nutzern in ontologiebasierten QE-Umgebungen zu gewinnen.
Die Anforderungen und Bedingungen des Patentretrieval fanden im Information Retrieval lange Zeit keine große Beachtung. Erst in jüngerer Zeit ist Interesse daran aufgekommen. Die überwiegende Mehrheit der Ansätze arbeitet allerdings mit vollautomatischen Methoden. In der vorliegenden Arbeit wird dagegen der Benutzer in den Vordergrund gestellt. In einem iterativen Entwicklungszyklus unter mehrfacher Benutzerevaluierung wird dazu eine methodische Umsetzung konzipiert, der die erforderliche Transparenz der Verfahren hervorhebt. Mit PatentAide wird ein prototypisches Retrievalsystem entwickelt, um das Anwendungspotential der IR-Techniken Ranking und Relevanz-Feedback in interaktiven Szenarios zu untersuchen. Die Testpersonen ziehen einen Mehrwert aus den angebotenen Verfahren und betonen die Aufgabenangemessenheit.
Hackl-Sommer, René (2010): Transparentes Ranking und Relevanz-Feedback im Patentretrieval. Eggenstein-Leopoldshafen: FIZ Karlsruhe.
Kooperatives Lernen zeichnet sich gegenüber dem individuellen Lernen durch eine Vielzahl von Vorteilen aus. Diese äußern sich vornehmlich in einer potentiell erhöhten Lernmotivation, welche sich wiederum in einem positiveren Lernerfolg niederschlägt. Darüber hinaus bietet diese Lernform Möglichkeiten zum Erwerb von Sozialkompetenz und weiteren wichtigen Schlüsselkompetenzen wie beispielsweise Kommunikations- und Kooperationskompetenz.Die vorliegende Arbeit untersucht primär Möglichkeiten, um während der Zusammenarbeit die Ausprägungen aller Teammitglieder hinsichtlich der vorhandenen Rollen zu bestimmen, so dass die Tutorkomponente ihr Unterstützungsangebot an die Rollenzusammensetzung des jeweiligen virtuellen Teams anpassen kann. Ergänzend dazu wurde eine Studie durchgeführt, die sich mit den für diese spezielle Form der Zusammenarbeit typischen Problemen befasst. Das Ziel bestand darin, ein Konzept für eine Problemidentifikationskomponente als Teil der Tutorkomponente zu entwickeln, mit deren Hilfe Problemsituationen während der Zusammenarbeit durch den virtuellen Tutor entdeckt werden können. Die Untersuchungen und Evaluationen sowohl zur Rollen- als auch zur Problemanalyse fanden im wesentlichen auf der Grundlage von Benutzertests und Befragungen statt.
Langemeier, Glenn (2008): Virtuelle Mitglieder in virtuellen Teams. Modellierung, Umsetzung und Evaluation eines analytischen Verfahrens innerhalb einer CSCL-Umgebung. Universität Hildesheim, Dissertation. - URL: web1.bib.uni-hildesheim.de/edocs/2008/559360231/meta/ - Zugriffsdatum: 17.03.2011
Kern der Arbeit ist die Entwicklung eines Rollenmodells für virtuelle Lernteams, die im Bereich der objektorientierten Softwareentwicklung tätig sind. Die Untersuchungen konzentrieren sich dabei auf die synchrone, kurzfristige Zusammenarbeit. Auf der Basis einer Teamanalyse werden Rollenprofile der Teams ermittelt und Defizite identifiziert, die anschließend durch Rollensimulation geeignet kompensiert werden sollen. Dazu wurde zunächst die Rolle des Informationsbeschaffers simuliert, der den Teams bei Problemsituationen durch Bereitstellung von Beispieldokumenten unterstützend zur Seite steht. Die Simulation wurde mittels Wizard-Of-Oz-(WOz) Experimenten evaluiert. Die Ergebnisse überraschen teilweise und werfen eine Reihe weiterer Fragestellungen auf, die es für eine Weiterentwicklung des Konzepts zu diskutieren gilt.
Kölle, Ralph (2007): Java lernen in virtuellen Teams. Kompensation defizitärer Rollen durch Simulation. Boizenburg: Werner Hülsbusch [Schriften zur Informationswissenschaft Bd. 47].
Im Mittelpunkt dieser Arbeit steht ein Benutzermodellierungsansatz, der kulturbedingte Benutzereigenschaften als einen determinierenden Faktor bei der Entwicklung von adaptiven hypermedialen Lernanwendungen betrachtet. Besondere Berücksichtigung finden dabei mehrere der von Kulturanthropologen definierten Kulturdimensionen, die kulturspezifischen Merkmale verschiedener wissenschaftlicher Stile und Diskursstrukturen sowie die Einflüsse kultureller Werte auf Konventionen des Designs von grafischen Benutzerschnittstellen. Ausgehend von der Annahme, dass das jeweilige kulturspezifische Bildungssystem zur Herausbildung des Lernstils eines Einzelnen beiträgt und sich somit auch auf die Akzeptanz und Effektivität der genutzten Software auswirkt, wird diese Analyse auf den Bereich der Didaktik ausgeweitet. Diese kulturorientierte Adaptationsstrategie sieht zunächst den Einsatz von zwei Erhebungsmethoden vor. Das Ziel der Evaluation von Lernprogrammen aus verschiedenen Kulturen in den Bereichen Layout und multimediale Gestaltung, Interaktion und Navigation, Inhaltspräsentation und Didaktik besteht in der Ermittlung von kulturbedingten Designmerkmalen. In der hier betrachteten Fallstudie erfolgt ein Vergleich von britischen und deutschen Lernprogrammen.
Kamentz, Elisabeth (2006): Adaptivität von hypermedialen Lernsystemen. Ein Vorgehensmodell für die Konzeption einer Benutzermodellierungskomponente unter Berücksichtigung kulturbedingter Benutzereigenschaften. Diss. Universität Hildesheim, Hildesheim. Institut für Angewandte Sprachwissenschaft. Online verfügbar unter web1.bib.uni-hildesheim.de/edocs/2006/509905455/doc/509905455.pdf, zuletzt geprüft am 02.03.2011.
Der COSIMIR-Algorithmus leistet Ähnlichkeitsretrieval aus Datenbanken auf der Basis neuronaler Netze. COSIMIR trägt die Adaptivität in den Kern von Information Retrieval Algorithmen und verankert eine lernende Komponente im Kern eines Information Retrieval Systems. Das Ausnutzen von bereits menschlichen Entscheidungen erlaubt die Integration kognitiver Fähigkeiten. Im Mittelpunkt steht ein neuronales Netz, das die Ähnlichkeitsberechnung auch in einem multimodalen Umfeld erlernen kann. Neuronale Netze zeichnen aus sich durch Fehlertoleranz, Effizienz und die Fähigkeit zur vagen Verarbeitung von Informationen. Zahlreiche Information Retrieval Modelle basieren auf neuronalen Netzen, jedoch schöpfen sie das Paradigma nur unzureichend aus. Das COSIMIR-Modell beruht auf dem Backpropagation-Algorithmus und lernt die Berechnung die Ähnlichkeit zwischen Anfrage und Dokument zu berechnen. Dadurch trägt es die kognitive Modellierung in den Kern des Information Retrieval.
Mandl, Thomas (2001): Tolerantes Information Retrieval: Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche. Konstanz: Universitätsverlag [Schriften zur Informationswissenschaft Bd. 39] (vergriffen) URL web1.bib.uni-hildesheim.de/edocs/2005/480465738/meta/