T4P - Arbeitspakete

AP1: Erhebung der genauen Benutzerbedarfe

Da für das Projektvorhaben keine technikgetriebene, sondern eine benutzerorientierte Perspektive angelegt wird, ist es unabdingbar, Arbeitsumfeld und Informationsverhalten der späteren Benutzer zu kennen. Um die aus der Literatur gewonnenen diesbezüglichen Erkenntnisse in der Praxis zu validieren und in ihrer Komplexität zu erfassen, werden die verschiedenen Bedarfe durch Befragungen (z.B. durch leitfragengesteuerte Interviews) erhoben. Die Analyseergebnisse bilden die Basis für den Funktionsumfang und die Darstellungsform bei der Prototypentwicklung und dienen auch dazu, bei der Evaluierung auf authentisches Material zurückgreifen zu können. Für die Erhebung sollen Wissenschaftler und Information Professionals aus verschiedenen Kontexten einbezogen werden.

AP2: Definition und Erstellung des Korpus

Die STN-Datenbank EPFULL enthält die Volltexte sowie alle patentrelevanten Metadaten von über 3,2 Millionen europäischen Patentanmeldungen. 76% davon liegen in englischer Sprache vor. Zunächst müssen Umfang und Anforderungen an das Korpus untersucht werden und die entsprechend benötigten Datenfelder und Patente aus dem STN-Datenbanksystem extrahiert und in ein geeignetes Format überführt werden.

AP3: Text Mining und Trendanalyse

Auf mittels Überblicksrecherchen gebildeten Teilmengen werden verschiedene TDT-Verfahren erprobt, die eine Abfolge mehrerer linguistischer und statistischer Verarbeitungsschritte darstellen. Am Beginn steht die Textsegmentierung und das Identifizieren von zulässigen Teilstrukturen wie Nominal- bzw. Verbalphrasen (Chunking). Anschließend wird der Synonymieproblematik Rechnung getragen. Darauf setzen Clusterverfahren und die damit verbundenen Ähnlichkeits- und Diskriminanzanalysen auf, wobei bei der Clusterbildung primär partitionierende und probabilistische Verfahren zum Einsatz kommen, welche bisher in der Literatur die besten Ergebnisse geliefert haben.

Die erhaltenen Cluster stellen ein Zwischenergebnis dar; sie stehen für Topics und sind damit Kandidaten für Trends. Um Letztere zu bestimmen, werden verschiedene Muster identifiziert, die auf einer variierbaren Zeitachse als Trends definiert werden (z.B. Auftauchen und Entwicklung neuer Terme oder Anstieg von bestimmten Termen oder Termkombinationen in einem Fachgebiet oder Zusammenhang über einen bestimmten Zeitraum). Trends sollen aber nicht nur zweidimensional betrachtet werden, also als Stärke des Trends entlang einer Zeitachse. Vielmehr sollen auch dreidimensionale Aspekte beobachtet werden können, indem z.B. geographische Daten einbezogen werden: Ein Trend kann beispielsweise in Deutschland ganz anders verlaufen als in der EU.

Übergeordnet werden zwei Ansätze verfolgt: Im Vordergrund steht die vollautomatische, systemgesteuerte Version, die dem Benutzer mögliche Topics und Trends vorschlägt. Daneben soll eine benutzerorientierte, semiautomatische Variante implementiert werden, bei der der Benutzer den Analysevorgang beeinflusst, indem er Topics vorgibt, die er daraufhin untersuchen möchte, ob sie Trends darstellen.

AP4: Erstellung des Prototypen

Das Vorgehen bei der Entwicklung verfolgt die Methode des User-centered Design. In mehreren Iterationen wird dabei ein Prototyp erstellt, der es ermöglicht, Benutzer zu einem sehr frühen Zeitpunkt direkt zu beteiligen und aus der unmittelbaren Auseinandersetzung mit dem System Verbesserungsansätze zu erkennen. Die aus der Analyse der Mensch-Maschine-Interaktion gewonnenen Erkenntnisse fließen in die Optimierung des Prototyps und in die nächste Iteration ein.

Die Datenhaltungsschicht des Prototyps soll durch die Open-Source Volltext-Suchmaschine Solr/Lucene[1] realisiert werden.

Die Business Layer des Prototyps bietet Funktionen an, um eine Dokumentmenge zu selektieren, darauf die Trendanalyse anzuwenden sowie deren Ergebnisse zu visualisieren. Es müssen also Standardretrievalmethoden implementiert werden, vor allem aber die Verfahren des TDT. Dabei muss der Prototyp flexibel genug ausgelegt werden, um unterschiedliche Methoden integrieren und testen zu können. Unter anderen soll dies durch Verwendung des UIMA-Frameworks[2] o.ä. erreicht werden.

Die Benutzungsschnittstelle wird als Webanwendung realisiert und stellt usability und user experience ins Zentrum. Die verschiedenen Funktionen werden damit auf benutzerfreundliche Art widergespiegelt. Das Retrieval soll sich dabei an den einfachen Standards der Suchmaschinen orientieren. Besonderes Augenmerk liegt auf der Ergebnisvisualisierung, die möglichst deutlich identifizierte Topics und Trends aufzeigen soll. Auch hier werden verschiedene Verfahren (z.B. Patentlandkarten) zusammen mit den Benutzern erprobt und evaluiert. Es geht nicht darum, alternative visualisierte Darstellungsformen anzubieten, sondern spezifische Analysemöglichkeiten nutzen zu können. Sollte sich zeigen, dass eine interaktive Bearbeitungsmöglichkeit der Visualisierungen (z.B. Zoom, Fisheye, zeitliche Entwicklung) von den Benutzern als Mehrwert gesehen wird, werden entsprechende Methoden implementiert.

[1] lucene.apache.org/solr/, lucene.apache.org
[2] uima.apache.org

AP5: Evaluation - formativ und summativ

Die Entwicklung des geplanten Prototyps erfolgt ganzheitlich aus der Benutzerperspektive. Entwickler und spätere Anwender arbeiten schon in frühen Phasen der Spezifizierung zusammen. Das prototypische System muss einen Wissenschaftler in die Lage versetzen, die Werkzeuge ohne detaillierte Kenntnis der dahinter stehenden Algorithmen einzusetzen und für seine Fragestellungen zu nutzen. Die Evaluierung erfolgt also formativ und begleitet die einzelnen Entwicklungsschritte, um sinnvolle Funktionen zu realisieren, aber auch summativ, um am Ende die Gesamtleistung des Prototyps zu bewerten.


Das benutzerzentrierte Vorgehen passt den entstehenden Prototyp optimal an die Bedürfnisse der Zielgruppe an. Er muss vor allem eine geeignete Aufteilung der Aufgaben zwischen System und Experten (bzw. Mensch und Maschine) bieten, so dass der Nutzer während der Interaktion effektiv und effizient das gewünschte Ergebnis erreichen kann.

Die Leistung des Gesamtergebnisses kann nur bedingt mit Maßen zur Cluster-Güte untersucht werden: es gilt, mit Wissenschaftlern und Information Professionals einen Benchmark zu erarbeiten, welcher die Systemleistung für die spezifische Anwendung bewertet. Daran sollen sich die Auswahl und die Aufeinanderfolge der Algorithmen sowie das Justieren der Parameter orientieren.

Die reine Topic-Erkennungs-Quote wird im Zusammenspiel mit den weiteren Funktionen und der Benutzungsoberfläche zum Verfolgen der Topics und zum Explorieren der zeitlichen Entwicklung evaluiert. Dazu kommen als Methoden Benutzertests mit Interviews zur Systemleistung sowie Expertenbefragungen zum Einsatz.