Vielleicht wird es irgendwann möglich sein, dass eine KI ein Audiotranskript einer universitären Gremiensitzung anfertigt und anschließend aus den Redebeiträgen strategische Handlungsempfehlungen für die Hochschule ableitet. Wahrscheinlich ist das sogar schon möglich, und wird nur noch nicht angewandt.
An der Universität Hildesheim jedenfalls führte der Weg zum institutionellen Forschungsprofil noch ganz klassisch über viele Gespräche, Diskussionen, gewonnene und wieder verworfene Ideen und ein konstruktives Ringen um die beste Lösung. Bis schließlich Ende 2023 die Ausrichtung der vorläufig drei innerhalb des Profils definierten Forschungsfelder feststand: Bildung und gesellschaftliche Teilhabe (Profilfeld 1), Ästhetische Praxis (Profilfeld 2) und KI im Alltag (Profilfeld 3).
Zoomt man in das letztgenannte weiter hinein, versammeln sich unter dem titelgebenden Dach Wissenschaftler*innen unter anderem aus Informatik, Mathematik, Sprachtechnologie, Linguistik, Kultur-, Sozial- und Politikwissenschaften, aber auch Ethik, Geographie oder Wirtschaftswissenschaften, die eines eint: Sie forschen zu oder mit Künstlicher Intelligenz in ganz vielfältigen Facetten.
Das Beste aus beiden Welten
Um die Begrifflichkeiten noch einmal deutlich zu machen: Das Forschungsprofil der Universität Hildesheim umfasst derzeit drei thematisch gefasste Profilfelder, von denen in diesem Beitrag eines – „KI im Alltag“ – genauer in den Blick genommen wird. Und innerhalb dieses Profilfelds wiederum wird nach drei Aufgabenfeldern unterschieden:
„Im ersten der drei Aufgabenfelder stehen unter anderem Themen wie KI-Engineering, Benutzerfreundlichkeit, Sicherheit und Nachhaltigkeit der KI-Anwendungen im Fokus“, erläutert Prof. Dr. Julia Rieck, Sprecherin des Profilfelds 3. Im zweiten Aufgabenfeld sind Forschungsfragen rund um Informationskompetenz, digitale Öffentlichkeiten, KI-Einsatz in der Bildung und Herausforderungen durch KI für Politik und Wirtschaft gebündelt. Und um die Suche nach dem „Besten aus beiden Welten“, nämlich um hybride Intelligenz, multimodale KI-Modelle und Mensch-Maschine-Kooperationen geht es im dritten Aufgabenfeld.
Insgesamt ist das Profilfeld „KI im Alltag“ (ebenso wie die beiden anderen Forschungsfelder) darauf ausgelegt, die inter- und transdisziplinäre Zusammenarbeit von Wissenschaftler*innen mit komplementären Forschungsinteressen zu fördern und über Fachbereiche hinweg an der Lösung wissenschaftlicher und gesellschaftlicher Herausforderungen zu arbeiten. (Mehr dazu auf Seite 11 des Magazins UHiversum #UHi_forschung und der Internetseite des Forschungsprofils)
Frei erfunden – ohne Gehirn
Als gesellschaftliche Herausforderung darf die Entwicklung und Weiterentwicklung von Künstlicher Intelligenz wohl in der Tat gesehen werden. In einer Geschwindigkeit, in der es noch vor gut einem Jahr kaum absehbar schien, dringt KI in immer neue Lebens- und Arbeitsbereiche vor. Mit klug erdachten Algorithmen lassen sich längst nicht mehr nur Smartphones sprachsteuern, komplizierte Rechenoperationen durchführen, gigantische Datenmengen auswerten oder Chatbots programmieren, sondern auch Bilder gestalten, Ideen generieren und ganze Romane schreiben. Ein bisschen unheimlich dabei: Oft ist für die Anwendenden gar nicht nachvollziehbar, welche Prozesse im Inneren des Systems ablaufen. Wie recherchiert eine textgenerierende KI? Auf welche Quellen greift sie zu? Welcher Teil einer Antwort ist frei erfunden? Und was heißt überhaupt „erfinden“, wenn man kein Gehirn besitzt?
„Chat GPT gibt Ihnen Quatsch in wohlklingenden Worten aus“, brachte es Dr. Christiane Zehrer, Professorin für Sprache und Kommunikation in Organisationen an der Hochschule Magdeburg-Stendal, anlässlich der von einem Team um Prof. Dr. Thomas Mandl organisierten Tagung „KI und Text“ im November 2023 an der Universität Hildesheim auf den Punkt. Nur: Dabei kann man es ja nicht belassen.
„Bei aller Euphorie um Large Language Models ist es gerade im Bildungsbereich wichtig, nicht nur auf die Performanz, sondern auch auf Fairness, Erklärbarkeit und Transparenz der verwendeten Algorithmen zu achten“, sagt Sprachtechnologin Prof. Dr. Andrea Horbach. Ihr Forschungsfokus richtet sich auf die automatische Sprachverarbeitung, eine Unterart der Künstlichen Intelligenz. Horbach entwickelt mit ihrem Team Algorithmen, die Lernende dabei unterstützen sollen, bessere Texte zu schreiben, und Lehrenden ermöglichen, Texte effizienter auszuwerten. „Ich halte es für besonders wichtig, sich nicht allein auf intransparente Lösungen großer Firmen zu verlassen“, betont Horbach.
Recht geben statt haben
Eine Schwäche vieler Sprachmodelle besteht darin, dass sie darauf trainiert sind, den Nutzenden Recht zu geben. Darauf wies im Rahmen der bereits genannten KI-Tagung am Bühler-Campus Torsten Zesch, Diplom-Ingenieur und Professor für Computerlinguistik an der FernUniversität Hagen, hin. Auch die für die Universität Hildesheim empfohlene Anwendung UHiKI, eine datenschutzkonforme Ableitung aus ChatGPT, entlarvt sich im Interview (ab Seite 9 im Magazin UHiversum #UHi_forschung) selbst. Sie verkennt den bewusst eingebauten Fehler bei der Anzahl der Buchstaben im deutschen Alphabet und gibt in durchsichtigen Floskeln Zustimmung oder Emotionen vor. Richtig schräg wird es, als die KI in die erste Person Plural wechselt und sich zum Teil der (menschlichen?) Gesellschaft macht. Auf die Frage nach den aus „ihrer Sicht“ interessantesten Forschungsgebieten gibt sie in holpriger Grammatik die Behauptung aus, es sei wichtig „dass Forschungsthemen relevante Fragen ansprechen und zur Lösung von Herausforderungen beitragen, um das Wissen und das Verständnis unserer Welt zu erweitern“ – eine mindestens hinterfragenswürdige Formulierung, findet Forschungs-Vizepräsidentin Prof. Dr. Christina Bermeitinger. „Diese starke Betonung von Relevanz und Anwendungsbezug sollte so nicht unkommentiert stehen bleiben.“
Genau dazu, also zur allzu unkritischen Übernahme von eben jenem „Quatsch in wohlklingenden Worten“ verleiten ChatGPT und andere Sprachmodelle aber leicht. Durch ihre Antwort-Algorithmen, die der zwischenmenschlichen Kommunikation nachempfunden sind, legen sie einen vermenschlichenden Umgang nahe. Dies wird von einigen Expert*innen kritisiert, von anderen durchaus ganz gezielt genutzt. Zum Einsatz einer Sprach-KI fielen im Rahmen der genannten Fachtagung Begriffe wie „virtuelle Gesprächspartnerin“, „Sparringspartnerin“ oder „Kooperations-Tool“. Doch wie bewertet man das Ergebnis eines solchen Zusammenwirkens von Mensch und Maschine?
„Wir werden mehr und mehr gefordert sein, Texte kritisch zu hinterfragen“, stellt Prof. Dr. Jürgen Sander klar. Wie in seinem Fachgebiet, der Mathematik, seit jeher üblich, müssten Nutzende auch in Bezug auf Texte unklarer Herkunft auf eine neue Weise lernen abzuschätzen, ob das Ergebnis stimmen kann. „Was bei KI-generierten Texten verloren geht, ist das Vertrauen in die konkrete Person, die einen Text erzeugt hat.“
Zu untersuchen, wie sich eine zunehmende Verbreitung von KI-generierten Inhalten auf Nutzende auswirkt, wird ohnehin nochmal ein ganz neues Feld eröffnen, ist Prof. Dr. Thomas Mandl vom Institut für Informationswissenschaft und Sprachtechnologie sicher. Zu seinen Forschungsschwerpunkten gehören Mensch-Maschine-Interaktion, Information Retrieval, Digital Humanities und Bildverarbeitung sowie Information Behavior. In mehreren aktuellen Projekten stehen die Veränderungen der Kommunikationstechnologien durch KI und deren gesellschaftliche Folgen im Mittelpunkt.
Als Datenschutzbeauftragter der UHi ist Mandl außerdem daran gelegen, die Sensibilität beim Umgang mit schützenswerten Daten zu schärfen. So sollten beim (durchaus erwünschten) Herumexperimentieren mit verschiedenen Anwendungen nicht leichtfertig Texte, Forschungsdaten oder Bilder auf beliebige Plattformen hochgeladen werden.
Setzt man die neuen Technologien mit entsprechendem Fingerspitzengefühl ein, ergeben sich für die Textproduktion, aber auch für künstlerisch-kreative Bereiche wie Bild-, Bewegtbild- oder Musikproduktionen durch den Einsatz von KI nicht nur neue Möglichkeiten, sondern auch völlig neue Arbeitsprozesse. „Die Person, die einen Prompt eingibt, entscheidet, was als Ergebnis angenommen wird“, führte Prof. Dr. Stefan Wölwer, Professor für Interaction Design an der Hochschule für Angewandte Wissenschaft und Kunst, ebenfalls Gast bei der KI-Tagung im November, aus.
Wie sich das Verständnis von Kreativität durch den Einsatz von KI verändert, war ein großes Thema unter den dort vertretenen Expert*innen. Dr. Ulrike Bohle-Jurok vom Institut für deutsche Sprache und Literatur zog den Vergleich zum autonomen Fahren: „Die Frage ist: Was will ich mir abnehmen lassen und Welche Entscheidungen am Steuer möchte ich selbst treffen?“
Doch so rasant sich die neuen Technologien auch entwickeln, noch sind sie menschlichem Wissen und traditioneller Methodik längst nicht überall überlegen. „Hybride Intelligenz“ am Übergang zwischen klassischen textanalytischen und computerlinguistischen Auswertungsverfahren steht daher auch im Fokus der kommunikationssoziologischen Forschung von Prof. Dr. Michael Corsten. In einem aktuellen Projekt wertet ein Wissenschaftsteam beispielsweise Kommentare unter YouTube-Musikvideos nach bestimmten Emotions-Begriffen aus: einmal mit einer klassisch-quantitativen Methode und einmal KI-gestützt. Ein Ergebnis: „Die KI ist sehr viel trennschärfer und kann noch dazu viel größere Textmengen analysieren, als das in analogen Verfahren möglich wäre. Was bei KI allerdings noch nicht klappt, ist das Erkennen von Ironie“, sagt Corsten.
Lernen durch Nachahmen
Nicht nur um Kreativität, sondern auch um komplexe Rechenleistungen und die Verarbeitung großer Datenmengen geht es beim KI-Einsatz und der KI-Entwicklung in den mathematisch-naturwissenschaftlich-technischen Fachgebieten und der Informatik. „Die KI beziehungsweise das Maschinelle Lernen beschäftigen sich mit der Automatisierung von Prozessen sowie mit der Entscheidungsunterstützung in allen Bereichen menschlichen Handelns“, sagt der Informatiker Prof. Dr. Dr. Lars Schmidt-Thieme. „Aufgrund häufiger Beobachtungen eines Experten lassen sich beispielsweise in vielen Kontexten dessen Handlungsweisen und Entscheidungen imitieren, was man in der KI ‚lernen‘ nennt. So ist eine Maschine in der Zukunft in der Lage, solche Handlungsweisen autonom vorzunehmen und Menschen von repetitiver (oder gefährlicher) Arbeit zu entlasten.“
Schmidt-Thieme forscht am Information Systems and Machine Learning Lab (ISMLL) insbesondere zu Methoden des überwachten Maschinellen Lernens für Daten und Entscheidungen mit komplexer Struktur. „Darunter sind alle Daten zu verstehen, die von sich aus nicht nur in Form einer Tabelle vorliegen, sondern die zum Beispiel Beziehungen verschiedener Objekte aufweisen (multi relational data und Empfehlungssysteme) oder zeitabhängige Daten. Bilder und Texte gehören ebenfalls dazu“, erklärt er.
Ganz konkret geht es zum Beispiel darum, Automatismen zu entwickeln, um Schäden an Gebrauchtfahrzeugen zu erkennen und zu bemessen, freien Parkraum am Straßenrand zu finden oder Wachstumsprozesse in Bioreaktoren optimal zu steuern. „Unsere Anwendungs- und Forschungspartner bringen dabei die jeweilige Anwendungsperspektive ein, wir steuern das Wissen im Maschinellen Lernen bei.“
Erhellendes aus dem DARC
Insbesondere zu nennen ist hier das VWFS Data Analytics Research Center (VWFS DARC). In diesem Kooperationsprojekt steht der Wissens- und Methodentransfer im Vordergrund, mit dem die entwickelten Machine-Learning-Lösung direkt in die Unternehmensanwendung gebracht werden. Untersucht werden dabei Methoden des überwachten Maschinellen Lernens und des verstärkenden Lernens (Reinforcement Learning) im Bereich datengetriebener Mobilitätsdienstleistungen. „Wir forschen zum Beispiel an Methoden der Zeitreihenvorhersage, an Empfehlungssystemen, im Bereich Computer Visions sowie zu verschiedenen Themenstellungen der vertrauensvollen KI“, erläutert Schmidt-Thieme.
Prof. Dr. Klaus Schmid von der Abteilung Software Systems Engineering forscht zur Entwicklung, (Ressourcen-) Optimierung und dem Betrieb von Systemen und Infrastrukturen für KI. „In letzter Zeit spielt vor allem der Bereich der Industrie 4.0 eine große Rolle“, sagt er. „Außerdem beschäftigen wir uns auch mit der Verwendung von KI-Techniken für die Unterstützung von Software-Entwicklungstätigkeiten. Dazu gehören beispielsweise Techniken zur Fehlervorhersage oder möglichst automatisierten Fehlerbehebung.“ Neu dazugekommen ist die Nutzung von großen Sprachmodellen zur Unterstützung der unterschiedlichsten Tätigkeiten in der Softwareentwicklung. Hier sieht Schmid für die Zukunft ein großes Potenzial, das sich bisher nur sehr grob abschätzen lasse. „Aber auch die Themen, die wir bisher schon behandelt haben, wie Performanz von KI-Systemen oder die Entwicklung konkreter KI-basierter Systeme werden noch auf Jahre hinaus spannende Herausforderungen bereit halten.“
KI für die Kuh
„Künstliche Intelligenz ist aktuell das wohl wichtigste und dominanteste Thema in der Informatik-Forschung“, ist auch Prof. Dr. Niels Landwehr überzeugt. In der Abteilung Data Science am Institut für Informatik forscht er einerseits zur Entwicklung neuer Verfahren des Maschinellen Lernens. „Dabei untersuchen wir zurzeit insbesondere tiefe neuronale Netze (sogenannte Deep-Learning-Verfahren) für Probleme der Bildverarbeitung und Bildanalyse.“ Auf der Anwendungsseite ist andererseits die Entwicklung von KI-Lösungen für die Landwirtschaft ein Schwerpunkt in Landwehrs Forschung. „Wir arbeiten dort in größeren internationalen Verbundprojekten insbesondere an Ansätzen, mit Hilfe von KI Nachhaltigkeit und Biodiversität in landwirtschaftlichen Produktionssystemen zu verbessern.“ Für Landwehr steht außer Frage, dass für die kommenden Jahre weiterhin ein schneller Fortschritt von KI-Techniken zu erwarten ist - mit entsprechenden Auswirkungen auf ein immer breiteres Spektrum an Anwendungen.
Techniken des Maschinellen Lernens nutzt auch Prof. Dr. Julia Rieck vom Institut für Betriebswirtschaft und Wirtschaftsinformatik, um klassische Optimierungsverfahren in vielversprechende Lösungsbereiche zu führen. „Dies hat sich insbesondere bei dynamischen und stochastischen Problemen als zielführend herausgestellt“, berichtet Rieck. Auch Large Language Models setzt ihr Forschungsteam bei der Konzeptionierung, Implementierung und Fehlerbehebung von Forschungsquellcodes ein. „Verbesserte KI-Modelle werden zukünftig verstärkt mit klassischen Operations-Research-Methoden zu hybriden Verfahren kombiniert, um große Probleme aus den Bereichen Logistik, Produktion und Projektplanung zu lösen.“
Auf die Frage, wie sie die Zukunft Künstlicher Intelligenz bezogen auf ihr jeweiliges Forschungsgebiet sehen, verweist ein großer Teil der danach befragten Wissenschaftler*innen der Universität Hildesheim auf den Status einer Momentaufnahme ihrer Einschätzung.
„Hätte man mich im Sommer 2022 gefragt, hätte ich nie ChatGPT und seine Leistungsfähigkeit vorausgesagt“, sagt zum Beispiel Prof. Dr. Ulrich Heid, der am Institut für Informationswissenschaft und Sprachtechnologie zu klassifikatorischer Künstlicher Intelligenz forscht. Dazu gehört unter anderem das Erkennen von Hassrede in Daten aus den sozialen Medien oder die Klassifikation von Figuren in deutschen Dramen.
Prof. Dr. Dr. Lars Schmidt-Thieme sieht mit Blick auf die zurückliegenden 20 Jahre Erfolgsgeschichte im Bereich des Maschinellen Lernens nun eine weitere „bestimmt 50 Jahre“ andauernde Entwicklung der Technologien und des Verständnisses für deren Modalitäten voraus. „KI wird meines Erachtens zur Leitwissenschaft des 21. Jahrhunderts.“
Neue Normalität durch KI
Literaturwissenschaftlerin Dr. Jenifer Becker sagt: „Ich mache keine Prognosen mehr, da sich das Feld ständig ändert“ – und wagt dann doch eine: „KI könnte in (literarischen) Schreibprozessen als Werkzeug verstärkt zum Einsatz kommen. Vielleicht werden wir auch mit KI in Writers’ Rooms an literarischen Texten arbeiten.“ Als Autorin experimentiert Becker zu Schreibverfahren mit KI und entwickelt Forschungsperspektiven aus einer ästhetischen Praxis heraus. Grundsätzlich geht sie von einer wachsenden Normalisierung des Einsatzes von KI aus, wenn große Sprachmodelle zunehmend in Schreibprogramme integriert werden.
Bei aller gebotenen Zurückhaltung in Bezug auf weitere Entwicklungsprognosen, lässt sich eine übereinstimmende Überzeugung aus nahezu allen Statements der mit KI befassten Wissenschaftler*innen herauslesen: Künstliche Intelligenz ist nicht nur in der Forschung, sondern auch in der Lebensrealität vieler Menschen angekommen und für die Zukunft kaum mehr daraus wegzudenken. Mit ihr umzugehen, die Chancen zu nutzen und die Risiken zu minimieren, das werden die Herausforderungen an die humane Intelligenz bleiben, die das Forschungsfeld „KI im Alltag“ an der Universität Hildesheim sicherlich für etliche Jahre begleiten und prägen werden.
Die Zitate aus dem Magazin UHiversum #forschung in voller Länge:
Dr. Jenifer Becker
Institut für Literarisches Schreiben und Literaturwissenschaft
In welcher Weise forschen Sie zu oder mit Künstlicher Intelligenz?
Ich forsche praxisorientiert zu literarischen Schreibverfahren und KI, schaue mir also an, wie große Sprachmodelle (wie z. B. ChatGPT) literarische Schreibprozesse verändern. Da ich selbst Prosa-Autorin bin, interessiere ich mich am meisten für erzählerische Verfahren. Ich schaue mir darüber hinaus an, wie sich KI auf den Literaturbetrieb und Literaturmarkt auswirkt. Um herauszufinden, wie KI schreibende Felder und den Literaturbetrieb verändert, integrieren wir diskursanalytische Ansätze. Material können z. B. Blogs über Schreibpraktiken oder andere (digitale) Diskurse sein. Wir setzen auch Befragungen ein, wie Werkstattgespräche. Analysegegenstand sind ebenso (literarische) KI-Publikationen. Ich forsche darüber hinaus angewandt, d.h. ich experimentiere selbst, probiere und reflektiere verschiedene Schreibverfahren mit KI und entwickle Forschungsperspektiven oftmals aus einer ästhetischen Praxis heraus. Die Arbeit von Studierenden wird hierbei berücksichtigt und mit in den Forschungsprozess integriert.
Wie sehen Sie die Zukunft Künstlicher Intelligenz bezogen auf Ihr Forschungsgebiet?
Ich mache ehrlich gesagt keine Prognosen mehr, da sich das Feld ständig ändert. Relativ sicher lässt sich sagen, dass große Sprachmodelle zunehmend in Schreibprogramme integriert werden und sich damit normalisieren werden. KI könnte in (literarischen) Schreibprozessen als Werkzeug verstärkt zum Einsatz kommen, vielleicht werden wir auch mit KI in Writers’ Rooms an literarischen Texten arbeiten. Aktuell lässt sich festhalten, dass KI noch keine sonderlich originelle Prosa verfasst - das ist jedoch eine Momentaufnahme. Ich gehe nicht davon aus, dass literarische Arbeit gänzlich auf „Maschinen“ ausgelagert wird, insbesondere autobiografische Schreibformen erfordern menschliche Autor:innenschaft. Es gibt aber auch Genre, bei denen ich mir gut vorstellen kann, dass KI eine größere Rolle spielen wird, beispielsweise Genre, die stark schematisiert sind. Mit Sicherheit werden wir bald weniger überrascht sein, wenn Bücher mithilfe von KI geschrieben werden.
Das Thema KI und Literatur hören Sie in Folge 33 des Podcasts UHiversum Talks!
Prof. Dr. Thomas Mandl
Institut für Informationswissenschaft und Sprachtechnologie
In welcher Weise forschen Sie zu oder mit Künstlicher Intelligenz?
Aus der Künstlichen Intelligenz interessieren mich insbesondere große Sprachmodelle (LLMs) und automatische Systeme zur Bildanalyse. Ich erforsche, wie man damit Texte und Bilder in Wechselwirkung verarbeiten kann, um z.B. die Bedeutung von Memes in sozialen Medien zu erkennen.
Wie sehen Sie die Zukunft Künstlicher Intelligenz bezogen auf Ihr Forschungsgebiet?
Die Systeme der Künstlichen Intelligenz entwickeln sich gerade rasant. Dadurch wird es bessere Recherchemöglichkeiten u.a. in Suchmaschinen geben, die Text und Bild zusammenführen.
Mehr dazu hören Sie in der Podcastfolge 31 des Podcasts UHiversum Talks.
Prof. Dr. Dr. Lars Schmidt-Thieme
Institut für Informatik
In welcher Weise forschen Sie zu oder mit Künstlicher Intelligenz?
Am Information Systems and Machine Learning Lab (ISMLL) der Universität Hildesheim forschen wir insb. an Methoden des überwachten Maschinellen Lernens für Daten und Entscheidungen mit komplexer Struktur. Darunter sind alle Daten zu verstehen, die von sich aus nicht nur in Form einer Tabelle vorliegen, sondern die z.B. Beziehungen verschiedener Objekte aufweisen (multi relational data und Empfehlungssysteme) oder zeitabhängige Daten. Bilder und Texte gehören ebenfalls dazu. Wir versuchen jeweils, die Charakteristiken des zugrundeliegenden datengenerierenden Prozesses zu beschreiben und daraus Eigenschaften der zu lernenden Modelle bzw. der Lernalgorithmen selbst abzuleiten und diese dann entsprechend zu gestalten.
Wie sehen Sie die Zukunft Künstlicher Intelligenz bezogen auf Ihr Forschungsgebiet?
Die künstliche Intelligenz hat ihre wesentlichen Erfolge in den letzten 20 Jahren meines Erachtens durch das Maschinelle Lernen erzielt, also durch das Zusammenbringen statistischer Modelle mit effizienten Inferenz- und Lernalgorithmen. Diese Entwicklung ist noch lange nicht abgeschlossen und wird uns noch eine gute Weile begleiten, 50 Jahre bestimmt, und damit und aufgrund ihrer universellen Anwendbarkeit in allen anderen Wissenschaften und Prozessen wird die KI meines Erachtens zur Leitwissenschaft des 21ten Jahrhunderts. So verstehen wir beispielsweise stetig besser, wie wir Daten verschiedener Modalitäten, also Bilder, Texte, Zeitreihen, relationale Daten etc. modellieren können und es entstehen große Basismodelle für jede dieser Modalitäten, sogenannte foundational models, die das Erstellen spezieller Modelle für nachgelagerte Anwendungsaufgaben massiv vereinfachen und in der Qualität beflügeln. Überlagert wird diese aus Sicht der beteiligten Wissenschaftler im wesentlichen stetige Entwicklung durch enorme Innovationssprünge, die praktisch niemand vorhersehen kann, wie wir sie zuletzt etwa bei den großen Sprachmodellen, insb. ChatGPT gesehen haben.
Prof. Dr. Ulrich Heid
Institut für Informatik
In welcher Weise forschen Sie zu oder mit Künstlicher Intelligenz?
Das Forschungsfeld der Computerlinguistik bzw. die maschinelle Sprachverarbeitung (Natural Language Processing, NLP) als Ensemble von auf maschinellem Lernen aufsetzenden spezifischen Methoden, Forschungsansätzen zur Textanalyse und daraus entwickelten Technologien ist seit ChatGPT als „Sprach-KI“ ins Bewusstsein einer breiten Öffentlichkeit gerückt. Maschinelle Sprachverarbeitung ist allerdings viel mehr als nur die Anwendung großer Sprachmodelle. So wird im Bereich Computerlinguistik/Sprachtechnologie des Instituts für Informationswissenschaft und Sprachtechnologie des FB3 in mehreren Arbeiten an klassifikatorischer KI geforscht (Textklassifikation, Erkennung bestimmter Sprechweisen und Inhalte). Zentral ist dabei die Frage, ob und wie sprachliches bzw. außersprachliches Wissen die Präzision der Klassifikationen bzw. die Erkennungsleistung verbessern kann; Beispiele sind die Erkennung von Hassrede in Daten aus den sozialen Medien oder die Klassifikation von Figuren in deutschen Dramen. Zunehmend rückt die Frage in den Vordergrund, wie Systeme aus Anfragen an große Sprachmodelle lernen können, und wie sich mit geringen (zusätzlichen) Mengen von Input gute Antworten erzeugen lassen. Daneben bleiben auch „traditionelle“ Themen für uns von Interesse, z. B. die Nutzung von KI-Verfahren in der Korpuslinguistik und elektronische Wörterbücher.
Wie sehen Sie die Zukunft Künstlicher Intelligenz bezogen auf Ihr Forschungsgebiet?
Prognosen sind in diesem Zusammenhang äußerst schwierig. Hätte man mich im Sommer 2022 gefragt, hätte ich nie ChatGPT und seine Leistungsfähigkeit vorausgesagt. Inzwischen werden relevante große Sprachmodelle ohne Bindung an kommerzielle Unternehmen für die Forschung verfügbar. Mittelfristig wünsche ich mir sie nach Themen oder anderen Kriterien konfigurierbar. Hier rechne ich aber kurz- und mittelfristig mit mehr Forschung, die weggeht vom sogenannten Prompt-Engineering, also weg vom Ausprobieren, welche Art von Anfragen an große Sprachmodelle brauchbare Antworten liefern, hin zu stärker prinzipienbasierten Verfahren zum Lernen aus Anfragen an Sprachmodelle. Ergebnis sollten dann präzisere Klassifikationen bzw. adäquate Antworten sein, die in einem gewissen Rahmen alltagstauglich sind, d. h. auch in anwendungsorientierte Forschung (etwa mit den Sozialwissenschaften oder den Philologien) einfließen können.
Prof. Dr. Klaus Schmid
Institut für Informatik
In welcher Weise forschen Sie zu oder mit Künstlicher Intelligenz?
Wir forschen in mehrerer Hinsicht zu KI:
1. Wir beschäftigen uns mit der Entwicklung von Systemen und Infrastrukturen für KI, insbesondere für bestimmte Anwendungsbereiche. In letzter Zeit spielt vor allem der Bereich der Industrie 4.0 eine große Rolle.
2. Wir befassen uns mit der Optimierung und dem Betrieb entsprechender Systeme (MLOps). So gehören auch Fragen der Ressourcen-optimierung KI-basierter Systeme zu unseren Arbeitsgebieten.
Während die beiden vorhergehenden Bereiche grobe als SE4KI (Software-Engineering für KI-Systeme) zusammengefasst werden können, beschäftigen wir uns auch mit der Verwendung von KI-Techniken für die Unterstützung von Software-Entwicklungstätigkeiten (KI4SE). Dazu gehören bspw. Techniken zur Fehlervorhersage oder auch um existierende Fehler möglichst automatisiert zu beheben. Neu dazugekommen ist in diesem Bereich die Nutzung von Sprachmodellen (Large Language Models = LLM).
Wie sehen Sie die Zukunft Künstlicher Intelligenz bezogen auf Ihr Forschungsgebiet?
Sicherlich nicht überraschend: die Nutzung von Sprachmodellen (LLMs) zur Unterstützung der unterschiedlichsten Tätigkeiten in der Softwareentwicklung, wie Large Language Models hat ein sehr großes Potential, dass sich bisher nur sehr grob abschätzen lässt. Hier sehe ich eine spannende Zukunft voraus. Aber auch die Themen, die wir bisher schon behandelt haben, wie bspw. Performanz von KI-Systemen bzw. die Entwicklung konkreter KI-basierter Systeme werden noch auf Jahre hinaus spannende Herausforderungen bereit halten.
Prof. Dr. Niels Landwehr
Institut für Informatik
In welcher Weise forschen Sie zu oder mit Künstlicher Intelligenz?
In der Abteilung "Data Science" forschen wir einerseits an der Entwicklung neuer Verfahren des maschinellen Lernens. Dabei untersuchen wir aktuell insbesondere tiefe neuronale Netze (sogenannte Deep Learning-Verfahren) für Probleme der Bildverarbeitung und Bildanalyse. Auf der Anwendungsseite ist unser Schwerpunkt die Entwicklung von KI-Lösungen für die Landwirtschaft. Wir arbeiten dort insbesondere in größeren internationalen Verbundprojekten an Ansätzen, mit Hilfe von KI Nachhaltigkeit und Biodiversität in landwirtschaftlichen Produktionssystemen zu verbessern.
Wie sehen Sie die Zukunft Künstlicher Intelligenz bezogen auf Ihr Forschungsgebiet?
Künstliche Intelligenz ist aktuell das wohl wichtigste und dominanteste Thema in der Informatik-Forschung. Die in den letzten Jahren mit Hilfe von KI-Techniken erzielten Durchbrüche bei verschiedenen anspruchsvollen Problemstellungen wie beispielsweise Sprachverarbeitung oder Bildanalyse haben selbst KI-Experten überrascht. Für die nächsten Jahre wird weiterhin ein schneller Fortschritt von KI-Techniken erwartet, mit entsprechenden Auswirkungen auf ein immer breiteres Spektrum an Anwendungen.
Prof. Dr. Andrea Horbach
Institut für Informationswissenschaft und Sprachtechnologie
In welcher Weise forschen Sie zu oder mit Künstlicher Intelligenz?
Als Sprachtechnologin beschäftige ich mich damit, wie eine bestimmte Unterart der künstlichen Intelligenz, die automatische Sprachverarbeitung, Lehrende und Lernende unterstützen kann. Mich fasziniert, wie der Computer menschliche Sprache analysieren, verstehen und selbst produzieren kann - obwohl Sprache so komplex und mehrdeutig ist. Ich möchte durch automatische Sprachverarbeitung Lernende dabei unterstützen, bessere Texte zu schreiben, und Lehrenden ermöglichen, Texte effizienter auszuwerten. Mit meinem Team entwickle ich Algorithmen, die Aufgaben generieren, Aufsätze und Antworten zu inhaltlichen Fragen bewerten und Feedback zur Argumentation und anderen Aspekten eines Essays geben.
Wie sehen Sie die Zukunft Künstlicher Intelligenz bezogen auf Ihr Forschungsgebiet?
Im Bereich der Sprachverarbeitung hat sich im vergangenen Jahr durch die breite Verfügbarkeit großer generativer Sprachmodelle viel getan - in der Community, aber auch in der öffentlichen Wahrnehmung. Wie die weitere Entwicklung dieser Sprachmodelle aussieht, kann aktuell niemand so genau vorhersagen, daher bleibt es in jedem Fall spannend. Bei aller Euphorie um Large Language Models ist es gerade im Bildungsbereich wichtig, nicht nur auf die Performanz, sondern auch auf Fairness, Erklärbarkeit und Transparenz der verwendeten Algorithmen zu achten. Daher halte ich es für besonders wichtig, sich nicht allein auf intransparente Lösungen großer Firmen zu verlassen.
Prof. Dr. Julia Rieck
Institut für Betriebswirtschaft und Wirtschaftsinformatik
In welcher Weise forschen Sie zu oder mit Künstlicher Intelligenz?
Wir verwenden Techniken des Maschinellen Lernens, um unsere klassischen Optimierungsverfahren in vielversprechende Lösungsbereiche zu führen. Dies hat sich insbesondere bei dynamischen und stochastischen Problemen als zielführend herausgestellt. Ebenfalls setzen wir Large Language Models bei der Konzeptionierung, Implementierung und Fehlerbehebung unseres Forschungsquellcodes ein.
Wie sehen Sie die Zukunft Künstlicher Intelligenz bezogen auf Ihr Forschungsgebiet?
Verbesserte KI-Modelle werden zukünftig verstärkt mit klassischen Operations Research-Methoden zu hybriden Verfahren kombiniert, um große Probleme aus den Bereichen Logistik, Produktion und Projektplanung zu lösen. Zudem können diese Modelle dabei helfen, nicht offensichtliche, strukturelle Gemeinsamkeiten zwischen Optimierungsproblemen zu erkennen, um gezielt Vorschläge für passende Lösungsverfahren unterbreiten zu können.
Prof. Dr. Michael Corsten
Institut für Sozialwissenschaften
In welcher Weise forschen Sie zu oder mit Künstlicher Intelligenz?
Wir erforschen in der Kommunikationssoziologie Fragestellungen am Übergang zwischen klassischen textanalytischen und computerlinguistischen Auswertungsverfahren. In einem bereits abgeschlossenen Projekt, an dem neben mir maßgeblich Prof. Dr. Marianne Kneuer, Prof. Dr. Ulrich Heid und Prof. Dr. Hannes Schammann beteiligt waren, haben wir beispielsweise Solidaritätsdiskurse in der Migrationskrise untersucht. Dabei haben wir verschiedene Textkorpora zugrunde gelegt, das waren Inhalte aus Gesprächen mit regionalen Migrationsexpert*innen, aufgezeichnete Parlamentsdebatte sowie Aussagen von Bundestagsabgeordneten auf Twitter. Diese haben wir einmal klassisch-analytisch und einmal KI-gestützt ausgewertet und dann überprüft, inwieweit das maschinelle Ergebnis mit einem humanen Solidaritätsverständnis übereinstimmt. Das haben wir dann wieder an die KI zurückgemeldet und so nach und nach über sogenannte Hybride-Intelligenz-Methoden das Ergebnis verfeinert.
Ein aktuelleres Projekt befasst sich mit der Auswertung von Kommentaren unter Youtube-Musikvideos. Auch da arbeiten wir im ersten Schritt mit einer klassischen quantitativen Auswertung des Vorkommens von Wörtern aus bestimmten Wortgruppen, die wiederum sechs Grundemotionen zugeordnet sind. So lässt sich zum Beispiel herausfinden, dass Kommentare unter Musikvideos unabhängig vom Musikstil ganz überwiegend freudigen Emotionen zuzuordnen sind. Was die KI darüberhinaus kann, ist Satzzusammenhänge und bestimmte Wendungen zu erkennen. Sie ist damit sehr viel trennschärfer und kann noch dazu viel größere Textmengen analysieren, als das in analogen Verfahren möglich wäre. Was bei KI allerdings noch nicht klappt, ist das Erkennen von Ironie.
Wie sehen Sie die Zukunft Künstlicher Intelligenz bezogen auf Ihr Forschungsgebiet?
In unseren bisherigen Forschungen haben wir KI vor allem analytisch eingesetzt, um Auswertungsverfahren zu verbessern. Was inzwischen vermehrt dazukommt ist die Frage, auf welche unterschiedlichen Weisen KI für Textproduktion eingesetzt werden kann. Wer ChatGPT bittet „Erzähl mal deine Lebensgeschichte“ wird keine verwertbare Antwort erhalten. Andererseits kann ChatGPT sehr gut Lebensgeschichten für fiktive Charaktere entwickeln, diese immer weiter präzisieren oder auch Alternativen anbieten, da das Programm auf eine enorme Menge an realen Lebensentwürfen zugreifen kann, die im Netz zu finden sind. Wir nennen das Lesartenbildung, darin ist ChatGPT sehr gut. Quasi nebenbei haben wir bei diesen Experimenten festgestellt, dass ChatGPT auch ein hervorragendes Tool zur Interview-Schulung ist. Um die erwünschten Antworten in ausreichender Tiefe und Präzision zu erhalten, mussten die Nutzer*innen lernen, ihre Prompts genau passend zu formulieren. Das lässt sich auch auf zwischenmenschliche Interviewtechniken übertragen.