Künstliche Intelligenz in der Forschung
Hochschulleitungen und Verwaltungen müssen jetzt die Voraussetzungen und Strukturen für die neuen Technologien schaffen. Ein Beitrag von Michael Wuppermann für DUZ – Magazin für Wissenschaft und Gesellschaft, Erstveröffentlichung: Ausgabe 3.2022.
Keine Bücher mehr vollständig lesen müssen, nur noch die Zusammenfassung – zum Beispiel mit der Software-Komponente „TLDR This“. Keine Transkripte mehr selbst erstellen, sondern wenige Minuten nach dem Interview direkt mit dem Text arbeiten. Komplexe Datenanalysen in Sekunden erhalten. Und nie wieder Forschungsnotizen, Videos oder Bilder von Forschungsteilnehmenden aufwendig sortieren und klassifizieren müssen. Mit wenigen Klicks und in kürzester Zeit ist die Fleißarbeit der Forschung erledigt.
Was manche zum Strahlen bringen mag, klingt für andere wie eine düstere Zukunftsvision. Auch wenn die Forschung zu und Entwicklung von Lösungen der Künstlichen Intelligenz (KI) seit Jahren von Forschenden an Hochschulen vorangetrieben wird (Wannemacher & Bodmann 2021, S. 8f.), steht der produktive Einsatz von KI-Lösungen in der Forschung in manchen Disziplinen, die beispielsweise unstrukturierte personenbezogene Daten verarbeiten, noch am Anfang. Die Möglichkeiten, aber auch die Risiken von Künstlicher Intelligenz fordern nicht nur Wissenschaftlerinnen und Wissenschaftler sowie Forschungsbereiche heraus, sondern deuten insbesondere in der Verwaltung bei der Implementierung dieser Technologien einen Umbruch an: Vorhandene Strukturen, Prozesse und Ressourcen müssen an die neuen Bedingungen angepasst werden. Und Mitarbeitende in der Verwaltung müssen Offenheit für Wandel, Ungewissheit und neue Technologien zeigen.
Was KI in der Forschung leisten kann
Mehr als 50 Prozent der Befragten einer repräsentativen Studie von Bitkom, dem Branchenverband der deutschen Informations- und Telekommunikationsbranche, gaben an, dass sie entweder Experten auf dem Gebiet der KI seien (7 Prozent) oder den Begriff KI schon einmal wahrgenommen hätten und gut erklären könnten (42 Prozent) (Berg & Dehmel 2020). Eine allgemeingültige wissenschaftliche Definition von KI zu finden, ist jedoch schwierig (vgl. Bibliothek Deutscher Bundestag 2018). Allgemein wird davon gesprochen, dass Künstliche Intelligenz unter Einsatz von Computersystemen Verhaltensweisen oder Leistungen wie Konversation oder Entscheidungsfindung hervorbringt, die bisher Menschen vorbehalten waren (vgl. Gethmann et al. 2022, S. 6f.). Künstliche Intelligenz kann die Forschung dabei unterstützen, für den Menschen aufwendige Arbeitsroutinen zu automatisieren und schneller und zum Teil auch genauer zu erledigen. Mithilfe von Künstlicher Intelligenz können vormals komplexe oder aufgrund beschränkter Ressourcen nicht mögliche Analysen durchgeführt werden, um beispielsweise unbekannte Korrelationen und Muster zu entdecken (vgl. Gethmann et al. 2022, S. 9f.).
Transkriptionen und Video-Anonymisierung mithilfe von KI
Um die steigenden technischen Anforderungen aus der Forschung zu koordinieren und Wissenschaftlerinnen und Wissenschaftler gezielt bei der Einbindung digitaler Lösungen in der Forschung zu unterstützen, wurde an der Fakultät für Erziehungswissenschaft der Universität Hamburg im Sommer 2020 das eScience-Büro eingerichtet. Es bündelt Fachwissen zu digitaler Forschung und organisiert die Implementierung von Forschungssoftware in Abstimmung mit internen und externen Stakeholdern.
Gerade die Automatisierung bietet beispielsweise in der qualitativen und zum Teil datenintensiven erziehungswissenschaftlichen Forschung eine gute Möglichkeit, Ressourcen im Projekt auf die tatsächliche Forschung zu konzentrieren. Für die arbeitsintensive Verschriftlichung von Audio- und Videointerviews gibt es mittlerweile eine Vielzahl an Dienstleistern, die mithilfe Künstlicher Intelligenz und zum Teil kostenlos Sprache zu Text umwandeln. Während einige Anbieter nur Live-Daten in englischer Sprache verarbeiten können, bieten andere die Möglichkeit, aufgenommene Audiodateien hochzuladen. Was die meisten internationalen kommerziellen Anbieter eint: Sie greifen fast alle mittels Schnittstellen auf cloudbasierte KI-Systeme großer US-Techkonzerne zurück – mit zum Teil schwer nachvollziehbaren Geschäftsbedingungen für die Nutzenden.
In der Praxis bedeutet dies: Die hochgeladenen Daten werden meist uneingeschränkt gespeichert, geteilt und für unbestimmte Zeit zu Trainingszwecken der KI genutzt. Eine Nutzung solcher Anbieter würde für Forschende die Offenlegung ihrer Rohdaten und Forschungskontakte sowie die Verarbeitung personenbezogener Daten auf US-Servern bedeuten. Dies betrifft in weiten Teilen auch die Nutzung automatisierter Echtzeit-Untertitelung in Videokonferenzen zu Zwecken der Barrierefreiheit oder Dokumentation sowie den Einsatz von Diktatfunktionen, die in Betriebssysteme oder Office-Anwendungen integriert sind.
Darüber hinaus bietet die Anonymisierung von Forschungsdaten, mit dem Zweck, Sekundärforschung zu ermöglichen, in der erziehungswissenschaftlichen Forschung großes Potenzial. Neben Drittmittelgebern und der Datenschutz-Grundverordnung (DSGVO) fordern zunehmend auch Behörden, die mit der Genehmigung von Forschung an Schulen betraut sind, die Nutzung bereits erhobener Daten. Gerade bei Videodaten ist jedoch eine Nachnutzung der Rohdaten nur beschränkt möglich oder scheitert in der Praxis an der Zweckbindung der Datenverarbeitung und der notwendigen Einholung einer erneuten Einwilligung oder Informationspflicht der Betroffenen. Denn oft sind Kontakte aus der Forschung nach einiger Zeit nicht mehr für eine erneute Einwilligung erreichbar. Da der Aufwand der Anonymisierung von großen Mengen an Videodaten unverhältnismäßig hoch ist, bleibt somit nur die Löschung der Videorohdaten gemäß der Einwilligung und die Nutzung der anonymisierten Transkripte. Auf diese Weise gehen regelmäßig viele Daten für die Forschung verloren.
Eine Lösung, um das zu verhindern, ist der Einsatz von KI, die identifizierende Merkmale in Videodaten entfernt. Die Möglichkeiten gehen mittlerweile über das bloße Verpixeln hinaus. So ist es inzwischen möglich, mithilfe von KI 3-D-Masken zu erzeugen, die sich an den grundlegenden Merkmalen (mehrere 10 000) der abgebildeten Person orientieren und ein künstlich erzeugtes Gesicht über die abgebildete Person legen. Der Vorteil ist, dass dadurch die Mimik und grundlegenden Informationen erhalten bleiben, die Videodaten in ihrem Informationsgehalt für eine Vielzahl an Forschungsfragen weiterhin nutzbar bleiben und eine Aufhebung der Anonymisierung aktuell noch ausgeschlossen ist.
Mit Privacy-by-Design KI sicher einsetzen
Bei der Verarbeitung qualitativer Forschungsdaten handelt es sich in den meisten Fällen um personenbezogene Daten, die eine Identifikation der Person ermöglichen. Die Rechtsgrundlage für die Verarbeitung der Daten in der Forschung ist zumeist die Einwilligung. Möchten Forschende Künstliche Intelligenz, also beispielsweise automatisierte Transkriptions- oder Anonymisierungslösungen, einsetzen, müssen sie die Betroffenen darüber informieren. Die Verarbeitung personenbezogener Daten auf US-Servern ist nicht zuletzt durch das Kippen des Privacy-Shield-Abkommens mit dem Schrems II-Urteil in der Praxis nahezu unmöglich geworden (siehe BfDI).
Datenschutz hat höchste Priorität
Das heißt in der Folge: Geeignete Anbieter müssen die Daten auf Servern innerhalb der Europäischen Union (EU) verarbeiten. Darüber hinaus bedarf es geeigneter technischer und operativer Maßnahmen seitens der Anbieter, um die Forschungsdaten mit Personenbezug zu schützen. Die Verarbeitung der personenbezogenen Daten sollte beispielsweise überwiegend verschlüsselt erfolgen und entsprechende automatisierte Löschkonzepte sollten bei dem Dienstleister technisch implementiert sein. Für die Verarbeitung von personenbezogenen Daten aus der Forschung mithilfe von KI sollten daher im Idealfall Anbieter ausgewählt werden, die die Anforderungen, die sich aus der DSGVO ergeben, mit durchdachten Privacy-by-Design-Konzepten übertreffen. Dies kann ein Alleinstellungsmerkmal für bestimmte Anbieter sein, die für den Einsatz in der Forschung geeignet sind.
Den Einsatz von KI an Hochschulen aktiv gestalten
Nicht zuletzt durch die stetig wachsenden technischen Möglichkeiten und die steigenden verfügbaren Rechen- und Speicherkapazitäten wird Künstliche Intelligenz mittel- bis langfristig auch den Forschungsalltag in bisher wenig von KI betroffenen Disziplinen und Methodenrichtungen verändern. Die Verbreitung und zunehmende Nutzung von KI in der Forschung muss aus Verwaltungsperspektive aktiv gestaltet werden. Es bedarf geeigneter Stellen in der Verwaltung, die den Bedarf aus der Forschung aufnehmen und die Implementierung unter Berücksichtigung vorhandener interner Ressourcen mit den Fachabteilungen und internen wie externen Stakeholdern koordinieren.
Klassische Beschaffungsprozesse in der Verwaltung kommen durch die technische und rechtliche Komplexität bei der Implementierung neuer Technologien in der Forschung an ihre Grenzen und bedürfen einer koordinierten, abteilungsübergreifenden Zusammenarbeit. Eine Vielzahl von KI-Lösungen für die Forschung arbeitet in der Cloud oder nach Prinzipien von Plattformen. Dadurch ist der Aufwand der Überprüfung im Hinblick auf Datenschutz und Informationssicherheit umfangreich.
Hinzu kommt, dass mit den bisherigen Verwaltungsstrukturen, die allzu oft in Silos und starren Zuständigkeiten organisiert sind, neue und komplexe technische Lösungen für die Forschung nicht schnell und flexibel implementiert werden können. Eine Möglichkeit, die Veränderung innerhalb der Hochschulen zwischen Verwaltung und Forschung im Hinblick auf neue Technologien zu organisieren, ist die Schaffung spezieller Verwaltungsstellen, beispielsweise E-Science-Büros, die agil und horizontal die Veränderung im Bereich digitaler Forschung in den Hochschulen voranbringen (Baecker 2017).
Verwaltungspersonal braucht mehr digitale Kompetenzen
Allgemein müssen Mitarbeitende in der Verwaltung interne wie externe rechtliche Rahmenbedingungen kennen und die Anforderungen aus der Forschung sowie die Potenziale von KI verstehen. Es bedarf daher digitaler Kompetenzen in der Verwaltung und eines digitalen Mindsets, um die Bedarfe aus der Forschung in die Anwendung zu bringen. IT-Abteilungen müssen frühzeitig die Bedarfe aus der Forschung (er)kennen, um eine „Schatten-IT“ und die Risiken aus der Nutzung nicht DSGVO-konformer Anwendungen zu minimieren. Eine Abwanderung der Nutzenden aus den Hochschulen und der nicht erlaubte Einsatz kommerzieller Clouddienste aufgrund komfortabler Nutzung und Funktionsvielfalt stellt bei KI-Services eine reale Gefahr für den Compliance-konformen Umgang mit Daten an Hochschulen dar.
Für die Gestaltung der ethischen wie auch politischen Rahmenbedingungen werden ein hochschulübergreifender Blick und die Zusammenarbeit mit Fachverbänden, Förderern, der Politik und umsetzenden Behörden notwendig sein. Nur so lässt sich sicherstellen, dass Handlungsspielräume sinnvoll definiert werden und der Einsatz Künstlicher Intelligenz in der Forschung nicht durch individuelle Einschätzungen in der Praxis nachteilig reguliert wird. Ungeklärt sind beispielsweise noch der Umgang mit geistigem Eigentum im Einsatz von Künstlicher Intelligenz in der Forschung sowie eine gegebenenfalls notwendige Anpassung des aktuellen datenschutzrechtlichen Rahmens, um beispielsweise personenbezogene Daten in der Forschung automatisiert verarbeiten zu können (vgl. SATW 2019).
Auch wenn viele Forschende heute vielleicht noch dem KI-Einsatz in der Forschung kritisch gegenüberstehen mögen – das Potenzial ist groß und der Output an Forschungsergebnissen wird durch den Einsatz von Künstlicher Intelligenz zukünftig steigen. Dennoch dürfen die Risiken, beispielsweise durch Datenabflüsse oder fehlerhafte Ergebnisse beim Einsatz von KI, nicht außer Betracht gelassen werden. Vertrauen in Künstliche Intelligenz, gerade wenn diese in der Forschung eingesetzt werden soll, ist ein maßgeblicher Faktor für ihren erfolgreichen Einsatz, nicht nur an Hochschulen, sondern auch bei den Empfängerinnen und Empfängern der Forschungsergebnisse.
Vertrauen in KI kann beispielsweise über Regulation oder Transparenz der eingesetzten Technologien oder Validierung der durch KI erzeugten Ergebnisse gebildet werden (vgl. Gethmann et al. 2022). Wie erfolgreich Künstliche Intelligenz in der Forschung an Hochschulen eingesetzt werden kann, liegt nicht zuletzt an den Führungskräften und Mitarbeitenden in der Verwaltung sowie den internen und externen Stakeholdern und ihrer Bereitschaft, diesen Prozess aktiv und verantwortungsbewusst mitzugestalten.
QUELLEN
Baecker, Dirk (2017): Agilität in der Hochschule. In: die hochschule. journal für wissenschaft und bildung 1/2017. https://www.hof.uni-halle.de/journal/texte/17_1/Baecker.pdf
Berg, Achim; Dehmel, Susanne (2020): Künstliche Intelligenz. https://www.bitkom-research.de/system/files/document/Bit-kom%20Charts%20Künstliche%20Intelligenz%2028%2009%202020_final.pdf
Bibliothek Deutscher Bundestag (2018): Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale. Literaturauswahl (Bibliografie für die Arbeit der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“). https://www.bundestag.de/resource/blob/574748/7c0ecbc8a847bb8019f2045401c1d919/Kuenstliche_Intelligenz_1-data.pdf
BfDI – Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit: Praktische Auswirkungen der Rechtsprechung des EuGH auf den internationalen Datentransfer (Rechtssache C-311/18 „Schrems II“). https://www.bfdi.bund.de/DE/Fachthemen/Inhalte/Europa-Internationales/Auswirkungen-Schrems-II-Urteil.html
Gethmann, Carl Friedrich; Buxmann, Peter; Distelrath, Julia; Humm, Bernhard G.; Lingner, Stephan; Nitsch, Verena; Schmidt, Jan C.; Spiecker genannt Döhmann, Indra (2022): Künstliche Intelligenz in der Forschung. Neue Möglichkeiten und Herausforderungen für die Wissenschaft. Berlin/Heidelberg: Springer
SATW – Schweizerische Akademie der Technischen Wissenschaften (2019): Künstliche Intelligenz in Wissenschaft und Forschung. https://www.satw.ch/fileadmin/user_upload/documents/02_Themen/08_Kuenstliche-Intelligenz/SATW_Kurzstudie_KI_Wissenschaft_Forschung.pdf
Wannemacher, Klaus; Bodmann, Laura (2021): Künstliche Intelligenz an den Hochschulen. Potenziale und Herausforderungen in Forschung, Studium und Lehre sowie Curriculumentwicklung. Arbeitspapier Nr. 59. Berlin: Hochschulforum Digitalisierung. https://tinyurl.com/2vfvbafy