KI in Studium und Lehre

Was ist KI und wie gehe ich im Studium damit um? (Erste) Antworten auf diese Fragen bekommen Sie hier.

Blog: OK mit KI?!

Wie Sie die Potentiale von KI-Tools nutzen und Integrität wahren können, erfahren Sie im Blog der #univie.

/

  • Was ist Künstliche Intelligenz (KI)?

    KI ist Intelligenz, die von Maschinen oder Programmen verwirklicht wird. Man unterscheidet üblicherweise zwischen "schwacher KI" („weak AI“ bzw. „narrow AI“) und "starker KI" (bzw. allgemeiner KI, „strong AI“). Während schwache KI klar abgegrenzte Problemstellungen lösen kann, soll starke KI, die bislang nicht verwirklicht werden konnte, allgemeine intelligente Fähigkeiten aufweisen und dadurch beliebige Aufgaben, die intellektuelle Herangehensweisen benötigen, lösen können. Die breiter bekannten erfolgreichen KI-Tools sind der schwachen KI zuzuordnen, z.B. Computerprogramme, die menschliche Weltmeister in Schach oder Go besiegen oder Bilder aus Texteingaben erzeugen können. Auch Sprachmodelle, wie etwa GPT, werden eher der schwachen KI zugeordnet (für eine exemplarische Darstellung der Fähigkeiten von GPT 4 siehe beispielsweise Bubeck et al., 2023). Für eine breitere Diskussion der Fähigkeiten, Risiken und Möglichkeiten heutiger Sprachmodelle siehe beispielsweise auch Bender et al., 2021; Brown et al., 2020.

    KI-Systeme nehmen sehr viele verschiedene Formen an und erfüllen verschiedenste Aufgaben. Es gibt etwa KI-Systeme, die diverse Brett- und Computerspiele spielen können. Außerdem existieren auch KI-Systeme, die Ärzt*innen bei der Diagnose von Krankheiten unterstützen (Expert*innensysteme), Objekte in Bildern erkennen, automatisch Müll sortieren, über Kreditvergaben entscheiden, Autos selbständig steuern usw. In letzter Zeit hat jedoch insbesondere eine spezielle Klasse von KI-Systemen, sogenannte „Sprachmodelle“ wie etwa Chat-GPT, an Bedeutung und Aufmerksamkeit gewonnen.

  • Welche KI-Tools gibt es?

    Diese Frage ist nicht zu beantworten, da täglich neue und bessere Tools auf den Markt kommen. Während in der ersten Phase des Hypes Sprachmodelle mit Chatfunktion dominierten, sind nun auch Bild- und Videogeneratoren verfügbar, die eine erstaunliche Entwicklung hinlegen.

    Einen kleinen Überblick, welche KI-Tools im Bereich Studium und Lehre am Markt sind, bietet Ihnen die Website www.vkkiwa.de/ki-ressourcen/.

  • Darf ich KI-Tools im Studium verwenden?

    Auf diese Frage gibt es - offen gesagt - keine einfache Antwort. Studierende der Informatik bauen selbst zB. Sprachmodelle und experimentierten damit. Studierende der Translationswissenschaft arbeiten mit Übersetzungs-KI. In jedem Textverarbeitungsprogramm stecken mittlerweile kleine KI-Alltagshelfer. Als Lehramtsstudierende lernen Sie, wie Schüler*innen Hausaufgaben oder Referate erstellen und wie Sie als Lehrperson darauf reagieren, wenn KI eingesetzt wird. Und in vielen Lehrveranstaltungen wird über die Auswirkung von KI-Tools auf Gesellschaft, Kultur und Technik wissenschaftlich gearbeitet.

    Natürlich muss bei Prüfungen und wissenschaftlichen Arbeiten klar erkennbar sein, was SIE können und wissen. Wir prüfen nicht die KI-Tools.

    Ob und wie KI-Tools zum Einsatz kommen, entscheiden die Lehrenden und Prüfer*innen daher fachspezifisch. Unsere Lehrenden haben dazu von der Universität Wien Guidelines bekommen. Eine der wichtigsten Dinge in dem Zusammenhang ist Transparenz. Lehrende geben vor der Lehrveranstaltung bzw. Prüfung die erlaubten Hilfsmittel an. Angesichts der Vielzahl von Tools keine leichte Aufgabe.

  • Was tun, wenn Lehrende keine Info herausgegeben haben?

    Im Sinne der Klarheit stellen Sie die Frage, wie mit KI-Tools umzugehen ist, in der ersten Lehrveranstaltungseinheit oder vor der Prüfung.

  • Was sollte ich beachten, wenn ich KI-Tools nutze?

    Egal ob im privaten Alltag oder im Studienbetrieb: Es gibt Fragen und Themen, mit denen Sie sich auseinandersetzen sollten:

    • Welche (persönlichen) Daten will das KI-Tool von mir und bin ich bereit, diese zu teilen? Welche Interessen verfolgt das Unternehmen, das hinter dem KI-Tool steht?
      • Geben Sie nie personenbezogene Daten oder Geheimnisse in ein solches Tool ein!
      • Das betrifft ihre eigenen Daten genauso wie die Daten anderer. 
    • Auf welcher Grundlage hat das KI-Tool gelernt? Kann ich sicher sein, dass die Ergebnisse wahr, vollständig und vor allem auch ohne Bias erstellt wurden?
      • Sie sind bei der Verwendung von KI-Tools immer dafür verantwortlich, was Sie mit den Ergebnissen machen.
      • Die Überprüfung des Output ist daher eine wichtige Aufgabe. KI-Tools halluzinieren und präsentieren manchmal ein frei erfundenes Stück Text sehr überzeugend als Wahrheit oder echte Quelle. Seien Sie vorsichtig!
      • Dokumentieren Sie, welche Eingaben Sie wann gemacht haben, welche Ergebnisse das KI-System erzielt hat und wie sie diese verarbeitet haben.

     

    Wichtig zu wissen:

    Large Language Models wie chatGPT etc. haben auf Grund ihrer Netzwerkarchitektur keine Quelle für Wahrheit, wie Open-AI dies in einem Blogpost im Abschnitt „Limitationen“ auch an erster Stelle schreibt: „chatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers. Fixing this issue is challenging, as: (1) during RL training, there’s currently no source of truth; (2) training the model to be more cautious causes it to decline questions that it can answer correctly […]“.

    Daher ist noch einmal zu betonen, dass es sich bei Sprachbots keineswegs um „Wissensmaschinen“ handelt. Im Gegenteil: Die Verpflichtung, den Output auf seine Richtigkeit zu überprüfen, und die Verantwortung für das Ergebnis liegt letztlich immer bei dem Menschen, der das KI-Tool einsetzt.

    Ein Flowchart von Aleksandr Tiulkanov veranschaulicht dies eindrücklich:

    Graphik: Aleksandr Tiulkanovhttps://creativecommons.org/licenses/by/4.0/deed.de)

    Graphik: Aleksandr Tiulkanov (© https://creativecommons.org/licenses/by/4.0/deed.de)
  • Was ändert sich beim Schreiben wissenschaftlicher Arbeiten?

    Bei der Erstellung von wissenschaftlichen Arbeiten klären Sie vorher mit den Betreuer*innen ab, welche Hilfsmittel erlaubt sind und wie die Eigenständigkeit der Leistung nachvollziehbar dokumentiert werden muss. Das ist auch von Fach zu Fach im Detail unterschiedlich. Folgende Aspekte sollten Sie jedenfalls besprechen (Ihre Betreuer*innen wissen das):

    Klären Sie mit den Betreuer*innen, wie Sie bei wissenschaftlichen Arbeiten korrekt vorgehen.

    Eine Arbeit ist dann als eigenständig anzusehen, wenn Sie:

    • alle genutzten Hilfsmittel dokumentiert haben
      • an der Stelle, an der sie zum Einsatz kamen und
      • in der methodischen Beschreibung der Arbeit,
    • geistiges Eigentum anderer Personen nach den Regelungen des Faches zitiert und im Literaturverzeichnis benannt haben,
    • das Recht haben, die urheberrechtlich geschützten Bilder und Medien in der Arbeit zu verwenden,
    • alle im Entstehungsprozess erhobenen (Roh-)Daten, Protokolle und Analysen nachvollziehbar und jederzeit einsehbar dokumentiert haben,
    • alle Texte und Bilder, die mittels (KI-)Tools generiert wurden, sowie deren Veränderung im Prozess der Erstellung der Arbeit transparent gemacht haben,
    • jegliche inhaltliche Unterstützung durch Dritte (z.B. Datenaufbereitung, Analysen) explizit genannt und die Personen angemessen gewürdigt haben (z.B. in der Danksagung),
    • neben der genehmigten Betreuung keine unerlaubte inhaltliche Hilfestellung Dritter (z.B. Ghostwriting) in Anspruch genommen haben und
    • allfällige inhaltliche Überschneidungen mit Leistungen aus Lehrveranstaltungen (z.B. Bachelor-, Seminararbeit) ausgewiesen haben.

    Wie Sie konkret vorgehen, besprechen Sie mit den Betreuer*innen. Bei der Einreichung von wissenschaftlichen Arbeiten werden Sie diese Punkte auch bestätigen müssen. Beim Verdacht, dass sie nicht eigenständig gearbeitet haben, wird ein studienrechtliches Verfahren eröffnet (ähnlich wie bei Plagiat, Ghostwriting etc.).

  • Was passiert, wenn KI-Tools nicht erlaubt waren und ich sie dennoch verwendet habe?

    Es gelten die selben Regeln wie beim Schummeln. Hat der*die Lehrende oder der*die Prüfer*in den Verdacht, dass unerlaubte Hilfsmittel verwendet wurden, beginnt ein studienrechtliches Verfahren. Dazu werden die Beobachtungen und Beweise gesammelt. Auch Sie haben das Recht, sich zu äußern. Wenn sich ergeben sollte, dass Sie nicht rechtskonform gehandelt haben, wird Ihnen im Sammelzeugnis ein "X" eingetragen und der Antritt wird gezählt.

Wissenschafter*innen der Universität Wien haben hier kurz zusammengefasst, was KI technisch ist, wie sie trainiert wird und welche ethischen und rechtlichen Folgen ihr Einsatz hat. Mehr zu diesen Themen erfahren Sie fachspezifisch im Lehrangebot der Universität Wien.

/

  • Wie werden KI-Systeme erstellt und trainiert?

    Die Entwicklung von KI-Systemen umfasst meist viele Schritte und erfolgt in mehreren Iterationen. Viele Details ignorierend kann man den Entwicklungsprozess oft als Erstellung eines sogenannten Modells und das Trainieren (Lernen) des Modells anhand von Daten oder Interaktionen abstrahieren.

    Bei komplexen Aufgabenstellungen werden als Modell häufig sogenannte „neuronale Netzwerke“ eingesetzt. Diese Art von Modellen wurden ursprünglich von der Signalverarbeitung im menschlichen Gehirn inspiriert und waren mitentscheidend für die Erfolge von KI-Systemen in den letzten Jahren. Es gibt verschiedene spezielle neuronale Netzwerke, je nach der Art der Eingabedaten, die verarbeitet werden sollen (z.B. spezielle Modelle für Bilder, Sequenzen, Sprache oder Graphen). Für die Verarbeitung von Sprache haben sich in den letzten Jahren sogenannte „Transformer-Modelle“ (Vaswani et al., 2017) etabliert.

    Oft verfügen neuronale Netzwerke über eine Vielzahl von veränderbaren Parametern, die beim Trainieren angepasst werden. Nur um die Größenordnung anzudeuten: Das Modell von Chat-GPT hat etwa 175 Milliarden Parameter.

    Das Trainieren eines Modells bedeutet die Anpassung der Parameter des Modells zur Erreichung eines bestimmten Ziels. Hierfür werden meist sogenannte „Zielfunktionen“ (bzw. „Fehlerfunktionen“) definiert und die Modellparameter angepasst, um die jeweilige Zielfunktion zu optimieren. Je nach Problemstellung und Verfügbarkeit von Daten verwendet man verschiedene Ansätze, um die Parameter anzupassen. Im Allgemeinen unterscheidet man hierbei drei zentrale Wege:

    • Beim überwachten Lernen („supervised learning“) liegen die Zielwerte, die ein Modell vorhersagen soll, vor und die Modellparameter werden angepasst, um für einen bereitgestellten Trainingsdatensatz (eine Menge von Daten, die für das Training der Modelle verwendet wird) die gegebenen Zielwerte möglichst genau
    • Beim unüberwachten Lernen („unsupervised learning“) liegen keine Zielwerte für das Training vor und die Modellparameter werden angepasst, um Struktur in den Daten zu erkennen.
    • Beim bestärkenden Lernen („reinforcement learning“) interagiert ein Modell (in diesem Fall auch oft als Agent bezeichnet) mittels Aktionen mit seiner Umwelt und erhält von dieser Umgebung Informationen über den Zustand derselben und ob die vom Agenten durchgeführten Aktionen zu einer Belohnung führen oder Basierend auf diesen Informationen passt der Agent sein Verhalten an, um möglichst viele Belohnungen zu erhalten.

     Beispiel Chat-GPT

    Das Sprachmodell des KI-Tools Chat-GPT ist beispielsweise mittels überwachten und bestärkenden Lernens trainiert. Für das überwachte Lernen wurden etwa 570 Gigabyte an Textdaten aus Büchern, von Webseiten (z.B. Wikipedia) etc. verwendet – ungefähr 300 Milliarden Wörter. Als Zielfunktion für das Training musste das Modell hinter Chat-GPT basierend auf teilweise vorliegenden Sätzen die Wahrscheinlichkeit von fortsetzenden Wörtern vorhersagen. Durch diese Art von Training hat das Modell Informationen über die statistische Struktur der Sprache erworben und kann Texte generieren. Erste Evaluierungen von einem Modell, das nur mittels überwachten Lernens trainiert wurde, führten in Anwendungen aber teilweise zu unzufriedenstellenden Ergebnissen, insbesondere aufgrund von sogenannten „halluzinierten Antworten“ oder der Nichtbefolgung von Instruktionen (L. Ouyang et al., 2022). Um das Modell diesbezüglich weiterzuentwickeln, wurde es mittels bestärkenden Lernens verbessert. Hierfür wurden mehrere mögliche Antworten auf Eingaben erst durch Menschen beurteilt, darauf basierend ein Belohnungsmodell trainiert und dieses dann verwendet, um die Parameter des Modells besser einzustellen. Das resultierende Modell und einige "Safeguards", die sicherstellen sollen, dass Chat-GPT keine gefährlichen oder illegalen Anfragen beantwortet bzw. entsprechende Antworten gibt, stellen das KI-Tool Chat-GPT in seiner aktuellen Version dar.

    Nicht alle KI-Systeme werden mittels eines mehrstufigen Trainings und mittels verschiedener Ansätze trainiert, aber alle KI-Systeme basieren in irgendeiner Art und Weise auf Daten. Das ist insofern wichtig, da die Eigenschaften der Daten üblicherweise die Eigenschaften des resultierenden KI-Systems beeinflussen.

  • Welche Eigenschaften sind für KI-Systeme wünschenswert und haben KI-Systeme diese Eigenschaften?

    Beim Einsatz von KI-Systemen stellt sich oft die Frage, welche Eigenschaften diese Systeme haben und wie diese die Wirkweise des Systems beeinflussen. Beispielsweise ist es bei KI-Systemen, die über die Vergabe von Krediten entscheiden, wichtig, dass diese Personen unterschiedliche Personengruppen mit gleichen Bonitätseigenschaften gleich behandeln und keine Diskriminierung durchführen – also die Personen in diesen Gruppen fair behandeln. Ähnliches ist bei Sprachmodellen wie Chat-GPT von Bedeutung, da dies beispielsweise die Art der Antworten beeinflussen und dementsprechend in weiterer Folge Einfluss auf Menschen haben kann.

    Ein ganzes Teilgebiet der KI-Forschung beschäftigt sich mit den Eigenschaften von KI-Systemen bezüglich Fairness („fairness“), Transparenz („transparency“) und Verantwortlichkeit („accountability“), aber auch mit Fragen bezüglich des Vertrauens von Menschen in KI-Systeme, welches oft mit den drei vorher genannten Eigenschaften zusammenhängt. Häufig ist es wünschenswert, dass KI-Systeme fair handeln, also verschiedene Personengruppen gleich behandeln, und transparent sind, dass also die Funktionsweise beziehungsweise die Grundlage für Vorhersagen oder Entscheidungen des Systems nachvollziehbar gemacht werden kann. Die Eigenschaft der Verantwortlichkeit befasst sich damit, wer im Falle von fehlerhaften oder problematischen Vorhersagen oder Aktionen, potenziell mit folgenschweren Auswirkungen, die Verantwortung übernimmt bzw. wem diese zuzuordnen ist.

    Aufgrund des Trainings von KI-Systemen basierend auf Daten sind diese im Allgemeinen nicht fair, sondern übernehmen in den Daten vorherrschende „Biases“. Beispielsweise konnten tatsächlich implementierte KI-Systeme identifiziert werden, die in verschiedenen Anwendungen Frauen systematisch nachteilig bewerten oder Personen mit gewissen Merkmalen geringere Chancen auf erfolgreiche Bewährung zuordnen. Es gibt zwar verschiedene Techniken und Methoden, um diesen Biases im Training entgegenzuwirken, viele Ansätze diesbezüglich befinden sich aber noch im Entwicklungs- bzw. Forschungsstadium.

  • Ist KI neutral?

     

    Wie im Fall der oben bereits erwähnten Eigenschaften von KI, ist KI aufgrund des Trainings mittels Daten, die potenziell Biases enthalten, im Allgemeinen nicht neutral.

    Beispiel:

    Im Falle von Chat-GPT wurde beispielsweise die politische Orientierung des Systems analysiert, indem das Modell dazu aufgefordert wurde, Antworten auf Fragen aus einem politischen Orientierungstest zu geben. Hierbei hat sich für Chat-GPT im allgemeinen eine eher linksgerichtete politische Orientierung gezeigt (D. Rozado, 2023). Dies ist insofern relevant, als dass offensichtlich Chat-GPT und eigentlich auch alle anderen KI-Modelle nicht als neutral betrachtet werden können. In diesem Licht sind auch die Vorhersagen derartiger Systeme zu betrachten.

  • Ist KI ethisch (vertretbar)?

    Technologien der KI haben schon immer ethische Erwägungen provoziert (vgl. Coeckelbergh, 2000). Ethik lässt sich allgemein beschreiben als eine Überlegung, die Antworten auf die Fragen nach dem Guten und dem Richtigen zu geben versucht. Gemeint ist damit meist aber nicht das sachlich Gute und Richtige, sondern das moralisch Gute und Richtige. Bei der Moral geht es um Normen und Ideale des Handelns, die mit gelingendem Leben oder anderen Werten in einem Zusammenhang stehen.

    Die Ethik der KI wird vielfältig debattiert. Sicherheit, Datenschutz und informationelle Selbstbestimmung, Diskriminierung und Bias sowie Verantwortung und Zurechnung von Handlungen werden diskutiert. Überblickt man die Kataloge von ethischen Regeln für KI, kann man feststellen, dass sie sich sehr ähneln und einen unkontroversen Prinzipien- oder Wertbestand aufrufen (Jobin et al., 2019; Hagendorff, 2020). Starke Debatten dagegen gibt es darüber, wie ausgehend von diesen moralischen Perspektiven KI-Technologien gestaltet (wissenschaftlich-technische Ebene) und reguliert (politisch-rechtliche Ebene) werden soll. Dafür spielen meist auch Überlegungen eine Rolle, die den Wirtschafts- und Forschungsstandort Europa im Blick haben und eine dynamische wie auch ethisch verantwortbare Nutzung von KI-Technologien zum Ziel haben. In Sachen Regulierung bildet sich ein risikobasierter Ansatz aus, der in bestimmten Hinsichten riskante Technologien (etwa selbstfahrende Autos) stark reguliert und hohe Anforderungen an den Einsatz von KI-Systemen stellt, und der wenig riskante Technologien (etwa Pfandrückgabeautoamten) kaum reguliert (siehe etwa den Entwurf und die Diskussionen um den EU AI Act, vgl. Europäische Kommission, 2023).

    In der Bildung werden KI-Systeme immer mehr eingesetzt und dabei mit unterschiedlichen Blickwinkeln auf Lernende, Lehrende und Organisationen ebenfalls ethische Überlegungen angestellt. Meist spielen die bereits bekannten Probleme von KI-Systemen (Sicherheit, Diskriminierungen, Datenschutz) hier eine herausragende Rolle (Witt et. al.,  2020). Auf allen Anwendungsebenen führt der Einsatz von KI-Systemen im Bildungsbereich zu ethischen Problemen, die wohl zum Teil hohen Aufwand zur Lösung erfordern, meist aber auch gelöst werden können.

    Weitaus spannender und auch schwieriger zu beantworten sind übergreifende ethische Problemstellungen. Diese betreffen die Ebene der Veränderung menschlicher Selbst- und Weltverhältnisse im Zuge technologischer Neuerungen. KI-Systeme fordern menschliche Selbstverständnisse und Weltverständnisse sehr stark heraus. Wo etwa das menschliche Selbstverständnis bislang sehr stark in Abgrenzung zu „bloßen Maschinen“ definiert wird, werden solche Anthropologien durch hochleistungsfähige generative KI-Systeme unter Umständen erschüttert. Wo generative KI-Systeme zu realen Assistenten in der Alltagspraxis von Menschen werden,  stellen sie Interaktionspartner mit realen Effekten dar und sind insofern Teil menschlicher Kommunikationsgemeinschaften.

    Anzunehmen ist, dass der Einsatz von KI-Systemen im Hochschulbereich ebenfalls das verändert, was man unter Menschsein versteht, was ein gut (aus-)gebildeter Mensch ist und wie man Menschen behandelt (vgl. dazu das Forschungsprojekt BiKiEthics, se-ktf.univie.ac.at/bikiethics/). Der Begriff der Bildung ist selbst ein Symbol für die offene Frage nach der menschlichen Entwicklungsfähigkeit, der menschlichen Wissens- und Verantwortungsfähigkeit, für die Fragen des gelingenden Lebens und des gerechten Zusammenlebens. Insofern Hochschulen als Institutionen der Hochschulbildung auf diese Themen ausgerichtet sind und KI-Systeme den Kontext dieser Überlegungen stark verändern, stellt sich für sie dadurch die Frage nach ihrem Sinn und Zweck als Wissenschafts- und Bildungsinstitutionen in neuer Weise.

    So steht auch der konkrete Umgang mit generativer KI wie Chat-GPT in unserer Universität im Kontext der Frage, was unsere Bildungsziele sind. Antworten sind abhängig von der Ebene, auf der die Überlegungen stattfinden. Zwar muss die Universität als Institution eine allgemeingültige Antwort darauf finden, hingegen können auf den Ebenen der Fächer und Disziplinen die Antworten unterschiedlich ausfallen. Letztlich müssen diese Fragen von verantwortlichen Lehrpersonen zusammen mit den Lernenden beantwortet werden.

  • Wie lässt sich KI rechtlich einordnen?

    Obwohl sich das disruptive Potenzial von KI auch in juristischen Kontexten seit Längerem abzeichnet (Europäische Kommission, 2019) und obwohl insbesondere die europäische Kommission das Thema seit Längerem verfolgt (vgl. Europäische Kommission, 2023a), haben die bisherigen Arbeiten auf europäischer Ebene bisher nur zu Gesetzesvorschlägen, insbesondere zu einem Verordnungsvorschlag (Europäische Kommission, 2023b) und zu einem Richtlinienvorschlag hinsichtlich der Haftung für KI (Europäische Kommission, 2022) geführt. Es fehlt also bisher an "hartem", speziellem, europäischem Recht, an dem man sich orientieren könnte. Das gilt schon für die allgemeine KI-Regulierung; erst recht für die spezielle im Bildungsbereich.

    Und gleichermaßen gilt das auch für das nationale, österreichische Recht: Hier findet man bisher nur eine sehr allgemein gehaltene KI-Strategie, an spezielleren und belastbaren Regelungen fehlt es vollkommen. Dieser Strategie ist aber – immerhin – das Folgende zu entnehmen (Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie (BMK), 2022, S. 50): "KI soll von Lehrenden und Lernenden im Sinne von Individualisierung und didaktischer Innovation in der gesamten Bildungskette genutzt werden. Dafür sind die Entwicklung von KI-basierten Werkzeugen, die mit konkreten Lernmethoden verknüpft werden, wie auch eine damit einhergehende Schaffung von Evidenzen für deren Effektivität durch Begleitforschung notwendig."

    Es existieren also vor allem vage und juristisch nur eingeschränkt belastbare Zielbestimmungen, die einerseits die Sinnhaftigkeit und das Potenzial des KI-Einsatzes insbesondere auch im Bildungsbereich betonen, während sie andererseits regelmäßig auch inhärente Herausforderungen und Gefahren benennen, deren Bewältigung mit noch zu schaffenden rechtlichen Instrumenten versucht werden müsse. Bis zur Schaffung dieser Instrumente bleibt jedoch nur die Anwendung von nicht-KI-spezifischen Rechtsnormen auf KI- Sachverhalte. Im Lichte der ohnehin schon wegen der Eigenheiten von Sprachmodellen, ihrer raschen Entwicklung und den Schwierigkeiten der Aufklärung ihres Einsatzes auftretenden Herausforderungen ist es mindestens sinnvoll, wenn nicht geboten, zumindest auf universitärer Ebene eine (gewisse) Orientierung zu bieten.

    Regelmäßig stellen sich deshalb mit den allgemeinen Regeln zu beantwortende datenschutzrechtliche und urheberrechtliche Fragestellungen.

  • Welche datenschutzrechtlichen Themen beim Einsatz von KI-Tools sind zu beachten?

    Das Datenschutzrecht schützt, grob gesprochen, natürliche Personen (also alle Menschen) vor rechtswidrigen Verarbeitungen ihrer personenbezogenen Daten. Eingangsvoraussetzung dafür, dass das Datenschutzrecht überhaupt anwendbar ist, ist also, dass personenbezogene Daten verarbeitet werden. Art. 4 Z. 1 der Datenschutz Grundverordnung (DSGVO) definiert „personenbezogene Daten“ als "alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person [...] beziehen; als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann." Personenbezogene Daten liegen daher insbesondere auch dann vor, wenn die betroffene Person zwar nicht unmittelbar bestimmt ist (Beispiel: "Luca Müller nimmt an meiner Lehrveranstaltung teil"), aber zumindest bestimmbar ist.

     Beispiele

    • "Die Studentin mit der Matrikelnummer 01234567 nimmt an meiner Lehrveranstaltung teil."
    • "Die Studentin, die sich nächste Woche namentlich in meiner Sprechstunde vorstellen wird, nimmt an meiner Lehrveranstaltung teil."
    • "Die (einzige) Studentin, die im 4. Semester ist, die Prüfung X bereits mit der Note genügend absolviert hat und im kommenden Semester ein Auslandssemester in Paris macht, nimmt an meiner Lehrveranstaltung teil."

    Handelt es sich um personenbezogene Daten, gilt ein Verbot mit Erlaubnisvorbehalt. Das bedeutet, dass die Verarbeitung in der Regel verboten und nur unter bestimmten Ausnahmen erlaubt ist, nämlich dann, wenn die betroffene Person in die Verarbeitung eingewilligt hat oder die Verarbeitung aufgrund einer gesetzlichen Anordnung (ausnahmsweise) erlaubt ist. Eine solche gesetzliche Erlaubnis kann zum Beispiel in dem Umstand begründet liegen, dass eine Stelle Daten verarbeiten muss, um ihre (gesetzlichen) Aufgaben oder einen Vertrag erfüllen zu können. Deswegen dürfen Universitäten Daten verarbeiten (z.B. auch auf Lernplattformen wie Moodle), ohne dass der*die betroffene Studierende in diese Verarbeitung eingewilligt haben muss, sofern die Verarbeitung für die gebotenen Zwecke erforderlich und verhältnismäßig ist.

    Jedoch ist besondere Vorsicht dann geboten, wenn die personenbezogenen Daten nicht in Europa verbleiben, sondern in einen so genannten Drittstaat (z.B. USA, China, Indien) übermittelt werden, in dem (wenigstens aus europäischer Sicht) nicht ein ebenso angemessenes Datenschutzniveau herrscht. Solche Übermittlungen unterliegen besonders strengen Anforderungen, mit denen sichergestellt werden soll, dass die Daten auch dann geschützt werden, wenn niedrigere Standards herrschen. Aus diesen Gründen empfiehlt es sich grundsätzlich nicht, personenbezogene Daten in einen Drittstaat wie insbesondere Die USA zu transferieren, wenn dieser Transfer nicht spezifisch (in der Regel: vertraglich) geregelt ist.

  • Welche urheberrechtlichen Themen sind beim Einsatz von KI-Tools zu beachten?

    Das Urheberrecht schützt (nur) "eigentümliche geistige Schöpfungen auf den Gebieten der Literatur, der Tonkunst, der bildenden Künste und der Filmkunst." (§ 1 UrhG), so genannte Werke. Der Schutz entsteht mit Schaffung des Werks, es sind keinerlei weitere Schritte erforderlich, insbesondere bedarf es keiner Erlaubnis oder Registrierung. Voraussetzung ist allerdings eine (gewisse) Eigentümlichkeit, also, vereinfacht gesprochen, dass das Werk das Ergebnis eines kreativen Schöpfungsprozesses ist, die so genannte Schöpfungshöhe. Nicht geschützt sind damit nur völlig triviale, belanglose, keinerlei Kreativität verlangende Arbeiten. Urheber*innen sind daher stets natürliche Personen. Ihnen kommt mit Schaffung das Werks insbesondere auch das Recht zu, allein über die Verwertung des Werks zu bestimmen, etwa, indem ein Verwertungsvertrag geschlossen wird. 

    Zu den geschützten Verwertungshandlungen zählen speziell auch Vervielfältigung und  Zugänglichmachung im Internet. Eine Vervielfältigung liegt insbesondere auch dann vor, wenn ein Werk digital kopiert wird. Regelmäßig schließen Urheber*innen mit Verwertern (z.B. Arbeitgeber*innen, Verlagen, Filmproduzent*innen) Verwertungsverträge, in denen für die Übertragung der Verwertungsrechte ein Entgelt vorgesehen sein kann (aber nicht muss). Hat der*die Urheber*in die Verwertungsrechte ausschließlich übertragen, hat er*sie damit alle Entscheidungsgewalt zu Verwertungshandlungen mit übertragen und kann über diese nicht mehr selbst disponieren.

    Von einer KI geschaffene "Werke" sind mangels menschlicher Kreativität, die zu ihrer (konkreten) Realisierung geführt haben, in aller Regel nicht urheberrechtlich geschützt. Es entstehen daher auch keine Verwertungsrechte. Entsprechend bedarf es in der Regel keiner Lizenz. Etwas Anderes kann gelten, wenn die Anweisungen, die zur Generierung des "Werks" führen - also die Prompts - ihrerseits bereits Schöpfungshöhe erreichen, weil sie etwa besonders präzise oder kompliziert sind. Liegt kein Werk vor, bestehen auch keine Urheberrechte, sodass entsprechende Vermerke ("Copyright XYZ") irreführend sind.

    Trainingsdaten, die für die Entwicklung eines KI-Systems benötigt werden, können urheberrechtlich geschützt sein. Ist dies der Fall, kann ihre Nutzung auch ohne Einwilligung unter bestimmten Voraussetzungen zustimmungsfrei zulässig sein, dann nämlich, wenn es sich um eine Form des Text- und Data Mining handelt (vgl. § 42h UrhG). Das ist jedoch eine (komplizierte) Frage des Einzelfalls, sodass der Sachverhalt genau erhoben werden muss (vgl. hierzu Kramer, 2023). Klagen in vergleichbaren Fällen sind bereits anhängig (vgl. hierzu beispielsweise Klaiber, 2023).

  • Quellen und weiterführende Informationen
    • Coeckelbergh, Mark. AI ethics. The MIT Press essential knowledge series., 2020.
    • Bender, Emily M., et al. "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?" ACM Conference on Fairness, Accountability, and Transparency (2021).
    • Brown, Tom, et al. "Language models are few-shot learners." Advances in Neural Information Processing Systems 33 (2020).
    • Bubeck, Sébastien, et al. "Sparks of artificial general intelligence: Early experiments with gpt-4." arXiv preprint arXiv:2303.12712 (2023).
    • Europäische Kommission (2023), Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union. Online verfügbar unter eur-lex.europa.eu/legal-content/DE/TXT/, zuletzt abgerufen geprüft am 17.06.2023.
    • Europäische Kommission (2022). Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators. Online verfügbar unter: education.ec.europa.eu/news/ethical-guidelines-on-the-use-of-artificial-intelligence-and-data-in-teaching-and-learning-for-educators, zuletzt abgerufen geprüft am 19.06.2023. European Union Ethical guidelines for teachers on the use of AI. Online verfügbar unter: education.ec.europa.eu/news/ethical-guidelines-on-the-use-of-artificial-intelligence-and-data-in-teaching-and-learning-for-educators, zuletzt geprüft am 23.06.2023.
    • Hagendorff, Thilo. „The Ethics of AI Ethics: An Evaluation of Guidelines.” Minds & Machines, 2020. Online verfügbar unter: doi.org/10.1007/s11023-020-09517-8 zuletzt geprüft am 23.06.2023.
    • Jobin, Anna, Marcello Ienca, und Effy Vayena. „The global landscape of AI ethics guidelines.” Nature Machine Intelligence 1, Nr. 9 (2019): 389–99. Online verfügbar unter: doi.org/10.1038/s42256-019-0088-2 zuletzt geprüft am 23.06.2023.
    • Ouyang, Long, et al. "Training language models to follow instructions with human feedback", Advances in Neural Information Processing (2022).
    • Rozado, David. "The political biases of chatgpt." Social Sciences 12.3 (2023): 148.
    • Schlimbach, R., Khosrawi-Rad, B. & Robra-Bissantz, S. Quo Vadis: Auf dem Weg zu Ethik-Guidelines für den Einsatz KI-basierter Lern-Companions in der Lehre?. HMD 59, 619–632 (2022). Online verfügbar unter: doi.org/10.1365/s40702-022-00846-z, zuletzt geprüft am 23.06.2023
    • Vaswani, Ashish, et al. "Attention is all you need." Advances in Neural Information Processing Systems 30 (2017).
    • Witt, Claudia de, Florian Rampelt, und Niels Pinkwart. „Whitepaper "Künstliche Intelligenz in der Hochschulbildung" 2020. Online verfügbar unter: doi.org/10.5281/zenodo.4063722, zuletzt geprüft am 23.06.2023.
    • Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie (2022). Strategie der Bundesregierung für Künstliche Intelligenz - Artificial Intelligence Mission Austria 2030 (AIM AT 2030). Online verfügbar unter: www.bmk.gv.at/themen/innovation/publikationen/ikt/ai/strategie-bundesregierung.html, zuletzt abgerufen am 14.06.2023.
    • Datenschutz Grundverordnung (DSGVO). Online verfügbar unter: eur-lex.europa.eu/legal-content/DE/TXT/HTML/, zuletzt abgerufen am 14.06.2023.
    • Europäische Kommission (2023a). A European approach to artificial intelligence. Online verfügbar unter: digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence, zuletzt abgerufen am 14.06.2023.
    • Europäische Kommission (2023b). Vorschlag für eine zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union. Online verfügbar unter: eur-lex.europa.eu/legal-content/DE/TXT/HTML/, zuletzt abgerufen am 17.06.2023.
    • Europäische Kommission (2019). Generaldirektion Kommunikation, Leyen, U., Politische Leitlinien für die künftige Europäische Kommission 2019-2024 – Rede zur Eröffnung der Plenartagung des Europäischen Parlaments 16 Juli 2019. Online verfügbar unter: data.europa.eu/doi/10.2775/01339, zuletzt abgerufen am 19.06.2023.
      Europäische Kommission (2022). Vorschlag für eine Richtlinie des Europäischen Parlament und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung). Online verfügbar unter: eur-lex.europa.eu/legal-content/DE/TXT/HTML/, zuletzt abgerufen am 19.06.2023.
    • Klaiber, Hannah (2023). Nächste KI-Klage: Stable Diffusion und Midjourney sollen Urheberrechte verletzen. t3n Online-Magazin. Online verfügbar unter: t3n.de/news/stable-diffusion-sammelklage-stability-ai-midjourney-deviantart-1527577/, zuletzt abgerufen am 19.06.2023.
    • Kramer, Josefine (2023). EU will Auskunft über die Trainingsdaten von ChatGPT. t3n Online-Magazin. Online verfügbar unter: t3n.de/news/ai-act-eu-trainingsdaten-chatgpt-urheberrecht-1549442/, zuletzt abgerufen am 19.06.2023.
    • Urheberrechtsgesetz (UrhG). Online verfügbar unter: www.ris.bka.gv.at/GeltendeFassung.wxe, zuletzt abgerufen am 14.06.2023.

    Weitere Quellen zum Nachlesen: