Volltextsuche nutzen

B O O K SCREENER

Aktuelle Veranstaltungen

Events
  • versandkostenfrei ab € 30,–
  • 6x in Wien und Salzburg
  • 6 Mio. Bücher
Menü

Zankl.update Sonderupdate

Beitrag von ao. Univ.-Prof. Dr. Wolfang Zankl

"Rockt KI die Welt?"

Dieser Frage gingen der Forrester-Report 2021 und der Vergabetalk am 14.2.2023 mit RA Stephan Heid und Prof. Wolfgang Zankl nach - und sie wurde auch ChatGPT gestellt. Aus aktuellem Anlass einer Entscheidung des deutschen Bundesverfassungsgerichts zu Künstlicher Intelligenz (KI), zahlreicher Berichte über ChatGPT und anderer KI-Anwendungen werden das Gespräch und der Status Quo kurz zusammengefasst:

Künstliche Intelligenz (KI) entsteht aus Softwareprogrammen, die lernfähig sind und sich daher selbst weiterentwickeln können. Sie ist – zumeist aber noch nicht unter voller Ausnutzung dieses Potentials („starke KI“) – bereits jetzt allgegenwärtig und wird vor allem dort eingesetzt, wo es um die Erkennung von Mustern oder die Auswertung großer Datenmengen geht, zB in der medizinischen Diagnostik (Vergleich konkreter Röntgen/CTBilder mit Millionen anderer), bei selbstfahrenden Autos, Chatbots, Sprachassistenten, dynamischer bzw personalisierter Preisgestaltung, Gesichtserkennung bei Smartphones uvm. Weitere oft erwähnte Beispiele aus jüngerer Zeit:

  • Computerkunst: KI kann Musik komponieren, Gedichte schreiben und Bilder malen - kürzlich wurde ein von KI generiertes Porträt („Edmond de Belamy“) um USD 400.000,- versteigert; vgl auch nextremdbrandt.com: ein Programm wurde mit Bildern von Rembrandt und den Charakteristika seiner Maltechnik trainiert und produzierte so ein Porträt, das von Experten als typischer für Rembrandt angesehen wird als seine eigenen Gemälde.
  • Digital Life Prediction: Durch Berücksichtigung einer Vielzahl an Faktoren und Abgleich mit ebensolchen von Millionen oder Milliarden anderer (verstorbenen) Menschen kann eine präzise Lebens- oder Ablebenserwartung prognostiziert werden, was zB in der Versicherungswirtschaft, bei Triagen und vielen anderen Fällen eine Rolle spielen kann (iZm mit dem Projekt „RESPECT“ in Kanada bereits im Einsatz).
  • ChatGPT: Chatbot mit Dialogsystem, das auf Machine Learning beruht und nach Eingabe entsprechender Vorgaben komplexe Texte mitsamt Nachweisen und Fundstellen generieren kann. Zur Antwort auf die hier gestellte Frage siehe unten am Ende.

Manche warnen vor solchen Anwendungen (zu ChatGPT siehe unten) oder ganz generell vor den Gefahren Künstlicher Intelligenz (zB Stephen Hawking, Elon Musk), weil es dadurch zu einer Machtübernahme gegenüber der Menschheit kommen könne (sog „Takeover“). Dies ist zwar theoretisch denkbar, weil Programme aus dem Internet den Schluss ziehen könnten, dass es oft besser war oder gewesen wäre, menschliche Befehle (nichts anderes sind Algorithmen, die in Programmen verwendet werden) nicht zu befolgen. Überdies kann das Internet infolge seiner dezentralen Kommunikationsarchitektur nicht „abgeschaltet“ werden, und durch das Internet of Things - bzw noch mehr durch zukünftige Quantencomputer, die nicht nur in binären 0/1-Kategorien, sondern mit sog QuBits auch überall „dazwischen“ agieren - kann sich diese Gefahr potenzieren (vgl dazu den Film „Superintelligence“ auf Amazon Prime). Dennoch ist dies eher abstrakt und kaum im Sinne einer totalen Übernahme, sondern nur partiell vorstellbar. Darüber hinaus besteht auch in anderen Szenarien die Gefahr, dass die Menschheit nicht nur kontrolliert, sondern ausgelöscht wird, etwa iZm Atombomben, die dennoch produziert werden, anderes als KI aber per se keinen Nutzen stiften. Naheliegender sind andere Gefahren, etwa
  • Diskriminierungen, weil KI bestehende Tendenzen und Vorurteile übernimmt; anschaulich zB das von KI generierte Video zu Michael Jacksons „Billie Jean“ (YouTube: „billie jean ai generated“), das iZm mit der Textzeile „mother always told me“ eine Frau mit Kind in der Küche zeigt. Da Unterhaltungsvideos vom Artificial Intelligence Act (AIA) nicht erfasst sein werden (siehe unten), muss solchen und ähnlichen Stereotypen durch entsprechende Programmierung und möglichst diverse Lernvorlagen begegnet werden. Sehr wohl vom AIA betroffen sind hingegen zB Fälle, bei denen es durch den Einsatz von KI zur Bekämpfung von Straftaten zu Diskriminierungen kommt – etwa wenn Angehörige bestimmter Staaten oder Personen mit bestimmter Hautfarbe statistisch häufiger strafbare Handlungen begehen (vgl dazu und zu den Gefahren des „Predictive Policing“, bei dem automatisierte Vorhersagen über die Begehung von Straftaten an bestimmten Orten oder durch bestimmte Personen generiert werden, die Entscheidung 1 BvR 2634/20 vom 16.2.2023 des deutschen Bundeverfassungsgerichts; dieses weist idZ zu Recht auf das Risiko staatlichen Kontrollverlusts bei selbstlernender KI hin, ist aber wohl zu restriktiv, wenn es sich generell daran stößt, dass durch den Einsatz von KI „Informationen erzeugt werden, auf die ansonsten kein Zugriff bestünde“, denn genau darin liegt der Nutzen von KI: im Rahmen der rechtlichen Verhältnismäßigkeit (auf die in der Entscheidung ebenfalls besonderer Wert gelegt wird) zu nützlichen Ergebnissen zu gelangen, die menschlich nicht oder nur mit faktisch unverhältnismäßigem Aufwand erzielbar wären.
  • Verdrängung von Menschen, die sich va daraus ergeben wird, dass KI wesentlich günstiger und schneller arbeiten kann. Allerdings bringt die Entwicklung auch neue Berufsbilder mit sich, zB „KI-Flüsterer“, die KI so „zureden“ bzw sie durch entsprechende Eingaben so anwenden, dass sie optimal arbeitet.
  • Letzteres ist auch deshalb wichtig, weil eine weitere Gefahr sich selbst weiterentwickelnder KI darin besteht, dass oft sogar ihre Entwickler (Programmierer) nicht wissen, wie sie zu bestimmten Ergebnissen gelangt, und dass sie oft Ergebnisse produziert, die nicht auf Fakten beruhen, sondern (wahrscheinlich weil die KI keine solchen gefunden hat) einfach von ihr „erfunden“ werden. Solchen Risiken kann, vor allem, wo es um Gefahren für Freiheit, Leib oder Leben geht, durch die kontrollierende Einbettung von Menschen in entsprechende Entscheidungsprozesse begegnet werden („human in the loop“, siehe dazu unten).
  • Auch in Bezug auf ChatGPT und ähnliche Programme wird vor diesen Gefahren, aber auch speziell vor Verwerfungen im Schul- und Bildungswesen gewarnt. Schüler oder Studierende würden Haus- oder Diplomarbeiten und Dissertationen nicht mehr selbst erstellen, sondern (wie kürzlich ein kolumbianischer Richter sein Urteil) von solchen Programmen verfassen lassen. Diesem Einwand kann freilich durch die Verwendung entsprechender Erkennungsprogramme und durch den Hinweis Rechnung getragen werden, dass sich bisheriges Faktenwissen (das gegoogelt werden kann) zunehmend in Richtung Nutzungswissen entwickelt (wie, wo und wodurch macht man sich die Vorteile der Digitalisierung und speziell von KI am besten zu Nutzen – dies setzt aber iZm mit fachlichen Texten idR bereits ein gewisses Fachwissen voraus, mit dem zB auch KI-Fehler erkannt werden können).


Rechtlich bestehen derzeit noch keine umfassenden Spezialregeln (vgl aber einzelne Bestimmungen wie zB Art 13/2/f und 15/1/h DSGVO bezüglich Informations- und Auskunftspflichten bei automatisierter Entscheidungsfindung und Art 22 DSGVO bezüglich des Rechts, einer solchen zu widersprechen bzw diese menschlich überprüfen zu lassen, sowie § 89e GOG, der eine – auch auf KI anwendbare - Gefährdungsamtshaftung des Bundes für Schäden anordnet, die durch den Einsatz von IKT aus der Führung gerichtlicher Geschäfte entstanden sind), so dass mit allgemeinen Bestimmungen das Auslangen gefunden werden muss, zivilrechtlich zB mit der verschuldensunabhängigen Haftung des EKHG bei Unfällen selbstfahrender Autos, die durch mangelhafte KI verursacht werden (vgl § 9 EKHG: „Fehler in der Beschaffenheit“). Die Gefährdungshaftung des PHG kommt nicht ohne weiteres zum Tragen, weil Software keine bewegliche körperliche Sache iSd § 4 PHG ist (anders mE, wenn Personen- oder Sachschäden ohne menschliches Zutun unmittelbar durch fehlerhafte Programme verursacht werden; § 8 PHG, wonach keine Haftung besteht, wenn der Fehler nicht erkennbar war, ist aber auf KI unanwendbar, wenn der Fehler infolge selbständiger Weiterentwicklung eingetreten ist – dies begründet eine Gefährlichkeit iSd § 5 PHG).

Urheberrechtlich ist jene Person als berechtigt anzusehen, welche die entsprechende Software programmiert hat (strittig, anders zB kürzlich US Copyright Office). Dass das dadurch geschaffene Werk infolge der Lernfähigkeit von KI uU nicht mehr unmittelbar auf eine Schöpfung dieser Person zurückzuführen ist, ändert daran nichts, weil mit der Programmierung immerhin die Voraussetzungen für die Entstehung geschaffen wurden (idS auch Sec 9/3 des UK Copyright, Designs and Patents Act) und daraus ergebende Beliebigkeiten auch bei „humanoider“ Kunst nichts an der Urheberschaft des Menschen ändern, der diese Zufälle gezielt eingesetzt hat (zB Schüttbilder von Nitsch) – dies hat übrigens nichts mit NFTs (Non Fungible Tokens) zu tun, die (in der Blockchain dokumentierte) Rechte an (idR) virtueller Kunst begründen, unabhängig davon, ob diese menschlich oder künstlich geschaffen wurde. 

Die EU-Kommission hat nun die Entwürfe zweier Rechtsakte vorgelegt: einer Verordnung („Artificial Intelligence Act“) und einer Richtlinie („über KI-Haftung“). 

Der Artificial Intelligence Act beruht auf einem risikobasierten Ansatz:
  • Unannehmbare Risken, zB biometrische Fernidentifizierungssysteme oder (behördliches) Social Scoring sind untersagt.
  • Hohe Risken, etwa bei gefährlicher Infrastruktur im Verkehr oder in der Medizin, bei Einstellungsverfahren, Bewertung von Kreditwürdigkeit, Rechtspflege, Strafverfolgung ua unterliegen strengen Regelungen - va Transparenz und menschliche Aufsicht („human in the loop“). Daher dürfen zB Triagen nicht direkt von Programmen durchgeführt, sondern deren Ergebnisse nur als Entscheidungsgrundlagen für Ärzte herangezogen werden; auch Programme in selbstfahrenden Autos, die ohne menschliches Zutun entscheiden, ob sie bei unvermeidbaren Unfällen zB eher Jüngere als Ältere „schonen“ (sog „Trolley-Dilemma“) wären unzulässig (zu Recht: grundrechtlich problematisch und zivilrechtlich kein Notstand).
  • Geringe Risken, zB bei Chatbots, erfordert nur Transparenz – Menschen müssen wissen, mit wem sie es „zu tun haben“.
  • Minimale Risken, zB Videospiele, bleiben unreguliert

    Der Entwurf einer Richtlinie über KI-Haftung betrifft nur die deliktische (außervertragliche) Haftung, soll von einer Modernisierung der Produkthaftungs-RL flankiert werden und sieht Folgendes vor:

    • Verschuldenshaftung
    • Kausalitätsvermutung
    • Beweiserleichterung Geschädigter (Recht auf Zugang von Beweismitteln im Besitz von Anbietern)

    Die Schwierigkeit dieser – und noch umfangreich bevorstehender – Regulierung Künstlicher Intelligenz besteht darin, dass so gut wie sämtliche Geschäfts- und Lebensbereiche davon betroffen sind und es bei letzteren auch um Grundfragen der menschlichen Existenz geht (Conditio Humana), wenn geregelt wird, ob und inwieweit der Mensch von Künstlicher Intelligenz umgeben, abhängig und uU sogar beherrschbar sein soll. Die Problematik zeigt sich zB daran, dass eine Entschließung des EU-Parlaments Programmen bzw Robotern mit „fortgeschrittener“ Künstlicher Intelligenz Rechtspersönlichkeit verleihen wollte. 

    Unabhängig davon ist KI nach jüngsten Statistiken bereits jetzt in 10% aller österr Unternehmen (30% aller Großunternehmen) im Einsatz und wird der AIA im Hinblick auf drakonische Strafen bis 30 Millionen Euro oder 6% des Jahresumsatzes und mit unbeschränkter Haftung auch die KI-Haftungs-RL noch stärkere Vorsicht erfordern als schon zuvor die DSGVO. Damit sich dies im internationalen Entwicklungswettbewerb nicht ähnlich hemmend auswirkt, sieht der Verordnungsentwuf „Regulatory Sandboxes“ vor, in denen va Start-ups unter der Aufsicht der zuständigen Behörden unter gelockerten Bedingungen agieren können. 

    Ergebnis Zankl: KI rockt die Welt, muss aber behutsam reguliert werden.
    Ergebnis ChatGPT (auf die Frage „rockt KI die Welt?“): „Letztendlich hängt die Auswirkung von KI auf die Welt davon ab, wie wir sie einsetzen und regulieren“ (!).

    Siehe dazu mit weiteren Nachweisen demnächst Zankl, Bürgerliches Recht, 10. Auflage, Rz 295d sowie den Vergabetalk mit Rechtsanwalt Dr. Heid und Prof. Zankl: https://www.youtube.com/watch?v=kzLp2O-k9M8.

    Alle monatlichen Zankl.updates auf einen Blick finden Sie hier: https://www.facultas.at/verlag/rws/zankl_update

    14. März 2023



    ao. Univ.-Prof. Dr. Wolfgang Zankl

    ist Universitätsprofessor am Institut für Zivilrecht der Universität Wien (www.zankl.at), Gründer und Direktor des weltweiten Netzwerks für IT-Recht (www.e-center.eu), Entwickler und Leiter der ersten juristischen Crowd-Intelligence-Plattform (www.checkmycase.com) und Foundation Member der Computer Ethics Society Hong Kong.

     © Privat

     

    Literatur zum Thema

    Bürgerliches Recht Bürgerliches Recht

    Veröffentlicht 2023
    von Wolfgang Zankl bei facultas
    ISBN: 978-3-7089-2266-9

    Das moderne Zivilrecht wird vor dem Hintergrund der Globalisierung und europäischen Gesetzgebung immer internationaler, mit der rasant zunehmenden Digitalisierung immer „elektronischer“ und infolge anhaltender Gesetzesflut immer unüberschaubarer. Das vorliegende Buch – jetzt auch als E-Book ...

    Erbrecht

    Lehr- und Praxishandbuch

    Erbrecht

    Veröffentlicht 2019
    von Wolfgang Zankl bei Facultas
    ISBN: 978-3-7089-1793-1

    Seit über einem Vierteljahrhundert bewährtes Lehr- und Praxishandbuch des Erbrechts: Die instruktive Darstellung mit zahlreichen Beispielen und Abbildungen sowie Fallbeispiele aus der aktuellen Rechtsprechung vermitteln das Erbrecht authentisch und ermöglichen vertieftes Studium und fundierte ...

    Casebook Bürgerliches Recht

    Über 700 aktuelle Fälle, Fragen und prüfungsrelevante Entscheidungen

    Casebook Bürgerliches Recht

    Veröffentlicht 2022
    von Wolfgang Zankl bei facultas
    ISBN: 978-3-7089-2265-2

    Das seit 30 Jahren bewährte Casebook enthält – in nunmehr 11. Auflage – zahlreiche Sachverhalte verschiedener Schwierigkeitsgrade mit ausführlichen und instruktiven Lösungen sowie aktuelle Judikaturfälle mit Anmerkungen zur Prüfungsrelevanz. Wiederholungsfragen, Kurzfälle und eine ...

    Kombipaket Casebook Bürgerliches Recht und Bürgerliches Recht Kombipaket Casebook Bürgerliches Recht und Bürgerliches Recht

    Veröffentlicht 2022
    von Wolfgang Zankl bei Facultas
    ISBN: 978-3-7089-2344-4

    Das seit 30 Jahren bewährte Casebook enthält - in nunmehr 11. Auflage - zahlreiche Sachverhalte verschiedener Schwierigkeitsgrade mit ausführlichen und instruktiven Lösungen sowie aktuelle Judikaturfälle mit Anmerkungen zur Prüfungsrelevanz. Wiederholungsfragen, Kurzfälle und eine ...

    FlexLex Zivilrecht/Bürgerliches Recht

    Fassung vom 15.2.2022

    FlexLex Zivilrecht/Bürgerliches Recht

    Veröffentlicht 2022
    von Wolfgang Zankl bei facultas / FlexLex
    ISBN: 978-3-99071-181-1

    Die Gesetzessammlung beinhaltet folgende Gesetze: 1. Allgemeines bürgerliches Gesetzbuch 1.1. ABGB - Erbrecht vor ErbRÄG 2015 2. Amtshaftungsgesetz 3. Anerbengesetz 4. Auslandsunterhaltsgesetz 2014 5. Außerstreitgesetz (Auszug §§ 81 - 185, 207m) 6. Baurechtsgesetz 7. Bundes-Kinder- ...