Sprache, Daten, Ethik

Von Prof. Dr. Martin Haase

Im letzten Jahr wurde das Straßenverkehrsgesetz dahingehend geändert, dass nun auch das automatisierte Fahren geregelt ist. Allerdings bleibt die gesamte Verantwortung bei derjenigen Person, die im Zweifelsfall zum Steuer hätte greifen können und müssen. Das widerspricht dem in Deutschland sonst gültigen Prinzip, dass haftet, wer Schuld hat; aber wer sich auf den Autopiloten verlässt, ist sicher nicht schuld an Programmierfehlern. Wer trägt die Verantwortung für Algorithmen und künstliche Intelligenz, insbesondere wenn sich keine Verantwortlichen ermitteln lassen? Wenn Autorenschaft und Nutzung zusammengehören und kollaborativ gearbeitet wird (Wikiprinzip), wer ist dann verantwortlich? Wenn Texte und Programme selbst aus Daten entstehen, wer haftet dann und wem gehören die aggregierten Daten? Eine Maxime der Hackerethik lautet: Private Daten schützen, öffentliche Daten nützen. Wenn sich aber Privates und Öffentliches nicht mehr unterscheiden lassen, wie ist dann mit den Daten zu verfahren? Wenn Menschen nicht gläsern sein sollen, jedoch der Staat, was passiert, wenn immer mehr Menschen an demokratischen Prozessen beteiligt werden? Wo ist die Grenze zwischen Bürgerbeteiligung und politischer Verantwortung? Wenn Datenaustausch und Vernetzung die Welt sicherer und lebenswerter machen, wo bleibt die informationelle Selbstbestimmung?

Systemfehler

errare humanum est – Irren ist menschlich. Aber besser ist es doch, wenn ich keine Fehler mache. Und wenn doch ein Fehler aufgetreten ist, dann ist es besser, wenn jemand anderes verantwortlich ist – oder am besten niemand! Bei der deutschen Bahn heißt das dann: „Störungen im Betriebsablauf“ (man beachte, dass das Phänomen eigentlich nur im Plural auftritt). Anderswo ist es dann ein bedauerlicher Computerfehler oder gar ein – horribile dictu – Systemfehler! Im Neusprechblog schrieb ich dazu:

„Wer einen Fehler macht, ist in der Regel dafür verantwortlich. Das kann Folgen haben und ist unangenehm. Also schiebt man diese Verantwortung gern auf andere. Am besten ist es, wenn anschließend niemand Schuld war, dann gibt es keinen Ärger. Vor allem aber muss dann auch nichts verändert werden, alles kann so bleiben, wie es war. Da bietet sich das unpersönliche System an. Wenn ein System schuld ist, ist die Verantwortung so abstrakt, dass jeder Schuld sein kann oder niemand. Das macht den S. so praktisch. Aber er ist natürlich eine Lüge: Denn irgendjemand hat noch immer einen Fehler gemacht. Systeme entstehen nicht von selbst, jemand hat sie entwickelt, programmiert, gestartet, kontrolliert. Glücklicherweise lassen sich die Schuldigen leicht erkennen. Es sind die, die am lautesten die Schuld auf das System schieben.“ (Neusprechblog: Systemfehler)

Verantwortung

Hier geht es um Verantwortung. Und gerade der Computer bietet viele Möglichkeiten, die Verantwortung von sich zu schieben. Wenn der Computer nein sagt, dann muss man sich offenbar nicht weiter rechtfertigen. Dieser ausweichende Umgang mit der Verantwortung ist heute an der Tagesordnung. Kaum mehr erinnert man sich an Politiker, Manager, Verantwortungsträger, die – möglicherweise selbst unschuldig – die Verantwortung für Fehler übernommen haben und zurückgetreten sind, oder an diejenigen, die Verantwortung gezogen haben oder zur Verantwortung gezogen wurden.

Dabei beruht die repräsentative Demokratie auf Verantwortung: Gewählte haben ihr Tun zu verantworten vor den Wählern, sonst werden sie sicher nicht mehr gewählt, vielleicht sogar abgewählt, Delegierte vor den Delegierenden, Regierungen vor dem Parlament und mittelbar eben auch vor den Wählern.

Das soll natürlich kein Plädoyer gegen Bürgerbeteiligung sein, aber insbesondere plebiszitäre Bürgerbeteiligung wie auch Wahlen beruhen nicht auf dem Prinzip der Verantwortung. Wie hier emotional und/oder aufgewiegelt entschieden wird, zeigen in jüngerer Zeit Wahlen in mehreren demokratischen Staaten. Allerdings könnte in einer Zeit, wo Menschen gemeinsam eine Enzyklopädie schreiben, auch darüber nachgedacht werden, dass Menschen gemeinsam Gesetze schreiben. Aber dies müsste in einer Art und Weise geschehen, in der ähnlich wie im Parlament mit „offenem Visier“ gearbeitet wird. In jüngster Zeit gibt es interessante Ansätze im Rahmen der so genannten „fließenden Demokratie“ (Liquid Democracy).

Auch unser Rechtswesen funktioniert nach dem Verantwortungsprinzip: Der Verursacher wird zur Verantwortung gezogen. Aber gerade wenn es um Daten und ihre Verarbeitung geht, wird es schwierig, den Verursacher ausfindig zu machen, insbesondere wenn eine Vielzahl von Personen oder neuerdings sogar Algorithmen für Fehler verantwortlich sind. Aber können Algorithmen überhaupt verantwortlich sein?

Dieser Frage möchte ich mit zwei Beispielen nachgehen: dem autonomen Fahren und der automatischen bzw. kollaborativen Texterstellung:

Autonomes Fahren

Die Stufen des autonomen bzw. automatisierten Fahrens sind wahrscheinlich allgemein bekannt: [sub:autonomesfahren]

  • „Driver only“
  • Assistenzsysteme
  • „Teilautomatisierung“: automatisches Einparken, Spurhaltefunktion, beschleunigen usw. durch Assistenzsysteme
  • „Hochautomatisierung“: Fahrzeug nicht dauernd zu überwachen
  • „Vollautomatisierung“: dauerhaft autonom
  • Kein Fahrer erforderlich.

Hierauf bezieht sich inzwischen auch das Straßenverkehrsgesetz. Dort ist auch geregelt, wer im hoch- und vollautomatisierten Auto die Verantwortung hat:

„(1) Der Fahrzeugführer darf sich während der Fahrzeugführung mittels hoch- oder vollautomatisierter Fahrfunktionen gemäß §1a vom Verkehrsgeschehen und der Fahrzeugsteuerung abwenden; dabei muss er derart wahrnehmungsbereit bleiben, dass er seiner Pflicht nach Absatz 2 jederzeit nachkommen kann.“ (StVG §1b)

Schon Anfang 2017 hat Heribert Prantl in der Süddeutschen Zeitung festgestellt, dass es sich hierbei um ein schlechtes Gesetz handelt, um einen „Anschlag auf den Straßenverkehr“, denn einerseits bleibt die wichtigste Stufe 5 ungeregelt, andererseits wird selbst beim vollautomatisierten Fahren die Verantwortung auf den „Fahrzeugführer“ geschoben, der aber gerade das Fahrzeug gar nicht führt. Im Zusammenhang des Uber-Unfalls (wenn das Fahrzeug überhaupt zur Stufe 4 und nicht zur Stufe 5 gehört) ist also die Fahrzeugführerin schuld, obwohl inzwischen bekannt wurde, dass vorsätzlich die Notbremsfunktion des Volvos durch Uber ausgeschaltet worden war; Uber hatte sie durch ein Warnsignal ersetzt, das so konfiguriert war, dass der Fahrerin praktisch keine Reaktionszeit (1s) blieb, obwohl die Fußgängerin schon sechs Sekunden lang erkannt war. Das Beispiel zeigt noch einmal, wie schlecht das Gesetz ist, denn verantwortlich sind hier natürlich diejenigen, die an der Notbremsfunktion herumgepfuscht haben. Sie werden wahrscheinlich in den USA auch zur Verantwortung gezogen werden.

Inwiefern das autonome Fahren der Stufe 5 geregelt ist, bleibt unklar, obwohl es so etwas in Deutschland im Probebetrieb schon gibt (Berliner Charité-Gelände und EUREF-Campus). Vielleicht ist es durch folgende Regelung eingeschlossen:

„(4) Fahrzeugführer ist auch derjenige, der eine hoch- oder vollautomatisierte Fahrfunktion im Sinne des Absatzes 2 aktiviert und zur Fahrzeugsteuerung verwendet, auch wenn er im Rahmen der bestimmungsgemäßen Verwendung dieser Funktion das Fahrzeug nicht eigenhändig steuert.“ (StVG §1a)

Das klingt dann schon etwas absurd, wenn jemand der nicht steuern kann, steuern muss.

Zusätzlich ist auch eine 6-monatige Speicherpflicht für die Blackbox-Daten vorgeschrieben (StVG §63a), die wenigstens aus der Sicht des Datenschutzes problematisch ist (wie bereits das schon bestehende e-Call-System).

Automatische Texterstellung

Schon seit einigen Jahren ist es möglich, aus strukturierten Daten Texte zu generieren. Solche Verfahren kennen wir von den Google-Suchergebnissen (die Snippets werden oft automatisch aus dem Text erstellt) oder auch von den aus so genannten Infoboxen oder mit Wikidata erstellten Texten in kleineren Sprachversionen der Wikipedia. Wer ist der Autor solcher Texte und somit verantwortlich, wenn da etwas steht, das man so nicht lesen will? Das Problem beginnt allerdings schon früher, nämlich bei Texten, die „kollaborativ“ verfasst werden, also sehr viele Autoren haben, und bei denen eine Version auf unzählige Vorversionen aufbaut. Die letzten Autoren stehen als „Zwerge“ nicht etwa „auf den Schultern von Giganten“, sondern auf den Schultern von ganz vielen Zwergen, die zusammen genommen Giganten ergeben (was vielleicht auch schon für frühere „Zwerge auf den Schultern von Giganten“ galt).

Arbeit“ und „Werk“

Das Bild von den „Zwergen auf den Schultern von vielen Zwergen“ steht in Zusammenhang mit dem tiefgreifenden Wandel zwischen dem Industriezeitalter (19. und 20. Jahrhundert) und dem Informationszeitalter, das am Ende des 20. Jahrhunderts begonnen hat. Wie „Industrie“ im Wortsinn Fleiß oder Arbeit bedeutet, ist das 19. und 20. Jahrhundert durch Arbeit charakterisiert. Der Lohnarbeiter steht im Mittelpunkt und am Ende arbeitet jeder für ein Gehalt. Es gibt Arbeiterparteien, und gerade in Deutschland sind am Ende alle Parteien Arbeiterparteien, die SPD seit ihrer Gründung, die CDU/CSU im Rahmen der katholischen Soziallehre auch schon von Anfang an, die FDP als die Partei der selbsternannten „Leistungsträger“, die Grünen spätestens seit dem „Green New Deal“, aber eigentlich in der GAL schon länger. Gesellschaftlich ist angesehen, wer Arbeit hat, und das „hehrste Ziel“ des BA-Studiums ist angeblich die „Employability“. Doch passt das noch ins Informationszeitalter? Computer wurden ja geschaffen, um uns Arbeit abzunehmen. Und tatsächlich verschwinden immer mehr Berufe, weil der Computer sie ersetzt. Vom Autofahren und vom Texteschreiben – immerhin für Jahrtausende Privileg der Eliten – war ja schon die Rede.

Es hat eine Verschiebung stattgefunden: Nicht mehr die Arbeit selbst steht im Mittelpunkt der Aufmerksamkeit als Dreh- und Angelpunkt von Kultur und Gesellschaft, sondern das Werk. Natürlich beruht auch ein Werk immer auf Arbeit, aber die wird eben gegebenenfalls von vielen verrichtet. Im kollaborativen Prinzip gehen Autor und Nutzer ineinander über. Ein Computerprogramm ist ein Werk (beruht also auf Arbeit), verrichtet dann aber selbst Arbeit, schreibt Texte oder sogar neue Programme, die Werke sind und selbst wieder Werke produzieren. Bei der Künstlichen Intelligenz kommt noch als zusätzliche Schwierigkeit hinzu, dass es sich um Programme handelt, deren Verhalten auf Training beruht und damit nur sehr schwer vorhersagbar ist.

Aber selbst in diesem Fall ist klar: Irgendwo gibt es einen Anfang, vielleicht ist ein Werk sehr weit von einer intentionalen Tätigkeit entfernt, das Verhältnis also sehr indirekt, dennoch lässt sich ein Punkt finden, wo verantwortliches Handeln stattgefunden hat. Wenn es also zu Unfällen oder Schäden kommt, dann muss überprüft werden, ob alles getan wurde, Unfälle oder Schäden zu vermeiden – und zwar vom Urheber. Nun gilt aber auch hier – und damit komme ich zurück zum Anfang –, dass Irren menschlich ist. Gerade bei Algorithmen, und insbesondere bei Künstlicher Intelligenz, kann ein Einzelner möglicherweise nicht mehr alle Konsequenzen überblicken. Daher ist es gerade hier notwendig, dass Algorithmen offen, frei und gut dokumentiert zugänglich sind, damit viele Menschen darauf schauen. Ohne Transparenz sind solche Werke problematisch. Das Argument, man könne mit quelloffener Software keine Geschäfte machen, ist zum Glück schon durch die Praxis widerlegt. Statt durch Patente, ist zu überlegen, inwieweit Software ähnlich wie andere Werke (z.B. Bücher und Filme) urheberrechtlich geschützt werden kann, allerdings mit einem zeitgemäßen Urheberrecht, das ähnlich wie in der Wissenschaft die Weiterentwicklung von Ideen ermöglicht. Mehr Transparenz hätte zum Beispiel auch den Dieselskandal verhindert. Neben dem Betrug an den Betroffenen ist der Kern des Skandals, dass die eigentliche Funktion der „Akustikmodule“ nicht von den Firmen öffentlich gemacht wurde, selbst als schon klar war, dass sie betrogen hatten, sondern erst durch Reverse Engineering, also von Hackern.

Daten müssen frei sein

In der Hackerethik heißt es:

„Öffentliche Daten nützen, private Daten schützen.“

Als diese Maxime Anfang der 1980er Jahre formuliert wurde, war es noch einfach zwischen öffentlichen und privaten Daten zu unterscheiden. Doch die Zeiten haben sich geändert. In Zeiten „sozialer Medien“ möchten wir alle gern Dinge über uns öffentlich machen, aber natürlich will niemand auf seine Privatsphäre verzichten. Ich bezeichne – als nicht Facebook-Nutzer – dieses Problem gern als das Facebook-Dilemma. Nach dem Bekanntwerden der Social-Media-Manipulationen von Cambridge Analytica war niemand begeistert, aber eben so wenige Menschen wollten auf ihre Social-Media-Aktivitäten künftig verzichten. Damit soziale Medien funktionieren, müssen schützenswerte Daten öffentlich sein. Dabei ist auch nach der Datenschutz-Grundverordnung die Situation noch unbefriedigend: Facebook muss mir zwar erklären, was es mit meinen Daten anstellt, aber kann doch selbst bestimmen, was es tut. Wenn ich es nicht will, muss ich auf Facebook, Google, Amazon usw. verzichten. Dabei sind es doch meine Daten und informationelle Selbstbestimmung bedeutet doch, dass ich selbst bestimme – und nicht andere für mich.

In einer idealen Welt würde ich gern meinen Daten eine Art Lizenz mitgeben, in der ich festlege, für was sie genutzt werden können. Ähnlich einer Nutzungslizenz für Software (z.B. die GNU General Public License) oder die besser bekannten Creative Commons-Lizenzen. Ähnlich wie es hier verschiedene Stufen an Restriktionen gibt, könnte es so etwas doch auch für Daten geben – etwa wie folgt:

  1. Daten können verarbeitet und an alle weitergeben werden.
  2. Daten können verarbeitet und nur an Menschen weitergeben werden, für die ich es erlaubt habe.
  3. Daten können verarbeitet und aggregiert werden, wenn die Ergebnisse mir mitgeteilt werden.
  4. usw.

Die Lizenzen können dann mit den Daten mitwandern, und es ist immer ersichtlich, was erlaubt ist und was nicht. Es könnte sogar an Systemen gearbeitet werden, die mir Rückmeldung über die Nutzung meiner Daten machen. Am Ende ließen sich sogar Geschäftsmodelle aus der informationellen Selbstbestimmung entwickeln. Falls hier also noch wer eine Start-Up-Idee sucht …

Ethik im Informationszeitalter

Das Informationszeitalter wirft eine Reihe von ethischen Fragen auf, auf die ich hier nicht eingehen kann. Eine, die ich wenigstens noch in den Raum stellen will, ohne sie zu beantworten, ist die nach dem Auskommen der Menschen: Wenn immer mehr Menschen durch Computer von Arbeit entbunden werden, woher beziehen sie dann ihr Einkommen? Wenn in Zukunft nur noch Werke vergütet werden (was wiederum eine Urheberrechtsreform notwendig macht), wie kann man davon leben? Insbesondere angesichts dessen, dass selbst erfolgreiche Urheber in der Regel nur eine begrenzte Zahl von großen Werken zustande bringen (9-Symphonien-Problem).

Es ist sicher falsch, vor Neuem zurückzuschrecken. Neophobie, die Angst vor Neuem, frommt selbst Konservativen nicht, aber es ist wichtig, über die Folgen von Neuerungen nachzudenken. Das gilt besonders dann, wenn man selbst Neues schafft. Die Ethik des 21. Jahrhunderts ist also gerade dort wichtig, wo Neues entsteht: Programmierer, Ingenieure, Manager, Politiker müssen verantwortlich abschätzen, welche Folgen ihr Handeln hat. Gerade das nicht zu tun, sich nicht der Verantwortung zu stellen, bewirkt Schuld. Andersherum formuliert wurde es in einer bekannten Comic-Serie:

„With great power there must also come great responsibility“

Computer, Algorithmen, soziale Netzwerke verleihen uns allen viel Macht, übernehmen wir auch die Verantwortung!

8 Kommentare

  1. alfi

    Spielen wir den Vorschlag mit den offenen Algorithmen mal durch. Im Jahr 2030 hat Konzern X hat eine KI entwickelt, deren wirtschaftliche Entscheidungen eine jährliche Steigerung des BIP um 10% zur Folge haben. Durch ein neues Algo-Teilhabegesetz, wird Konzern X gezwungen den Algorithmus der KI für das Wirtschaftswachstum zu veröffentlichen. Leider arbeitet der Algorithmus stark mit Annahmen und Wahrscheinlichkeiten und viel mehr Variablen, als ein einzelner Mensch überschauen könnte. So findet sich schließlich niemand, der den Algorithmus gänzlich verstehen könnte, geschweige denn neutral und gerecht ethisch einordnen könnte. Alle Urteile darüber wären spekulativ, oder würden nur Teilaspekte abdecken. Ein Jahr nach der Veröffentlichung erzielen auch andere Nationen plötzlich Überschüsse, allerdings zu Lasten der bisherigen Profiteure.

    1. Christoph

      Optimalerweise wird der Algorithmus nicht erst veröffentlicht wenn er erfolgreich im Einsatz ist, sondern schon früher. (Ggf jetzt nicht schon in der Entwicklung, aber eben auch nicht erst wenn er schon eingesetzt wird.) Ich denke ein offenlegen bevor der Einsatz beginnt wäre sinnvoll.
      (Wie die Umsetzung für heute bereits bestehende Algorithmen aussieht ist eine andere Diskussion.)

      Was das Überschauen durch Einzelne angeht, sehe ich da kein Problem. Einerseits muss ja irgendjemand den Algorithmus gebaut haben (ob nun ein Individuum oder eine Gruppe), dann sollte es auch Dritte (Individuen oder Gruppen, je nach Komplexität) den Algorithmus bewerten können.
      Ich würde sogar so weit gehen zu sagen, dass eine vernünftige Dokumentation zur Offenlegung dazugehört.
      Dass das jetzt kein Einzelner verstehen kann finde ich nicht schlimm, solange es einer Gruppe möglich ist den Algorithmus kollektiv zu bewerten.
      (Kommt der Algorithmus durch Machine Learning zustande, ist die Datengrundlage auch offenzulegen, ein so entstandener Algorithmus kann mMn anders nicht entsprechend bewertet werden.)

      Wenn der Algorithmus dann Gewinn auf Kosten Anderer macht, finde ich es nicht unfair wenn das dann auch zurückschlagen kann. Ausnutzung hat ihre Konsequenzen. Wenn der Algorithmus sich nicht schon vorher als unethisch herausstellt und dann nicht angewendet wird. (Sei es aus Imagegründe oder weil der Algorithmus nicht zugelassen wird.)

      1. alfi

        Genau da liegt das Problem. Wird der Algorithmus vorher veröffentlicht, suggeriert mensch durch seine vorherige „Prüfung“, der Algorithmus sei grundsätzlich prüfbar,nachvollziehbar und zu prüfende Stellen hätten auch entsprechende Fachkräfte, die dort überhaupt „Prüfen“ können. Tatsächlich funktioniert Prüfen aber schon heute bei Software nicht. Warum ist das so? Zum einen sind Zusammenhänge in der Interaktion mit anderen Zusammenhängen schnell enorm komplex, zum anderen neigen Menschen dazu, gerade wenn auch wirtschaftlicher Druck eine Rolle spielt, schnell ein Label an etwas zu pappen, das besser keines erhalten hätte. Der langen Rede kurzer Sinn: Solche Prüfungen wären eher Symbolpolitik, nette Geste, aber ohne Nutzen.

        1. MOW

          Nein, das Problem ist eigentlich, daß grundsätzliche Probleme des Kapitalismus nicht durch Algorithmen gelöst, aber Schwachstellen des Systems durch Algorithmen prima ausgenutzt werden können.

  2. Torsten

    Ich möchte auf ein Problem in der Argumentation hinweisen, das maha eigentlich sogar explizit benennt, aber seltsamerweise anscheinend trotzdem für unproblematisch hält:
    „In einer idealen Welt würde ich gern meinen Daten eine Art Lizenz mitgeben, in der ich festlege, für was sie genutzt werden können. […] Die Lizenzen können dann mit den Daten mitwandern, und es ist immer ersichtlich, was erlaubt ist und was nicht. […] Am Ende ließen sich sogar Geschäftsmodelle aus der informationellen Selbstbestimmung entwickeln. Falls hier also noch wer eine Start-Up-Idee sucht …“
    Hinter so einer Zielvorgabe versammeln sich heutzutage vor allem wirtschaftsliberale bis rechtskonservative PolitikerInnen, die sich dem allgemeinen Datenschutzdiskurs nun wahlkampftaktisch auch nicht mehr so ganz erwehren können, aber am Ende eben doch in erster Linie dem datenverarbeitenden Großkapital verpflichtet sind. Die nennen das dann „Eigentum an personenbezogenen Daten“, was bedeutet, das der Mensch, um dessen persönliche Daten es da geht, individuell entscheiden können soll, was damit passiert. Eigentum kann man eben auch weitergeben, auch für eine Gegenleistung. Der Gedanke dahinter ist, dass dann zum Beispiel Krankenkassen belohnen können, wenn Menschen Fitnesstracker tragen und sie die Daten bekommen. Da liegt dann eine Geschäftsbeziehung vor. Ich kann meine Daten verkaufen.
    Das ist insofern problematisch, als damit die Klassengesellschaft auch in dieser Sphäre zementiert wird. Es gibt auf der einen Seite die, die sich Privatsphäre leisten können, und auf der anderen Seite die, die lieber ihre Miete bezahlen.
    Datenschutz für alle geht eben nur demokratisch zentral organisiert, und nicht individualistisch. Der Markt richtet das nicht. Jedenfalls nicht in Richtung mehr Privatsphäre für alle.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert