Grundrechte und Digitalisierung – Kritische Anmerkungen zur „Charta der Digitalen Grundrechte der Europäischen Union“

von Niklas Schleicher

Ich bin ja nun kein ausgemachter Experte für die digitale Welt und die dazugehörenden ethischen und juristischen Debatten. Das sind aber bei weitem auch nicht alle „Bürger [und Bürgerinnen]“[1], die für die sogenannte „Charta der Digitalen Grundrechte“[2] verantwortlich zeichnen. Freilich: Mit Sascha Lobo und v.a. Frank Rieger gibt es gewichtige Ausnahmen, aber weder Martin Schulz noch Nikolaus Schneider, um nur zwei Beispiele zu nennen, sind auf diesem Gebiet schon mit wichtigen Schriften oder Statements hervorgetreten.

Und da diese Charta diskutiert werden soll und diskutiert werden kann, versuche ich im Folgenden einige Punkte aufzuzeigen, die für meine Vermutung sprechen, dass diese Charta relativ wenig taugt. Vielleicht muss man auch grundsätzlich die Frage stellen, zu welchem Zweck solch ein Text eigentlich verfasst wird. Mir sind die Notwendigkeit und der Zweck, einen Rechtstext zu verfassen nämlich intuitiv gar nicht so klar, wie es die Verfasser im Vorwort suggerieren.

Die Charta hat den Anspruch, digitale Grundrechte für den Raum der EU zu formulieren. Auch wenn der Text freilich zunächst als Diskussionsgrundlage gedacht ist, ist die Formulierung schon ausgesprochen „fertig“ und steigt damit ein, dass die Union die Grundsätze anerkenne. In 23 Artikeln werden dann Grundrechte formuliert, bzw. bereits geltende Grundrechtsartikel an die neue Situation angepasst,[3] beginnend mit Ausführungen über „Würde“, „Freiheit“ und „Gleichheit“, um von dort aus in Einzelfragen zu gehen. Auch wenn man die Idee gut findet, oder wenigstens, wie ich, der Überzeugung ist, dass Digitalisierung zum ethischen, juristischen oder politischen Diskurs herausfordert: Diese Charta jedenfalls kann allemal ein Anstoß sein und sollte in dieser Form keine Verbindlichkeit erlangen.

Denn: ihre Intention ist fortschrittsfeindlich, ihre Ausführungen schon jetzt veraltet, ihre Stoßrichtung individualistisch, elitär und –im schlechten Sinne – staatstragend, ihre Begrifflichkeiten verwirrend und undeutlich.

Man kann mir z.B. nicht vorwerfen, keine tiefen Sympathien für die Stellung und den Wert des Individuums zu haben[4]. Es ist so auch wichtig, dass die Charta den einzelnen Bürger im digitalen Raum würdigt. Leider vergisst die Charta, dass es, und gerade das zeigt uns doch der digitale Raum deutlich, eben nicht immer die Trias „Einzelner“ – „Unternehmen“ – „Staat“ ist, die Wirkung entfaltet (diese Trias ist übrigens im gesamten Text leitend, von daher sei sie bereits hier genannt). Vielmehr sind es doch gerade auch Kooperationen, also mit irgendeiner Zielvorstellung ausgestatteten Zusammenschlüsse Mehrerer, die in der digitalen Sphäre wirken, und zwar im Guten wie auch im Schlechten. Als Beispiel: Es ist eben nicht der einzelne Twitter-User, der im sogenannten „arabischen Frühling“ relevant war, sondern die teilweise auch im Anonymen bleibende Gruppe von Usern. Das Gleiche lässt sich auch für „Anonymus“ konstatieren. Die Vorstellung, dass eine einzelne, nicht-anonyme Person als Angesprochener dienen kann, verfehlt im Digitalen ihren Sinn. Hier müsste es einen Weg geben, Gruppen noch stärker als Rechtsubjekte zu würdigen. Dass dies schwierig ist, sei unumwunden zugegeben.  Dies verweist aber nur auf ein grundlegenderes Problem.

Dieser Einzelne wiederum ist sehr privilegiert gedacht. Interessant ist ja, dass Gerechtigkeit keine (oder nur eine geringe) Rolle spielt. Es wird zwar eingeräumt, dass Jeder Zugang zur digitalen Welt haben soll (Art 3) und dass Bildung in der digitalen Welt wichtig ist (Art 20), aber dass sich vielleicht mit der Digitalisierung grundsätzlicher Gerechtigkeitsfragen, v.a. bezüglich der Teilhabegerechtigkeit, angeschnitten werden, wird kaum gesehen. Anders formuliert: Der Status quo wird einfach auf die digitale Welt übertragen.

Dies sieht man auch daran, dass in der Trias Staat – Unternehmen – Einzelner dem Staat das Meiste zugemutet werden soll. Der Staat sorgt für den Schutz der Daten des Einzelnen bei Unternehmen, der Staat ist die Garantieinstanz gegen Andere. Ohne falsche historische Vergleiche zu ziehen, bin ich sehr unsicher, ob gerade Staaten immer besonders kompetent oder auch vertrauenswürdig – gerade für Aufgaben des Datenschutzes – zu sein scheinen.

Einige Einzelthemen, die in höchstem Maße fragwürdig erscheinen, sollen noch benannt werden:

Eine gewisse antiliberale Stoßrichtung des Dokuments lässt sich daran ablesen, dass Mobbing direkt unter dem Artikel der Meinungsfreiheit behandelt wird, und zwar in einer höchst interessanten Dialektik (Art.5):

  • Jeder hat das Recht, in der digitalen Welt seine Meinung frei zu äußern. Eine Zensur findet nicht statt.

  • Digitale Hetze, Mobbing sowie Aktivitäten, die geeignet sind, den Ruf oder die Unversehrtheit einer Person ernsthaft zu gefährden, sind zu verhindern.

Fraglich ist hierbei mindestens Zweierlei: Hat der Begriff des Mobbings in einem Grundrechtekatalog überhaupt etwas zu suchen, oder ist seine Intention nicht vielmehr schon unter dem Artikel von der Menschenwürde abgedeckt? Und: Wer bestimmt die Kriterien für Mobbing und wer wendet sie an? Man kommt nicht umhin, an die ganzen Initiativen zu „hate-speech“ zu denken, die eines gemeinsam haben: Sie schießen mit ziemlicher Sicherheit immer meilenweit über ihr Ziel hinaus. Mobbing und digitale Hetze ist, bei allem Verständnis für das dahinterliegende Anliegen, in der letzten Zeit doch meist so definiert worden, dass alles darunterfällt, was dem Konsens des Sagbaren einer gebildeten Mehrheit widerspricht. Da ist meist viel Richtiges dabei. Aber oft sind es ja auch durchaus Stimmen, die wenigstens den Anspruch erheben können, gehört zu werden[5]. Ich will keinen Staat, der über ein justiziables Maß hinaus bestimmt, was Mobbing oder Hatespeech ist. Konträre und auch schmerzhafte Meinungen muss ein liberaler Staat oder eine liberale EU aushalten können. Alles andere ist Zensur.

Ein anderes Zitat (Art. 8):

 Ethisch-normative Entscheidungen können nur von Menschen getroffen werden.

Das ist in dieser Form sowohl einfach unzutreffend als auch wenig weitsichtig. Erstens: Es ist unzutreffend, weil die meisten Großtheorien der normativen Ethik, nämlich v.a. der Utilitarismus mit all seinen Spielarten und die deontologische Ethik in der Nachfolge Kants mit all ihren analytischen Nachfolgerinnen davon leben, dass sie so formalisierbar sind, dass sie dem Intellekt einleuchtend erscheinen. Anders formuliert: Eine künstliche Intelligenz kann, sollte sie diesen Maßstäben folgen, natürlich ethisch-normative Entscheidungen treffen, die Frage ist nur, welchen Routinen sie zu folgen hat. Die damit verbundene Frage nach der Programmierung solcher Routine ist eher im strafrechtlichen Sinne der Fahrlässigkeit und weniger im ethisch-normativen Sinne zu diskutieren. Und: Natürlich ist der wahrscheinlich gemeinten Intention des Artikels ein gewisses Recht einzuräumen. Diese würde ich nämlich eher so interpretieren, dass nur ein Mensch über die „Weisheit“ im tugendethischen Sinne verfügt, zu entscheiden, was in der angezeigten Situation das richtige Verhalten ist und sich das eben nicht formalisieren lässt. Damit allerdings ist zu einem ethisches Denken aufgerufen, das sich eben nicht als „normativ“ im klassischen Sinne kennzeichnen lässt[6]. Zweitens: In der Konsequenz kann dieser Punkt, bei allem oben angedeuteten Verständnis für die Intention, sogar wichtig werden. Denn es ist ja keineswegs ausgemacht, dass die Entscheidung eines Menschen auch eine moralisch zu rechtfertigende Entscheidung ist. Isaac Asimovs Robotergesetze[7] erscheinen, obwohl sie von einem Science-Fiction Autor stammen und weitaus älter als der gegenwärtige Diskurs sind, viel nützlicher. Hier gibt es nämlich durchaus ein Kriterium, der menschlichen Entscheidungen in der digitalen Welt eine Grenze aufzeigt. Dass so eine Grenze wichtig sein könnte, wird von den hier formulierten Grundrechten schlicht und ergreifend übersehen, bzw. (fast noch schlimmer) naiv an die Regierungen zurücküberwiesen.

Es wären noch weitere Punkte anzumerken, die in dieser Charta wenigstens schwierig sind. So beispielsweise, dass die Grundrechte gegenüber „Privaten“ gelten (Art.1), ein Gedanke, der m.W.n. eigentlich nur indirekt für Grundrechte gilt, zumal dann die Frage ist, welche Instanz Verletzungen verhandelt. Oder: Was soll bitte das sogenannte „Recht auf Nichtwissen“ (Art.2) in einem juristischen Sinne bedeuten?

Es bleibt zu fragen, welchen Zweck die Verfasser und Unterzeichner dieser Charta verfolgen. Ich bin durchaus der Überzeugung, dass die Digitalisierung uns zu einem neuen Nachdenken darüber herausfordern sollte, was die Grundlagen und Normen unseres Zusammenlebens sein sollen und sein können. Aber: Die Umwälzungen gehen viel weiter, als der vorliegende Text irgendwie abdecken kann. Bei aller Liebe für einen gewissen Pragmatismus ist das nötige Wissen – in technischer, aber v.a. auch in ethischer Natur – noch viel zu gering und der darauffolgende Diskurs über Digitalisierung noch weit nicht genug fortgeschritten, um über Grundrechte, vor allem in dieser Form, nachzudenken. Die Charta formuliert bekannte Texte einfach etwas um und ergänzt ein paar Begrifflichkeiten der digitalen Welt und aktuelle Phrasen. Ich sehe die Gefahr, dass sich die sich an dem Text anschließende Debatte vor allem um einzelne Wendungen und Artikel drehen wird und das maximale Ergebnis die Ergänzung einzelner Artikel sein wird[8]. Damit ist wichtige Frage allerdings weder diskutiert noch beantwortet: Ist die digitale Welt mit Mitteln und Normen der „analogen“ Welt überhaupt zu behandeln? Oder anders: Ist die digitale Lebenswelt die gleiche wie die analoge? Und wenn ja (oder nein), warum?

[1] https://digitalcharta.eu/intiatorinnen-und-initiatoren/.

[2] https://digitalcharta.eu/.

[3] Bereits hier ist zu fragen, ob Dinge wie Menschenwürde nicht ohnehin schon in der digitalen Welt gelten sollten und worin der Mehrwert dessen läge, dies noch mal explizit zu formulieren.

[4] Vgl. z.B. https://netzwerktheologie.wordpress.com/2015/09/09/kierkegaards-grabstein-oder-stirner-luther-und-vom-ich-und-wir/.

[5] Vgl. hierfür z.B. die immer wieder erhobenen Vorwürfe gegen die Kolumne Fischer im Recht auf zeit.de.

[6] Hierzu auch wieder: Vgl. Johannes Fischer. Z.B. Verstehen statt Begründen, Stuttgart 2012.

[7] „1. Ein Roboter darf kein menschliches Wesen (wissentlich[2]) verletzen oder durch Untätigkeit (wissentlich[2]) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

  1. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  2. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.“ (nach https://de.wikipedia.org/wiki/Robotergesetze).

[8] Vielleicht wird der Text auch in der EU gar nicht groß wahrgenommen, das ändert allerdings nicht an der zu Grunde liegenden Fragestellung.

3 Gedanken zu „Grundrechte und Digitalisierung – Kritische Anmerkungen zur „Charta der Digitalen Grundrechte der Europäischen Union““

  1. Ich finde die Diskussion zu Art. 8 durchaus spannend. Und Sie berührt ja viele Punkte, die heute aktuell diskutiert werden (Autonomes Fahren, Killerroboter und Drohnen etc.). Nun kann man sich vorstellen, dass ein vollständiges Set von widerspruchsfreien Regeln formuliert und dann – insofern – auch in Programmroutinen übersetzt werden könnte.

    Schon an dieser Stelle finde ich es nun bemerkenswert, dass Du die Frage der (nicht nur strafrechtlich zu betrachtenden) Haftung für die Programmierung aufwirfst. Das ist nämlich m.E. eine weitere Leerstelle der Digitalcharta, wenn man von dem recht schwachen und in sich widersprüchlichen Art. 8 Abs. 3 absieht.

    Dummerweise hält sich natürlich die Lebenswirklichkeit nicht an Normen und dummerweise gibt es in praxi Kollisionen und – auch nicht unwichtig – faktische Unsicherheiten (sozusagen der alltägliche fog of war). Das Problem liegt also eher in der Anwendung und schlägt von hier aus auf die Sekundärebene der Routinen zurück. Wir können uns jetzt mit dem Kopf voraus in die Frage stürzen, ob Roboter faktisch vielleicht sogar ethischer Handeln können oder eben gerade nicht. Vielleicht aber ist die Vorfrage noch unbeantwortet, ob es sich bei dieser Fragestellung insgesamt um eine normative oder um eine empirische Frage handelt.

    Man kann es Naivität nennen, wenn hier die Konfliktauflösung – wie es auch durchgängig in der Digitalcharta gehandhabt wird – zur allfälligen Entscheidung an die Exekutive überwiesen wird. Insofern die Konflikte nicht entschieden werden, finde ich es unpolitisch und in dem darin sich offenbarenden Etatismus illiberal und geschichtsvergessen.

    Liken

    1. Ich bin mir nicht ganz sicher, ob ich den Kommentar richtig verstanden habe und hoffe, dass der letzte Absatz nicht ein Vorwurf gegen meine Einwände ist. Denn diesem Punkt würde ich natürlich zustimmen. Es geht mir ja gerade darum, dass man sich, bevor man überhaupt irgendwie Grundrechtstexte zur digitalen Welt schreibt, über die veränderte Lebenswirklichkeit, die mit dieser einhergeht, Gedanken macht.
      Die strafrechtliche Kategorie der Fahrlässigkeit ist, denke ich, vorübergehend allerdings einer nützlichere Kategorie zur Bewertung und zum Ausgleich zwischen menschlichem Handeln und künstlicher Intelligenz als irgendwas über die Möglichkeit oder Unmöglichkeit von „ethisch-normativem“ Handeln von Computerintelligenz zu postulieren.
      Nebenbemerkung dazu: Ob die von mir genannten Großtheorien der normativen Ethik nicht sowieso irgendwie alle unbefriedigend sind, hat Elisabeth Anscombe in einem immer noch bemerkenswerten Aufsatz („Die Moralphilosophie der Moderne“) schon 1958 gezeigt.
      Ist das die Richtung deiner Kritik?

      Liken

      1. zu Abs. 1 Deines Kommentares. Wenn Du „nur“ Naivität schreibst, unterstellst Du den Verfassern eine Folge nicht gesehen zu haben (und gute Absichten). Ich unterstelle bei einigen gute Absichten (und bezweifele sie bei anderen), bin mir aber sicher, dass die Folgen, die wir ja beide so sehen, vollständig beabsichtigt sind.

        zu Abs. 2 Ich fand Deinen Hinweis auf die Haftbarkeit für die Programmierung absolut richtig und wichtig und wollte ergänzend nur auf zwei Punkte aufmerksam machen. 1. Die Haftbarkeit muss nicht nur eine strafrechtliche sein, sondern könnte auch zusätzlich zivilrechtlich verankert sein (Rechtsfolge dann z.B. Schadenersatz). 2. Dieser Punkt fehlt in der Digitalcharta fast vollständig.

        zu Abs. 3 Mir ging es nicht um Kritik, sondern darum, dass ich Deine Ausführungen zu Art. 8 gut fand. Und ich wollte Sie lediglich ein wenig weiterführen und ergänzen, weil das ganze Thema Ethik und Autonome Roboter keineswegs (einigermaßen umfassend) aufgearbeitet ist. In diesem Sinne also ein weiter so.

        Liken

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s