Der Oberste Gerichtshof hörte am Montag Argumente darüber, ob Social-Media-Seiten weißen Rassisten gestatten müssen, ungestraft Beiträge zu posten.
OK, es ist komplizierter. Aber das Endergebnis könnte darauf hinauslaufen, dass Antisemitismus und andere Formen der Hassrede auf Plattformen wie Instagram und X, früher bekannt als Twitter, grassieren. (Zugegebenermaßen trifft das seit der Übernahme durch Elon Musk auf X bereits einigermaßen zu.)
Die beiden fraglichen Fälle, Moody gegen NetChoice und NetChoice gegen Paxton, betreffen Gesetze, die 2021 in Texas und Florida verabschiedet wurden und die Möglichkeiten von Social-Media-Seiten einschränken, Inhalte zu entfernen und zu moderieren. Bei Durchsetzung würden die Gesetze Plattformen nahezu die Möglichkeit nehmen, die Verbreitung von Antisemitismus oder Verschwörungstheorien auf ihren Websites sowie anderen schädlichen Inhalten wie Pro-Magersucht- oder Pro-Selbstmord-Beiträgen zu kontrollieren.
NetChoice – ein Verband der Technologiebranche, der zahlreiche Unternehmen vertritt, darunter Meta, TikTok, Google und Reddit – hat geantwortet, dass diese Gesetze die Meinungsfreiheit der Plattformen verfassungswidrig einschränken. In Amicus-Schriftsätzen haben die Plattformen außerdem darauf hingewiesen, dass die Anwendung der Gesetze ihre Plattformen aufgrund der zunehmenden Verbreitung von Hassreden nahezu unbrauchbar machen würde.
(Wir wissen das, weil es ja bereits passiert ist. Auf Websites wie Gab, die sich selbst als Absolutisten der freien Meinungsäußerung bewerben, ist Hassrede weit verbreitet.)
Die beiden Gesetze sind unterschiedlich geschrieben und haben etwas unterschiedliche Anwendungen.
Das texanische Gesetz verhindert, dass Websites Inhalte aufgrund ihres „Standpunkts“ entfernen, und verlangt, dass die Moderation „standpunktneutral“ sein muss. Es schränkt auch die Gründe und Möglichkeiten einer Plattform ein, ihre Feeds zu moderieren oder ihren Nutzern sogar die Kontrolle über ihre eigenen Feeds zu ermöglichen.
Das Gesetz von Florida ist weitaus umfassender. Es beinhaltet Geldstrafen für den Ausschluss eines Kandidaten für ein Amt von jeder Plattform und verbietet die Zensur oder sogar das Anhängen von Warnungen an Inhalte aus einem weit gefassten „journalistischen Unternehmen“. (Nach dem Gesetz von Florida umfasst ein journalistisches Unternehmen jedes Unternehmen, das eine große Menge an Inhalten – schriftlich, per Video oder Audio – für mindestens 100.000 Follower oder 50.000 zahlende Abonnenten veröffentlicht hat.)
Wie endete dieser Fall vor dem Obersten Gerichtshof?
Während die Gesetze von Texas und Florida neutral formuliert sind und alle Standpunkte zulassen, wollten die Gesetzgeber damit ausdrücklich konservative Meinungsäußerungen schützen.
Floridas Gesetzgeber verabschiedete sein Gesetz, nachdem große Social-Media-Plattformen Donald Trump wegen Anstiftung zu Gewalt während der Unruhen vom 6. Januar vorübergehend verboten hatten. Als er das Gesetz unterzeichnete, sagte Gouverneur Ron DeSantis in einem Stellungnahme dass das Gesetz die Einwohner Floridas vor „den Eliten des Silicon Valley“ schützte.
Noch deutlicher sagte der Gouverneur von Texas, Greg Abbott, das texanische Gesetz stelle sicher, dass „konservative Standpunkte in den sozialen Medien nicht verboten werden können“.
Die Social-Media-Unternehmen argumentierten ihrerseits – zusammen mit vielen Amicus-Briefings, darunter eines des American Jewish Committee –, dass unsere Feeds ohne Moderation zu einer Jauchegrube von Neonazis und Desinformation werden würden, was sie nahezu unbrauchbar machen würde.
Im weiteren Sinne auch die Social-Media-Unternehmen wollen sich gegen staatliche Aufsicht jeglicher Art wehren. Im Allgemeinen war der Schutz privater Unternehmen vor Regulierung ein konservatives Anliegen, während die Forderung nach mehr Regulierung eine liberale Priorität darstellt. Diese Fälle kehren diese Parteilinien um und verkomplizieren die politischen Verhältnisse.
Was ist das Grundargument?
Tech-Unternehmen, die ihre Websites nach eigenem Ermessen moderieren wollen, argumentieren, dass sie die gleichen Rechte wie eine Zeitung hätten. Obwohl Zeitungen so etwas wie ein öffentlicher Platz für den Diskurs sind, haben sie die Freiheit zu entscheiden, was gedruckt wird und was nicht. Die Unternehmen argumentieren außerdem, dass der erste Verfassungszusatz der Regierung zwar die Zensur von Meinungsäußerungen verbietet, es privaten Unternehmen jedoch ermöglicht, die Meinungsäußerungen ihrer Nutzer zu regulieren.
„Es gibt Dinge, bei denen es sich um ein First Amendment-Problem handelt, wenn die Regierung dies tut, und wenn ein privater Redner dies tut, erkennen wir das als geschützte Aktivität an“, sagte Paul Clement, der Anwalt von NetChoice, während seiner Argumentation vor Gericht.
Amicus-Slip Zur Unterstützung der Social-Media-Plattformen wird auch argumentiert, dass Social-Media-Nutzer gemäß dem ersten Verfassungszusatz das Recht haben, von „erzwungenem Zuhören“ frei zu sein – im Wesentlichen sollten sie nicht Inhalte durchsuchen müssen, die sie nicht sehen oder lesen möchten.
Doch der texanische Generalstaatsanwalt Ken Paxton argumentierte, dass die Social-Media-Seiten „die größten der Welt“ seien Telekommunikationsplattformen“ und vergleicht sie mit Telefongesellschaften, denen es nicht gestattet ist, die Diskussionsthemen der Menschen einzuschränken oder Dienste aufgrund politischer Standpunkte einzuschränken. Diese Art von Dienst wird als „gemeinsame Beförderung“ bezeichnet – im Grunde eine Ressource, die jeder braucht und die Anbieter nicht vorenthalten dürfen. (Beispielsweise müssen Züge allen Fahrgästen den Zutritt ermöglichen, es gibt jedoch Ausnahmen für betrunkene und unordentliche Personen.)
Auch bei den Fällen der Staaten handelt es sich um ein Gesetz genannt Abschnitt 230was die Haftung der Plattformen für das, was ihre Nutzer veröffentlichen, verringert und die Fähigkeit der Plattformen schützt, nach eigenem Ermessen zu moderieren.
Erlauben diese Gesetze den Nazis wirklich, in den sozialen Medien zu agieren?
Es ist kompliziert – auch weil die betreffenden Gesetze etwas schlampig geschrieben sind und viele Fragen offen bleiben. (Tatsächlich ist eines der Argumente gegen sie, dass sie die Social-Media-Unternehmen mit leichtfertigen Klagen überschwemmen würden.)
Beide Gesetze enthalten einige Versuche, eine akzeptable Moderation zu schaffen, indem sie festlegen, dass Plattformen den Zugang zu Inhalten einschränken können, die Belästigungen sowie pornografische oder grafisch gewalttätige Inhalte beinhalten. Aber keiner definiert klar, was eine akzeptable Moderation ausmacht.
Daphne Keller, Leiterin des Programms zur Plattformregulierung am Cyber Policy Center in Stanford, schrieb in einem Blogbeitrag dass das Erfordernis eines „neutralen Standpunkts“ Plattformen im Wesentlichen dazu zwingen würde, „um zu entscheiden, was Themen Benutzer können darüber reden.“
Keller erklärte, dass Paxtons Antrag zur Unterstützung des texanischen Gesetzes Plattformen erlaubt, Kategorien wie Pornografie zu moderieren, jedoch keine „granulareren“ Unterscheidungen. Um beispielsweise Antisemitismus zu verhindern, müssten Plattformen möglicherweise alle Diskussionen über Juden – oder sogar alle Diskussionen über Rasse – verbieten, um sicherzustellen, dass die Moderation völlig neutral war. Keller stellte die Hypothese auf, dass Plattformen „versuchen könnten, Beiträge auf ‚neutrale‘ oder ‚sachliche‘ Botschaften zu beschränken“. Dies könne „hässlich werden“, bemerkte sie, wenn es beispielsweise um die Frage geht, ob Aussagen über das Geschlecht Tatsachen darstellen. Der Nachweis, dass potenzielle Hassreden – zum Beispiel Memes über die angeblich im Talmud enthaltenen Übel – nicht sachlich sind, würde eine Belastung für die Faktenprüfung mit sich bringen, die Social-Media-Unternehmen nicht bewältigen können.
Und wenn Neutralität bedeutet, alles innerhalb einer Kategorie entweder zuzulassen oder zu verbieten, wirft das neue Fragen zur Definition der Kategorie auf. Beispielsweise erlaubt das Gesetz von Florida Plattformen, Inhalte zu entfernen, die Terrorismus fördern, sofern dieser Standard gleichermaßen angewendet wird: Das Gesetz gibt als Beispiel an, dass es einer Plattform erlaubt ist, Inhalte über ISIS zu entfernen, solange dabei auch Beiträge über Al-Qaida entfernt werden. Aber was passiert mit Organisationen, die nicht allgemein als Terrorgruppen anerkannt sind? Keller stellte die Frage, wie die Proud Boys einzustufen seien, und stellte die Frage, ob es als nicht neutral gelten würde, sich auf das Glossar der Hassgruppen der ADL zu verlassen.
Was geschah vor Gericht – und wie geht es weiter?
Während die Anwälte am Montag ihre Argumente vortrugen, stellten die Richter zahlreiche hypothetische Fragen und versuchten, die Fälle mit den verschiedenen Präzedenzfällen in Verbindung zu bringen, auf die sich jede Seite stützte.
Das Gericht schien den Argumenten beider Seiten skeptisch gegenüberzustehen. Richter Samuel Alito fragte, wenn YouTube wirklich eine Zeitung wäre, wie viel wiegt die Website? Andere Richter fragten sich, ob diese Gesetze auch für andere Websites wie Uber oder Etsy gelten würden. (Diese Websites verwenden ein algorithmisches Ranking, das nach den Gesetzen möglicherweise als inhaltlicher Bias gilt – aber natürlich hat die Frage, welche Keramikartikel Etsy in Ihrem Feed priorisiert, keinen Einfluss auf die freie politische Debatte.)
Am relevantesten für die Frage eines von Nazis gefüllten Internets ist, dass die Anwälte der Bundesstaaten den Unterschied zwischen „wichtiger“ und „abscheulicher“ Rede nicht definiert haben. Dies, wie Keller in a Follow-up-BlogbeitragEr lässt die Tür offen für „buchstäbliche Nazis“. Aber, sagte sie, „wenn die Statuten tat Wenn sie nicht zwischen wichtiger und „abscheulicher“ Rede unterscheiden würden, hätten sie noch größere Probleme mit dem Ersten Verfassungszusatz als jetzt.“
Es wird erwartet, dass der Oberste Gerichtshof seine Entscheidung im Frühjahr verkündet, und es ist durchaus möglich, dass die Richter den Fall einfach an niedrigere Gerichte zurückverweisen, um genau zu klären, wie die Gesetze auf Websites wie Uber oder Etsy anzuwenden sind, bevor sie versuchen, über den ersten Verfassungszusatz zu debattieren Elemente.
Wenn sie tatsächlich eine schlüssigere Entscheidung treffen, erwarten viele Beobachter, dass die Social-Media-Sites klar gewinnen werden. Aber Keller wies darauf hin, dass es noch mehr Möglichkeiten gäbe, einschließlich eines Teilsiegs für die Staaten – zum Beispiel könnten Richter die Regeln der „Standpunktneutralität“ aufheben, andere Teile der Gesetze jedoch unberührt lassen. Wenn das Gericht entscheidet, dass es sich bei den Websites um gewöhnliche Beförderer handelt, unterliegen sie möglicherweise stärkeren staatlichen Regulierungen als bisher gesetzlich zulässig.Und wenn die Bundesstaaten klar gewinnen, können wir uns auf ein Internet voller Neonazis freuen – aber tatsächlich haben wir bereits eines. Ich denke, wir werden sehen, wie viel schlimmer es noch werden kann.