Skip to main content

Wer Nutzer-Interaktionen optimiert, verbessert nicht unbedingt die Debatten

5 min read

Soziale Netzwerke und Suchmaschinen verteilen  Aufmerksamkeit. Deshalb sind diese Plattformen Teil des Mediensystems einer Gesellschaft - sie gestalten Öffentlichkeit mit. Das ist in den Debatten über die digitale Sphäre common sense. Die Analyse konzentriert sich bislang vor allem auf diese Fragen:

  • Entstehen da neue Teilöffentlichkeiten mit wenig Überschneidungen (Echokammern, Filterblasen usw.)?
  • Geht das große Ganze verloren?
  • Ist das heute anders als je zuvor?

Das sind alles gute Fragen. Allerdings denke ich, dass andere hilfreich zum Verständnis des Phänomens sind:

  • Worauf hin optimiert eine Plattform wie Facebook eigentlich?
  • Anhand welcher Modelle und Daten passiert das?

Die Frage ist wichtig, um klarer zwei Aspekte zu trennen, die bei der Echokammer-Debatte oft vermischt werden:

  • Was sollte geschehen?
  • Was geschieht?

Ich spiele das an einem aktuellen Beispiel durch. In der mazedonischen Kleinstadt Veles betreiben einige junge Menschen um die hundert Websites mit gut erfundenen und/oder kopierten Geschichten über Donald Trumps Erfolge und Hillary Clintons kurz bevorstehende Verhaftung. Eine Recherche von Buzzfeed beschreibt das Geschäftsmodell: Die Inhalte kopieren die Jugendlichen von rechtslastigen US-Websites, versehen sie mit einer noch knalligeren Überschrift und verbreiten die über Facebook. Dort wird das Material an ein breites Publikum ausgespielt und offenbar vor allem unter Trump-Fans weitergereicht. Einige davon rufen die Website auf und dann verdienen die Betreiber an der Banner-Werbung.

Die erste Reaktion darauf ist mit Sicherheit: Das sollte so nicht sein! Abgeschriebene und zudem halb oder ganz ausgedachte Geschichten sollten keine Aufmerksamkeit auf einer Verteilerplattform erhalten.

Blenden wir kurz aus, was sein sollte. Was geschieht hier überhaupt? Wie kann es sein, dass solche Beiträge eine beachtliche Reichweite erhalten? Nach welchen Modellen Facebook auswählt, was zusätzliche Aufmerksamkeit erhält, ist von außen nicht abschließend zu bestimmen. Aber mit gesundem Menschenverstand kommt man auf plausible Hypothesen:

  • Der Wahrheitsgehalt eines Inhalts ist für die Plattform Facebook nur über korrelierende Signale einzuschätzen. Was ist über die Quelle selbst an Daten vorhanden? Zum Beispiel: Wie oft publiziert sie? Welche Eigenschaften (Sprache, Länge etc.) hat das Material? Ich denke nicht, dass eine Plattform wie Facebook anhand dieser spärlichen Datenlage primär auf Wahrheit oder andere Merkmale der Inhalte hin optimiert.
  • Die Reaktion der Facebook-Nutzer sind für eine Plattform Facebook wahrscheinlich weit aussagekräftigere Signale. Diese Daten kommen aus erster Hand, sie sind vergleichbar. In welcher Zeit reagieren welche Nutzer wie auf welche Reize? Man könnte aus diesen Informationen natürlich auch ein Modell über den Wahrheitsgehalt und andere Qualitäten von Beiträgen ableiten.
  • Es ist wenig wahrscheinlich, dass eine Plattform wie Facebook auf abstrakte Qualitäten wie Wahrheitsgehalt oder konstruktiven Diskurs hin optimiert. Naheliegend erscheint mir vielmehr, dass die obersten Ziele eine bestimmte Intensität, Qualität und Masse von Nutzerreaktionen sind. Ein kommerzielles Medium braucht Publikum. Was die Auflage bei redaktionellen Medien ist, sind die aktiven Nutzer digitaler Plattformen.

Gemessen wird vorrangig, wie Menschen reagieren. Denn das oberste Ziel der Optimierung sind bestimmte Reaktionen der Nutzer: Möglichst viele sollen möglichst oft die Plattform frequentieren.

Aber nur weil ein Modell Nutzerreaktionen einbezieht, sind nicht die Nutzer allein für den Output des Modells verantwortlich. Es sind auch die Schöpfer des Modells. Der Reichweitenerfolg der Halb- und Unwahrheiten aus Veles auf Plattformen ist das Resultat einer bestimmten Gewichtung von Signalen bei der Entscheidung, welche Beiträge ein weiterer Nutzerkreis zu sehen bekommt. Wie operationalisiert man die Reaktionen des Publikums als Hinweis auf die Qualität eines Beitrags?

Ein Gedankenspiel: Vielleicht verbreiten viele Menschen schnell weiter, was knallig klingt. Und vielleicht gibt es einen grundlegenden Unterschied zwischen dieser Reaktion auf Veles-Inhalte und der Reaktion auf ausgewogene Analysen mit konstruktiven Schlussfolgerungen. Es kann sein, dass die ausgeruhten Analysen zwar nicht in kurzer Zeit sehr häufig weiterverbreitet werden, aber über einen langen Zeitraum hinweg überdurchschnittlich oft. In dem Fall kommt es darauf an, welche Nutzerreaktionen in welchem Zeitraum unser Modell als Signal für ein »mehr davon, den Leuten gefällt es« bewertet. Maximaler Impact in kurzer Zeit? Dann gibt es mehr Neuigkeiten aus Veles. Kontinuierliche Empfehlungen über einen langen Zeitraum? Dann gibt es mehr vom New Yorker.

Fazit: Wenn eine Plattform Aufmerksamkeit nach scheinbar objektiv messbaren Kriterien wie den Reaktionen der Nutzer verteilt, wird sie je nach Modellierung systematisch Inhalte bevorzugen, die verlässlich bestimmte Reaktionen provozieren. Die entscheidenden Fragen:

  • Welche Merkmale von Inhalten korrelieren mit welchen Reaktionen? Anders gesagt: Wie hängt zusammen, was ist und was sein sollte?
  • Reagieren Menschen zum Beispiel stärker auf negative, emotionale Beiträge? Da gibt es einige Hinweise aus der Empirie. Negative Beitrage auf den Facebook-Seiten politischer Parteien erhalten mehr Kommentare als positive, emotional negativ aufgeladene Tweets verbreiten sich deutlich schneller als positive oder neutrale.
  • Unterscheiden sich hier kurzfristige und langfristige Reaktionen?
  • Und welchen dieser Reaktionen messen die Modelle der Aufmerksamkeitsverteiler welche Bedeutung bei?
  • Welche Interaktionen und Reaktion ermöglicht eine Plattform überhaupt? Die Wikipedia zeigt ja, dass auch maximaler Dissens in einem bürokratischen Verfahren einen brauchbaren Wahrheitskonsens produzieren kann.

tl;dr: Engagement ist leicht zu messen (Views, Likes, Reichweite). Wahrheit, Vielfalt, Empathie sind's nicht - sehr schön auf Englisch zusammengefasst von @azeem hier.

Die Paradoxie des Vertrauens in Medien, Legislative, Wissenschaft

2 min read

Wann können wir Institutionen vertrauen? Viele Menschen zeigen derzeit sehr lautstark, dass sie gerade das nicht tun - eine drängende Frage also.

Meine Antwort: Vertrauens lässt sich nicht am Output einer Institution allein festmachen. Es kann nicht das Kriterium sein, ob das nun das richtige Gesetz, das wahre wissenschaftliche Ergebnis, das angemessene Urteil, die zutreffende journalistische Analyse ist. Eine derart absolute Aussage setzt totale Kenntnis der Vergangenheit und Zukunft voraus. Geht nicht, gibt’s nicht.

Es zählt der Prozess. Ein paar Kriterien:

  • Sind möglichst viele Sichtweisen einbezogen?
  • Wirken sie methodisch klar zusammen?
  • Ermöglicht das Verfahren systematisch Falsifikation von Erkenntnissen?
  • Sind die Verfahren überprüfbar?
  • Ist die Institution darauf angelegt, bei neuen Erkenntnissen alte Schlussfolgerungen zu revidieren?

So sollten die Einrichtungen funktionieren, mit denen Gesellschaften zwei wichtige Frage beantworten:

  • Was ist los?
  • Was ist zu tun?

So arbeitet die Wissenschaft, so arbeiten Parlamente, Gerichte und Medien. Als System betrachtet, im Einzelfall sieht es immer anders aus. Das ist der Wesenskern dieser Aushandlungsprozesse von wahr und richtig: Sie funktionieren nur, wenn im Einzelfall immer wieder sichtbar wird, dass sie nicht funktionierten. Die Welt ist komplex und ändert sich auch noch ständig - daher ist diese Fehlerkultur unerlässlich.

Die Paradoxie: Das Vertrauen in Medien, Legislative, Judikative, Wissenschaft und andere Institutionen kann nur auf einem Prozess beruhen, der diese Vertrauen fortwährend öffentlich durch Falsifikation im Einzelfall erschüttert.

Kinderarmut in NRW (2015)

0 min read

Wir müssen die Empirie retten

5 min read

„Ist 2016 das schlimmste Jahr des 21. Jahrhunderts?“ Mit diesem Teaser verkauft gerade ein seriöses Nachrichtenmedium online einen klugen Text, der auf diese Frage natürlich keine Antwort gibt. Das geht nicht, nachdem nicht mal 16 Prozent des 21. Jahrhunderts vorbei sind. Dass so eine überdrehte Erwartung an einen journalistischen Text heute als Leseanreiz über dem Text steht, ist ein Symptom für wachsende Komplexitätsfeindlichkeit. Denke ich an die Reaktionen in Massenmedien und sozialen Netzen auf die Nachrichten der vergangenen Tage, sehe ich eine Krise des Erkenntnisgewinns mit empirischen Methoden. Fünf Gedanken dazu:

(1) Menschen haben den Drang, sofort zu wissen, was los ist, bei wem die Schuld dafür liegt und was es bedeutet. Keine Wahrscheinlichkeiten, keine Hypothesen - die WAHRHEIT!

Der Medienwissenschaftler Bernhard Pörksen bringt diese Beobachtung hier gut auf den Punkt: „Man weiß nichts Gesichertes, versucht aber, die Katastrophe irgendwie zu bändigen, indem man Anlauf nimmt, Gewissheiten zu präsentieren, die Anzahl der Toten, die Möglichkeit eines Terroranschlags.“

(2) Die WAHRHEIT muss sofort nach einem Ereignis fest stehen. Dank des Netzes ist sofort heute noch eher.

Die Analyse der Ereignisse und die Debatte über mögliche Schlussfolgerungen laufen mit nahezu derselben Schlagzahl und Oberflächlichkeit. Es fallen binnen weniger Tage viele Schlagworte (Waffengesetz! Spiele! Sozialarbeit! Dunkelnetz!) und damit scheint die Debatte auch schon wieder vorbei zu sein. Wie kommt man hier zu gesicherten Erkenntnissen? Wie findet man zum Beispiel heraus, ob sich an der Verfügbarkeit von Waffen in Deutschland etwas ändert? Und wenn es Hinweise dafür gibt, dass illegale Waffen wirklich leichter zu beschaffen sind: Woran liegt das? Was lässt sich tun, was ist verhältnismäßig? Öffnen einer Packstation nur mit elektronischem Identitätsnachweis per Perso? Scanner in Paketzentren? Das sind zwei Möglichkeiten, die man empiriebasiert diskutieren, durchspielen, verwerfen oder verwerten könnte, wenn denn der Versand von Waffen wirklich ein großes Problem ist. Aber so läuft die Debatte über Konsequenzen des Amoklaufs in München nicht. Es gibt eigentlich gar keine Debatte, sondern einen Prozess, der ans Kartenspielen erinnert. Jeder haut etwas auf den Tisch, um zu übertrumpfen. Nur haben sich die Beteiligten nicht einmal auf ein Verfahren geeinigt, wie sie feststellen, welche Karte nun was sticht.

(3) Dank des Netzes kommen sehr viele Hypothesen als WAHRHEIT daher. Das Angebot ist riesig, weil heute alle Menschen Medien machen.

Wie man zu gesicherten Erkenntnissen über die Welt kommt, haben sich in denen vergangenen Jahrtausenden kluge Menschen wie Aristoteles und Francis Bacon überlegt. Wir fahren mit dem Grundprinzip wissenschaftlicher Erkenntnis ganz gut, dass das Zustandekommen einer Aussage nachprüfbar und nachvollziehbar sein sollte. Eine Methode ist wichtig.

Uns kommt gerade nicht nur eine Methode abhanden, sondern das Verlangen nach einer methodischen Grundlage für Erkenntnis überhaupt.

Dass überhaupt eine Antwort sofort kommt und dass sie vehement vorgebracht wird, wiegt schwerer als ihre methodische Grundlage. Das ist Mist. Wenn sich eine Gesellschaft so verständigt, was zu tun ist, kommt es darauf an, mit welcher Wucht jemand seine Karten auf den Tisch knallt. Was da liegt, wird dann nicht mehr groß weiter diskutiert.

(4) Wenn fast alle Menschen Medien machen, müssen viel mehr von ihnen methodisch einer Erkenntnis näherkommen.

Kluger Gedanke von Medienwissenschaftler Pörksen: Er sieht eine gewaltige Bildungsaufgabe - wir müssen den Schritt machen „zu einer Gesellschaft, in der wir alle uns die Frage stellen, die früher, in einer anderen Zeit, Journalisten stellten: Nämlich, was ist eine glaubwürdige, relevante und veröffentlichungsreife Information? Wir brauchen eine Ausweitung der publizistischen Verantwortungs-Zone.“

Das Problem dabei ist: Die Wahrheit ist oft nur das plausibelste, was die Evidenz hergibt, bis sie widerlegt ist. Die WAHRHEIT ist viel attraktiver als die Wahrheit, die sich nur widerlegen, aber selten schlussendlich beweisen lässt. Die bewährte Methode zum Erkenntnisgewinn ist harte, langwierige Arbeit und leider oft unbefriedigend. Das ist die Herausforderung: Wer empirisch argumentiert, muss oft ohne klare eigene Antworten sehr klare Antworten anderer in Frage stellen und abstrakte Methodik verteidigen.

(5) Und wie machen wir das? Ein paar konstruktive Vorschläge.

Die Debatte ging heute früh auf Twitter los und ich war nach den ersten konstruktiven Vorschlägen gleich besser gestimmt. Vielleicht kommen ein paar im Forum oder unter dazu?

  • „Indem man die Verwirrten nicht ausschließt und ihre Sprache spricht. Das ist imho der Fehler "hier". Argumentation ist Arbeit.“ (Christoph Kappes)
  • Christoph Kappes: „Genau diese "redaktionelle Gesellschaft" entwickelt sich gerade. Hier in Social Media. So herum wird ein Schuh draus.“ Thomas Cloer: „Das können viele Menschen nicht leisten, fürchte ich.“ Christoph Kappes: „Ja, aber das müssen sie ja auch nicht. Es reichen 10%. Ich sehe als Problem eher die Exklusion, Gruppenbildung.“
  • „Ich versuche Leuten zu erklären, dass es wichtig ist Fragen zu stellen, aber sinnlos die Antworten vorwegzunehmen.“ (Torsten Kleinz)
  • „Strebe nicht nach Wahrheit, sondern nach Arbeitshypothesen.“ (Torsten Kleinz)
  • Konrad Lischka: „Aber bei vielen Fragen gibt es keine absoluten Antworten und keine endgültige Gewissheit. Das erschwert’s.“ Torsten Kleinz: „Deshalb muss man sich bewusstmachen, wem man eher vertraut und dass man keine Gewissheit bekommt.“
  • „Bürger als Redaktionen sind langfristig überfordert. Es reicht meines Erachtens pragmatisch, wenn Nicht-Journalisten sich in Hochrisiko-Lagen ‚zurückschalten‘. Gleiches ist aber auch für den Journalismus / semi-prof. Formen DIE Verbesserung i.S. Pörksens: ‚Zurückschalten‘ statt ‚“Aufblasen‘.“ (Sandor Ragaly)

Foto: Artist Robert Rauschenberg and dancer Lucinda Childs, per-formers in last years Nine Evenings entertainment, discuss unique electronic environmental system with Bell Laboratories Engineers Leonard I. Robinson and Per Biorn, 1922.

Wie Sozialversicherungen sich ändern müssen, um Soloselbständige und Plattformarbeiter zu sichern

6 min read

Die wohl größte Taxi-Firma der Welt hat keine angestellten Taxi-Fahrer. Die sind alle selbständig. „Independent contractors, not employees“, wie Firmengründer Kalanick sagt. Hier entsteht meiner Meinung nach eine neue Klasse von Selbständigen. Viele denken bei dem Begriff an Zahnärzte, Anwälte, Unternehmensberater - an Menschen mit guten Einkommen und Angestellten. Die neuen Selbständigen verdienen meist schlecht und das liegt an einer Tatsache: Sie haben eine schlechte Verhandlungsposition gegenüber ihren Auftraggebern. Das hat zwei Gründe: Soloselbständige und Plattformarbeiter (keine Angestellten, Aufträge von einer Plattform wie Uber) sind schlecht organisiert (etwa in Kammern, Gewerkschaften, Interessenverbänden). Und die Auftraggeber auf der anderen Seite des Verhandlungstisches werden weniger und die wenigen immer größer. Wie verhandelt ein selbständiger Auftragnehmer mit dem größten Taxiunternehmen der Welt über die Höhe des Honorars? Angesichts der Tendenz zu Zentralisierung und Konsolidierung im Netz dürften die Marktanteile dieser Verhandlungspartner weiter wachsen.

Nun lässt sich leicht einwenden: Das ist weit weg, das passiert in den USA, in China, aber kaum in Deutschland. Wir haben das doch amtlich: Im Forschungsbericht „Solo-Selbständige in Deutschland – Strukturen und Erwerbsverläufe“ heißt es doch:

„Der Trend zu vermehrter selbständiger Beschäftigung ist im Jahr 2007 zum Stillstand gekommen, seit 2012 nimmt die Zahl der Selbständigen sogar ab. Dies ist fast ausschließlich auf die Entwicklung bei den Alleinunternehmern (Solo-Selbständigen) zurückzuführen, die in den Jahren davor auch den Anstieg der selbständigen Beschäftigung geprägt hatten.“

Ich interpretiere diese Zahlen anders und sehe großen sozialpolitischen Handlungsdruck. Aus drei Gründen:

1. Selbständige Pfleger, Hebammen und Integrationsdozenten sind in einer ähnlichen Situation wie Uber-Fahrer

Wir hatten in Deutschland im Jahr 2014 gut 2,34 Millionen Soloselbständige. Das ist fast eine halbe Million mehr als die Anzahl der Selbständigen mit Angestellten. Anders gesagt: Vergesst den Zahnarzt und den Anwalt, denkt an Lehrer für Deutsch als Fremdsprache, denkt an Dozenten in Integrationskursen, an Dolmetscher, Publizisten, Psychologen, Pfleger. Das sind laut dieser Studie die Berufe mit hohem Soloselbständigenanteil.

Legt man die Verbraucherpreise des Jahres 2000 zugrunde, sind die Stundeneinkommen der Soloselbständigen im Mittel (Medianwert) der Tendenz nach brutto von 2003 bis 2012 gesunken. Von 2012 gab es einen leichten Anstieg auf 10,85 Euro - aber es ist immer noch weniger als 2000 (11,84 Euro). Da ist es kein Wunder, dass es mit den Vermögen der Soloselbständigen auch nicht weit her ist:

„Reichlich ein Drittel der Solo-Selbständigen hat gar kein größeres Vermögen. Zudem müssen regelmäßige monatliche Rücklagen nicht immer der Bildung von Vermögen, sondern der späteren Anschaffung von langlebigen Gebrauchsgütern wie Kraftfahrzeugen oder Möbeln dienen.“ Forschungsbericht „Solo-Selbständige in Deutschland – Strukturen und Erwerbsverläufe“

Um diesen Zahlen Gesichter zu geben: Hebammen, die ganzjährig ausschließlich freiberuflich tätig sind, haben nach Selbstauskunft einen zu versteuernder Jahresgewinn von 16.973 Euro.

Die Situation der Integrationslehrer und Dozenten für Deutsch als Fremdsprache beschreibt Spiegel Online so:

„Das Bundesamt für Migration und Flüchtlinge (Bamf) zahlt den Sprachschulen 2,94 Euro je Teilnehmer und Kursstunde - 'das ist keinesfalls kostendeckend', so die Gewerkschaft für Erziehung und Wissenschaft (GEW). Sie fordert höhere Beträge und für die Dozenten ein Mindesthonorar von 30 Euro pro Stunde. Aktuell liegt es zehn Euro darunter. Davon müssen die Honorarkräfte Renten- und Krankenversicherung komplett selbst finanzieren, Geld für die unbezahlten Urlaubs- und Krankentage zurücklegen. […] ‚Wir Dozenten arbeiten für nur einen Auftraggeber, in festen Räumen, nach vorgeschriebenem Lehrplan, zu nicht verhandelbaren Honoraren - klarer Fall von Scheinselbstständigkeit.‘“

Die Situation der Hebammen und Integrationslehrern ähnelt aus meiner Sicht in einem entscheidenden Punkt der der selbständigen Uber-Fahrer: Die Nachfrage nach der Arbeitskraft dieser Selbständigen ist extrem konzentriert bei einem Akteur. Und diese Akteure setzen mit ihrer Marktmacht vergleichsweise niedrigere Honorare durch.

2. Es spricht einiges dafür, dass es in absehbarer Zeit mehr Soloselbständige geben wird

Drei Entwicklungen dominieren in den meisten Szenarien für die Veränderung des Arbeitsmarkts durch die Digitalisierung in den kommenden zwei Jahrzehnten:

  1. Soloselbständigkeit nimmt zu. Arbeitnehmer bieten für Projekte oder Teilaufträge in Projekten über digitale Plattformen im Preiswettkampf ihre Arbeitskraft Unternehmen an. Das ist heute im Ansatz bereits bei Soloselbständigen für Übersetzungen, Programmierung, Design oder Marketingdienstleistungen zu beobachten.
  2. Einige der Dienstleistungen werden im weltweiten Wettbewerb angeboten - auf Plattformen können Entwickler in Indien, den USA und Deutschland ebenso wie Übersetzer aus China zu ihren lokalen Preisen gebucht werden.

  3. Automatisierung und künstliche Intelligenz können in bestimmten Tätigkeiten die Erwerbsarbeit verknappen und zugleich neue Jobs mit neuen Anforderungen schaffen. Es ist heute absehbar, dass weiterentwickelte Software Tätigkeiten etwa in der Logistik, Disposition, Entsorgung, Rechtsberatung, Sprachdienstleistungen oder der Softwareentwicklung übernehmen kann.

Menschliche Erwerbstätigkeit fällt in Bereichen nicht komplett weg, wo Software mehr Tätigkeiten übernimmt, sie gerät aber unter Preisdruck. Das breitere, standardisierte und leicht abrufbare Angebot für Dienstleistungen auf Onlineplattformen führt in einigen Bereichen ebenfalls zu Preisdruck.

3. Darauf ist das Sozialversicherungssystem nicht eingestellt - es ist nicht für Soloselbständige gemacht

Wir haben heute schon 2,34 Millionen Soloselbständige in Deutschland. Es spricht einige dafür, dass es auf mittlere Sicht mehr werden. Da sollte man prüfen, wie gut das Sozialversicherungssystem ihnen dient. Schaut man sich exemplarisch die Regeln für Krankenversicherungen an, wird klar: Das System ist nicht auf stetig schwankende Einkommen auf niedrigem Niveau ausgerichtet. Selbständige können die Höhe ihrer Einkommenshöhe mit Steuerbescheid nachweisen. Der kommt einmal im Jahr, die Einnahmen ändern sich ständig. Für eine Krankenversicherung gibt es Mindestbeitrag, die unabhängig vom tatsächlichen Einkommen zu zahlen sind - derzeit mehr als 300 Euro. Der Fixbeitrag kann also höher sein als der eigentlich festgelegte Prozentsatz. Und so weiter. Flexibel ist das nicht.

Diese Probleme haben heute schon 2,34 Millionen Soloselbständige. Kranken- und Rentenversicherung müssen sich ändern, um flexibel auf monatlich stark schwankende und generell niedrige Einnahmen der Plattformarbeiter und Soloselbständigen zu reagieren. Wie kann kollektive Interessenvertretung von Soloselbständigen aussehen, die hier Handlungsdruck aufbaut?

Langfristig stellt sich eine weitere grundsätzliche Frage: Was wird eigentlich aus dem Modell der Mischfinanzierung gesetzlicher Kranken- und Rentenversicherungen für Arbeitnehmer, wenn mehr und mehr Soloselbständige Arbeit erledigen? Eine denkbare Möglichkeit: Ein universelles Gegenstück zur Künstlersozialkasse könnte die Arbeitgeberanteile übernehmen und die Kosten von den Auftraggebern der Soloselbständigen einholen. So wäre das Problem gelöst, dass kein Soloselbständiger alleine die Verhandlungsmacht hat, realistische Honorare durchzusetzen, die die Sozialabgaben decken.

Foto: Colonel William C. Greene addressing crowd of Mexican workers during miners' strike 1906, Cananea, Mexico - DeGolyer Library, Southern Methodist University

Hier ist eine phantastische freie Alternative zu Google Docs - gut für jedermann, gut fürs nachhaltige Netz

4 min read

Die Cloud ist nur ein Rechner, den irgendjemand anderes kontrolliert. Mit diesem Spruch enthüllt die Free Software Foundation Europe sehr schön, was das Wolkengerede verschleiert: Viele Clouddienste schränken Wahlfreiheit, Nutzerautonomie und Vielfalt im Netz ein. Wie, zeigt das Beispiel: Ich will mit einigen Mitstreitern, die in ganz Deutschland verteilt sind, ein Manifest schreiben. Es gibt eine Reihe von Onlinediensten, die so etwas möglich machen. Google Docs, Zoho, Word Online. Eines haben sie gemeinsam: Wenn ich mich für diese Software entscheide, muss ich auf dem Rechner des Anbieters arbeiten und dort meine Daten speichern. Bei diesen großen, kommerziellen Angeboten gibt es für Privatkunden nur ein Komplettpaket. Ich kann nicht bestimmten, wo die Software läuft und wo meine Dateien liegen.

Es gibt Alternativen. Es gibt viel freie Software, um auf einem Server in Gruppen Texte zu schreiben und zu bearbeiten oder Aufgaben und Arbeitsabläufe zu strukturieren. Etherpad zum Beispiel (eine Alternative zu Google Docs) oder Wekan (ein Werkzeug zum Projektmanagement a la Trello). Das Problem dieser Software ist: Es ist aufwendig, diese Software auf dem eigenen Server sicher laufen zu lassen. Die Programme setzen alle erdenklichen Extras voraus, die Wartung und Benutzerverwaltung ist auch nicht ohne und sicher nicht mit zwei Mausklicks auf eine grafische Oberfläche erledigt. Deshalb sind geschlossene Angebote wie Google Docs wohl auch so erfolgreich.

Was Sandstorm besser macht

Das ändert Sandstorm.io. Diese freie Software macht es möglich, auf einem Standardserver feine freie Programme zur Onlinezusammenarbeit wie Etherpad, Wekan oder Draw.io laufen zu lassen. In 25 Sekunden ist eine Anwendung aus dem Sandstrom-Katalog installiert:

screen

Sandstorm übernimmt die Nutzerverwaltung und die Absicherung der einzelnen Anwendungen. Den ganzen Kram also, der gut gemacht sein muss, was aufwendig ist. Wer Sandstorm nicht selbst installieren will, kann das Hosting von den Entwicklern übernehmen lassen. Ein Basisangebot bei Sandstorm Oasis ist kostenlos (200 MB Speicher, 5 Software-Instanzen) und die mit etwas mehr Speicherplatz ausgestatteten Pakete sind ein Beitrag dazu, dass dieses Projekt weiter läuft.

Die Nutzerverwaltung ist denkbar leicht: Man gibt Dokumente per E-Mail oder Link frei, zum Ansehen oder zum Bearbeiten.

Screenshot05.06.1612.00

Wer per E-Mail eingeladen wird, erstellt ein Benutzerkonto bei Sandstorm und die Änderungen an Texten in Etherpad oder die zugewiesenen Aufgaben in Wekan werden an dieses Konto gebunden. Die Eingeladenen können den Zugriff maximal mit den ihnen vergebenen Rechten weiterreichen.

Die Visualisierung von Textveränderungen und die Versionsverwaltung in Etherpad sind ein Traum, da kann sich Google Docs etwas abschauen:

Juni-05-2016 12-17-11

Die Sandstorm-Software und das Sandstorm-eigene Hosting sind in der Beta. Anwendungen wie Etherpad und Wekan laufen für meinen Geschmack schon stabil genug, um damit produktiv zu arbeiten. Hier einige Erfahrungsberichte. Bei anderen Anwendungen wie Dokuwiki merkt man, dass noch viel Feintuning nötig ist (z.B. Bildupload, bessere Einbindung der Sandstorm-Nutzerverwaltung in die Archivierung von Änderungen).

Fürs Schreiben und Organisieren in kleinen Teams ist Sandstorm.io jetzt schon weit genug, zumindest für meinen Geschmack.

Was fehlt: Sandstorm-Hosting für jedermann

Realistisch betrachtet werden aber fast alle Anwender auf den von den Entwicklern bereitgestellten Servern arbeiten. Bis zur 1-Klick-Installation bei deutschen Hostern ist es noch ein Stück. Ich hoffe, dass hier ein alternativer Anbieter wie Uberspace oder Heinlein eine Chance erkennt. Man kann ja als Kunde auch etwas nachhelfen und nett fragen.

Warum Sandstorm das nachhaltige Netz stärkt

Das lohnt sich. Sandstorm.io ist komfortabel, praktisch und stärkt ein nachhaltiges Netz im Sinne von: Selbstbestimmung, Selbstorganisation, Dezentralität und Offenheit. Diese vier Prinzipien haben das Internet vielfältig, großartig und groß gemacht. Diese Prinzipien sind bedroht, Unternehmen stülpen geschlossene Dienste über das offene Netz. Die Konzentration der Aufmerksamkeit bei wenigen Plattformen entzieht dem selbstorganisierten Netz den Nährboden. Es ist Zeit für ein Umdenken, Zeit für eine nachhaltige Nutzung.

Das Smartphone als Übergangsphänomen

3 min read

Virtuelle Realität beginnt im Bildschirm eines Mobiltelefons. Das war im Jahr 2000 eine steile These von mir. Es hat etwas gedauert, aber inzwischen sieht man in jeder U-Bahn, wie sich der Cyberspace über unsere physische Wirklichkeit stülpt: Die Körper parken in den Sitzen, ein Teil des Lebens der Pendler spielt sich gerade anderswo ab. An einem Ort, den jeder über das Smartphone-Display erreicht. Dieses Smartphone-Konzept, ist nicht einmal zehn Jahre alt. Vielleicht sind diese kleinen Bildschirme nur ein interessantes Übergangsphänomen, das uns 2027 so bedeutend wie Wap und iMode vorkommen wird.

Steile These: Mixed Reality verdrängt die Displays

Dass das so kommen kann, ist die steile These dieser Wired-Titelgeschichte über virtuelle Realität. Wenn Wired recht hat, sieht die Schnittstelle zur virtuellen Realität in zehn Jahren so aus, wie man sie sich in den Achtziger vorgestellt hat: Datenbrillen!

Wired beschreibt sehr interessante Mixed-Reality-Ansätze. Ausprobiert haben die bislang ein paar tausend Menschen, wenn es hochkommt. Wenn es wirklich funktioniert, sieht das im Büroalltag so aus: Man sieht die physische Umwelt -  Wände, Schreibtisch, die Kollegen vor Ort. Und wo immer man einen Bildschirm braucht in dieser Welt, legt die Software eine Fläche über die physische Wirklichkeit. Kein 40-Zoll-Fernseher im Konferenzraum mehr, kein Bildschirm am Schreibtisch, kein Telefondisplay mit der Anrufliste. All das kann man virtualisieren, physische Bildschirme sind nicht wichtig. Das ist keine Vision für das Jahr 2027 - so sollen im nächsten Jahr die Menschen bei Magic Leap und Meta 2 arbeiten. Wired:

„I found virtual screens and virtual media within a virtual reality surprisingly natural and practical. At Magic Leap, the development team will soon abandon desktop screens altogether in favor of virtual displays. Meron Gribetz, founder of Meta, says that its new Meta 2 mixed-reality glasses will replace monitors in his company of 100 employees within a year. It’s no great leap to imagine such glasses also replacing the small screens we all keep in our pockets. In other words, this is a technology that can simultaneously upend desktop PCs, laptops, and phones.“

Aber auch wenn sich das Smartphone tatsächlich als kurzfristiges Übergangsphänomen erweisen sollte: Die drei grundlegenden Veränderungen, die es gebracht hat, werden sich wohl noch beschleunigen:

1. Die physische Realität wird maschinenlesbar

Dem Smartphone als Sensor verdanken wir zum Beispiel, dass Verkehrsprognosen präziser und schneller verfügbar sind. Wie wird man Daten über die Nutzung von Mixed-Reality-Anwendungen analysieren? Vielleicht misst jemand, wer in teilweise virtualisierten Besprechungen welche Teammitglieder wie oft anschaut. Kann man daraus Rückschlüsse über das soziale Gefüge in einem Team ziehen? Darüber, wie es wirkt, was da gerade jemand sagt?

2. Neue Schnittstellen stülpen der Welt neue Geschäftsmodelle über

Uber oder Mytaxi wären ohne Smartphones nicht möglich. Wie Mixed Reality wohl das Geschäft der Außenwerber verändert?

3. Neue Schnittstellen verteilen Aufmerksamkeit anders

Medien liefern heute Videos und Texte großen Medienplattformen wie Facebook, Snapchat und Youtube zu, die den direkten Kontakt zu den Menschen haben. Das wäre ohne Smartphones nicht so schnell und in diesem Ausmaß geschehen. Eine Schnittstelle, die das leisten kann, was der Fernseher, der Smartphonebildschirm und der Monitor auf dem Schreibtisch tun, wird die Aufmerksamkeit der Menschen komplett neu verteilen.

Es genügt nicht, nur die Algorithmen zu analysieren

5 min read

Zum nächsten TÜV-Termin nehme ich ein Blatt Papier mit einem Rezept für die Entwicklung meines Autos mit. Der Inhalt des Rezepts: Meine Scouts analysieren alle zugelassenen Autos in Deutschland und suchen dann jene Bauteile heraus, die am besten funktionieren und am wenigsten kosten. Daraus baue ich mein Auto. Und dieses Auto soll mir der TÜV dann schon mal vorab auf Basis des Rezeptes zulassen. Klingt absurd? Ich glaube auch nicht, dass der TÜV da mitmacht. Was bei Autos merkwürdig klingt, soll bei Software so funktionieren. Einen „Algorithmen-TÜV“ fordern immer wieder kluge Menschen in der deutschen Debatte über Software (zum Beispiel Bundesjustizminister Heiko Maas).

Trainingsdaten machen Software klug.

Wer beurteilen will, ob eine Software gut oder schlecht handelt, muss mehr tun als alle paar Monate oder Jahre Algorithmen zu prüfen. Denn es ist nicht Algorithmen allein zu verdanken, dass Software heute recht gut übersetzt, Sprache verschriftlicht, Risiken abschätzt, Nachrichtenrelevanz beurteilt, Go und Schach spielt. Die Verfügbarkeit großer Trainingsdatensätze dürfte dafür mindestens ebenso wichtig sein. Einige Hinweise darauf führt der Mathematiker Alexander Wissner-Gross an:

  • 2005 feierte Google große Fortschritte seiner Übersetzungssoftware beim Übertragen aus Mandarin in Englische. Der zugrunde liegende Algorithmus war 1988 veröffentlicht worden. Doch den 1,8 Billionen Elemente umfassende Trainingsdatensatz hatte Google erst im selben Jahr zusammengetragen.
  • 2011 schlug die IBM-Software Watson menschliche Gegenspieler in der Spielshow „Jeopardy“. Die Watson zugrunde liegenden Algorithmen waren seit 1991 öffentlich, die aus Wikipedia und anderen Quellen gefüllte Wissensdatenbank hatte IBM 2010 fertiggestellt.

Es ist also kompliziert.

Um das Handeln von Software zu analysieren, muss man ihr Lernmaterial kennen.

Das Bild „Algorithmen-TÜV“ erscheint sehr sinnvoll, wenn man sich Entscheider-Software wie ein Auto oder wie ein Kuchenrezept vorstellt. Also als etwas, das einmal fertig gestellt ist und dann nur noch in Intervallen weiterentwickelt wird - wenn überhaupt. Ans Auto kommt ein neuer Spoiler? Ab zum TüV. Beim Kuchenrezept verdoppeln wir die Zuckermenge? Besser prüfen. Um dieses Bild von Software aus dem Kopf zu kriegen, muss man andere Analogien lesen. Denn lernende Software funktioniert anders.

Der estnische Informatik-Doktorand Tambet Matiisen beschreibt lernende Software in diesem Essay über einen Vergleich mit menschlichem Lernen: Positive Erfahrungen verstärken trainierte Muster:

„Reinforcement learning is an important model of how we (and all animals in general) learn. Praise from our parents, grades in school, salary at work – these are all examples of rewards. Credit assignment problems and exploration-exploitation dilemmas come up every day both in business and in relationships. (…) But deep Q-networks still continue to amaze me. Watching them figure out a new game is like observing an animal in the wild – a rewarding experience by itself.“

Diese Analogie veranschaulicht zwei Dinge: Lernende Software entwickelt sich ständig fort. Und: Wie sie sich entwickelt, hängt davon ab, mit welchem Lehrmaterial sie konfrontiert ist und welche Anreize ihre Entwickler vorgeben.

Wir brauchen neue Analogien für Entscheider-Software

Eine andere großartige Analogie für die Entwicklung lernender Software hat Suresh Venkatasubramanian erdacht. Der Mann lehrt Informatik an der University of Utah. Er vergleicht lernende Software mit einem Rezept für die indische Linsensuppe Sambar. Die heute wohl weit verbreitete Vorstellung ist, dass ein Algorithmus einem Rezept nach diesem Muster entspricht: Man nehme 500 Gramm Linsen, einen Teelöffel Curry und noch etwas hiervon und etwas davon, dann koche man es so und so lange. So arbeitet lernende Software aber nicht.

Programme, die heute übersetzten, Menschen auf Fotos erkennen, Nachrichten einordnen und so weiter gleichen eher einem Verfahren, um überhaupt erst zu einem Linsensuppenrezept zu kommen. Venkatasubramanian beschreibt es so: Lernenende Software gleicht jemandem, der nur eine vage Ahnung davon hat, welche Zutaten in eine Sambar-Linsensuppe gehören. Der Koch lädt Freunde ein und lässt sie wieder und wieder nach immer neuen Konfigurationen gekochte Sambar-Varianten probieren. Er fragt die Gäste nach ihren Rezepten. Er probiert auch diese aus. Aus den Reaktionen der Gäste leitet er ab, welche Zutaten in welcher Dosis gut ankommen. Nach vielen Durchgängen wird der Koch ein Rezept für Sambar-Linsensuppe haben.

Nun stellen Sie sich vor, derselbe Koch hätte dieses Experiment in Tokio, Aarhus und Rio gemacht. Wie sehr sich die Rezepte wohl unterscheiden würden? Das ist die Stärke dieser Analogie: Sie zeigt, wie sehr es auf den Input ankommt.

Venkatasubramanians kommt zum Fazit: Algorithmen analysieren allein bringt nichts. Auf dieser Basis wird man nicht beurteilen können, was eine Entscheider-Software tut. Der Informatiker schreibt:

"Yes, we could just “look at the code”, but what we see is a mysterious alchemy in which each individual step might be comprehensible, but any “explanation” of why the code does what it does requires understanding how it evolved and what “experiences” it had along the way. And even then, you’d be hard-pressed to explain why the algorithm did what it did. If you don’t believe me, try looking at a neural network sometime."

Eine vierte Gewalt muss Input, Output und Verarbeitung analysieren

Das sollte eine unabhängige Aufsicht lernender Software leisten:

  • Überprüfen, ob die Software den Maßgaben folgt, die der Betreiber offenlegt.
  • Unerwünschte Verhaltensweisen und Folgen erkennen, die trotz Einhaltung der Maßgaben entstehen.

  • Beabsichtigte Manipulationen durch Dritte erkennen.

Um das zu leisten, genügt es sicher nicht, bloß Algorithmen zu analysieren. Man muss zudem auch die Trainingsdaten und alle von der Software getroffenen Entscheidungen einbeziehen. Es gibt einige Kontrollansätze, die mit den Input und den Output lernender Software analysieren. Beide Ansätze liefern Hinweise auf die Diskriminierung von Minderheiten - Amerikaner asiatischer Abstammung zahlen mehr für Nachhilfe, Menschen in mehrheitlich von Schwarzen bewohnten Vierteln waren länger auf Dienstleistungen und so weiter. Was mir bei beiden Ansätzen auffällt: Sie können nur funktionieren, wenn genügend Daten offen zugänglich sind. Um lernende Software zu prüfen und alternative Entscheidungen zu kennen, müssen Trainingsdaten offen zugänglich sein.

Warum Thomas Hobbes begeistert von Cloudflare wäre

5 min read

Wenn ein Text das Internet mit Autobahnen vergleicht, geht das oft schief. Deshalb versuche ich es mit Milchbauern, Kühen und Wiesen. Milchbauern sind alle, die im Netz veröffentlichten. Kühe sind Datenpakete und die Wiese ist die verfügbare Bandbreite. Das wird ein phantastischer Vergleich! Am Ende schaut noch Hobbes' Leviathan vorbei. Vorher aber einige wirklich wichtige Absätze mit einem konkreten Fall. Er zeigt, wie sich das Internet gerade verändert. Also los:

Erpresser nutzen Dienste für Erpresser-Abwehr

Spiegel Online berichtet, dass Erpresser deutschen Mittelständler drohen, ihre Webangebote mit Überlastungsangriffen lahmzulegen. Laut SPON nutzen einige Anbieter, bei denen man solche - illegalen - Überlastungsangriffe buchen kann, ausgerechnet die Dienste des Internet-Infrastrukturbetreibers Cloudflare. Darin liegt eine gewisse Ironie, denn Cloudlfare bietet Schutz gegen Überlastungsangriffe.

Spiegel Online schreibt:

„Auch die meisten der in Untergrundforen als Top 10 der kostenpflichtigen DDoS-Dienstleister geführten Angebote lassen ihre Webseiten von Cloudflare schützen. Anbieter von Netz-Attacken nehmen selbst kostenpflichtigen Schutz vor solchen Attacken in Anspruch.“

Ich erkläre mir das so: Die Anbieter solcher Überlassungsattacken greifen sich gegenseitig an, um Konkurrenz klein zu halten. Wer offline ist, verliert Aufmerksamkeit, Kunden und letztlich Geld. Die Anbieter von Überlastungsattacken wollen diese Schäden minimieren. Sie kaufen sich Schutz davor, dass ihre Internetpräsenz bei Überlastungsattacken unerreichbar ist. Cloudflare verteilt und liefert die Daten so zuverlässig aus, dass auch Angreifer auf diese Dienste vertrauen.

Soll eine Infrastukturfirma über zulässige Daten urteilen?

Die Situation von Cloudflare ist heikel: Wenn das Unternehmen von sich aus Inhalte vorab prüft und basierend auf einem eigenen Urteil bestimmte Angebote nicht ausliefert, tritt es als Torwächter auf. Soll Cloudflare alleine entscheiden, welche Daten weltweit ausgeliefert werden? Lieber nicht, urteilt Cloudflare-Gründer Matthew Prince:

„While we will respect the laws of the jurisdictions in which we operate, we do not believe it is our decision to determine what content may and may not be published. That is a slippery slope down which we will not tread.“

Das ist ein gutes Argument. Solche Entscheidungen sollten nicht privatisiert werden. Andererseits: Wenn die Entwicklung so weitergeht, werden sich noch mehr Anbieter aus Angst vor Überlastungsangriffen für einen Auslieferer wie Cloudflare entscheiden. Wenn man die eigenen Daten im Internet nicht zuverlässig ausliefern kann, bucht man die Dienste eines Infrastrukturanbieters.

Die Auslieferer verändern die Struktur des Internets: Daten von einem Server laufen auf ihrem Weg nicht mehr frei durch unterschiedliche Netze, die zum Internet zusammengeschlossen sind. Stattdessen transportiert ein Dienstleister die Daten vom Server durch seine Infrastruktur bis in die Zielnetze der großen Endkundenversorger.

Dienstleister wie Cloudflare bauen das Internet um - und zentralisieren

Cloudflare beschreibt die Entwicklung als einen Umbau des Internet:

„We are rebuilding the Internet, and we don’t believe that we or anyone else should have the right to tell people what content they can and cannot publish online.“

Diese neue Organisation ist umso attraktiver, je unzuverlässiger die bisherige Form der Auslieferung wird. Überlastungsangriffe schaden der Zuverlässigkeit der bisherigen Organisation des Internets in vielen miteinander verbundenen Teilnetzen unterschiedlicher Betreiber.

Mit dem dezentralen Internet verhält es sich wie mit der gemeinsamen Weidefläche in der klassischen Denkfigur von der „Tragödie der Allmende “. Die Gemeinschaftsweide nutzen alle Milchbauern eines Dorfes. Wenn nun ein Bauer die geteilte Infrastruktur über Gebühr in Anspruch nimmt, haben die Kühe dieses einen Überweiders kurzfristig mehr zu essen. Übertragen auf Überlastungsangriffe müsste das Bild so aussehen: Ein Bauer lässt seine Kühe mehr essen als sie brauchen, nur damit seine Konkurrenten weniger Ertrag haben. Kurzfristig profitiert einer, langfristig leiden alle, weil das gemeinschaftliche Gut leidet und die Gemeinschaft schwindet.

Wir ermächtigen Leviathane wie Cloudflare, wo das dezentrale Netz Macken hat

Nun haben wir im Internet mit Auslieferungsdiensten wie Cloudflare eine Option, die den Milchbauern nicht offen steht: Eine ganz neue Weidefläche mit einem magischen Schutz vor jener Art von Überweidung, die nur anderen Bauern schaden soll. Einen Nachteil hat diese neue Weide allerdings: Sie steht nicht mehr allen offen, sondern nur Bauern, die einen Vertrag mit dem Eigentümer abschließen. So gut dieser Vertrag auch kurzfristig ist, er ist strukturell anders: Hier schließen sich nicht Gleiche zusammen, um gemeinsam eine Ressource zu nutzen.

Hier geben die vormals Gleichen die gemeinsame Ressource auf, damit ein Verwalter Standards durchsetzt. Das läuft genauso wie bei Hobbes Gesellschaftsvertrag: Weil die Menschen als gleichberechtigte Partner ein Zusammenleben nicht hinkriegen, unterwerfen sie sich einem Herrscher, mit dem sie einen Vertrag schließen. Ihm übertragen sie ihre vormals gleichberechtigt geteilte Macht. Der Herrscher soll basierend auf dem so geschlossenen Gesellschaftsvertrag mit der neuen Macht durchsetzen, was die Menschen gleichberechtigt gemeinsam nicht geschafft haben.

Es kann sein, dass es anders nicht funktioniert als mit einem solchen Gesellschaftsvertrag und der Übertragung der Macht. Vielleicht ist Zentralisierung von Infrastrukturen im Internet bei wenigen Unternehmen tatsächlich der einzige gangbare Weg, damit es erträglich funktioniert. Ich weiß es nicht. Aber um das zu diskutierten, sollte man die Verhältnisse klar benennen. Natürlich hat ein Infrastrukturbetreiber wie Cloudflare Macht. Wer Infrastruktur betreibt, steuert. Auch die Entscheidung, vorab Dienste nicht zu kontrollieren, prägt Infrastruktur. Auch Untätigkeit hat eine Wirkung auf das Verhalten vieler Internetnutzer und letztlich, wie wir im Netz zusammenleben.

In diesem Fall setzt der Herrscher seine Macht nicht ein, um bestimmte Angebote zu unterbinden. Er hat einen Weg gefunden, dass Überlastungsangriffe die eigenen Nutzer der eigenen Infrastruktur nicht schädigen. Das hat aber eine Wirkung auf alle, die ihre Angebote nicht über einen Auslieferer gegen Überlastungsangriffe absichern. Es steigt ihr Risiko, Opfer zu werden. Und je größer diese Gefahr ist, desto attraktiver wird das „neu gebaute“ Internet, weil auch der Staat Überlastungsangriffe nicht unterbindet.

Das Wikipedia-Dilemma: Pflege ist so wichtig wie Innovation, motiviert aber nicht so sehr

3 min read

In einer fast 60 Jahre alten Kurzgeschichte steht eine phantastische Parabel für die größten Herausforderungen der Wikipedia, der Open Street Map und jeder Software, die mehrere Versionen und Jahre im Einsatz ist. Der argentinische Autor Jorge Luis Borges erzählt in »Von der Strenge der Wissenschaft« von der perfekten Landkarte. Der Herrscher eines längst untergegangenen Reiches wollte eine vollkommene Karte seines Imperiums schaffen. In einer seiner Karten war das Abbild einer Provinz des Reichs so groß wie eine Stadt. Aber selbst diese Karte war dem Herrscher nicht detailliert genug, also ließ er die Arbeit an einer Karte im Maßstab 1:1 beginnen. Irgendwann wurden die Karten nicht mehr gepflegt, weil die Ressourcen des Reichs nicht genügten. Die 1:1-Karte wurde nicht fertig, das Imperium zerfielt und es blieben nur verfallene Überreste der Modelle übrig.

An eine solche zu groß geratene und sich irgendwann selbst überlassenen Karte erinnern mich manche Unterseiten von Artikeln in der Wikipedia oder Friendica-Profile. Jedem Mitmach-Projekt im Netz und jeder gemeinschaftsgetriebenen Software droht das Schicksal der 1:1-Karte: Je größer und detaillierter eine Karte wird, umso mehr Pflege ist nötig, um sie nützlich zu halten. Nur ist leider bei vielen Projekten die größte Motivation für Mitwirkende, die Möglichkeit, etwas gänzlich Neues zu schaffen. Auf diesen Zielkonflikt zwischen dem Erschaffen und der Pflege des Erschaffenen kann man einige Probleme der Wikipedia oder dezentraler sozialer Netzwerke zurückführen. Wenn zu viel Kraft für das Erschaffen neuer Projekte, Artikel und Programme aufgewendet wird, verfällt das Bestehende irgendwann. Bei der Open Street Map kommen seit 2010 für jede Überarbeitung eines Details drei völlig neue Ergänzungen. Bisher ist die Mitmach-Karte noch gut nutzbar und aktuell. Doch wie lange hält das noch? Alan McConchie beschreibt die Entwicklung in diesem Essay.

Was tun? Die Technikhistoriker Lee Vinsel und Andrew Russell formulieren die provozierende These: »Innovation is overvalued« - Pflege sei viel wichtiger. Mir erscheint dieser Gegensatz allerdings künstlich. Tatsächlich kann ja auch die Pflege eines bestehenden Projekts durchaus kreativ sein und etwas auch etwas gänzlich Neues hervorbringen. Ein Beispiel für die Wikipedia: Viele Artikel leiden inzwischen meiner Ansicht nach daran, dass sie für viele Leser zu ausufernd und detailreich sind. Wer Details zu einem Aspekt eines Themas sucht, wird fündig. Wer einen Überblick der wichtigsten Aspekte eines Themas für Laien haben will, ist oft überfordert. Die Pflege dieses Fundus könnte auch das Schreiben von Zusammenfassungen sein.

Man muss nicht immer bei Null beginnen.

Warum es noch lange dauert, bis Roboterautos durch verschneite Städte fahren

4 min read

Über selbstfahrende Autos gibt es seit Jahren so viele Videos, Berichte und Anekdoten, dass sie gefühlt noch in diesem Jahrzehnt in der Nachbarschaft herumkurven werden. Das wird nicht passieren, sagt Chris Urmson, bei Google Leiter des Self-Driving Car Projekts. Wenn es in der Nachbarschaft bisweilen schneit oder sie gar in einer Stadt leben, kann das noch einige Jahrzehnte dauern.

Urmson antwortet auf die Frage, wann man denn nun so ein selbstfahrendes Auto kaufen und damit losdüsen kann: „Maybe 3 years, maybe 30 years. I think honestly it is a bit of both.“ Urmson führt aus: Wahrscheinlich wird die Technik erstmal auf Regionen beschränkt sein, die ein leichtes Umfeld für die Technik bieten und später dann nach inkrementalen Verbesserungen auch Zug um Zug in Regionen mit größeren Herausforderungen.

https://youtu.be/Uj-rK8V-rik?t=28m26s

In seinem Vortrag beschreibt Urmson einige der Herausforderungen für Steuerungssoftware. Schnee ist ein Problem. Denn eine schneebedeckte Landschaft weicht stark von dem Kartenmodell ab, mit dem die Steuerungssoftware ihre Sensordaten abgleicht. Innerstädtische Straßen sind laut Urmson das härteste Umfeld überhaupt, weil so viel unterschiedliche Menschen, Radler, Fahrzeuge unterwegs sind.

Den Fehler der Steuerungssoftware, der zu einen Blechschaden an einem Bus führte, beschreibt Urmson so:

„Our car made an assumption what the bus driver was going to do. And the bus driver made an assumption what our car was going to do. And they weren’t the same assumption. And this is what driving is about.“

Das Auto sieht nur, was der Bus gerade tut - nicht, was der Fahrer beabsichtigt. Für diese Herausforderung gibt es zwei Lösungswege: Software weiter entwickeln und für solche Situationen trainieren. Das ist die Richtung, die Urmson beschreibt.

Einen anderen Ansatz sieht man bei Forschungsprojekten wie dem autonomous intersection management an der University of Texas at Austin. Auf Straßen, wo ausschließlich Software die Fahrzeuge steuern, ist der Verkehr viel effizienter abzuwickeln - so die Grundannahme:

„However, in the future, with computers "behind the wheel", will it make sense to have intersection control mechanisms that were designed with today's human drivers in mind? With all the advantages computerized drivers offer - more precise control, better sensors, and quicker reaction times - we believe automobile travel can be made not only safer and easier, but much more efficient.“

Von Menschen gesteuerte Fahrzeuge kommen in dem Modell vor (als ein die Effizienz mindernder Einfluss), Fußgänger, Radler nicht.

https://www.youtube.com/watch?v=4pbAI40dK0A

Gewinnt dieser stadt- und verkehrsplanerische Ansatz Unterstützung, könnten reine Autostraßen, wie sie im vorigen Jahrtausend en vogue waren, als Roboterautostraßen wiederkehren. Das wäre eine Abkürzung, damit man eher Roboterautos in Innenstädten nutzen kann.

Gegen radikale Lösungen wird die hohe installierte Basis von Menschen gesteuerter, bezahlter Fahrzeuge das stärkste Argument sein. Aber wer weiß, vielleicht ist die Lobby in bestimmten Regionen groß genug. Wenn eine Einfallstraße nur für Roboterautos freigegeben wird und die ihre Insassen an etwas wie einem Bahnhof zentral abwerfen und alleine weiter und raus fahren, um außerhalb der Innenstadt zu parken? Könnte man so nicht viel Parkraum in der Stadt einsparen - weit mehr, als für eine solche Einfallstraße nötig wäre?

Wenn sich so etwas einmal durchsetzt, wären die Roboterautos vielleicht eher in Städten unterwegs, die Städte würden dann aber wieder um die Bedürfnisse des  (Roboter)autoverkehrs herum geplant.  Will man das? Oder eine Sonderbehandlung für Roboterautos setzt sich nicht durch - dann dauert es länger, bis sie autonom in Stadtzentren herumkurven, wenn Urmson recht behält.

Warum Google Boston Dynamics verkauft? Vielleicht wegen Rüstung.

2 min read

Die Google-Mutterfirma Alphabet sucht also einen Käufer für das Roboterunternehmen Boston Dynamics. Bei den Spekulationen über die Gründe dafür dominiert gerade eine Lesart, die dieser Bloomberg-Artikel zusammenfasst:
- Die Roboter sind gar nicht so toll, weil sie nicht autonom handeln (»a human steered the robot via radio during its outside strolls«)
- Es wird mit Blick auf kommerzielle Produkte zu lange dauern, bis autonomes Handeln möglich sein könnte. (»it would take a decade to develop Boston Dynamics’s technology into a commercial product«)

Mir erscheint dieser Gedankengang nicht schlüssig. Es gibt heute eine Menge von Robotern, die durch Menschen gesteuert werden und viel Geld kosten. Zum Beispiel fliegende Drohnen. Es gibt durchaus einen Markt für solche Technologie in der Luft. Vielleicht auch am Boden. Dass Menschen die Drohnen steuern müssen, ist kein Ausschlusskriterium. Nur sind Rüstungsaufträge vielleicht nicht das Geschäftsmodell, das Alphabet verfolgen und in der Öffentlichkeit verteidigen will. Auch das ist reine Spekulation, aber ich finde diesen Gedanken so plausibel wie die dominierende Erklärung, die Bloomberg rekapituliert.

Es kann sein, dass die Technik für Rüstungsprojekte weit genug ist, für alle andere aber nicht und Alphabet dieses Geschäft nicht selbst verfolgen will.

Was künstliche Intelligenz von menschlicher unterscheidet

6 min read

Meine Empfehlung: Eine Zusammenfassung von und viele Gedanken zu Stephen Wolframs Thesen über künstliche Intelligenz und die Zukunft der Zivilisation tl;dr: Der grundlegende Unterschied zwischen KI und Menschen ist: Menschen formulieren Ziele und verfolgen Absichten, Software kann das heute nicht. Allerdings können Menschen nicht erkennen, hinter welchen Phänomenen eine Instanz mit Zielen und Absichten steht und hinter welchen nicht. Es ist also alles doch etwas komplizierter.

Darum ganz lesen: Stephen Wolfram ist Physiker, Softwareentwickler, Mathematiker, vor allem aber einer der wenigen Universalgelehrten unserer Zeit. Dieser Essay veranschaulicht wunderbar, wie inspirierend wirklich wildes, fächerübergreifendes Denken sein kann und wie flach im Vergleich so manche Vision bekannter Internetkonzerne wirkt. Wolfram beginnt mit der Frage, was heutige künstliche Intelligenz von Menschen unterscheidet und endet bei Geschichte, Kultur, Gott und dem Universum als Rechner.

Menschen definieren Ziele, KI hilft beim Umsetzen

Wolframs grundlegende These ist: Die Menschheit hat eine Geschichte und basierend darauf entwickelt jeder Mensch Vorstellungen von Zielen und Absichten. Künstliche Intelligenz kann die Verwirklichung dieser Ziele und Absichten teilweise übernehmen. Doch sie zu definieren, ist Menschen vorbehalten.

Aus dieser grundlegenden Annahme und entwickelt Wolfram einige interessante Gedankenstränge. Zum Beispiel diesen: Wir werden in absehbarer Zeit Teile der Programmierung automatisieren können. Wolfram skizziert den Weg dahin so: Software wählt durch Testen und Trainieren aus der Vielzahl möglicher Programme jene aus, die die definierten Ziele besser erreichen. Daraus leitet Wolfram ab, dass es andere Programmiersprachen braucht. Sprachen, die es leichter machen, abstrakte Ziele zu beschreiben.

Wir können nicht klar bestimmen, hinter welchen Phänomenen Absicht steckt

18869429790_c2615e01ae_kIn der zweiten Hälfte nimmt der Essay eine überraschende Wendung. Eigentlich scheint alles klar: Menschen setzen sich Ziele und formen Absichten, KIs tun das nicht. Alles weitere folgt daraus. Und dann fragt Wolfram: Wie erkennen wir eigentlich zielgerichtetes Handeln? Gar nicht so leicht. Wolfram erzählt die Geschichte des Physik-Nobelpreisträgers Guglielmo Marconi und der Erfinder Nikola Tesla:

»Back in the early 1900s, Marconi and Tesla were both listening to radio transmissions from away from the Earth. Marconi had a yacht in the middle of the Atlantic, where he could hear these weird sounds that sounded a little bit like whale songs, but they’d come from radio. Tesla was very much, »this is the Martian signaling us.« How does one tell? In fact, it was some modes of the ionosphere. These were hydrodynamic phenomena—just physics.«

Ein Gedankenspiel zur Veranschaulichung: Forscher beobachten, dass ein Pulsar Primzahlenfolgen sendet. Ist das der Kontaktversuch eine Zivilisation? Braucht es eine Zivilisation, die Mathematik und Funk entdeckt und anwendet, um diese Zahlenfolgen zu senden? Oder kann ein physikalischer Prozess dasselbe Ergebnis haben?

Wir können nicht erkennen, ob eine Software Ziele setzt

Dasselbe Gedankenspiel lässt sich auf eine KI übertragen. Wolfram kommt am Ende zum Ergebnis, dass seine so eindeutig scheinende Unterscheidung letztlich gar nicht so eindeutig ist. Es kann sein, dass wir am Verhalten einer KI nicht erkennen, dass sie Ziele und Absichten setzt und verfolgt. Wolfram hat keine Antwort und das ist nicht weiter überraschend, weil seit Aristoteles viele solche Fragen nach dem Ziel und Sinn mit demselben Ergebnis gestellt haben. Was ist das Ziel hinter dem Wetter, dem Pulsar, dem Universum? Es könnte ja sein - und da streift Wolfram religiöse Fragen -, dass da etwas Ziele und Absichten verfolgt, die wir nicht erkennen, weil wir sie nicht erkennen können. Aber immerhin bleibt uns das, und so schließt Wolfram: Jeder Mensch ist geprägt von Jahrhunderten menschlicher Geschichte, der durch Wahrnehmung der Welt und durch den Austausch darüber geprägten Konzepten.

Drei Fragen zum Weiterdenken:

Chandra's image shows the drama of star formation and evolution as it is being played out in a nearby galaxy. At least 11 extremely massive stars with ages of about 2 million years are detected in the bright star cluster in the center of the primary image (left panel). The brightest source in this region is Mk 34, a 130 solar-mass star located slightly to the lower left of center. On the lower right of this panel is the supernova remnant N157B, with its central pulsar. Two off-axis ACIS-S chips (right panel) show the large shell-like supernova remnant SNR N157C. In the image, lower energy X-rays appear red, medium energy green and high-energy are blue.

Dass Wolframs Text bei allen Umwegen und Schleifen etwas Besonderes ist, merke ich daran, dass am Ende des Essays das eigene Denken angeregt aufdreht. Mir stellen sich nach dem Text sofort diese Fragen:

(1) Die Kulturgeschichte als Alleinstellungsmerkmal muss nicht von Dauer sein. Die Menschheit hatte irgendwann einmal keine Sprache und keine Geschichte. Diese Entwicklung kann sich also wiederholen. Und warum sollte nicht irgendwann etwas von der Menschheit lernen? Wir sind ja gerade dabei, große Teile des aktuellen Zeitgeschehens im Großen wie im Kleinen, Zwischenmenschlichen, digital abzubilden oder gar digital abzuwickeln. All die Reaktionen, Debatten, Äußerungen und Absichtserklärungen in Suchanfragen Foren und sozialen Netzwerken sind heute Trainingsmaterial für künstliche neuronale Netze. Sie könnten aber auch irgendwann der Stoff sein, über den sich Software die Geschichtsprägung verschafft, von der Wolfram spricht.

(2) Einmal angenommen es gibt einen Schöpfer - er könnte ähnlich ratlos vor der Menschheit stehen wie Tesla und Marconi vor den Signalen aus dem All und ein Mensch vor Wolframs hypothetischer Ziele definierender KI. Hat es Bewusstsein?

(3) Wolfram sieht Assistenzsysteme als die grobe Entwicklungsrichtung von KI-Anwendungen der nächsten Jahrzehnte. Er stellt sich das so vor:

»What will happen, more to the point, is that there will be an AI that knows our history, and knows that on this menu, you’re probably going to want to order this, or you’re talking to this person, you should talk to them about this. I’ve looked at your interests, I know something about their interests, these are the common interests that you have, these are some great topics that you can talk to them about. More and more, the AIs will suggest what we should do, and I suspect most of the time people will just follow what the AIs tell them to do. It would probably be better than what they figured out for themselves.«

Ich frage mich dabei: Wenn das Assistenzsystem als Trainingsdaten das Verhalten eines Menschen ohne Assistenzsystem nutzt: Wie soll das funktionieren, wenn solche Systeme einmal eine Generation lang auf dem Markt und weit verbreitet sind? Wenn es Standard sein wird, KI-Assistenten so zu nutzen wie Wolfram es beschreibt, wird es kaum noch menschliches Handeln ohne KI-Einfluss geben. Wie soll man eine KI an die Interessen, Vorlieben und an die Persönlichkeit eines Menschen anpassen, wenn es kaum noch Handeln dieser Person gibt, das nicht von einer KI beeinflusst worden ist?

Warum der Begriff Suchmaschine in die Irre führt

5 min read

Der Psychologe Robert Epstein beschreibt in diesem Ausblick auf sein Buch „The New Mind Control“ aufschlussreiche Experimente zur Wirkung von Internet-Suchmedien. Epsteins Versuche zeigen, dass Suchmedien vor Wahlen in bestimmten Gruppen erheblich die politische Meinungsbildung beeinflussen können - durch das bloße Ranking von Suchergebnissen.

Platzierung in der Trefferliste beeinflusst Meinungsbildung

Die Ergebnisse sind in der wissenschaftlichen Fachzeitschrift PNAS erschienen, also nach einem Peer-Review-Prozess. Epsteins Experimente hatten einen recht einfachen Aufbau: Es werden Teilnehmer rekrutiert, die sich in einer anstehenden Wahl noch nicht auf einen Kandidaten festgelegt haben. Sie werden in unterschiedliche Gruppen eingeteilt und sollen sich per Internetsuche mit einer vorgegebenen Suchmaschine über die Kandidaten informieren. Nach der Suche wird die Präferenz abgefragt. Die Gruppen unterscheiden sich in einem Punkt: Die von den Forschern manipulierte Suchmaschine bevorzugt in jeder Gruppe die Suchtreffer zu einem vorab bestimmten Kandidaten. Auf die verlinkten Inhalte nehmen die Forscher keinen Einfluss, nur auf die Priorisierung der Treffer.

Ergebnis: Die Teilnehmer der Experimente bevorzugen danach signifikant jene Kandidaten, die in ihren Suchtreffern ganz oben erschienen sind. Bei unentschiedenen Wählern kann also die Platzierung von Suchtreffern große Wirkung auf die politische Meinungsbildung haben.

Suchangebote sind in erster Linie Medien, keine Maschinen

Die Ergebnisse Epsteins zeigen, warum wir uns vom Bild und Begriff der Suchmaschine verabschieden sollten. Er führt in die Irre. Eine Maschine funktioniert immer gleich, neutral und mechanisch. Diese Eigenschaften assoziieren wir zumindest mit einer Maschine. Doch Suchangebote und andere Aufmerksamkeitsverteiler im Internet sind etwas gänzlich anderes. Sie sind Medien, weil sie Relevanz einschätzen, Informationen auswählen, weil sie gewichten und bestimmten, welche Neuigkeiten aus der Flut an Neuem welche Nutzer erreichen. Suchmedien verteilen Aufmerksamkeit. Sie sind Gatekeeper und sie können Agenda-Setter sein - in Wahlkämpfen, wie Epstein zeigt.

Dass eine Software auswählt, wer welche Details priorisiert angezeigt bekommt, ändert nicht viel an diesem Prinzip. Die Arbeitsweise und die Parameter, nach denen die Software priorisiert, Erfolg bemisst und Input ordnet, legen Entwickler und Management fest. Sie entscheiden, nach welchen Prinzipien Software bestimmte Informationen bestimmten Nutzern anbietet und anderen nicht. Ein Medium, das allein mit menschlicher Arbeitskraft den Input sortiert, handelt nicht viel anders. Auch dass ein Suchmedium nur den Input verarbeitet, der im Netz existiert, ist aus meiner Sicht kein Alleinstellungsmerkmal. Jede tagesaktuelle Redaktion arbeitet größtenteils mit Input, der von außen und von Dritten kommt.

Wir brauchen eine Ethik der Aufmerksamkeitsverteiler

Wer Software schafft, die für ein Publikum Informationen auswählt, macht Medien. Die Rolle ist eine gänzlich andere als beim Entwerfen eines Editors. Es ist wichtig, dass diese Menschen ein eigenes professionelles Selbstbild und Rollenverständnis entwickeln. Nur so kann diese Profession die ethischen Debatten führen, die nötig sind angesichts dieser Verantwortung. Was ist okay, was nicht? Im Journalismus und in der Sozialforschung oder Medizin helfen Professionsethiken, Kodizes und freiwillige Selbstkontrollorgane wie der Presserat.

Schöpfer von Publikumsverteilern im Netz sind in einer ähnlichen Rolle wie Journalisten: Sie haben meist nicht Philosophie studiert und wenig oder keine Erfahrung mit ethischen Theorien, aber ganz konkrete einzelfallbezogene Fragen.

Natürlich filtern Plattformen. Aber welches Filtern ist gut?

Bei einem Experiment Anfang 2012 beeinflussten Facebook-Mitarbeiter eine Woche lang die geäußerte Stimmung von 689.003 Nutzern. Einer Hälfte wurden überwiegend per Textanalyse als positiv, der anderen vor allem als negativ eingestufte Texte gezeigt. Die kleine, aber messbare Wirkung: Wer mehr Positives sieht, schreibt bei Facebook selbst messbar positiver, wer mehr Negatives sieht, negativer.

Über dieses Experiment diskutierten Mitte 2014 Medien nach Veröffentlichung der Studie. Dabei kam immer wieder ein Argument pro Facebook-Experiment auf: „Wer die ungeschminkte Realität sucht, sollte Facebook nicht als alleinigen Informationskanal nutzen. Verzerrungen sind hier im wahrsten Sinn des Wortes programmiert.“ Vermutlich wegen dieser Haltung blieb die Studie in Deutschland wochenlang unbeachtet, obwohl SPIEGEL ONLINE vier Wochen vor dem Diskussion schon groß darüber berichtet hatte.

Drei Zutaten für die Ethik der Softwaremedien

Eine solche Argumentation bringt niemanden weiter. Dass Angebote im Netz viele Experimente laufen lassen, sagt nichts darüber aus, wie diese Experimente zu bewerten sind. Die Argumentation „Das ist ein A/B-Test. Es gibt viele A/B-Tests.“ impliziert, besagt aber nicht, dass alle A/B-Test gleich sind. Die entscheidenden Fragen sind ethische: Ist dieser eine konkrete Test in dieser Form gut? Ist der Einsatz richtig?

Um diese Fragen zu beantworten, braucht es drei Dinge:

  1. Bewusstsein, dass Handlungsalternativen existieren. Natürlich kann ein A/B-Test anders aussehen, natürlich können Plattformen bestimmte Inhalte anders präsentieren. Menschen entscheiden, Menschen entwickeln Software, bisweilen entscheiden andere Menschen über die übergeordneten Ziele. Wenn Menschen entscheiden, gibt es immer Alternativen.
  2. Normen und Kriterien für das moralische Urteilen und Handeln in solchen Fällen. Also zum Beispiel eine Norm wie „Wahrung der Menschenwürde und die wahrhaftige Unterrichtung der Öffentlichkeit sind oberste Gebote“. Und als Kriterium bei der Beurteilung von Einzelfällen: „Bei Veröffentlichungen, die ein Eigeninteresse der veröffentlichenden Plattform betreffen, muss dieses erkennbar sein.“ So hätte man zwei Anhaltspunkte, um einen A/B-Test zu beurteilen, der über Veröffentlichungen bestimmt.

  3. Öffentliche Diskussion über die Anwendung von Normen in konkreten Fällen. Wenn nie klar benannt wird, ob und warum bestimmtes Verhalten von Publikumsverteilern im Netz gut oder schlecht ist, wird es wenig Problembewusstsein geben. Derzeit ist das alles aus meiner Sicht ausbaubar. Anders als bei Presse und Rundfunk fehlen in der Debatte über diese Auswahlverfahren klare Konzepte von Verantwortung und moralische Leitlinien. Wie kann man bewerten, ob die Auswahl eines digitalen Vermittlers sinnvoll, gut, richtig ist?

Ein Selbstkontrollorgan wie der Presserat wäre ein Anfang, oder?

Kopiert ein Mensch kreativer als Software?

5 min read

Tübinger Forscher haben hier einen interessanten Quiz ins Netz gestellt: Man sieht 10 Bilderpaare. Von jedem der Paare hat eines ein Mensch gemalt, das andere die Software der Tübinger errechnet. Menschen können bei diesem Quiz nicht besonders gut die Werke der Software von denen der Menschen unterscheiden. Die bislang knapp 44.000 Teilnehmer haben (Stand 22.2.2016) im Schnitt nur 6 von 10 Paaren richtig Mensch und Maschine zugeordnet.

unnamed-chunk-2-1
Ich habe den Quiz mit einem provozierenden Kommentar weiterempfohlen: „Was Software heute alles tut: Bilder malen.“ Daraus entspann sich eine interessante Diskussion darüber, ob Software wirklich malt und nicht doch etwas ganz anderes tut als Menschen, die Bilder machen.

Das Argument gegen die Formulierung „Software malt“ ist auf den ersten Blick einleuchtend: Ein Kopist ist kein Maler. Software ahmt nur nach, wendet die Techniken der analysierten Gemälde nach. Und in der Tat, so funktioniert die Software: Sie analysiert Kunstwerke. Sie nimmt dann ein Foto als Input entgegen und wendet die aus Kunstwerken gelernten Muster an.

Mein Argument ist: Meister nachahmen und deren Techniken anwenden - das beschreibt auch die Vorgehensweise vieler menschlicher Maler ziemlich gut. Oder sollte ich sagen: die Vorgehensweise bilderproduzierender Menschen? Malen kopierende Menschen etwa nicht?

Kopie als künstlerische Praxis

Ob Nachahmung Malerei ist, debattierte man lange, bevor Software Malstile erkannte und kopierte. In diesem Aufsatz über Kopie als künstlerische Praxis und ihre Bedeutung für die Erforschung der flämischen Buchmalerei aus dem 16. Jahrhundert sieht man das an einigen ganz konkreten Beispielen: Die Illustrationen französischer und flämischer Handschriften lassen sich kaum zweifelsfrei namentlich bekannten Künstlern zuordnen. Die Maler haben massig Motive kopiert und über die Verbreitung dieser Kopien kann man rückblickend die Werke einzelnen Werkstätten oder Malern zuordnen.

Höllenbruegel kopiert Papas Werke

Ein anderes Beispiel aus der niederländischen Renaissance: Pieter Bruegel dem Älteren werden nur gut 40 Gemälde eindeutig zugeschrieben. Es gibt viele andere, bei denen die Urheberschaft kaum zu klären ist. Einer seiner Söhne, Pieter Bruegel der Jüngere (aka „Höllenbruegel“), kopierte Werke des Vaters. Oder er ließ kopieren in seiner Werkstatt. Hat der andere Sohn Jan (aka „Samtbruegel“) aber auch gemacht.

Das Fazit dieser Beobachtungen hat schon der Kunsthistoriker Max Jakob Friedländer gezogen, 1946 in „Von Kunst und Kennerschaft“ (zitiert nach): Es gibt keine absolut originale Produktion, bilanziert er. Denn:

"Selbst der große und selbstständige Maler hat nicht nur die Natur, sondern auch Kunstwerke gesehen, Gemälde anderer Meister und seine eigenen. Er fußt auf einer Kunsttradition. In irgendeinem Grad ist jeder Maler Nachahmer und Kopist, so schon, indem er nach eigenen Naturstudien, Zeichnungen, Entwürfen ein Gemälde ausführt."

Wie würde Software in Rembrandts Werkstatt arbeiten?

Zurück zur Software. Wenn wir schon bei den unzweifelhaft großen Meistern anerkennen, dass Kopieren zu Ihrer Kunst gehört, kann das wohl kaum das einzige Kriterium sein, um das Schaffen einer Software von dem eines Menschen zu unterscheiden.
Die Rolle des künstlichen neuronalen Netzes der Tübinger Forscher kann man vielleicht mit einem Gedankenspiel präziser fassen. Stellen wir uns vor, die Software hätte für Rembrandt gearbeitet. Von den damals nicht vorhandenen Computern abgesehen, ist das gar nicht so abwegig. Rembrandt hatte Mitarbeiter, in seine Malerwerkstatt. Er malte nicht alles in allen ihm zugeschriebenen Gemälden selbst. Bekannt sind zum Beispiel die Hände des Pfarrers Johannes Wtenbogaert: Die hat ein Mitarbeiter gemalt. Der Mitarbeiter hat sie in Rembrandt Stil gemalt. Er hat unter Anleitung des Meisters zu dem Werk beigetragen - einen Künstler würden wir ihn vielleicht nicht nennen. Aber dass er malte, sehe ich als unstrittig an. Wenn ein künstliches neuronales Netz wie das der Tübinger diesen Job erledigen würden, würde sich an der Bewertung dieses Beitrags nichts ändern: Rembrandt ist der Maler, auch wenn die Hände eine Software aus seiner Werkstatt in kollaborative Fortentwicklung gemalt hat. Wenn wir eine Software haben, die wie der Höllenbruegel kopiert und die eigene Könnerschaft dadurch entwickelt, wird eine andere Stufe erreicht sein.

Mein Fazit daraus: Es bringt wenig Erkenntnisgewinn, Tätigkeiten und Werke danach zu kategorisieren, ob Software oder ein Mensch sie ausübt oder geschaffen hat. Man muss sich anschauen, was genau getan wird.

So formuliert klingt das banal. Versuchen wir es einmal anders: Der Chefredakteur des britischen Nachrichtenportals The Register Andrew Orlowski hat in einer lesenswerten Polemik diese These formuliert: „When the professional classes hollow themselves out, […], then they can’t really blame automation. They’ve automated themselves.“ Eines seiner Beispiele:

„Editors look at what hashtags are trending. They instruct that material is generated to feed that demand. The material is published in such a way to lure for Google News or Facebook algorithms. Behind the scenes, robots place the ads that accompany the material. More robots then click the ads ... around half of the ads served are never seen. It’s not really a »writer-reader« relationship any more. It’s a robot-robot relationship. At which point the utilitarian logic dictates that it makes sense to remove the middleman – the human.“

Artikelbild: "Brain surgery" (1893), keine bekannten Urheberrechtseinschränkungen