Weiter zum Inhalt Skip to table of contents

republica 2023 Was wir über KI und Menschenrechte wissen sollten

Von|
Blick auf die re:publica-Haupthalle 2023 in Berlin-Treptow. (Quelle: re:publica)

Künstliche Intelligenz (KI), die den Menschen Arbeit abnimmt, dabei sogar autonom weiterlernt und sich von selbst verbessert, war lange Zeit ein Versprechen für die Zukunft. Mit generativer KI wie ChatGPT, Dall-E oder Midjourney wissen wir: Diese Zukunft beginnt jetzt. Aber was heißt das für die Gesellschaft? Dürfen wir uns alle nur noch mit spannender Arbeit in einer Vier-Tage-Woche beschäftigen, weil die stupiden und zeitaufwändigen Aufgaben die KI übernimmt? Oder sind wir dabei, uns als Menschheit selbst abzuschaffen? Was bedeutet es für Bildung und Lehre, wenn jetzt KI meine Hausaufgaben schreiben kann? Oder journalistische Texte wie diesen (der aber noch von Hand entsteht).

Viele Fragen also und deshalb kein Wunder, dass verschiedenste Aspekte von künstlicher Intelligenz (KI) auf der re:publica in Berlin Thema waren. Die re:publica ist Deutschlands netzpolitische Konferenz, die 2023 vom 5. bis zum 7. Juni standfand. Dabei hielten 1177 Speaker*innen insgesamt 608 Sessions, die an den drei Tagen von 25.000 Menschen besucht wurden.

Aus diesem Informationsüberfluss muss jede*r Besucher*in eine Auswahl treffen. Ich habe mich für den Aspekt KI und Gesellschaft entschieden. Was habe ich gelernt?

„Generative KI – schöne neue Welt?“

Einen guten Überblick zu den Pros und Contras von Künstlicher Intelligenz gibt Björn Ommer, Head der Computer Vision and Learning Group der Ludwig Maximilian Universität in München, in seiner Keynote „Generative KI – schöne neue Welt?“. Er berichtet, wie sich die künstliche Intelligenz seit den 1940er Jahren entwickelt hat, seit den ersten Versuchen, die Maschine den Menschen verstehen zu lassen. Über regelbasierte Systeme (wenn x passiert, passiert hinterher y) zu Aufgaben-spezifischem Lernen (Was ist ein Hund? Woran erkennst du ihn?) bis hin zu den heutigen, generativen KIs, die keine genaue Aufgabe mehr bekommen, sondern anhand von Daten einfach lernen sollen, was existiert und in welchem Zusammenhang es steht. Das sei, so Ommer, ein Versuch, das menschliche Gehirn nachzubilden und führe zu mehr Einsatzmöglichkeiten – der gleiche KI-Datensatz kann etwa mit entsprechenden Befehlen (Prompts) Bilder oder Musik erzeugen.

Demokratisierung von KI?

Während zu Beginn dieser Technologie große Rechenzentren nötig waren und nur große Firmen Zugang hatten, steht generative KI heute jedem*r Laptop- oder Handynutzer*in zur Verfügung – dank Chat GPT, Dall-E und Co. Das Versprechen der 1980er – irgendwann wird KI zu etwas nützlich sein – ist eingelöst. Positiv gesagt findet so eine Demokratisierung von KI statt. Deshalb stellt die LMU ihre Technologie auch als als Open Source technology online – jede*r kann darauf zugreifen, jede*r darf daran weiterarbeiten. Ommer berichtet begeistert, dass damit jede*r selbst qua Nutzung ein Gefühl dafür bekomme, was das bedeute, wenn ein Bild oder ein Film realistisch aussieht, aber nicht mehr unbedingt die Wirklichkeit abbildet. Die Kehrseite ist dabei die Erstellung von Falsch- und Desinformationen, die kaum mehr erkannt werden können, desto besser die Systeme werden.

Transformation der Wissensgesellschaft

Ommer begeistert sich eher für die Potenziale der „Transformation der Wissensgesellschaft“: KI werde helfen, Informationen effizienter zu erschließen, damit wir nicht im Strom der Informationen ertrinken. Damit werde der „Personal Computer“ endlich persönlich, denn er sehe in Zukunft bei jedem Menschen anders aus, zeige die Informationen, die die Person brauche. Bildung könne so persönlicher werden, an die lernende Person angepasst, empowerndes Wissen könne vermittelt werden. Selbst bei der Programmierung neuer Programme könne die KI unterstützen, so dass in Zukunft jeder programmieren könne.

KI als Waffe? Möglich

Was bei Ommer eine positive Vision ist, geht dabei aber von rationalen Menschen aus, die an einer positiven Weiterentwicklung der Gesellschaft interessiert sind. Wenn aber hinter dem Bildschirm Menschen säßen, die KI zur Waffe gegen Menschen trainieren wollten – dann ist sie als Waffe gegen Menschen einsetzbar. Wenn Menschen KI einsetzen wollen, um Desinformationen zu verbreiten, läßt sich damit in Windeseile große Mengen an Content erstellen, der die Demokratie in Frage stellt und nicht zu erkennen ist.

Andere Fragen sind noch unklar. Wie viele Arbeitsplätze kostet KI? Werden wir als Gesellschaften blöder, wenn die KI alle oder zumindest viele Denkaufgaben erledigt?

KI wird böse? Nicht möglich ohne Menschen

Eher unwahrscheinlich sind dagegen Zukunftsvisionen, in den KI sich verselbstständigt, ein eigenes Bewusstsein oder gar niedere Motive entwickelt, auf den Menschen herabschaut und ihn dann gar ausrottet oder aufgibt. Wenn die KI „böse“ wird, liegt es daran, dass der Mensch, der sie trainiert, böse ist – es ist keine Naturgewalt im Spiel. Aber: Wir sind in einer Situation, die noch nie da war. Prognosen sind schwer.

Ungleichheiten durch KI

Real ist dagegen, dass KI eine neue Ungleichheit in die Welt bringt – zwischen Firmen und/oder Staaten, die mächtige KI haben, und solchen, die sie nicht haben. Damit unabhängige Entwicklung und Forschung möglich ist, brauchen aber alle KI. Wie wird sichergestellt, dass keine Länder das Nachsehen haben? Muss es dann KI-Spenden geben?

Wie stellen wir sicher, dass sich KI so weiterentwickelt, dass sie unseren eigenen Wertvorstellungen entspricht – und welche Wertvorstellungen sind das? Wer bestimmt, was eine valide Meinung ist – oder eine falsche? Hier kann Technologien Polarisierungen verstärken, die in der offline Welt bereits da sind.

Reicht eine „neue Sachlichkeit“?

Als Lösung plädiert Björn Ommer für eine „neue Sachlichkeit“. Im Moment werde der Diskurs von Ängsten und Hoffnungen bestimmt – aber es gibt auch Fakten. Es gibt Regulierung, die sich zwar fortwährend weiterentwickeln muss, aber dies auch kann. Allerdings wird sie kaum weltweit greifen. Transparenz über Algorithmen hilft, zumindest zu verstehen, wie die Mechanismen geschaffen sind, die unsere Welt gestalten. Risiken müssen analysiert – und vermieden – werden.

Im Beruf könne KI helfen, aber kaum vermieden werden – hier würde es helfen, Fähigkeiten zu vermitteln. Doch ein Schulfach „Programmieren“ gibt es in Deutschland nicht.  Aber wir brauchen Spezialist*innen, die nachrechnen können, was die KI da macht.

Und dann die Meinungsmache: Der müsse jeder selbst entgegentreten – durch die Überprüfung von Wahrheit durch Freund*innen und verlässliche Quellen, aber auch durch Kodizes wie den Pressekodex, der verhindern soll, dass Beliebiges als „Journalismus“ gilt. Schließlich solle die Technik der Gesellschaft dienen. Ob das ausreicht?

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Mit KI beuten Menschen Menschen aus – wenn wir nicht aufpassen

Bei der Keynote „AI, Privacy, and the Surveillance Business Model“ (dt. KI, Datenschutz und das Geschäftsmodell der Überwachung) von Meredith Whittaker, langjährige Forscherin und Entwicklerin bei Google und heute Chefin von Signal, ging es gleich um Menschenrechtsaspekte, die ich noch gar nicht bedacht hatte: In der Erzählung „KI hilft den Menschen bei der Arbeit“ geht der Aspekt unter, dass KI erst mal sehr viel Arbeit macht, bevor sie nutzbar ist. Künstliche Intelligenz ist nämlich gar nicht intelligent, sondern muss von Menschen mit Daten gefüttert werden, damit sie daraus Dinge errechnen kann. Dafür müssen z.B. Bilder kategorisiert werden – durch Menschen.

Weil das aufwändig und teuer ist, werden dafür schlecht bezahlte und unbetreute Clickworker engagiert. Die kommen vor allem aus Afrika und bekommen etwa zwei Euro die Stunde dafür, sich auch problematische, toxische Inhalte, die Traumata auslösen, stundenlang anzusehen und zu labeln – natürlich ohne psychologische Betreuung, was zu massiven Gefährdungen der mentalen Gesundheit der unterbezahlten Menschen führte. Eine KI, die sich auf die Fahnen schreiben möcthte, human, bedeutungsvoll und gesellschaftlich hilfreich zu sein, sollte damit beginnen, auch die Arbeiter*innen anständig zu bezahlen, die sie aufbauen. Sonst landen wir wieder in den Fabriken des 19. Jahrhunderts.

Chips und Eugenik

Meredith Whittaker wies aber auch daraufhin, dass Visionen von Chips und Technologie, die Einschränkungen von Menschen heilen oder ausgleichen sollen, wie etwa Elon Musk sie anstrebt, im Endeffekt eugenisches Gedankengut sind. Wer mit Technologie dafür sorgen möchte, dass es keine blinden oder depressiven oder tauben Menschen mehr gibt, beschreibt damit ein „Ideal“, dass auf der anderen Seite alle, die glücklich mit physischen oder psychischen Einschränkungen leben, als minderwertig abwertet.

Massenüberwachung monetarisiert

Ihr dritter Kritikpunkt: Heute liegen die Mittel der digitalen Massenüberwachung, wie sie Algorithmen darstellen, die Nutzerinteressen ausforschen und dann versuchen, sie zu beeinflussen, in den Händen von Privatunternehmen. Das führt zumindest zu einem neoliberalen, konsumorientierten Umgang mit Technologie – sie wird monetarisiert. Um das meiste Geld verdienen zu können, werden auch Weiterentwicklungen zugelassen, die von antidemokratischen Kräften sehr leicht gegen die Rechte von Menschen eingesetzt werden können – und gegen freie Meinungsbildung und mentale Gesundheit -, wenn ethische und menschenrechtliche Standards fehlen. Das ist gefährlich für die freie Meinungsbildung, die Privatheit und Autonomie für Selbstbestimmung und freien Ausdruck brauchen.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Aber wie sollen menschenrechtliche und ethische Standards für KI aussehen?

Das ZDF hat sich zumindest schon mal darüber Gedanken gemacht, wie eine verantwortungsvolle KI mit öffentlich-rechtlichen Algorithmen aussehen könnte. Andreas Grün, Head of Technology Digital Media, berichtet über die Gestaltung der algorithmischen Empfehlungssysteme in der ZDF-Mediathek. So werden hier etwa 20 Prozent der angezeigten Inhalte algorithmisch automatisiert empfohlen – also nach den Vorlieben der Person berechnet.

Der Rest aber ist kuratiert, um den öffentlich-rechtlichen Auftrag zu erfüllen, zur demokratischen Willensbildung beizutragen. Es geht um „Coverage, Novelty, Diversity, Serendipity“: Also um die Abdeckung der wichtigsten Newsfelder, aber auch die Möglichkeit, Nischen zu entdecken. Es geht um eine Vielfalt der Auswahl und um die Förderung der Fähigkeit, sich für Neues zu begeistern. Schwieriger ist der Faktor „Popularity“, also: Was ist beliebt. Für die Mediathek wird er einberechnet, um beliebte Sendungen zu empfehlen – für den News-Bereich würde der Faktor nicht verwendet.  Fürs ZDF gehört zur öffentlich-rechtlichen KI auch, die Algorithmen offenzulegen, unter algorithmen.zdf.de

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Verantwortungsbewusst, klar, gesellschaftlich nützlich

Mit dem größeren Rahmen beschäftigt sind Jen Gennai, Director of Responsible Innovation bei Google – und berichtete darüber in dem Panel „Developing generative AI boldly yet responsibly. A candid conversation on the future of tech“ (dt. Generative KI mutig und verantwortungsbewusst entwickeln. Ein offenes Gespräch über die Zukunft der Technik).  Sie sorgt mit ihrem Team dafür, dass alle Google-Produkte ethischen Prinzipien entsprechen, dass die Technik verantwortungsbewusst sei, ethisch, klar und offen, gesellschaftlich nützlich, rechenschaftspflichtig, erklärbar, allgemeingültig und robust (en. responsibly, ethically, fairly, societal beneficial, accountable, explainable, valid and robust). Das klingt gut, ist aber noch erklärungsbedürftig.

Es gehe darum, Standards zu entwickeln, sagt Gennai, die nach Möglichkeit weltweit als KI-Standards angewandt werden könnten. So sollen KI und Technologie sich so weiterentwickeln, dass sie keine Schäden verursachen, nicht als Waffen oder Massenüberwachung eingesetzt werden können und in Übereinstimmung mit den internationalen Menschenrechten seien. Um diese Ziele umzusetzen, brauche es multidisziplinäre Teams, die dafür sorgen, dass die KI auch entsprechend programmiert, gefiltert, verändert werde, um diesen Zielen zu entsprechen. „Da muss ich schon erklären, warum es ein Produkt besser macht, wenn ich Verantwortung übernehme und etwa schädliche Anwendungen mitdenke“, sagt Jen Gennai, „dann engagieren sich die Programmierer gern.“ Dies geschehe durch Checklisten und Workbooks, Workshops und Fragerunden.

Gegen die Vorurteile in den Datensätzen

Aber wer definiert, was gesellschaftlich nützlich ist, fragt Moderatorin und Informatik-Professorin Katharina Zweig von der Universität Kaiserslautern. Jen Gennai berichtet, man sehe sich Nutzerkommentare und Feedbacks an, befrage Expert*innen, entwickle selbst. So soll Googles KI etwa keine Inhalte erzeugen, die die Gesundheit von Menschen beeinträchtigen. Sie soll Vorurteilen entgegensteuern, die in Trainingsdatensätzen vorhanden sind, mit denen „Large Language Models“ wie KI-Chatsysteme trainiert werden. Hier möchte Google auch transparent sein und veröffentlicht „Modellcards“ und „Datacards“ zu den KIs, die beantworten sollen, welche Daten verwendet werden und wie das Modell trainiert wurde. Zu finden sind diese allerdings noch nicht – auch der Google-Chatbot Bard ist noch nicht in Deutschland verfügbar. Bard darf – im Gegensatz zu Chat GPT – nicht mit „Ich“ auf Fragen antworten, um die Technologie nicht zu vermenschlichen, zu anthropomorphisieren. Denn es sind immer noch die Menschen, die der Technik sagen, was sie tun soll. Keine KI nimmt uns die Verantwortung ab für die Technik, die wir erschaffen.

(Talk noch nicht online).

Mehr im Internet:

Alle re:publica-Talks 2023: https://www.youtube.com/@republica

Besondere Empfehlung (unsere Kolleginnen der Amadeu Antonio Stiftung): „Algospeak und Umwegskommunikation – Error by Design

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Weiterlesen

Eine Plattform der