Direkt zum Inhalt

Wir blicken zurück auf die wohl ereignisreichsten und richtungsweisendsten Tage in der jüngeren Geschichte der KI-Brache: Am 17.11.2023 hatte der Verwaltungsrat (Board of Directors) des hinter ChatGPT stehenden Unternehmens OpenAI überraschend die Entlassung des bisherigen CEO Sam Altmann bekanntgegebenNach fünf Tagen, einigen Wendungen und letztlich der Neubesetzung des Verwaltungsrats verkündete Altmann seine Rückkehr als CEO von OpenAI. Zugegebenermaßen bringt der Konflikt in Gestalt seiner Personaldebatte um einige der Stars der KI-Branche bereits seine eigene Spannung und Dynamik mit sich. Die wirklich interessanten Fragen und Probleme verbergen sich jedoch in dahinterstehenden Grundsatzfragen und Richtungsentscheidungen, die eine derartig plötzliche und heftige Eskalation im Hause OpenAI überhaupt erst ermöglichten. Im Kern geht es hierbei um folgendes Spannungsfeld: Innovationsführerschaft und wirtschaftliche Macht auf der einen Seite sowie Verantwortung für die gesellschaftlichen Implikationen der Technologie und den Schutz von Grundrechten, Demokratie, Rechtsstaatlichkeit und Umwelt auf der anderen Seite.

 

Im Falle von OpenAI ist dieses Spannungsfeld gewissermaßen in die Unternehmensstruktur eingeschrieben: Die Organisation wurde 2015 als nicht gewinnorientierte Public Carity gegründet, die die KI-Entwicklung mit einer generellen KI auf die nächste Stufe bringen soll – frei von finanziellen Verpflichtungen, sondern allein zum Wohle der Menschheit. Da sich die führenden Köpfe der KI-Branche meist jedoch nur schwer ohne Anteilsrechte am Unternehmen gewinnen lassen, gliederte OpenAI 2019 die gewinnorientierte Tochtergesellschaft OpenAI Global LLC aus. Dennoch ist es die vorrangige Aufgabe des Verwaltungsrats als Kontrollorgan, die ursprüngliche gemeinwohlorientierte Motivation lebendig zu halten. 

 

Diese Doppelnatur führte nicht zuletzt dazu, dass Fragen der Innovation und Verantwortung regelmäßig in Konflikt geraten. Aufmerksamkeit erreichte die Debatte insbesondere im Frühjahr im Zusammenhang mit dem vieldiskutierten offenen Brief der gemeinnützigen Organisation „Future for Life“, in welchem eine mindestens sechsmonatige Entwicklungspause für leistungsstarke KI-Modelle gefordert wurde. Hintergrund dieses Briefes war die Veröffentlichung der von OpenAI entwickelten Generativen KI „ChatGPT“ sowie daraus erwachsende Fragen nach der Entwicklungsgeschwindigkeit und Governance von KI. 

 

Anknüpfend an die an die lebhaften Diskussionen rund um Generative KI in Wissenschaft und Gesellschaft beleuchtet unsere Blogparade in drei Blogposts verschiedene Aspekte der Verantwortung in der KI-Entwicklung aus einem interdisziplinären Blickwinkel. Die Beiträge wurden von drei Forscher:innen der Projekte ESTERRechTech und futurehomestories aus dem Cluster Integrierte Forschung verfasst und schließen an die kontroversen Diskussionen rund um das KI-Moratorium an, das die Autor:innen – weit über die populäre Forderung nach einer Entwicklungspause für KI hinaus – als Anknüpfungspunkt für einen konstruktiven und interdisziplinären Diskurs im Spannungsfeld zwischen Innovation und Verantwortung verstehen. 

 

Jacqueline Bellon befasst sich in ihrem Blogpost „Bitte nicht missverstehen: Generative Sprachmodelle“ (englische Version „Please, don’t let them be misunderstood: Generative Language Models) mit der technischen Funktionsweise und dem Informations- und Wahrheitsgehalt KI-generierter Texte. Diese basieren nämlich gerade nicht auf einem semantischen Verständnis, sondern sind allein Ergebnis einer mathematischen Wahrscheinlichkeitsberechnung. Ein verantwortungsvoller Umgang mit Generativer KI setze daher die Vermittlung von Wissens und eines kritischen Urteilsvermögens an die Nutzenden voraus, was die Systeme leisten können und wo ihre Grenzen liegen. 

 

Prof. Dr. Christian Djeffal adressiert in seinem Blogpost „The EU AI Act at a crossroads: Generative AI as a challenge for regulation“ die Frage der Offenheit von Generativer KI, welche insbesondere auch eine Herausforderungen für die rechtliche Regulierung der Technologie darstellt. Als Querschnittstechnologie sind die Chancen und Risiken nämlich nicht der Technologie selbst inhärent, sondern ergeben sich aus der konkreten Anwendung und deren Gestaltung. Da die vorliegenden Entwürfe des AI Acts diesen Punkt noch nicht ausreichend adressieren, plädiert er für klarer definierte und partizipative Risikomanagementprozesse sowie Verpflichtungen und Infrastrukturen zum Teilen von Wissen.

 

Prof. Dr. Arne Berger macht in seinem Blogpost und Workshop „Ghost Work: Behind the Scenes of Automation“ auf ein oft übersehendes Problem von KI aufmerksam: Hinter vielen KI-Anwendungen menschliche Inhaltsmoderator:innen, die häufig unter prekären Arbeitsbedingen im globalen Süden Daten annotieren oder Inhalte überprüfen, nicht selten mit ernsthaften Konsequenzen für ihre mentale Gesundheit. Um neue Utopien in Zusammenhang mit KI zu entwickeln sei es daher wichtig, gegenwärtige Auswirkungen von KI zu verstehen. 

 

Konzepte wie Responsible Research and Innovation (RRI) und Integrierte Forschung verstehen Fragen der Verantwortung und die kritische Befassung mit gesellschaftlichen Implikationen nicht als Hindernis oder Argument gegen die Entwicklung und Anwendung neuer Technologien, sondern vielmehr als Herausforderung und Zielvorstellung für eine gelungene Technikgestaltung. Hierfür stellen sie Methoden, Räume und Plattformen bereit, die verschiedene betroffene Akteure von Beginn der Technikentwicklung an zusammenbringen und eine transdisziplinäre Auseinandersetzung mit den Technologien und ihren Auswirkungen forcieren. Es geht auch darum, das Wissen und die Ergebnisse in einem interdisziplinären Prozess soweit zusammenzubringen, wie das möglich ist. 

 

Anknüpfend an diesen Forschungsmodus stellen die Blogbeiträge Kernaspekte für eine eingehende Befassung mit Fragen der Verantwortung im Technikentwicklungsprozess heraus. Ein verantwortungsvoller und gemeinwohlfördernder Umgang mit neuen Technologien erfordert, dass ethische und verfassungsrechtliche Werte wie Grund- und Menschenrechte, Demokratie, Rechtsstaatlichkeit und Nachhaltigkeit im Zentrum der KI-Entwicklung stehen. Ein fruchtbarer Diskurs setzt dabei ein vertieftes und interdisziplinäres Verständnis der Chancen und Risiken der Technologien voraus. Über Fragen der technischen Funktionen und Grenzen hinaus ist hierbei insbesondere eine Befassung mit den soziotechnischen Auswirkungen der Technologie auf Gesellschaft und Umwelt jenseits der sichtbaren Nutzung unerlässlich. Dabei werden auch unterschiedliche Perspektiven einbezogen.

 

RRI und Integrierte Forschung bieten somit konkrete Antworten und Wege, wie Technik entwickelt aber auch informiert kritisiert werden kann. 

Autorin: Verena Müller