Lade Inhalt...

Ethik für ChatGPT

Was Künstliche Intelligenz kann und was sie sollte

von Lukas Ohly (Autor:in)
©2024 Monographie 400 Seiten

Zusammenfassung

Warum sollten Studierende sich noch prüfen lassen, wenn sie sich von einem Sprachmodell vertreten lassen können? Und warum sollten Professoren noch selbst prüfen oder Fachartikel schreiben, wenn ein KI-Textgenerator angeblich auch Wissen generieren kann?
In diesem Szenario werden Menschen ihre Kommunikation an Künstliche Intelligenz (KI) abtreten und sich selbst davon ausschließen. Aber damit passiert mit textlicher Kommunikation nicht mehr dasselbe, wie wenn Menschen kommunizieren würden. KI kann nicht lesen, verstehen oder kommunizieren; sogar der Sinn für „Schreiben" ändert sich beim Einsatz von Sprachmodellen. Die vorliegende Untersuchung bietet eine Bestandsaufnahme dafür, wie wenig kommunikatives Handeln mit dem übereinstimmt, was eine KI kann. Allerdings gefährden Menschen ihre kommunikative Kompetenz und moralische Urteilsbildung, wenn sie mit Maschinen um Texte konkurrieren – und auch um Gestalt und Stimme.

Inhaltsverzeichnis

  • Cover
  • Titel
  • Copyright
  • Autorenangaben
  • Über das Buch
  • Zitierfähigkeit des eBooks
  • Vorwort
  • Inhalt
  • Einleitung
  • Teil I: Textaktivitäten
  • 1 Lesen
  • 1.1 Kann KI lesen?
  • 1.2 Sollte KI lesen können?
  • 2 Schreiben
  • 2.1 Kann KI schreiben?
  • 2.2 Sollte KI schreiben können?
  • 3 Sprechen
  • 3.1 Kann KI sprechen?
  • 3.2 Sollte KI sprechen können?
  • 4 Verstehen
  • 4.1 Exkurs: Sind die Phänomene grundlegend oder die Sprache?
  • 4.2 Verstehen
  • 4.3 Kann KI verstehen?
  • 4.4 Sollte KI verstehen können?
  • 5 Kommunizieren
  • 5.1 Kann KI kommunizieren?
  • 5.2 Sollte KI kommunizieren können?
  • 6 Denken
  • 6.1 Kann KI denken?
  • 6.2 Sollte KI denken können?
  • 7 Geist
  • 7.1 Ist Geist bei der KI?
  • 7.2 Welcher Geist sollte bei der KI sein?
  • Teil II: Wahrheitsaktivitäten
  • 8 Verschleiern
  • 8.1 Kann KI verschleiern?
  • 8.2 Darf KI verschleiern können?
  • 9 Lügen
  • 9.1 Kann KI lügen?
  • 9.2 Sollte KI lügen können?
  • 10 Tatsächlichkeit
  • 10.1 Kann KI Tatsächlichkeit haben?
  • 10.2 Sollte KI ohne Tatsächlichkeit sein können?
  • 11 Geltung
  • 11.1 Kann mit KI Geltung entstehen?
  • 11.2 Sollte mit KI Geltung entstehen können?
  • Teil III: Tätigkeitsfelder
  • 12 Arbeiten
  • 12.1 Kann KI arbeiten?
  • 12.2 Sollte KI arbeiten können?
  • 13 Herstellen
  • 13.1 Kann KI herstellen oder Kunst betreiben?
  • 13.2 Sollte KI herstellen oder Kunst betreiben können?
  • 14 Entscheiden
  • 14.1 Kann KI entscheiden?
  • 14.2 Sollte KI entscheiden können?
  • 15 Wollen
  • 15.1 Kann KI wollen?
  • 15.2 Sollte KI wollen können?
  • 16 Handeln
  • 16.1 Kann KI handeln?
  • 16.2 Sollte KI handeln können?
  • 17 Urteilen
  • 17.1 Kann KI urteilen?
  • 17.2 Sollte KI urteilen können?
  • Teil IV: Anerkennen
  • 18 Anerkennungsperspektiven
  • 18.1 Kann KI anerkennen?
  • 18.2 Sollte KI anerkennen können?
  • 19 Liebe
  • 19.1 Kann KI lieben?
  • 19.2 Sollte KI lieben können?
  • 20 Solidarität
  • 20.1 Kann KI solidarisch sein?
  • 20.2 Sollte KI solidarisch sein können?
  • 21 Recht
  • 21.1 Kann KI Recht tun?
  • 21.2 Sollte KI Recht tun können?
  • 22 Anbeten
  • 22.1 Kann KI anbeten?
  • 22.2 Sollte KI anbeten können?
  • 23 Verletzen von Anerkennung
  • 23.1 Kann KI Anerkennung verletzen?
  • 23.2 Sollte KI Anerkennung verletzen können?
  • Teil V: Religionsaktivitäten
  • 24 Wunder
  • 24.1 Kann KI ein Wunder sein?
  • 24.2 Sollte KI ein Wunder sein können?
  • 25 Ritus
  • 25.1 Kann KI Ritus vollziehen?
  • 25.2 Sollte KI Ritus vollziehen können?
  • 26 Glaube
  • 26.1 Kann KI glauben?
  • 26.2 Sollte KI glauben können?
  • 27 Was kann sie und was sollte sie können?
  • Literaturverzeichnis
  • Reihenübersicht

Einleitung

Endlich können Sie Ihre Hausarbeit von einer Künstlichen Intelligenz schreiben lassen. Die kostenlosen Dienste von Google, Microsoft, OpenAI und anderen bieten Ihnen in Kürze ein passendes Ergebnis. Sie schreiben Ihnen die Seminararbeit oder helfen Ihnen, einen Text aus der Literatur so zu plagiieren, dass wir Hochschullehrer die Quelle nicht rückverfolgen können.

Die sogenannte „Generative AI“ ist inzwischen schon so leistungsfähig, dass sie darüber hinaus Bilder generieren kann, die Fotos oder sogar Filmen gleichen.2 In Hollywood sind deshalb nicht nur im Frühjahr 2023 die Drehbuchautorinnen in Streik getreten, um sich vor der künstlichen Konkurrenz zu retten,3 sondern auch Schauspielerinnen.4 Mit Filmsequenzen können die Bewegungsabläufe und die Mimik von Filmstars nachgebildet werden. Für die Nachbildung der Stimme bei der Internet-Plattform ElevenLabs ist nur eine Trainingszeit von einer Minute nötig, damit ein Programm so spricht wie Sie – mit derselben Stimmmelodie und demselben Charakter. Künftig werden wir neue Filme mit Schauspielern sehen, die zwar längst schon gealtert sind, aber trotzdem noch so jung und frisch auf der Leinwand agieren wie in ihren besten Jahren. An die Stelle echter Schauspieler treten künftig Statisten, die ihre biometrischen Merkmale einmal an die Filmindustrie schicken müssen, die dann aus diesem Bild- und Tonmaterial ganze Erzählungen produziert.

Zwischen Nachrichtenbildern und Fake wird man nicht mehr unterscheiden können. Wenn sich jemand über Sie geärgert hat, kann er Ihrer Freundin einen Film zuschicken, in dem Sie zu sehen sind, wie Sie mit ihrem Freund fremdgehen. Oder wenn Sie sich auf Ihr Examen vorbereiten, kann es sein, dass das Lehrbuch von einem „Large Language Model“ (LLM), das über BIG DATA verfügt und daraus neue Texte kombiniert, geschrieben worden ist. Würden Sie ihm trauen oder doch lieber ein Buch von mir lesen wollen? Oder denken Sie, dass ich meine Informationen ja auch nur von anderer Literatur gewonnen habe und es völlig offen ist, ob ich nicht selbst auf Künstliche Intelligenz zurückgegriffen habe? Oder vielleicht denken Sie, dass ich zwar durchaus selbst die Bücher gelesen habe, aus denen ich in meinem Lehrbuch zitiere, aber dass ich ja nicht immer auch selbst nachgeprüft habe, was ich gelesen habe. Worin besteht dann der prinzipielle Unterschied zwischen meinem Lehrbuch und dem, das eine Künstliche Intelligenz verfasst hat und ihre Quellen auch nicht selbst kontrolliert hat?

Oder wollen Sie vielleicht gar nicht mehr selbst zur Prüfung antreten? Etliche Universitätslehrer erwarten oder fordern jetzt, ausschließlich mündliche Prüfungen zuzulassen, weil hier die Täuschungsmöglichkeit am geringsten ist.5 Aber nun lassen wir zurzeit auch Prüfungen über Videokonferenz zu. Also könnten Sie doch Ihren künstlichen Avatar zum Meeting schicken, der so aussieht wie Sie, sich so bewegt wie Sie und Ihre Stimme hat, zudem alle Lehrbücher in seinem Datenpool aufrufen kann, die er aber mit einer Plagiats-Software umformuliert.

Nun könnte es ja sein, dass wir Hochschullehrer irgendwann auch KI-Tools zur Verfügung haben, die die Muster der Bild- und Textgenerierung rückverfolgen kann.6 Während ich Sie also in der Videokonferenz prüfe, scanne ich Sie und finde so heraus, dass sich ein künstlich generiertes Muster zeigt. Vielleicht blinzeln Sie immer identisch, während Sie normalerweise individuell verschieden blinzeln. Oder Ihr Wortschatz ist so umfangreich, wie man das zwar von einem KI-Textgenerator erwarten kann, nicht aber von einem Prüfling in den Mittzwanzigern. Was immer es auch ist, mein Betrugs-Scanner würde herausfinden, dass ich momentan gar nicht Sie prüfe, sondern ein virtuelles Double. Wie könnte ich nun mit dieser Information umgehen?

Kann ich Sie wegen Betrugsversuchs anzeigen? Dazu müsste mein Scanner allgemein-wissenschaftlich anerkannt sein. Es gibt aber keine wissenschaftlichen Überprüfungsmethoden dafür, dass mein Scanner recht hat, denn die Feinheiten sind nur biometrisch auslesbar, also nur von einer Künstlichen Intelligenz selbst. Menschen werden nicht erkennen können, dass der Blinzelschlag bei Ihnen immer identisch ist und nicht nur ähnlich aussieht. Und da wir erwarten können müssen, dass besonders begabte Studierende in den Mittzwanzigern einen überdurchschnittlichen Sprachwortschatz haben, kann der Scanner einem Menschen auch nicht vernünftig darlegen, dass der Sprachschatz des aktuellen Prüflings das typische Muster einer Künstlichen Intelligenz darstellt. Wir können uns also nur dann darauf einigen, dass mein Scanner Ihren Betrug entdeckt, wenn wir meiner Software glauben. Und das heißt nichts anderes als uns der Künstlichen Intelligenz zu überlassen. Wir müssen bereits analog zur Künstlichen Intelligenz denken, um ihrer Aufdeckung zu vertrauen. Aber warum sollten wir dieses Vertrauen dann nicht schon vorher haben? Warum sollte ich nicht das Vertrauen haben, dass die Künstliche Intelligenz, die Sie bei Ihrer Prüfung zum Einsatz kommen lassen, Ihre Identität ausmacht?

Nehmen wir an, Sie wollen unbedingt Lehrerin werden. Nun haben Sie leider Prüfungsangst und sind mit den universitären Prüfungsverfahren heillos überfordert, so dass Sie niemals Lehrerin werden können, weil Sie stets durchfallen werden. Wäre es nicht gerecht, dass Sie diese Benachteiligung mit einem Tool ausgleichen?7 Warum sollten nur die selbstsicheren Studierenden Lehrer werden können? Und könnte es nicht sogar sein, dass Sie dieselben Tools auch später im Unterricht verwenden? Vielleicht sind Sie auch im Unterricht immer wieder so aufgeregt, dass Sie einen Blackout haben. Oder Sie haben aufgrund anderer Benachteiligungen nicht genug Zeit, sich auf eine Unterrichtsstunde vorzubereiten. Wäre es dann nicht verantwortungsbewusst Ihren Schülerinnen und Schülern gegenüber, dass Sie dieselbe KI zum Einsatz bringen? Warum sollte man das einen Betrug nennen?

Weil sich sonst die Spirale der Verantwortungsabtretung an die KI immer weiter fortsetzt! Ihre Schülerinnen werden es genauso machen und ihre Avatare in den Unterricht schicken. In der Arbeitswelt werden Sie vom Home Office aus durch KI vertreten, und auch Ihre Mitarbeiter und Ihre Kunden werden größtenteils Künstliche Intelligenzen sein. Kunden werden nur noch dann Menschen sein, wenn ihre persönliche Integrität gefährdet ist, also vor allem in Notlagen (Gefahr, Krankheit, psychische Leiden). Das heißt aber nicht, dass Menschen dann auch von Menschen betreut werden müssen. Schon in den 1960er Jahren hat ein Computer die Psychologin ELIZA gespielt. Und schon heute können Bard, Bing.KI oder ChatGPT einfühlsame Trauerpredigten schreiben oder Chat-Seelsorge leisten.

Wenn wir also diese Spirale so weitertreiben und sich alle Menschen durch KI vertreten lassen, wird der Betrug kein Betrug mehr sein. Daran sehen wir, dass Betrug von sozialen Voraussetzungen abhängig ist und eine und dieselbe Handlung nicht in allen sozialen Umwelten einen Betrug darstellt. Was heute ein Betrug ist, kann morgen eine allgemein anerkannte Gewohnheit werden. Auch Plagiate waren nicht schon immer ein kriminelles Delikt. In Zeiten, in denen die Autoren eines Textes sowieso unbekannt waren (wie in fast allen Schriften der Bibel) und es auf die Originalität eines Textes weniger ankam als auf seinen sozialen Wert (Erinnerungswert, Bedeutung für einen Ritus), war Abschreiben eine vornehme Tugend.8 Menschen haben voneinander abgeschrieben, weil ihnen der Text wichtiger war als die Urheberin. Auch der Geltungsanspruch des Textes hing nicht davon ab, wer ihn geäußert hat, sondern dass er in einer bestimmten Gruppierung Anerkennung verdiente. Es hätte den Wert des Textes zerstört, wenn man seine Verbreitung einen Betrug genannt hätte.

Bekanntlich sind in der Antike Texte in Pseudonymen verfasst und verbreitet worden, mit Klarnamen einer anderen Person. Die sogenannten Deuteropaulinen des Neuen Testaments wären aus heutiger Sicht Fakes. Ich könnte Sie dafür verklagen, dass Sie mit meinem Klarnamen Ihre Meinung verbreiten. Aber obwohl wir wissen, dass der Kolosser-, Epheser- und der 2. Thessalonicherbrief nicht von Paulus stammen, der Verfasser sich aber für Paulus ausgibt, gehören diese Schriften auch heute noch zum biblischen Kanon. Ich lasse offen, ob die jeweiligen Verfasser ihre Adressaten betrügen wollten oder ob die Masche von den damaligen zeitgenössischen Lesern sofort durchschaut worden ist. Entscheidend ist, dass in verschiedenen gesellschaftlichen Situationen eine und dieselbe Handlung als Betrug und nicht als Betrug aufgefasst werden kann. Und wenn ein digitales Werkzeug wie ein KI-Textgenerator massenweise eingesetzt wird, verschieben sich die gesellschaftlichen Bedingungen, um den Einsatz dieser Tools überhaupt für verdächtig zu halten.

Unsere Frage müsste daher sein: Wollen wir in einer Gesellschaft leben, in der Texte in unserem Namen künstlich generiert werden? Was gewinnen und verlieren wir, wenn Künstliche Intelligenz überhaupt Texte schreibt und liest? Was würde es bedeuten, wenn KI „bessere“ Texte schreibt als Menschen, Texte besser versteht und die treffenderen Schlussfolgerungen daraus zieht? Welche soziale Rolle können und sollten Menschen dann noch einnehmen? Was gewinnen und verlieren wir, wenn Fotos, Audio-Aufnahmen und Filme „hyperreal“9 sind, wenn sie also keinen Bezug mehr zur Realität herstellen, sondern uns zu ihren Schauspielern einer anderen Welt machen? Wird dann nicht das Insistieren auf Wahrheit selbst zum Betrugsversuch?

Diese Fragen kann man aus zwei Perspektiven beantworten. Zum einen kann man Zukunftsszenarien entwerfen und sie dann danach beurteilen, wie wünschenswert sie wirklich sind. Zum anderen kann man aber auch fragen, worin sich menschliches Verfassen vom Textgenerieren der Maschinen unterscheidet. Das Wesen von Texten könnte sich verändern, wenn Maschinen „bessere“ Autoren werden. Und auch diese Betrachtung kann auf ihre normativen Implikationen überprüft werden. Diese zweite Perspektive werde ich einnehmen. Bevor ich also jeweils die ethische Beurteilung vornehme, untersuche ich, was die Textverarbeitung überhaupt bedeutet, wenn sie in künstliche „Hände“ übergeht. Dabei gehe ich entlang der einzelnen Umgangsformen mit Texten.

Ich gehe zunächst von sprachlichen Texten aus und erweitere mein Themenfeld sukzessive auf andere Formen der Bezeichnung und Codierung wie Bild, Stimme und Film. Dabei werde ich die Untersuchung auch auf den Aktivitätsradius erweitern und ihn stets mit menschlicher Aktivität vergleichen, einfach deshalb, weil die verhandelten Aktivitäten durch den Menschen bekannt sind.

Die ersten beiden Teile sind dem menschlichen Texthandeln am dichtesten verbunden. Teil I verhandelt, was Menschen tun, wenn sie mit Texten umgehen, und ob KI jemals in der Lage sein wird, dasselbe zu tun. Wenn sie es nicht kann, was verändert sich dann an der jeweiligen Tätigkeit, sobald eine KI dennoch mit Texten hantiert?

Teil II untersucht eine spezifische Dimension des textlichen Ausdrucks, nämlich seinen Wahrheitsbezug. Bestimmt man Wahrheit als die Übereinstimmung von Aussage und Sachverhalt,10 so ist sie auf Texte angewiesen. KI-Textgeneratoren aber verschleiern die Wahrheit, allein schon weil sie sich „Ich“ nennen, obwohl sie kein Ich sind, kein Bewusstsein haben und daher auch nicht sich selbst bewusst sein können. Sie produzieren vielmehr einfach nur sprachliche Silbenfolgen nach einem Algorithmus. Wenn KI-Textgeneratoren wie ChatGPT aber in unsere zwischenmenschliche Sprachkommunikation eingreifen, so muss gefragt werden, wie sich der Wahrheitsbezug verändert, wenn die Sprachmodelle eben auf Verschleierung basieren.

In Teil III gehe ich über Texttätigkeiten hinaus und binde sie in typisch menschliche Tätigkeitsfelder ein: Wenn Menschen mit Texten umgehen, arbeiten sie, denken, produzieren etwas, handeln oder urteilen. Ich nenne das Tätigkeitsfelder, weil damit Lebenshorizonte berührt sind: Texte sind eingebettet in menschliche Praxen, die das Leben bestimmen und nicht nur eine isolierte sprachliche Äußerung betreffen. Wie kann nun die KI in diese menschlichen Tätigkeitsfelder eingreifen? Kann sie sie adaptieren, oder adaptiert umgekehrt der Mensch typische Formen des maschinellen Prozessierens, sobald KI menschliche Tätigkeitsfelder besetzt? Dieser dritte Teil setzt sich mit der Theorie menschlicher Tätigkeiten von Hannah Arendt auseinander. Die 1975 gestorbene Arendt bietet sich deshalb an, weil sie die Entwicklung zur Automation menschlicher Lebenswelten schon geahnt hatte und aufzeigen konnte, was damit für den Menschen auf dem Spiel steht. Natürlich ist Arendts Theorie nicht alternativlos. Aber ihre Charakterisierung menschlicher Tätigkeiten deckt Auswirkungen der Automation auf menschliche Grundtätigkeiten auf, an der sich jede andere Theorie messen lassen muss.

Teil IV fokussiert sich auf die soziale Tiefendimension menschlicher Tätigkeiten, nämlich auf Anerkennung: Indem Menschen etwas tun, erkennen sie bestimmte andere Menschen an oder entziehen ihnen die Anerkennung. Die jeweiligen Tätigkeiten sind – ob bewusst oder unbewusst – Ausdrucksmittel sozialer Anerkennung. Axel Honneth hat eine Theorie entwickelt, in der er die Bedeutung sozialer Anerkennung für die menschliche Selbstidentität hervorgehoben hat, und zugleich verschiedene Anerkennungsformen voneinander unterschieden, denen er komplementär verschiedene Anerkennungsverletzungen zuordnet. Sein Ansatz bildet den theoretischen Hintergrund dieses vierten Teils. Dabei werde ich die These vertreten, dass eine KI grundsätzlich nicht fähig ist, Menschen anzuerkennen, dass sie aber fähig ist, die menschliche Anerkennung zu behindern oder zu verletzen. Natürlich kann eine KI wie jedes Werkzeug dazu verwendet werden, konstruktiv und destruktiv auf soziale Anerkennung einzuwirken: Einen Schraubenzieher kann ich einer Nachbarin verleihen und damit ihren Status als Nachbarin unterstreichen. Ich kann aber auch einen Einbrecher mit dem Schraubenzieher verletzen (nachdem die Nachbarin ihn mir zurückgebracht hat) und damit seine körperliche Unversehrtheit missachten, wenn auch nur situativ. Ebenso kann auch eine KI als Werkzeug für Anerkennung und Entzug von Anerkennung verwendet werden. Im vierten Teil frage ich aber danach, ob eine KI selbst fähig ist, Menschen anzuerkennen. Wenn sie das nicht kann, wofür ich argumentieren werde, so kann sie dennoch von sich aus Anerkennungsprozesse behindern.

Der abschließende Teil V geht auf eine spezifische Tiefendimension menschlicher Tätigkeit ein, nämlich auf religiöse Praxis. Der Grund, warum ich mit diesem Teil abschließe, hängt an den phänomenologischen Bedingungen aller Kapitel. Menschen lesen, verstehen, lügen, lieben, weil ihnen dabei etwas widerfährt, das bei ihnen bleibt und damit eine latente Anwesenheit besitzt. Diese These werde ich hier noch nicht begründen, sondern in den einzelnen Kapiteln verhandeln. Hier will ich aber darauf eingehen, dass sich religiöse Praxis auf den Widerfahrenscharakter (1) von etwas (2) bezieht, der latent bei ihnen bleibt (3) und unvermittelt wieder auftreten kann. Religiöse Menschen sprechen dann von Offenbarungen (1), die sie in Ritualen (etwas, Gegenständliches, 2) bearbeiten oder bewältigen, weil der Offenbarungscharakter im Raum (Anwesenheit, 3) bleibt. Insofern bilden die religiösen Phänomene, die ich im fünften Teil untersuche, die hermeneutische Grundlage für die übrigen Kapitel. KI ist im Grundsatz nicht fähig, diese religiösen Phänomene zu erfassen und darauf mit einer religiösen Praxis zu antworten. Da diese Phänomene aber die Grundlage für die anderen Tätigkeiten bilden, die ich hier verhandle, erklärt sich rückwirkend, warum KI am Vollzug dieser Tätigkeiten scheitert.

Keiner der fünf Teile verlangt aber von den Leserinnen eine religiöse Prägung. Selbst der abschließende fünfte Teil beschreibt die religiösen Phänomene aus einer distanzierten Perspektive des analytischen Beobachters. Der Teil legt dabei nicht fest, dass man diese Phänomene nur akzeptieren kann, wenn man selbst religiös ist. In den ersten vier Teilen spielt der religiöse Bezug nicht einmal eine explizite Rolle. Man kann den Widerfahrenscharakter und seine bleibende Latenz auch nicht-religiös beschreiben, was ich weitgehend unternommen habe. Das ändert aber nichts daran, dass sich Menschen in ihrer religiösen Praxis und Deutung auf diese Phänomene mit ihrer Spezifik beziehen.

Mit zwei Anmerkungen möchte ich diese Einleitung beschließen, die sich beide auf die Voraussetzungen meines Ansatzes beziehen. Ich habe bereits auf diesen ersten Seiten einige Begriffe wie selbstverständlich verwendet, die in den Problemhorizont gehören, den ich überhaupt erst noch diskutieren werde. Wenn ich beispielsweise behaupte, dass eine KI „plagiieren“ kann, setze ich ein bestimmtes Verständnis von Originalität und Kopie voraus, das sich erst noch herauskristallisieren wird.11 Tatsächlich scheint mir, dass Voreinstellungen und Vorverständnisse über die Fähigkeiten von generativer KI unumgänglich sind, da sie überhaupt erst die Ahnung hervorbringen, dass sich durch KI-generierte Texte etwas Grundsätzliches an den Tätigkeiten verändern, die bisher nur Menschen vorbehalten waren. Die vorliegende Untersuchung soll solche Vorverständnisse auf Signifikanz und Wahrheitsgehalt überprüfen, so dass sie entweder rückwirkend bestätigt oder revidiert werden. Dabei vollziehe ich kreisende Denkbewegungen, indem ich frage, was KI kann und sollte, aufbauend von den Verständnissen bestimmter Tätigkeiten, ob sie eine KI kann und sollte. Die Leserinnen und Leser sind aufgefordert zu überprüfen, ob sich die jeweils vorausgesetzten Beschreibungen im Durchgang bewähren.

Zweitens deute ich Spezialdiskurse an, die teilweise nur an den Verweisen in den Anmerkungen transparent werden. Weitgehend beschränke ich meine Ausführungen auf Hauptdiskurse, die sich auf den Umgang mit ChatGPT, auf Diskurs-, Anerkennungs- oder Tätigkeitstheorien, sprachphilosophische Hauptlinien, phänomenologische oder ethische Ansätze erstrecken. Von den Erträgen einiger Nebendiskurse mache ich Gebrauch, ohne in sie näher einzutauchen – vor allem aus Gründen der leichteren Lesbarkeit, aber auch, weil mir eine ausführlichere Behandlung für mein Argumentationsziel nicht notwendig erscheint. Wer in diesen Diskursen kundig ist, mag hin und wieder enttäuscht werden. Ich behaupte aber, dass für den Ertrag nichts fehlt, was nicht auch durch eine ausführlichere Behandlung der Nebendiskurse bestätigt worden wäre. Die jeweils knappen Verweise darauf sollen das immerhin andeuten.


2 R. Kunz: Transformer, 449.

3 A.D. Peiter: KI-Texte = Intertexte?, 288.

4 Die menschenleere Traumfabrik; DIE ZEIT 54/2023, 52.

5 D. Weßels: Meilenstein der KI-Entwicklung?, 319.

6 Die bisherigen Tools zeigen allerdings schwache Ergebnisse (Chr. Albrecht: ChatGPT und andere Computermodelle zur Sprachverarbeitung, 77).

7 G. Reinmann/A. Watanabe: KI in der universitären Lehre, 39.

8 J.C. Gertz: Grundinformation Altes Testament, 40.

9 J. Baudrillard: Simulacra and Simulation, 1f.

10 E. Tugendhat/U. Wolf: Logisch-semantische Propädeutik, 226.

11 Vor allem in Kapitel 8.

Details

Seiten
400
Erscheinungsjahr
2024
ISBN (PDF)
9783631920459
ISBN (ePUB)
9783631920466
ISBN (Hardcover)
9783631920442
DOI
10.3726/b22061
Sprache
Deutsch
Erscheinungsdatum
2024 (August)
Schlagworte
KI-Textgeneratoren Sprachmodelle LLM Künstliche Intelligenz Ethik
Erschienen
Berlin, Bruxelles, Chennai, Lausanne, New York, Oxford, 2024., 400 S.

Biographische Angaben

Lukas Ohly (Autor:in)

Lukas Ohly ist Professor für Systematische Theologie und Religionsphilosophie an der Goethe-Universität Frankfurt. Einer seiner Forschungsschwerpunkte liegt in der Ethik der Digitalisierung, Künstlichen Intelligenz und Robotik. Er ist geschäftsführender Herausgeber der „Theologisch-Philosophischen Beiträge zu Gegenwartsfragen“.

Zurück

Titel: Ethik für ChatGPT