Künstliche Intelligenz

Version vom 17. August 2023, 03:58 Uhr von Alshaw (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „__NOTOC__ <div class="article__toc"> <ol class="article__toc-list"> <li>I. Philosophisch</li> </ol> </div> <div id="articlesection1…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

  1. I. Philosophisch

I. Philosophisch

Abschnitt drucken

Wie kaum ein anderes Thema rückt angesichts der immer weiter voranschreitenden Digitalisierung das Phänomen der künstlichen Intelligenz (KI), speziell der künstlichen neuronalen Netze (KNN) und des maschinellen Lernens (ML), ins Zentrum des philosophischen Interesses. Dieses Interesse betrifft konkret das begriffliche Verhältnis von Künstlichkeit und Intelligenz sowie die ethische Frage nach lebensweltlich gelingenden Formen von Mensch-Maschine-Interaktion. Damit eröffnet die Technologie künstlicher Intelligenz zahleiche philosophische Perspektiven, welche u.a. die Erkenntnistheorie, die Philosophie des Geistes, aber auch die Moralphilosophie betreffen.

1. Zum Begriff künstlicher Intelligenz

Die Rede von einer „Künstlichkeit“ der Intelligenz, die durch die neuere technologische Entwicklung ermöglicht wird, ist mehrdeutig. Nach einer schwächeren Lesart spezifiziert „Künstlichkeit“ die Intelligenz von technischen Systemen in dem Sinne näher, dass sie menschliche Intelligenz imitieren oder simulieren. Nach einer stärkeren Lesart realisieren Maschinen hingegen menschliche Intelligenz oder übertreffen diese gar. Diese beiden Lesarten entsprechen in etwa der Unterscheidung von schwacher und starker KI, wie sie sich mittlerweile eingebürgert hat (Russell/Norvig 2022: 1020). Konzeptionen von schwacher KI fassen diese häufig als bloße technische Eigenschaft von Objekten auf, während Konzeptionen von starker KI Intelligenz als Eigenschaft eines technischen Systems verstehen und damit zu Anthropomorphisierungen neigen, die jedoch weniger philosophischen als spekulativen Charakter haben. Philosophisch stellt sich vor aller Spekulation zunächst die Frage, inwiefern man einem System wirklich Intelligenz zusprechen kann, oder ob es sich dabei nicht um uneigentliche Begriffe bzw. Kategorienfehler handelt. Dieses Problem zeigt sich etwa dann, wenn wir alltagssprachlich Computersysteme als Subjekte oder gar als Akteure auffassen und ihnen mentale Eigenschaften wie „erkennen“, „urteilen“, „wissen“, „verstehen“, „denken“, „entscheiden“, oder gar „wollen“ und „handeln“ zusprechen. Hier muss die Philosophie kritisch prüfen, inwiefern diese Prädikate eigentlich oder nur in analoger oder abgewandelter Form auf die jeweiligen technischen Phänomene zutreffen.

2. KI und Imitation (Alan Turing)

Die Frage, ob und inwiefern Maschinen intelligent genannt werden können, hat bereits Alan Turing in seinem klassischen Aufsatz „Computing Machinery and Intelligence“ beschäftigt (Turing 1950). Darin vertritt Turing die These, dass die Frage, ob und inwiefern Maschinen denken können, nicht sinnvoll direkt beantwortet werden könne – sie sei „too meaningless to deserve discussion“ (Turing 1950: 422). Anstelle der Frage „Can machines think?“, schlägt Turing vor, sie durch die Frage „Are there imaginable digital computers which would do well in the imitation game?“ zu ersetzen (Turing 1950: 442) Turing umgeht also eine direkte Definition des Begriffs künstlicher Intelligenz und ersetzt sie durch ein Gedankenszenario, in welchem die Bedingungen dafür entwickelt werden, eine Maschine mit guten Gründen als (künstlich) intelligent bezeichnen zu dürfen. Seine Ersetzungsthese entwickelt Turing durch das von ihm so genannte „imitation game“ (Turing 1950: 433). Dieses Experiment, auch „Turing-Test“ genannt, besteht zwischen drei Instanzen – einer Frau (A), einem Mann (B) und einer Person (C), welche durch geschickte Fragen das Geschlecht der ihr unbekannten beiden Personen – X und Y – herausfinden soll, die wiederum versuchen, C über ihre Identität im Unklaren zu lassen. Nun wird entweder die Frau oder der Mann durch einen Computer ersetzt, so dass sich als Gelingensbedingung der Zuschreibung von (künstlicher) Intelligenz an den Computer folgende Frage stellt: „Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman?“ (Turing 1950: 434) Hier stellt sich nun die weitergehende Frage, inwiefern das „Bestehen“ eines solchen Tests Rückschüsse auf die „Intelligenz“ eines Computers erlaubt.

3. KI und Simulation (John Searle)

Die von Turing fokussierte Imitationsleistung kann auf zwei verschiedene Weisen verstanden werden. Zum einen kann „Imitation“ so viel wie Simulation bedeuten, zum andern aber auch im Sinne einer Duplikation, also Realisierung menschlicher Intelligenz verstanden werden. Auf diesen Unterschied hat insbesondere John Searle hingewiesen (Searle 1984). Er argumentiert, dass Computer menschliche kognitive Leistungen nur zu simulieren, jedoch nicht zu duplizieren vermögen (Searle 1984: 37 f.). Searle bezieht die „key distinction“ zwischen Simulation und Duplikation auf seine Unterscheidung von Syntax und Semantik (Searle 1984: 34). Er argumentiert, dass Computer immer nur syntaktische Operationen durch Symbolverarbeitung zu leisten imstande sind, die jedoch niemals zu semantischem Gehalt führen können, den nach Searle nur mentale Zustände besitzen (Searle 1984: 36).

4. KI und Rekonstruktion (Hubert Dreyfus)

Während Turing und Searle aus philosophischer Perspektive vor allem auf symbolverarbeitende KI fokussieren, welche in regelgeleiteter Zeichenmanipulation besteht, hat sich Hubert Dreyfus mit dem konnektivistischen KI-Phänomen befasst, welches neuerdings besonders in Form von KNN und ML Beachtung findet. Denn durch das Aufkommen von ML zeigt sich, dass die Frage, inwiefern Computer intelligent genannt werden können, nicht allein durch die Unterscheidung von Simulation und Duplikation beantwortet werden kann. Vielmehr spielt dabei die strukturanaloge Rekonstruktion und Modellierung des menschlichen Gehirns mittels künstlicher Neuronen eine zentrale Rolle (Dreyfus 1988: 37 f.). Hier stellt sich nun die epistemologische Frage, inwiefern die Operationen und Resultate künstlicher neuronaler Netze als „Lernen“, als „Intelligenz“ und als „Wissen“ bezeichnet werden können. KNN operieren im Sinne von Mustererkennung, insofern sie von einer (empirischen) Datenbasis allgemeinere Strukturen abstrahieren. Mittels Fehlerrückkoppelung besitzt das System eine rudimentäre selbstbezügliche Struktur, die freilich nicht mit Selbstbewusstsein zu verwechseln ist. Eine rein behavioristische Beschreibung maschinellen Lernens greift insofern zu kurz, da sie nicht den Prozess betrachtet, der zu den jeweiligen Ergebnissen führt, deren epistemische Bedeutung in Frage steht. Dabei scheint es durchaus angemessen zu sein, mit Blick auf KNN von einem Lernprozess zu sprechen. Nach mehreren Durchläufen auf Basis großer Informationsmengen kann ein Lerneffekt des Netzes erzielt werden, der in der adäquaten Anpassung seiner Gewichtungen liegt. Hierin kann eine Art von Wissen erblickt werden, welches durch ein quasiexperimentelles und quasi-empirisches Abstraktionsverfahren erlangt wurde, wie es auch Lebewesen tun. Gerade aus empiristischer Perspektive haben insofern die neueren Phänomene neuronaler Netzwerke besondere philosophische Beachtung erfahren (Buckner 2018). Trotz aller Fortschritte und beeindruckender Ergebnisse ist immer noch Dreyfus’ Hinweis darauf relevant, dass „human beings are much more holistic than neural nets“ (Dreyfus 1988: 39).

5. KI und Lebenswelt

KI wird immer mehr als lebensweltlicher Faktor zentral, so dass sich hier die Frage nach einer gelingenden Mensch-Maschine-Interaktion stellt. Aus trans- und posthumanistischer Perspektive wird entweder dafür argumentiert, die Mensch-Maschine-Interaktion so aufzulösen, dass KI in absehbarer Zukunft Bewusstsein erlange und gar den Menschen in Form einer „Superintelligenz“ übertreffe (Bostrom 2014), oder aber, dass Mensch und Maschine durch eine technologische Singularität miteinander verschmelzen (Kurzweil 2005). Diese Auffassung wurde von verschiedenen Seiten als haltlose Spekulation und „Silicon-Valley-Ideologie“ (Nida-Rümelin/Weidenfeld 2018: 18) kritisiert. Aus ethischer Perspektive stellt sich allerdings nicht so sehr die Frage, inwiefern KI selbst zu einem Akteur wird und die Menschheit bedroht, sondern vielmehr, inwiefern KI in unsere Lebenswelt so integriert werden kann, dass sie diese verbessert. Douglas Engelbart hat für dieses lebensweltliche Verständnis von KI die Wendung „Augmented Human Intellect“ geprägt (Engelbart 1962; Ramge 2020: 45). Es kommt hierbei insbesondere darauf an, eine solche Mensch-Maschine-Interaktion zu etablieren und zu kultivieren, d.h. KI so in unsere lebensweltliche Praxis zu integrieren, dass wir durch ihren Gebrauch unsere Autonomie nicht an technische Systeme blindlings delegieren, sondern vielmehr unsere Autonomie vergrößern (Noller 2022a; Noller 2022b)..