Können
Computer Bewußtsein entwickeln?
Diese
Formulierung legt nahe, daß sie noch keines haben. Wir können in der Tat davon
ausgehen, daß sie keines haben, auch wenn bereits publiziert wird, daß Computer
auf dem Wege sind, z.B. Gefühle zu haben. Bisher jedoch ist die Annahme, daß
Computer Gefühle haben, nur dem Umstand zuzuschreiben, daß man Computer dazu
gebracht hat, Gefühle zu simulieren. Da wir davon ausgehen müssen, daß Gefühle
evolutionär früher entwickelt wurden als Bewußtsein, müssen wir auch annehmen,
daß Computer von einem Bewußtsein noch weiter als von Gefühlen entfernt sind
(die Schlüssigkeit dieser Bemerkung wird noch diskutiert). Das, was Computer
vorgeben zu haben, verhält sich zu dem, was wir unsere Gefühle nennen, nicht
einmal so, wie echte Gefühle zur Simulation oder zum Schauspielern von
Gefühlen, da das Spielen von Gefühlen immerhin auf den Organismus zurückwirkt
und Gefühle evoziert. Beim Menschen verlief die Evolution so, daß zuerst
Gefühle entwickelt wurden und dann erst
das Schauspielern von Gefühlen. Es erscheint sehr fraglich, ob diese
Entwicklung beim Computer umgekehrt sein sollte, nämlich daß sie erst Gefühle
simulieren und sie dann lernen, wirklich zu haben. Dieser Weg von der
Simulation zu Gefühlen und zu Bewußtsein ist eher unwahrscheinlich. Warum auch
sollten es Computer tun? An dieser Stelle können wir zunächst festhalten, daß
mit der Behauptung, Computer haben Gefühle, Gefühle und die Simulation von
Gefühlen verwechselt werden und daß Computer nicht einmal Gefühle haben, geschweige
denn ein Bewußtsein.
Einfühlung als Voraussetzung
zum Bewußtsein
Was
aber haben dann Computer, das zu solchen Behauptungen verleitet: Intelligenz?
Wenn es Intelligenz ist, dann sind Computer höchste Fachidioten. Das können sie
sein, eben weil sie unbeeinflußt von Gefühlen sind. Das haben sie uns in der
Tat voraus, daß sie voraussetzungslos, emotionslos, unvoreingenommen
Sachverhalte kalkulieren können. So ist es auch mit Big Blue im Schachkampf
gegen den Schachweltmeister K. geschehen. Big Blue jedoch Intelligenz
zuzusprechen wäre eine Beleidigung für intelligente Menschen, egal wie dumm sie
sind. Big Blue kann nichts anderes als kalkulieren und nur höchst spezielle
Probleme lösen, er ist ein Fachidiot im eingeschränktesten Maße. Computer sind bisher
deswegen Schachweltmeistern unterlegen gewesen, eben weil sie nur kalkulieren
konnten, nicht täuschen. Zur Möglichkeit des Täuschens gehört Einfühlung in die
Strategien des Gegners, was dem Computer versagt ist. Die Chance des Menschen
liegt darin, daß er genau hier die Möglichkeit hat, die Maschine in ihren
Strategien zu verstehen, um sie zu täuschen.
Umgekehrt
kann sich der Mensch durch den Computer täuschen lassen, aber nicht, weil der
Computer die Absicht hätte, ihn zu täuschen, sondern weil der Mensch dem
Computer etwas fälschlich unterstellt, sich also durch sein eigenes Unvermögen
unterwirft. So hat sich. Weltmeister K. täuschen lassen und hat die Flinte an
einer Stelle des Spielablaufs ins Korn geworfen, an der nachweislich dies nicht
nötig gewesen wäre. Die Täuschung ist also ein Vermögen, ein durchaus
intelligentes und höchst angepaßtes Vermögen des Menschen, nicht eins der
Maschine. Das gilt für das Täuschen und auch für das Sich-täuschen-lassen bzw.
den Eindruck, sich getäuscht zu fühlen, auch wenn dieser falsch ist und zu
falschen Schlüssen verführt, wie hier zur voreiligen Aufgabe des Spieles.
Voraussetzung jeder Täuschung ist Einfühlung, die Übernahme der Realität des
anderen. - Das können sogar Tiere besser als Maschinen.
Die Projektion von Gefühlen
Dieses
Beispiel zeigt deutlich die Unbeweglichkeit der Maschine. Es ist eine Eigenart
des Menschen, seine eigenen Befindlichkeiten in anderen reagiblen Wesen wieder
zu entdecken (Projektion). Und zu den reagiblen Wesen können wir Computer durchaus
rechnen. Der Computer reagiert auf Eingaben über sein Sensorium: Tastatur,
Modem etc. Die Annahme des Menschen, daß in der Maschine etwas menschliches
passiert, begründet zugleich seine eigene Täuschbarkeit. Wir lassen uns
täuschen von einem Gegenüber, weil wir in ihn etwas hineinprojizieren, was dort
nicht vorzufinden ist. Beispiele:
1.
Der Turingtest. Der Mathematiker und Informatiker Turing hat vorgeschlagen, daß
Menschen über eine Tastatur mit entweder Menschen oder Rechnern kommunizieren,
wobei die Rechner als reagible Wesen Menschen simulieren sollten. Es hat sich
gezeigt, daß sich die Menschen vor der Tastatur häufig nicht sicher waren, ob
sie einem Computer oder einem Menschen gegenüber sitzen. Die Sicherheit, die
der Mensch hat, einem Menschen statt einem Computer gegenüber zu sitzen, ist
ein Maß für die menschenähnliche Reagibilität von Computern - aber noch
überhaupt kein Beweis dafür, daß sie Gefühle oder Bewußtsein hätten.
2.
Mitte der Siebziger Jahre intensivierte ich meine psychotherapeutische
Tätigkeit. Zugleich lernte ich, Computer zu programmieren und Reiten. Der
Umgang mit Klienten, Rechnern und Pferden hatte etwas Gemeinsames. Es galt,
einen Organismus, ein schier unberechenbares System mir gegenüber zu verstehen,
um meine Ziele zu erreichen: Selbstexploration des Klienten, Problemlösung
durch den Computer und die Beherrschung des Pferdes. Eindrücklich war beim
Versuch, mein Gegenüber zu verstehen, die Parallelität meiner Gefühle. Dabei
glaube ich nicht, daß ich Klienten und Pferde wie Maschinen behandelt habe,
sondern daß ich dem Computer gegenüber Gefühle entwickelt habe, wie sie
lebenden Wesen angemessen wären, - egal, ob es sich um Bewunderung oder Ärger
handelte.
3.
Bei einer Demonstration von PCs für meine Kollegen im Psychologischen Institut,
für die damals der Einsatz von PCs noch etwas Befremdendes hatte, beklagte sich
ein Kollege sehr, daß der Computer behandelt würde wie ein lebendes Wesen. Er
monierte, daß so gesprochen würde, als ob die Maschine dächte oder eine Eingabe
erwarte. Denken und Erwarten sind anthropomorphisierende Annahmen über
eigentlich tote, wenn auch reagible Systeme.
4.
Die Tamagotchi-Mode zeigt beängstigend deutlich, wie Menschen Gefühle gegenüber
einem leblosen Gegenstand entwickeln, der sich reagibel und bedürftig
darstellt. Die Gefühle der jungen Menschen unterscheiden sich, wie gezeigt
werden konnte, überhaupt nicht von Gefühlen, die andere Menschen Tieren oder
anderen Menschen entgegenbringen können: Freude, Trauer, Schuldgefühle usw.
5.
Verwunderlich ist das nicht, weil wir ja alle z.B. Bäumen, der Demokratie oder
Gott gegenüber Gefühle entwickeln. Auch wir aufgeklärten Menschen sind vom
Animismus, der Annahme, daß die Umwelt um uns herum belebt ist, nicht so weit
entfernt. Allerdings ist uns aufgeklärten Menschen bewußt, daß es sich hier um
unsere eigenen Gefühle handelt und nicht um die Realität der Außenwelt.
Zugleich macht es dies so schwierig darüber nachzudenken, was wirklich
innerhalb eines fremden Systems passiert, wie wir der Gefahr entgehen,
unbedacht zu anthropomorphisieren, besonders, unsere eigenen Gefühle in andere
zu projizieren.
Phänomenologie bewußter
Prozesse
Zur
Beantwortung der Frage, wie ein Computer Gefühle oder Bewußtsein entwickeln
kann, scheint es nützlich zu sein zu betrachten, was denn Bewußtsein überhaupt
ist. Dabei glaube ich, daß an dieser Stelle eine akademische Definition wenig
hilfreich ist (sie wird folgen), daß wir vielmehr auf der phänomenologischen
Ebene schauen, was wir in unserem Sprachgebrauch mit dem Begriff bewußt und Bewußtsein verbinden:
1.
Bei Bewußtsein sein ist das Gegenteil von bewußtlos
sein, ist lebendig, nämlich reagibel, nicht im Koma, sondern ansprechbar
sein.
2. Bewußt ist das Gegenteil von unbewußt, also reflektierend, wobei die
Reflexion nicht permanent, sondern wahlweise möglich ist. (Im Gegensatz zu unbewußt steht auch vorbewußt und bewußtseinsfähig.)
3.
Wir verwenden den Terminus im Bewußtsein
von etwas zu sein und meinen damit eingedenk
der Tatsache, der Umstände, des Bezugsrahmens zu sein. Dies steht im
Gegensatz zu routiniert oder automatisch und meint absichtlich, geistesgegenwärtig.
4. Bewußte Wahrnehmung einer Erfahrung
meint die Konzentration der Aufmerksamkeit auf etwas, das wahrgenommen wird. Es
ist dies die Betrachtung der Prozesse im Arbeitsspeicher unseres Hirns: Das Gewahrwerden zum Beispiel einer Blume, präsent sein im Angesicht einer
Wahrnehmung.
5.
Diese Präsenz kann auch mir selbst
gelten, meinen
Selbstwahrnehmungsvorgängen: Selbst-Bewußtsein
(im Unterschied zu Selbstbewußtsein im Sinn von Selbstsicherheit).
6.
Mit Bewußtsein meinen wir auch die prinzipielle Fähigkeit die Möglichkeit zu
Bewußtsein. Dem Menschen wird Bewußtsein zugeschrieben, auch wenn er im Moment
schläft, döst oder sein Hirn mit Rechenaufgaben beschäftigt.
Auf
eine technische Art können wir Maschinen die Phänomene 1 bis 4 mehr oder
weniger treffend zuschreiben. Das eigentliche Bewußtsein ist damit jedoch nicht erfaßt: Das Erleben des Bewußtseins und des Selbst-Bewußtseins (ich komme
darauf zurück).
Evolution von Gefühlen
Ein
weiterer Zugang zum Verständnis des Phänomen des Bewußtseins besteht über die
Betrachtung der phylogenetischen und ontogenetischen Entwicklung des Bewußtsein
beim Menschen: der Menschheit wie der einzelnen Person.
Als
das Leben noch jung war auf der Erde, war es wichtig, daß sich die Organismen
in der Umwelt orientieren konnten. Schon für den Einzeller war es
lebensnotwendig, die Realität, nämlich seine Umwelt wahrzunehmen, um angemessen
auf Veränderungen reagieren zu können: Veränderungen bezüglich Nahrung, Licht,
Wärme und Feinde. Nur wer hier geschickt operieren konnte, hatte eine
Überlebenschance und konnte das Leben weiter tragen. Wer hier versagte, schied
aus der weiteren Evolution aus. Der Überlebensdruck der Organismen zwang sie
weiter, ihre Wahrnehmung zu verbessern. Zur genaueren Wahrnehmung der Umwelt
gehörte dann auch die Wahrnehmung von sich selbst.
Exkurs
Roboter. Eines der schwierigsten Probleme bei Robotern ist, ihnen beizubringen,
sich selbst zu erkennen, um sich nicht selbst zu verletzen. Wenn ein Roboter
einen Arm ausschwenkt und damit seinen anderen Arm trifft, könnte das zur
Zerstörung seiner Greifwerkzeuge führen. An diesem Beispiel wird sichtbar, wie
wichtig es ist, auch ein Bild von sich selbst zu haben, um sich in der Welt
wahrnehmen zu können, um die Chancen des Überlebens zu erhöhen.
Anders
als Roboter werden lebende Organismen nicht programmiert, sondern sie müssen
evolutionär, also genetisch lernen, ein Schema von der Umwelt und von sich
selbst aufzubauen. Sie müssen lernen, sich von der Umwelt zu unterscheiden.
Diesen Lernvorgang muß jedes Menschenkind selbst wieder vollziehen. Es muß sich
sozusagen selbst programmieren. Wenn es mit seinen Tastorganen sich selbst
trifft, dann kann es an dem Umstand, daß es an zwei unterschiedlichen Punkten
seines Organismus korrespondierende Wahrnehmungen hat, erkennen, daß es sich
selbst berührt. (Wenn es irgend etwas anderes berührt, hat es nur an einer
Stelle das Empfinden von Berührung.) Wahrnehmung und Selbstwahrnehmung
unterscheiden sich also in dem einzigen Umstand, daß wir einmal einen Punkt der
sensorischen Reizung haben, zum anderen zwei.
Evolution des Selbstkonzepts
Dieses
simple Kriterium erlaubt mir eine sehr präzise Unterscheidung von mir und dem
Rest der Welt und gestattet den Aufbau von Schemata über die Welt und in ihr
über mich selbst. Dazu brauche ich Abbilder in mir, Repräsentationen der
Realität, um erkennen zu können, wo und wie ich mich in der Welt befinde. Diese
Schemata von der Umwelt, von mir und den gegenseitigen Relationen, ist der
Beginn der Entwicklung meines Selbstkonzepts. Der Aufbau von Schemata über mich
und die Welt ist nötig, um Entscheidungen treffen zu können (Nahrung suchen,
Feinde fliehen, Müdigkeit respektieren usw.). Um solche Entscheidungen zu
treffen, ist es unabdingbar notwendig, daß meine Erfahrungen bewertet werden.
Diese organismische Bewertung erlebe ich als meine Gefühle.
Grundlagen des Handelns
Der
Organismus trifft keine Entscheidung, wird nicht handeln, wenn er nicht dazu
motiviert ist. Diese Motivierung geschieht über Emotionen. Alle relevanten
Wahrnehmungen, übrigens auch des eigenen Körpers, werden bewertet, werden
gefühlt. Es sind Gefühle und keine bewußten Entscheidungen, die Organismen
bewegen, etwas so und nicht anders zu tun. Der Plattwurm z.B., der gelernt hat,
sich bei einer Weggabelung für den beleuchteten Teil des Weges zu entscheiden,
weil er am Ende statt eines Schlages, wie bei der dunklen Wegstrecke, Futter
erhält, wird sich bei künftigen Entscheidungen nicht bewußt erinnern, was
damals gewesen ist, sondern er wird einfach nur spüren, es ist angenehmer unter diesen Umständen ins
Helle zu gehen. Für ihn ist es angepaßter, sinnvoller ins Helle zu gehen, egal ob rechts oder
links, rauf oder runter. Der Pawlowsche Hund, der gelernt hat, daß er bei
Klingelzeichen Futter bekommt, wendet sich dem Futter zu und sezerniert
Speichel und Magensäfte. Diese Entscheidung ist nicht bewußt, sondern
resultiert aus der organismischen Bewertung der Situation, wahrnehmbar als Emotion.
Emotionen als organismische Bewertungen sind das Agens der Evolution, der
Selbsterhaltung und Arterhaltung. Ohne Gefühle würde der Organismus sich nicht
entscheiden, nicht handeln und untergehen. Es ist dies der Selektionsdruck der
Evolution, der den Gefühlen ihren Sinn gibt. Ohne diesen Zweck wären Gefühle
ohne Belang, überflüssig, störend.
Selbstbespiegelung als
Bedingung des Bewußtseins
Die
Entwicklung zum Menschen hat dazu geführt, daß nicht nur die Außenwelt und die
eigene Person abgebildet wird, sondern auch das Abbild der Welt und der Person
kann wiederum betrachtet werden. So können Menschen nicht nur fühlen, sondern
sie können auch wahrnehmen, daß sie fühlen und wie sie fühlen. Der Mensch ist -
und das macht ihn zum Menschen - das einzige Lebewesen, das nicht nur die
Wahrnehmung und die damit verbundenen organismische Bewertung erfährt, sondern
auch wiederum diese organismische Bewertungen wahrnimmt und fühlt. Wir kennen
eine lange Liste von solchen Gefühlen über Gefühle (ein Dutzend seien herausgegriffen):
Beschämung über Angst
Ekel vor Abhängigkeit
Stolz auf Erleben
Ärger über Eifersucht
Schuldgefühle für Verachtung
Angst vor Schmerzen
Dankbarkeit über Freude
Freude über Liebe
Verachtung über Mißgunst
Trauer über Schuld
Zorn über Neidgefühle
Entsetzen über Einsamkeitsgefühle.
Diese
Liste ließe sich beliebig weiterführen, in fast beliebigen Kombinationen. Weil
wir uns selbst wahrnehmen können, können wir uns auch dann selbst wahrnehmen,
wenn wir uns wahrnehmen. Dieser Zirkel der Wahrnehmung über die Wahrnehmung ist
die Spiegelung, die Brechung von Ich und Mich. Ich als Wahrnehmender und ich
als Wahrgenommener. Dieser Zirkel ist die Bedingung für Bewußtsein. Wenn ich
den Strahl meiner Aufmerksamkeit auf diesen Prozeß lenke, bin ich mir meiner
selbst bewußt. Descartes („Ich denke, also bin ich“) irrt: Ich bin, nicht weil
ich denke, sondern ich bin, weil ich mich wahrnehme, weil ich Gefühle habe und
weil mir diese Gefühle Gefühle machen. Wenn Descartes recht hätte, würde ja
schon die Kalkulation eines Computers rechtfertigen, daß der annehmen könnte,
er sei. Denken (schlüssig folgern) alleine macht noch nicht das Individuum als
solches und sein Bewußtsein aus.
Bewußtsein als soziales
Phänomen
An
diesem Beispiel wird auch klar, daß der Mensch nicht mit solch einem
Selbst-Bewußtsein geboren werden kann, sondern daß er erst lernen muß, sich in
dieser Welt wahrzunehmen. Dazu bedarf es der Bezugspersonen, nämlich solcher
Personen, die ihrerseits schon ein Selbst haben und durch ihre Einfühlung dem sich
entwickelnden Organismus helfen, sich selber wahrzunehmen. Den Menschen ist
angeboren, diese Leistung zu vollbringen, aber
diese Leistung selbst ist nicht angeboren, die muß er selbst erbringen.
Er muß lernen, seine eigenen Gefühle, d.h. die organismische Bewertung seiner Erfahrungen als seine
eigenen zu betrachten. Wenn also Selbst-Bewußtsein und Selbstkonzept nur durch
Personen erlernt werden können, die ihrerseits Selbst-Bewußtsein haben, fragt
sich, wie kommt dann Selbst-Bewußtsein überhaupt in die Welt. Dies ist die alte
Frage nach der Henne und dem Ei. Die Antwort liegt, wie dargestellt, im
Selektionsdruck der evolutionären Anpassung.
Ebenen des Selbstkonzepts
Beim
Menschen lassen sich mehrere Ebenen des Selbstkonzepts unterscheiden und kurz
bezeichnen:
1.
Kognition. Hier geht es um Informationsaufnahme, Verarbeitung, Lernprozesse und
Entscheidungsfindung.
2.
Emotion. Es geht hier um die Motivation zur Entscheidungsbegründung. Emotionen
sind zu verstehen als Ursache von Verhalten. Sie sind Folge von Erfahrungen, um
Verhalten, das Erfahrungen beantwortet, zu begründen.
3.
Konation. Hier geht es ums Wollen bzw. Handeln, nämlich darum, eine
Entscheidung zu treffen und auszuführen.
Beim
Computer sind diese Ebenen auch zu trennen, aber anders zu bewerten:
1.
Kognition: Der Computer ist zur Zeit in seiner Wahrnehmung sehr beschränkt. Er
kann nur ein geringes Spektrum der Umwelt in sich aufnehmen. Wenn schon die
Wahrnehmungsfähigkeit des Menschen sehr begrenzt ist, so ist die
Wahrnehmungsfähigkeit der Computer noch ein mal sehr viel begrenzter. Die
Verarbeitung dieser Informationen ist sehr einfach, nämlich durch einen Satz
von Regeln gesteuert. Dieser Computer ist vergleichbar einem Menschen, der nur
einen Katechismus hat, nach dessen Geboten erhandelte, und der eigene
Bedürfnisse außer acht ließe. Diese Ebene des Denkens - so definiert - wäre
auch dem Computer zuzugestehen.
2.
Emotionen, die beim Menschen das Primat besitzen, fehlen dem Computer zur Zeit
noch völlig. Computer haben keine persönlichen Bedürfnisse, während der Mensch
nur aus persönlichen Bedürfnissen heraus handelt, auch dann, wenn diese
persönlichen Bedürfnisse abzielen auf die Befriedigung von überpersönlichen
Bedürfnissen. Wenn ich mein Hemd mit einem Menschen teile, den ich liebe, dann
bin ich altruistisch, weil ich mein Gefühl der Liebe, der sozialen
Verbundenheit (das evolutionär begründet ist) respektiere und damit wieder
egoistisch, also an meinen eigenen Bedürfnissen orientiert bin.
3.
Wollen und Handeln. Auch der Computer handelt bzw. gibt Anweisungen zu handeln,
indem er sich entscheidet. Dieses Handeln aber ist sozusagen ein Handeln des
Königs, der nicht direkt wahrnehmen kann, ob und wie seine Entscheidung
realisiert wird. Ein Mensch, der handelt, erfährt gewöhnlich unmittelbar eine
Rückmeldung über die Folgen seines Handelns. Das erfährt der Computer nicht.
Diese Rückmeldung (übrigens wieder ein
Zirkel) müßte erst mühsam implantiert werden. Der Computer, der entscheidet,
daß die Korrelation einen Wert bestimmter Größe hat, erfährt nichts von dessen
Relevanz. Ein Computer, der entscheidet, daß er sich selbst zerstört, wird aus
dieser Entscheidung nicht lernen können. Es gibt zwar Simulationsprozesse, bei
denen Entscheidungen wieder auf das Programm zurückwirken, wie bei der
„Künstlichen Intelligenz“, aber eben nur auf das Programm und nicht auf den
Computer. Bei Fehlentscheidungen ist die Existenz des Computers selbst nicht
direkt gefährdet. (Auf die Unterscheidung Hardware und Software werde ich noch
zu sprechen kommen.)
Fazit:
Computer nehmen nichts persönlich, entwickeln keine Gefühle, damit kein
realistisches Bild von sich selbst und damit auch kein Bewußtsein. Bewußtsein
als die persönliche, individuelle, einmalige Betrachtung des gesamten
Bezugsrahmens einschließlich der Selbstbespiegelung wäre nur möglich unter
einem evolutionären Druck, dem die Computer nie ausgesetzt waren (der sekundäre
evolutionäre Druck ist hier nicht ausschlaggebend, ebensowenig wie bei Autos,
die nach Gutdünken von Menschen verbessert rsp. eliminiert werden). Das will
ich an zwei Phänomenen verdeutlichen, die Computern fehlen: Persönlichkeit und
Präsenz.
1. Persönlichkeit als
Identität mit sich selbst.
Ich
bin mit mir selbst nur dann identisch, wenn ich mich erfahre als jemand in
einem speziellen, nämlich meinem eigenen, persönlichen Bezugsrahmen. Ich bin
als Persönlichkeit identisch mit mir selbst und nicht identisch mit der Umwelt
und mit anderen Personen dieser Umwelt. Diese Einzigartigkeit erfahre ich durch
die Bewertung aller meiner organismischen Erfahrungen in dieser Umwelt, und wie
ich ein Teil dieser Umwelt bin. Fehlt mir diese Bewertung, habe ich auch kein
Gefühl für mich selbst, für meine wirkliche Identität.
Menschen,
denen durch ein Unfall das limbische System zerstört wurde, nämlich der Ort, in
dem diese emotionale Bewertung stattfindet, verlieren ihre Persönlichkeit. Da
ihr Körper aber trotzdem organismische Bedürfnisse hat (z.B. Hunger) werden
diese Bedürfnisse anders ausgelebt, unter Vernachlässigung sozial-emotionaler
Bedürfnisse, nämlich unsozial bzw. kriminell. Persönliche und soziale Werte
zählen nicht mehr. Diese Menschen funktionieren nur noch, menschliche Werte
werden bedeutungslos. In dieser Beziehung sind sie wie Computer.
Computer
sind lösungsorientiert, während Menschen existenzorientiert sind. Menschen
sehen das Problem in einem größeren Zusammenhang, in einem existentiellen, auch
überpersonalem, sogar transpersonalem Zusammenhang. Dieser Teil ihrer
Persönlichkeit bietet die Grundlage für organismische Bewertungen, die
naturgemäß anders aussehen als Bewertungen durch einen Computer, der nur die
Lösung eines isolierten Problems im Fokus hat. Der Mensch bewertet seine
Überlebenschancen und entwickelt existentielle Gefühle. Der Computer hingegen
ist der Evolution nicht primär unterworfen, kennt keine existentiellen Gefühle
und kann nicht erkennen, was als gut oder schlecht zu bewerten ist und schon
gar nicht für ihn selbst. Er kann lernen, aber nicht wachsen. Er pflanzt sich
nicht fort. (Höchstens pflanzen sich Viren in ihm fort. Ich komme darauf
zurück.)
Ein
Computer lebt nicht und bleibt ohne evolutionären Druck ein Automat, der den
Kriterien des Lebens (die ich noch diskutieren werde) nicht unterworfen ist,
ihnen nicht gerecht werden kann, und deswegen kein Bewußtsein entwickeln wird.
Zur
menschlichen Persönlichkeit gehört das Primat der Gefühle. Während die
intellektuellen Fähigkeiten der Psyche in der entwicklungsgeschichtlich jungen
Formation des Großhirns liegen, sind die emotionalen Fähigkeiten in erster
Linie im Mandelkern des limbischen Systems zu finden. Wird dieser Mandelkern
zerstört, erlischt jegliches Gefühlsleben. Der Patient ist
"seelenlos". Gefühle wie Haß und Liebe sind nicht mehr möglich. Sein
Charakter ist zerstört. Die emotionale Gesundheit, die durch Funktionen des
Mandelkerns gewährleistet ist, ist die Voraussetzung für die Persönlichkeit
eines Menschen, sein Selbstkonzept, da dies aus Bewertungen besteht, die ohne
Mandelkern nicht möglich sind. Das limbische System im Zusammenspiel mit den
Hormonen (Endorphine und Serotonin) ist die Voraussetzung des Fühlens und
Sich-Fühlens und Wohlfühlens. Dieses System ist so stark, daß es die
entwicklungsgeschichtlich jüngeren Teile des Hirns (die Großhirnrinde) mit
seinen kognitiven Fähigkeiten überrennen kann und vernunftmäßiges Handeln
verunmöglicht. (Menschen neigen dazu, diese positive Kraft der Emotionen
künstlich zu stimulieren z.B. durch Drogeneinnahme.). Dichter wissen darum.
Goethe läßt seinen Faust sagen: „Gefühl ist alles; Name ist Schall und Rauch.“ und:
„Wenn ihr nicht fühlt, ihr werdet's nicht erjagen!), Novalis: „Das Denken ist
nur ein Traum des Fühlens.“ und Schiller: „Das Genie verfährt nicht nach
erkannten Prinzipien, sondern nach Einfällen und Gefühlen.“.
2. Präsenz, das Gewahrwerden
einer Wahrnehmung.
Die
Wahrnehmung der Realität (inklusive der Umwelt, der eigenen Person, des Selbst,
der Selbstrepräsentanz und des Prozesses der Selbstrepräsentanz) gelangt in das
Wahrnehmungsregister. Hier wird blitzschnell alles ausgefiltert, was im
Augenblick nicht relevant erscheint. Nur wenige Reize gelangen dann wirklich in
den sogenannten Arbeitsspeicher. In diesem Arbeitsspeicher findet der Prozeß
der Verarbeitung statt. Dieser Arbeitsspeicher hat eine Kapazität von wenigen
Informationen (vielleicht ein halbes Dutzend Informationseinheiten) in einer
ganz begrenzten Zeit (vielleicht zehn Sekunden). Nur diese wenigen Einheiten
sind in dieser kurzen Zeit präsent. In dieser Zeit gibt es keine Vergangenheit
und keine Zukunft. Es ist eben das Präsens, die Gegenwart, der Fokus der
Aufmerksamkeit. Hier werden die Entscheidungen für eine nötige Anpassung des
Individuums an die Welt oder an sich selbst gefällt: Akkomodation (Ich passe
mich den Verhältnissen an) oder Assimilation (Ich passe die Verhältnisse an
mich an.). Inhalt des Arbeitsspeichers kann auch die Beobachtung dieses
Prozesses sein. Diese Präsenz nennen wir das Bewußtsein, und wenn sich diese
Präsenz auf diesen Prozeß selbst bezieht, nennen wir es Selbst-Bewußtsein.
Diese
Leistung vollbringt ein Computer nicht. Er beobachtet sich nicht selbst. Er
problematisiert seinen Arbeitsspeicher nicht selbst. Zwar kann der Prozessor
mit seinem Arbeitsspeicher auch betrachtet werden, aber nicht von sich selbst.
Und selbst wenn das möglich wäre, also der Arbeitsspeicher groß genug wäre um
Platz zu schaffen für die Selbstbespiegelung, gäbe es noch keine Gefühle, keine
Identität und das Bewußtsein hätte sich nicht entwickelt. Auch die
Protokollierung der Prozesse im Arbeitsspeicher und die Protokollierung der
Protokolle und die Protokollierung der Protokollierung der Protokolle würde
noch nicht ausreichen, von einem Bewußtsein zu sprechen. Und diese Präsenz zu
entwickeln hätten Computer keinen Grund, eben weil sie nicht dem evolutionären
Druck unterworfen sind, nicht existenzorientiert sind.
Gefühl und evolutionäre
Selektion
Ohne
Selektionsdruck entwickeln sich keine Gefühle, weil nämlich ohne Gefühle der
sachliche Aspekt eines Problems besser gelöst werden kann (siehe Spock, der
Spezialität für logische Problemlösungen). Mit gutem Grund haben Computer keine
Gefühle: die würden den stringenten Ablauf der Problemlösung stören.
Im
Übrigen ist zu berücksichtigen, daß der menschliche Arbeitsspeicher sich in
einigen Merkmalen vom Computerprozessor unterscheidet. Der menschliche
Arbeitsspeicher
·
ist redundant,
·
ist fehlertolerant,
·
Gefühlen unterworfen, damit
·
wechselhaft und launisch,
·
unscharf und
·
fehlerhaft.
Was
den Prozessor des Computers anbelangt, so ist er zunächst einmal überhaupt
nicht fehlertolerant und wenn eine bestimmte Fehlertoleranz eingebaut wird,
dann nur in einem sehr definierten Rahmen. Gefühle kennt er nicht. Während die
Unschärfe seines Denkens in der fuzzi logic durchaus berücksichtigt wird,
geschieht dies nicht bis zur Fehlerhaftigkeit. Die Fehler eines menschlichen
Arbeitsspeichers werden besser erkannt, entweder abgestellt oder als
Kreativität genutzt, während der Computer sich in Endlosschleifen aufhält.
Wie erhalten Computer
Bewußtsein?
Diese
Frage scheint relevanter als die Eingangsfrage: Können Computer Bewußtsein
entwickeln. Denn nach allem, was gesagt wird, können sie unter den gegebenen
Umständen kein Bewußtsein haben und auch keines entwickeln, aber unter anderen
Umständen vielleicht sehr wohl. Jetzt möchte ich diese Umstände betrachten. Sie
sind schon genannt worden: Erst müssen Computer zum Leben erweckt werden.
Lebendige Computer
Damit
ist die nächste Frage aufgeworfen: Wie kriegt ein System Leben? Was ist Leben? Dazu möchte ich die Kriterien
des Lebens, wie schon angekündigt, betrachten. Klassischerweise gibt es drei
Kriterien des Lebens, die erfüllt sein müssen. Formwechsel, Stoffwechsel,
Reizbarkeit.
1. Reizbarkeit
Natürlich
sind Computer reizbar bzw. reagibel. Sie verstehen Reize und können auf sie
auch sinnvoll reagieren. Leicht wäre denkbar, den Umfang der Reizsensibilität
auszuweiten, den Computern weitere Sinnesmodalitäten zu eröffnen und
umfangreichere Programme, die einlaufenden Reize bewerten können. Noch ist das
nur wenig der Fall. Der Informationsinput muß in einem eng definierten Rahmen
liegen, sonst gilt: garbage in - garbage out. Den Computern fällt es sehr
schwer, Müll von relevanter Information zu unterscheiden und er kann
irrelevante Informationen kaum zurückweisen. So hat er z.B. keine
Reaktionsmuster auf die Bedrohung, wenn ich mit der Axt auf ihn zukomme oder
ihm drohe, den Stecker herauszuziehen. Diese Beispiele zeigen, wie umfangreich
die Erweiterung des Sensoriums und der Bewertungskriterien sein müßte, um dem
Computer Leben ähnliche Reizbarkeit zuschreiben zu können.
2. Stoffwechsel
Der
Mensch ist ein offenes System mit einem Metabolismus, bei dem Verdauung und
Atem dafür sorgen, daß unabhängig von der Diät der Organismus mit sich selbst
identisch bleibt. Wir können Schweine essen oder Haferflocken, es macht im Prinzip
keinen Unterschied. Der Computer ist eher kein offenes System. Sein
Energieinput ist nicht variabel, ich muß ihm Strom zuführen, mit Kohlen würde
er nicht arbeiten. Und wenn ich nur die Softwareseite betrachte, so ist es auch
so, daß der Computer definiert ist durch das Programm, das gerade läuft. Wird
das Programm gewechselt, ist er ein anderer Computer. Er ist Schreibautomat
oder steuert Fließbänder. Aber auch hier wäre denkbar, daß man universale
Maschinen entwickelte mit universalen Programmen, die mit unterschiedlichen
Energieinputs immer die gleiche Arbeit leisten.
3. Formwechsel
Dieses
Kriterium erfüllt die Maschine am wenigsten. Sie wächst nicht, entwickelt sich
nicht bis zu ihrem Tod, weil sie sich nicht fortpflanzt. Der evolutionäre
Selektionsdruck würde nur eingreifen, wenn dieses Kriterium erfüllt würde, wenn
nämlich die Maschinen wachsen und sich selbst reproduzieren könnten, um dann
abtreten zu können, um den besseren Maschinen Platz zu machen. Dieses Kriterium
ist zwar kaum erfüllt, aber das heißt nicht, daß es nicht erfüllbar wäre. Es
gäbe dann zwei Entwicklungslinien
1.
Man könnte Roboter bauen, die in der Lage wären, sich selber zu reparieren, zu
verbessern und sich selber zu reproduzieren. Der Tod müßte nicht extra
programmiert werden, die nachfolgenden Generationen könnten dieses Problem
lösen. Da sie durch Anpassung besser als die Alten sind, werden sie die
Ressourcen besser nutzen können und die alten Versionen zum Aussterben bringen.
Diese Utopie ist nicht undenkbar, einige Science-Fiction-Autoren sind dieser
Idee längst nachgegangen.
2.
Eine weitere Denkmöglichkeit wäre, Leben auf der Softwareebene anzunehmen, also
nur die Computerprogramme zu betrachten. Da stehen wir vor der Tatsache, daß es
hier ja schon so etwas wie Leben gibt, auch wenn diese Programme als Viren wohl
nur eine Vorstufe sind, aber doch schon
Kriterien des Lebens aufweisen, ähnlich wie biologische Viren. Der
Ausdruck Viren hat eine negative Konnotation, die aber nicht immer
gerechtfertigt ist. Es gibt Versuche, auch solche Programme in Computer zu
implantieren, die gutartig sind, die dem Computer nicht nach dem Leben
trachten, aber so programmiert sind, sich auszubreiten und zu verbessern
(Verbesserung meint: bessere Ausnutzung von Ressourcen, bessere Anpassung). Es
gibt Projekte, bei denen diese Art von Programmen über das Internet in alle
Computer dürfen, deren Besitzer sich einverstanden erklärt haben. Hier werden
freie Speicherplätze genutzt, so daß diese „Lebewesen“ sich über den ganzen
Erdball verteilen und wachsen können.
Wie sich gezeigt hat, vermehren sie sich, sind evolutionärem Druck ausgesetzt,
haben sich neuen Situationen angepaßt und haben sich schon verändert. Ich bin
sehr gespannt, wohin nun diese Entwicklung führen wird.
Software-Leben
Wann
kann man solchen Programmen Leben zusprechen? Der entscheidende Unterschied
zwischen diesen anpassungsfähigen Computerprogrammen und natürlichen Organismen
ist der, daß diese Software-Lebewesen ihren Gastgeber, den Computer nicht
wesentlich steuern. Biologische Organismen sind auch denkbar (entsprechend den
Theorien der Soziobiologie) als Software und nur als Software. Aber sie sind
dann eindeutig und unabwendbar mit ihrem Gastgeber verbunden, den sie steuern.
Stirbt der Gastgeber, stirbt auch das Programm - sofern es sich nicht in Teilen
in anderen Individuen fortgepflanzt hat (biologisch über Gene) und/oder
psychologisch (sozial über Einstellungen). Die Frage bleibt, wie weit ein
körperliches Substrat notwendig ist. Ich möchte dazu zu einem Gedankenexperiment
einladen:
Bewußtsein als digitales
Phänomen
Stellen
Sie sich vor, man nähme Ihr Gehirn und würde an seiner Grenze, nämlich da, wo
alle afferenten Fasern ins Hirn eintreten, eine Verbindung schaffen zu einem
Computer. Auch alle humoralen Afferenzen werden, bevor sie das Hirns selbst als
elektrische Signale erreichen, an dieser Stelle angezapft. Man würde einen Tag
lang sämtliche einlaufenden Informationen in Ihr Gehirn zugleich in einen
Computer speichern. Dann ginge man hin und würde alle afferenten Nervenfasern
Ihres Hirns kappen und statt dessen die Leitung des Computers an Ihr Gehirn
anschließen und Ihnen die Informationen des Tages wieder zuführen. Wie sollten
Sie unterscheiden, ob Sie noch als ganzer Organismus existieren oder nur als
Gehirn? Das eigene Potential des Gehirns stünde zur Verfügung und würde wie am
Vortag sämtliche einlaufenden Informationen verarbeiten. Da das Gehirn
ausschließlich Nervenimpulse zur Verfügung hat, um mit der Umwelt in Verbindung
zu treten, wäre es nicht in der Lage zu entscheiden, ob jetzt die tatsächliche
Realität wahrgenommen wird oder nur Informationen aus einem Computer. Sie
würden zwar mißtrauisch, weil Sie ja dasselbe schon einmal erlebt haben, aber
dieses Erleben kennen Sie als Déjà-vu-Erlebnis und es wäre noch kein Beweis
dafür, daß Sie nicht mit der Realität, sondern mit dem Computer verbunden
wären.
Etwas
anderes würde Sie mehr irritieren. Wenn Sie versuchten zu handeln, würde dieses
Handeln total folgenlos bleiben, weil dieses Handeln weder vom Computer noch
von Ihrem Hirn wahrgenommen würde und somit ins Leere liefe, kein Feedback
veranlaßte. Sie kämen sich vor, als wären Sie gelähmt. Aber auch diese Lähmung
ist kein Beweis dafür, daß Sie am Computer angeschlossen und nicht der Realität
ausgesetzt sind. Auch in diesem Zustand hätten Sie ein Bewußtsein. Dieses
Bewußtsein würde sich sogar ändern. Denn wenn Sie z.B. Tag für Tag dasselbe
erlebten, würden Sie sich vermutlich langweilen und mit der Zeit ein anderes
Bewußtsein entwickeln. Aber nach wie vor hätten Sie ein Bewußtsein. Wenn man
Ihnen andere Informationen einspielte, würden Sie vielleicht auch aufhören sich
zu langweilen. Auch wenn man die Erfahrungswelt eines anderen Individuums in
Sie einspielte, würden Sie noch Sie selbst bleiben, wenn dies wohl auf die
Dauer über Lernprozesse Ihr Bewußtsein und damit vielleicht auch Ihre Identität
änderte. Wenn ich kurzfristig die Realität eines anderen Menschen wahrnähme,
würde ich diese anders verarbeiten als er, aber ich würde sie verarbeiten und
dennoch meine Identität wahren, mein Bewußtsein erhalten.
So
haben wir also ein Gehirn-Computer, der ausschließlich digital funktioniert und
ein Bewußtsein hat. Wir müssen konstatieren, daß es denkmöglich ist, allein auf
digitaler Datenverarbeitung ein Bewußtsein aufrecht zu halten. Bewußtsein ist
ein reines Softwareproblem (mit der Einschränkung, daß es um das Sein des
Bewußtseins geht, nicht um seine Entwicklung.) Diese Art von Bewußtsein hat
sich nicht entwickelt, sondern wurde vorgefunden bzw. implantiert. Zur Entwicklung
von Bewußtsein wäre nach wie vor die Hardware nötig.
Leben als digitales Phänomen
Noch
ein Gedankenspiel. Nicht nur das Bewußtsein ist bloße Informationsverarbeitung,
das Leben an sich auch. Leben ist die Entwicklung von DNS, also reine Software.
Leben ist nicht nur grundsätzlich an DNS gekoppelt, DNS als Information ist
grundlegende Bedingung für das Leben selöbst. Es wäre also denkbar, einen
Roboter zu konstruieren, der sich selbst reproduziert und lernfähig ist. Dieser
Computer braucht einen Bauplan, nach dem er sich selber reproduzieren könnte.
Es sind hier nicht die Gene, sondern es ist ein Programm, das den Bauplan
enthält und das Substrat wäre ein Chip, keine Aminosäuren. Wir könnten den
Chip-Genen Menscheninformation implantieren und unser menschliches Bewußtsein
Robotern übereignen. Wir (in einem fremden Körper mit unserem menschlichen
Bewußtsein) könnten damit sogar die Erde verlassen und das All bevölkern. Denn
wenn wir als Menschen mit unserer biologischen DNS (codiert in Aminosäuren) nicht
überleben können, könnten wir als menschlich programmierte Robotern (codiert in
Silizium-Chips) dies doch ermöglichen. So könnten wir die Bedingungen unseres
Überlebens erweitern und die Weite und Kühle des Alls bevölkern.
Die Antwort auf unser Thema
1.
Wir können nicht ausschließen, daß Computer Bewußtsein entwickeln.
2.
Wir können dafür Sorge tragen und
· Robotern Bewußtsein implantieren und
· Roboter entwickeln, die primärer Evolution
unterworfen sind.
3.
Wir können das verhindern.
Die
neue Frage lautet damit: „Sollen Computer Bewußtsein entwickeln?“ Diese Fragen
müssen wir offen lassen, sie steht noch nicht an. Sie kann aber einmal brennend
werden. Dabei müssen wir berücksichtigen:
1.
Wir können davon ausgehen, was machbar ist, wird irgendwann einmal gemacht.
2.
Es besteht die Gültigkeit von Murphy’s
Gesetz: Wenn etwas die Chance hat schief zu gehen, dann wird es
irgendwann auch einmal schief gehen.
Aus
diesem Grunde ist es so wichtig, daß wir heute beginnen, uns darüber Gedanken
zu machen, weil wir eines Tages diese Entwicklung steuern müssen. Vorsichtshalber ist zu raten:
"Wehret den Anfängen" oder, wie es Clinton formuliert hat:
"Niemals sollte einem Computer erlaubt werden, Golf zu spielen."
Zusammenfassung
Zunächst
wird der Auffassung widersprochen, Computer wären auf dem Weg, Gefühle oder gar
Bewußtsein zu entwickeln. Es wird dargelegt, daß diese Annahme erstens auf der
Verwechslung von Simulation von Gefühlen und Gefühlen selbst basiert, und
zweitens auf der menschlichen Neigung, eigene mentale Prozesse auf ein
Gegenüber zu projizieren. Die Präzisierung der Phänomene Bewußtsein (als Prozeß
beim Menschen) verdeutlicht die Defizite bei Computern. In einem zweiten Teil
werden Bedingungen genannt, unter denen es doch möglich wäre, daß Computer
Gefühle und Bewußtsein entwickeln könnten. Es werden 1. Kriterien des Lebens
verdeutlicht, die unter der Voraussetzung echter evolutionärer Selektion (nicht
Evolution durch Menschen) Maschinen eine Chance der Entwicklung geben und
schließlich zu Gefühlen und Bewußtsein führen könnten (analog der menschlichen
Entwicklung), und 2. wäre es denkbar, die komplette Software eines menschlichen
Bewußtseins (die als digital vorliegend angenommen werden muß) in ein
Rechenwerk zu transplantieren. Schließlich werden kurz Konsequenzen für
Computer und die Menschheit angedeutet.
Schlüsselwörter:
Computer, Bewußtsein, Evolution von Gefühlen.
Abstract
First of all the conception is contradicted
that computers are just evolving feelings or even consciousness. It is explained
that, firstly, this assumption is based on a confusion between the simulation
of feelings and feelings itself, and, secondly, that it is a result of the
human inclination to project subjektive mental processes on to an opposite
object. Precising the phenomenon consciousness (as a human process), the
computer’s deficiencies are elucidated. In the second part conditions are given
that could make possible the computer’s evolution of feelings and
consciousness. Firstly criteria of life are shown clearly, which, presupposing
real evolutionary selection (not evolution by man) allow machines a chance of
development maybe leading to feelings and consciousness (analogous to human
evolution), and secondly, it would be possible to transplant the whole software
of a human consciousness (which would be presupposed to be known digitally)
into an arithmetic unit. Finally the consequences to computer and mankind are
mentioned.
Key words: computer, consciousness, evolution
of feelings.
Anschrift
des Verfassers:
Prof.
Dr. Klaus Heinerth, Universität München
Fakultät
für Psychologie und Pädagogik, Leopoldstr. 13, 80802 München
Veröffentlicht:
Pädagogisch-Psychologische
Arbeiten und Berichte (PAB) 1998/1
(Hrsg.
Elbing, E.)