Können Computer Bewußtsein entwickeln?

 

 

Diese Formulierung legt nahe, daß sie noch keines haben. Wir können in der Tat davon ausgehen, daß sie keines haben, auch wenn bereits publiziert wird, daß Computer auf dem Wege sind, z.B. Gefühle zu haben. Bisher jedoch ist die Annahme, daß Computer Gefühle haben, nur dem Umstand zuzuschreiben, daß man Computer dazu gebracht hat, Gefühle zu simulieren. Da wir davon ausgehen müssen, daß Gefühle evolutionär früher entwickelt wurden als Bewußtsein, müssen wir auch annehmen, daß Computer von einem Bewußtsein noch weiter als von Gefühlen entfernt sind (die Schlüssigkeit dieser Bemerkung wird noch diskutiert). Das, was Computer vorgeben zu haben, verhält sich zu dem, was wir unsere Gefühle nennen, nicht einmal so, wie echte Gefühle zur Simulation oder zum Schauspielern von Gefühlen, da das Spielen von Gefühlen immerhin auf den Organismus zurückwirkt und Gefühle evoziert. Beim Menschen verlief die Evolution so, daß zuerst Gefühle entwickelt wurden und dann  erst das Schauspielern von Gefühlen. Es erscheint sehr fraglich, ob diese Entwicklung beim Computer umgekehrt sein sollte, nämlich daß sie erst Gefühle simulieren und sie dann lernen, wirklich zu haben. Dieser Weg von der Simulation zu Gefühlen und zu Bewußtsein ist eher unwahrscheinlich. Warum auch sollten es Computer tun? An dieser Stelle können wir zunächst festhalten, daß mit der Behauptung, Computer haben Gefühle, Gefühle und die Simulation von Gefühlen verwechselt werden und daß Computer nicht einmal Gefühle haben, geschweige denn ein Bewußtsein.

 

Einfühlung als Voraussetzung zum Bewußtsein

 

Was aber haben dann Computer, das zu solchen Behauptungen verleitet: Intelligenz? Wenn es Intelligenz ist, dann sind Computer höchste Fachidioten. Das können sie sein, eben weil sie unbeeinflußt von Gefühlen sind. Das haben sie uns in der Tat voraus, daß sie voraussetzungslos, emotionslos, unvoreingenommen Sachverhalte kalkulieren können. So ist es auch mit Big Blue im Schachkampf gegen den Schachweltmeister K. geschehen. Big Blue jedoch Intelligenz zuzusprechen wäre eine Beleidigung für intelligente Menschen, egal wie dumm sie sind. Big Blue kann nichts anderes als kalkulieren und nur höchst spezielle Probleme lösen, er ist ein Fachidiot im eingeschränktesten Maße. Computer sind bisher deswegen Schachweltmeistern unterlegen gewesen, eben weil sie nur kalkulieren konnten, nicht täuschen. Zur Möglichkeit des Täuschens gehört Einfühlung in die Strategien des Gegners, was dem Computer versagt ist. Die Chance des Menschen liegt darin, daß er genau hier die Möglichkeit hat, die Maschine in ihren Strategien zu verstehen, um sie zu täuschen.

 

Umgekehrt kann sich der Mensch durch den Computer täuschen lassen, aber nicht, weil der Computer die Absicht hätte, ihn zu täuschen, sondern weil der Mensch dem Computer etwas fälschlich unterstellt, sich also durch sein eigenes Unvermögen unterwirft. So hat sich. Weltmeister K. täuschen lassen und hat die Flinte an einer Stelle des Spielablaufs ins Korn geworfen, an der nachweislich dies nicht nötig gewesen wäre. Die Täuschung ist also ein Vermögen, ein durchaus intelligentes und höchst angepaßtes Vermögen des Menschen, nicht eins der Maschine. Das gilt für das Täuschen und auch für das Sich-täuschen-lassen bzw. den Eindruck, sich getäuscht zu fühlen, auch wenn dieser falsch ist und zu falschen Schlüssen verführt, wie hier zur voreiligen Aufgabe des Spieles. Voraussetzung jeder Täuschung ist Einfühlung, die Übernahme der Realität des anderen. - Das können sogar Tiere besser als Maschinen.

 

Die Projektion von Gefühlen

 

Dieses Beispiel zeigt deutlich die Unbeweglichkeit der Maschine. Es ist eine Eigenart des Menschen, seine eigenen Befindlichkeiten in anderen reagiblen Wesen wieder zu entdecken (Projektion). Und zu den reagiblen Wesen können wir Computer durchaus rechnen. Der Computer reagiert auf Eingaben über sein Sensorium: Tastatur, Modem etc. Die Annahme des Menschen, daß in der Maschine etwas menschliches passiert, begründet zugleich seine eigene Täuschbarkeit. Wir lassen uns täuschen von einem Gegenüber, weil wir in ihn etwas hineinprojizieren, was dort nicht vorzufinden ist. Beispiele:

 

1. Der Turingtest. Der Mathematiker und Informatiker Turing hat vorgeschlagen, daß Menschen über eine Tastatur mit entweder Menschen oder Rechnern kommunizieren, wobei die Rechner als reagible Wesen Menschen simulieren sollten. Es hat sich gezeigt, daß sich die Menschen vor der Tastatur häufig nicht sicher waren, ob sie einem Computer oder einem Menschen gegenüber sitzen. Die Sicherheit, die der Mensch hat, einem Menschen statt einem Computer gegenüber zu sitzen, ist ein Maß für die menschenähnliche Reagibilität von Computern - aber noch überhaupt kein Beweis dafür, daß sie Gefühle oder Bewußtsein hätten.

 

2. Mitte der Siebziger Jahre intensivierte ich meine psychotherapeutische Tätigkeit. Zugleich lernte ich, Computer zu programmieren und Reiten. Der Umgang mit Klienten, Rechnern und Pferden hatte etwas Gemeinsames. Es galt, einen Organismus, ein schier unberechenbares System mir gegenüber zu verstehen, um meine Ziele zu erreichen: Selbstexploration des Klienten, Problemlösung durch den Computer und die Beherrschung des Pferdes. Eindrücklich war beim Versuch, mein Gegenüber zu verstehen, die Parallelität meiner Gefühle. Dabei glaube ich nicht, daß ich Klienten und Pferde wie Maschinen behandelt habe, sondern daß ich dem Computer gegenüber Gefühle entwickelt habe, wie sie lebenden Wesen angemessen wären, - egal, ob es sich um Bewunderung oder Ärger handelte.

 

3. Bei einer Demonstration von PCs für meine Kollegen im Psychologischen Institut, für die damals der Einsatz von PCs noch etwas Befremdendes hatte, beklagte sich ein Kollege sehr, daß der Computer behandelt würde wie ein lebendes Wesen. Er monierte, daß so gesprochen würde, als ob die Maschine dächte oder eine Eingabe erwarte. Denken und Erwarten sind anthropomorphisierende Annahmen über eigentlich tote, wenn auch reagible Systeme.

 

4. Die Tamagotchi-Mode zeigt beängstigend deutlich, wie Menschen Gefühle gegenüber einem leblosen Gegenstand entwickeln, der sich reagibel und bedürftig darstellt. Die Gefühle der jungen Menschen unterscheiden sich, wie gezeigt werden konnte, überhaupt nicht von Gefühlen, die andere Menschen Tieren oder anderen Menschen entgegenbringen können: Freude, Trauer, Schuldgefühle usw.

 

5. Verwunderlich ist das nicht, weil wir ja alle z.B. Bäumen, der Demokratie oder Gott gegenüber Gefühle entwickeln. Auch wir aufgeklärten Menschen sind vom Animismus, der Annahme, daß die Umwelt um uns herum belebt ist, nicht so weit entfernt. Allerdings ist uns aufgeklärten Menschen bewußt, daß es sich hier um unsere eigenen Gefühle handelt und nicht um die Realität der Außenwelt. Zugleich macht es dies so schwierig darüber nachzudenken, was wirklich innerhalb eines fremden Systems passiert, wie wir der Gefahr entgehen, unbedacht zu anthropomorphisieren, besonders, unsere eigenen Gefühle in andere zu projizieren.

 

Phänomenologie bewußter Prozesse

 

Zur Beantwortung der Frage, wie ein Computer Gefühle oder Bewußtsein entwickeln kann, scheint es nützlich zu sein zu betrachten, was denn Bewußtsein überhaupt ist. Dabei glaube ich, daß an dieser Stelle eine akademische Definition wenig hilfreich ist (sie wird folgen), daß wir vielmehr auf der phänomenologischen Ebene schauen, was wir in unserem Sprachgebrauch mit dem Begriff  bewußt und Bewußtsein verbinden:

 

1. Bei Bewußtsein sein ist das Gegenteil von bewußtlos sein, ist lebendig, nämlich reagibel, nicht im Koma, sondern ansprechbar sein.

 

2. Bewußt ist das Gegenteil von unbewußt, also reflektierend,  wobei die Reflexion nicht permanent, sondern wahlweise möglich ist. (Im Gegensatz zu unbewußt steht auch vorbewußt und bewußtseinsfähig.)

 

3. Wir verwenden den Terminus im Bewußtsein von etwas zu sein und meinen damit eingedenk der Tatsache, der Umstände, des Bezugsrahmens zu sein. Dies steht im Gegensatz zu routiniert oder automatisch und meint absichtlich, geistesgegenwärtig.

 

4. Bewußte Wahrnehmung einer Erfahrung meint die Konzentration der Aufmerksamkeit auf etwas, das wahrgenommen wird. Es ist dies die Betrachtung der Prozesse im Arbeitsspeicher unseres Hirns: Das Gewahrwerden zum Beispiel einer Blume, präsent sein im Angesicht einer Wahrnehmung.

 

5. Diese Präsenz kann auch mir selbst gelten, meinen  Selbstwahrnehmungsvorgängen: Selbst-Bewußtsein (im Unterschied zu Selbstbewußtsein im Sinn von Selbstsicherheit).

 

6. Mit Bewußtsein meinen wir auch die prinzipielle Fähigkeit die Möglichkeit zu Bewußtsein. Dem Menschen wird Bewußtsein zugeschrieben, auch wenn er im Moment schläft, döst oder sein Hirn mit Rechenaufgaben beschäftigt.

 

Auf eine technische Art können wir Maschinen die Phänomene 1 bis 4 mehr oder weniger treffend zuschreiben. Das eigentliche Bewußtsein ist damit jedoch nicht erfaßt: Das Erleben des Bewußtseins und des Selbst-Bewußtseins (ich komme darauf zurück).

 

Evolution von Gefühlen

 

Ein weiterer Zugang zum Verständnis des Phänomen des Bewußtseins besteht über die Betrachtung der phylogenetischen und ontogenetischen Entwicklung des Bewußtsein beim Menschen: der Menschheit wie der einzelnen Person.

 

Als das Leben noch jung war auf der Erde, war es wichtig, daß sich die Organismen in der Umwelt orientieren konnten. Schon für den Einzeller war es lebensnotwendig, die Realität, nämlich seine Umwelt wahrzunehmen, um angemessen auf Veränderungen reagieren zu können: Veränderungen bezüglich Nahrung, Licht, Wärme und Feinde. Nur wer hier geschickt operieren konnte, hatte eine Überlebenschance und konnte das Leben weiter tragen. Wer hier versagte, schied aus der weiteren Evolution aus. Der Überlebensdruck der Organismen zwang sie weiter, ihre Wahrnehmung zu verbessern. Zur genaueren Wahrnehmung der Umwelt gehörte dann auch die Wahrnehmung von sich selbst.

 

Exkurs Roboter. Eines der schwierigsten Probleme bei Robotern ist, ihnen beizubringen, sich selbst zu erkennen, um sich nicht selbst zu verletzen. Wenn ein Roboter einen Arm ausschwenkt und damit seinen anderen Arm trifft, könnte das zur Zerstörung seiner Greifwerkzeuge führen. An diesem Beispiel wird sichtbar, wie wichtig es ist, auch ein Bild von sich selbst zu haben, um sich in der Welt wahrnehmen zu können, um die Chancen des Überlebens zu erhöhen.

 

Anders als Roboter werden lebende Organismen nicht programmiert, sondern sie müssen evolutionär, also genetisch lernen, ein Schema von der Umwelt und von sich selbst aufzubauen. Sie müssen lernen, sich von der Umwelt zu unterscheiden. Diesen Lernvorgang muß jedes Menschenkind selbst wieder vollziehen. Es muß sich sozusagen selbst programmieren. Wenn es mit seinen Tastorganen sich selbst trifft, dann kann es an dem Umstand, daß es an zwei unterschiedlichen Punkten seines Organismus korrespondierende Wahrnehmungen hat, erkennen, daß es sich selbst berührt. (Wenn es irgend etwas anderes berührt, hat es nur an einer Stelle das Empfinden von Berührung.) Wahrnehmung und Selbstwahrnehmung unterscheiden sich also in dem einzigen Umstand, daß wir einmal einen Punkt der sensorischen Reizung haben, zum anderen zwei.

 

Evolution des Selbstkonzepts

 

Dieses simple Kriterium erlaubt mir eine sehr präzise Unterscheidung von mir und dem Rest der Welt und gestattet den Aufbau von Schemata über die Welt und in ihr über mich selbst. Dazu brauche ich Abbilder in mir, Repräsentationen der Realität, um erkennen zu können, wo und wie ich mich in der Welt befinde. Diese Schemata von der Umwelt, von mir und den gegenseitigen Relationen, ist der Beginn der Entwicklung meines Selbstkonzepts. Der Aufbau von Schemata über mich und die Welt ist nötig, um Entscheidungen treffen zu können (Nahrung suchen, Feinde fliehen, Müdigkeit respektieren usw.). Um solche Entscheidungen zu treffen, ist es unabdingbar notwendig, daß meine Erfahrungen bewertet werden. Diese organismische Bewertung erlebe ich als meine Gefühle.

 

Grundlagen des Handelns

 

Der Organismus trifft keine Entscheidung, wird nicht handeln, wenn er nicht dazu motiviert ist. Diese Motivierung geschieht über Emotionen. Alle relevanten Wahrnehmungen, übrigens auch des eigenen Körpers, werden bewertet, werden gefühlt. Es sind Gefühle und keine bewußten Entscheidungen, die Organismen bewegen, etwas so und nicht anders zu tun. Der Plattwurm z.B., der gelernt hat, sich bei einer Weggabelung für den beleuchteten Teil des Weges zu entscheiden, weil er am Ende statt eines Schlages, wie bei der dunklen Wegstrecke, Futter erhält, wird sich bei künftigen Entscheidungen nicht bewußt erinnern, was damals gewesen ist, sondern er wird einfach nur spüren, es ist angenehmer unter diesen Umständen ins Helle zu gehen. Für ihn ist es angepaßter, sinnvoller  ins Helle zu gehen, egal ob rechts oder links, rauf oder runter. Der Pawlowsche Hund, der gelernt hat, daß er bei Klingelzeichen Futter bekommt, wendet sich dem Futter zu und sezerniert Speichel und Magensäfte. Diese Entscheidung ist nicht bewußt, sondern resultiert aus der organismischen Bewertung der Situation, wahrnehmbar als Emotion. Emotionen als organismische Bewertungen sind das Agens der Evolution, der Selbsterhaltung und Arterhaltung. Ohne Gefühle würde der Organismus sich nicht entscheiden, nicht handeln und untergehen. Es ist dies der Selektionsdruck der Evolution, der den Gefühlen ihren Sinn gibt. Ohne diesen Zweck wären Gefühle ohne Belang, überflüssig, störend.

 

Selbstbespiegelung als Bedingung des Bewußtseins

 

Die Entwicklung zum Menschen hat dazu geführt, daß nicht nur die Außenwelt und die eigene Person abgebildet wird, sondern auch das Abbild der Welt und der Person kann wiederum betrachtet werden. So können Menschen nicht nur fühlen, sondern sie können auch wahrnehmen, daß sie fühlen und wie sie fühlen. Der Mensch ist - und das macht ihn zum Menschen - das einzige Lebewesen, das nicht nur die Wahrnehmung und die damit verbundenen organismische Bewertung erfährt, sondern auch wiederum diese organismische Bewertungen wahrnimmt und fühlt. Wir kennen eine lange Liste von solchen Gefühlen über Gefühle (ein Dutzend seien herausgegriffen):

Beschämung über Angst

Ekel vor Abhängigkeit

Stolz auf Erleben

Ärger über Eifersucht

Schuldgefühle für Verachtung

Angst vor Schmerzen

Dankbarkeit über Freude

Freude über Liebe

Verachtung über Mißgunst

Trauer über Schuld

Zorn über Neidgefühle

Entsetzen über Einsamkeitsgefühle.

 

Diese Liste ließe sich beliebig weiterführen, in fast beliebigen Kombinationen. Weil wir uns selbst wahrnehmen können, können wir uns auch dann selbst wahrnehmen, wenn wir uns wahrnehmen. Dieser Zirkel der Wahrnehmung über die Wahrnehmung ist die Spiegelung, die Brechung von Ich und Mich. Ich als Wahrnehmender und ich als Wahrgenommener. Dieser Zirkel ist die Bedingung für Bewußtsein. Wenn ich den Strahl meiner Aufmerksamkeit auf diesen Prozeß lenke, bin ich mir meiner selbst bewußt. Descartes („Ich denke, also bin ich“) irrt: Ich bin, nicht weil ich denke, sondern ich bin, weil ich mich wahrnehme, weil ich Gefühle habe und weil mir diese Gefühle Gefühle machen. Wenn Descartes recht hätte, würde ja schon die Kalkulation eines Computers rechtfertigen, daß der annehmen könnte, er sei. Denken (schlüssig folgern) alleine macht noch nicht das Individuum als solches und sein Bewußtsein aus.

 

Bewußtsein als soziales Phänomen

 

An diesem Beispiel wird auch klar, daß der Mensch nicht mit solch einem Selbst-Bewußtsein geboren werden kann, sondern daß er erst lernen muß, sich in dieser Welt wahrzunehmen. Dazu bedarf es der Bezugspersonen, nämlich solcher Personen, die ihrerseits schon ein Selbst haben und durch ihre Einfühlung dem sich entwickelnden Organismus helfen, sich selber wahrzunehmen. Den Menschen ist angeboren, diese Leistung zu vollbringen, aber  diese Leistung selbst ist nicht angeboren, die muß er selbst erbringen. Er muß lernen, seine eigenen Gefühle, d.h. die organismische  Bewertung seiner Erfahrungen als seine eigenen zu betrachten. Wenn also Selbst-Bewußtsein und Selbstkonzept nur durch Personen erlernt werden können, die ihrerseits Selbst-Bewußtsein haben, fragt sich, wie kommt dann Selbst-Bewußtsein überhaupt in die Welt. Dies ist die alte Frage nach der Henne und dem Ei. Die Antwort liegt, wie dargestellt, im Selektionsdruck der evolutionären Anpassung.

 

Ebenen des Selbstkonzepts

 

Beim Menschen lassen sich mehrere Ebenen des Selbstkonzepts unterscheiden und kurz bezeichnen:

 

1. Kognition. Hier geht es um Informationsaufnahme, Verarbeitung, Lernprozesse und Entscheidungsfindung.

 

2. Emotion. Es geht hier um die Motivation zur Entscheidungsbegründung. Emotionen sind zu verstehen als Ursache von Verhalten. Sie sind Folge von Erfahrungen, um Verhalten, das Erfahrungen beantwortet, zu begründen.

 

3. Konation. Hier geht es ums Wollen bzw. Handeln, nämlich darum, eine Entscheidung zu treffen und auszuführen.

 

Beim Computer sind diese Ebenen auch zu trennen, aber anders zu bewerten:

 

1. Kognition: Der Computer ist zur Zeit in seiner Wahrnehmung sehr beschränkt. Er kann nur ein geringes Spektrum der Umwelt in sich aufnehmen. Wenn schon die Wahrnehmungsfähigkeit des Menschen sehr begrenzt ist, so ist die Wahrnehmungsfähigkeit der Computer noch ein mal sehr viel begrenzter. Die Verarbeitung dieser Informationen ist sehr einfach, nämlich durch einen Satz von Regeln gesteuert. Dieser Computer ist vergleichbar einem Menschen, der nur einen Katechismus hat, nach dessen Geboten erhandelte, und der eigene Bedürfnisse außer acht ließe. Diese Ebene des Denkens - so definiert - wäre auch dem Computer zuzugestehen.

 

2. Emotionen, die beim Menschen das Primat besitzen, fehlen dem Computer zur Zeit noch völlig. Computer haben keine persönlichen Bedürfnisse, während der Mensch nur aus persönlichen Bedürfnissen heraus handelt, auch dann, wenn diese persönlichen Bedürfnisse abzielen auf die Befriedigung von überpersönlichen Bedürfnissen. Wenn ich mein Hemd mit einem Menschen teile, den ich liebe, dann bin ich altruistisch, weil ich mein Gefühl der Liebe, der sozialen Verbundenheit (das evolutionär begründet ist) respektiere und damit wieder egoistisch, also an meinen eigenen Bedürfnissen orientiert bin.

 

3. Wollen und Handeln. Auch der Computer handelt bzw. gibt Anweisungen zu handeln, indem er sich entscheidet. Dieses Handeln aber ist sozusagen ein Handeln des Königs, der nicht direkt wahrnehmen kann, ob und wie seine Entscheidung realisiert wird. Ein Mensch, der handelt, erfährt gewöhnlich unmittelbar eine Rückmeldung über die Folgen seines Handelns. Das erfährt der Computer nicht. Diese Rückmeldung  (übrigens wieder ein Zirkel) müßte erst mühsam implantiert werden. Der Computer, der entscheidet, daß die Korrelation einen Wert bestimmter Größe hat, erfährt nichts von dessen Relevanz. Ein Computer, der entscheidet, daß er sich selbst zerstört, wird aus dieser Entscheidung nicht lernen können. Es gibt zwar Simulationsprozesse, bei denen Entscheidungen wieder auf das Programm zurückwirken, wie bei der „Künstlichen Intelligenz“, aber eben nur auf das Programm und nicht auf den Computer. Bei Fehlentscheidungen ist die Existenz des Computers selbst nicht direkt gefährdet. (Auf die Unterscheidung Hardware und Software werde ich noch zu sprechen kommen.)

 

Fazit: Computer nehmen nichts persönlich, entwickeln keine Gefühle, damit kein realistisches Bild von sich selbst und damit auch kein Bewußtsein. Bewußtsein als die persönliche, individuelle, einmalige Betrachtung des gesamten Bezugsrahmens einschließlich der Selbstbespiegelung wäre nur möglich unter einem evolutionären Druck, dem die Computer nie ausgesetzt waren (der sekundäre evolutionäre Druck ist hier nicht ausschlaggebend, ebensowenig wie bei Autos, die nach Gutdünken von Menschen verbessert rsp. eliminiert werden). Das will ich an zwei Phänomenen verdeutlichen, die Computern fehlen: Persönlichkeit und Präsenz.

 

1. Persönlichkeit als Identität mit sich selbst.

 

Ich bin mit mir selbst nur dann identisch, wenn ich mich erfahre als jemand in einem speziellen, nämlich meinem eigenen, persönlichen Bezugsrahmen. Ich bin als Persönlichkeit identisch mit mir selbst und nicht identisch mit der Umwelt und mit anderen Personen dieser Umwelt. Diese Einzigartigkeit erfahre ich durch die Bewertung aller meiner organismischen Erfahrungen in dieser Umwelt, und wie ich ein Teil dieser Umwelt bin. Fehlt mir diese Bewertung, habe ich auch kein Gefühl für mich selbst, für meine wirkliche Identität.

 

Menschen, denen durch ein Unfall das limbische System zerstört wurde, nämlich der Ort, in dem diese emotionale Bewertung stattfindet, verlieren ihre Persönlichkeit. Da ihr Körper aber trotzdem organismische Bedürfnisse hat (z.B. Hunger) werden diese Bedürfnisse anders ausgelebt, unter Vernachlässigung sozial-emotionaler Bedürfnisse, nämlich unsozial bzw. kriminell. Persönliche und soziale Werte zählen nicht mehr. Diese Menschen funktionieren nur noch, menschliche Werte werden bedeutungslos. In dieser Beziehung sind sie wie Computer.

 

Computer sind lösungsorientiert, während Menschen existenzorientiert sind. Menschen sehen das Problem in einem größeren Zusammenhang, in einem existentiellen, auch überpersonalem, sogar transpersonalem Zusammenhang. Dieser Teil ihrer Persönlichkeit bietet die Grundlage für organismische Bewertungen, die naturgemäß anders aussehen als Bewertungen durch einen Computer, der nur die Lösung eines isolierten Problems im Fokus hat. Der Mensch bewertet seine Überlebenschancen und entwickelt existentielle Gefühle. Der Computer hingegen ist der Evolution nicht primär unterworfen, kennt keine existentiellen Gefühle und kann nicht erkennen, was als gut oder schlecht zu bewerten ist und schon gar nicht für ihn selbst. Er kann lernen, aber nicht wachsen. Er pflanzt sich nicht fort. (Höchstens pflanzen sich Viren in ihm fort. Ich komme darauf zurück.)

 

Ein Computer lebt nicht und bleibt ohne evolutionären Druck ein Automat, der den Kriterien des Lebens (die ich noch diskutieren werde) nicht unterworfen ist, ihnen nicht gerecht werden kann, und deswegen kein Bewußtsein entwickeln wird.

 

Zur menschlichen Persönlichkeit gehört das Primat der Gefühle. Während die intellektuellen Fähigkeiten der Psyche in der entwicklungsgeschichtlich jungen Formation des Großhirns liegen, sind die emotionalen Fähigkeiten in erster Linie im Mandelkern des limbischen Systems zu finden. Wird dieser Mandelkern zerstört, erlischt jegliches Gefühlsleben. Der Patient ist "seelenlos". Gefühle wie Haß und Liebe sind nicht mehr möglich. Sein Charakter ist zerstört. Die emotionale Gesundheit, die durch Funktionen des Mandelkerns gewährleistet ist, ist die Voraussetzung für die Persönlichkeit eines Menschen, sein Selbstkonzept, da dies aus Bewertungen besteht, die ohne Mandelkern nicht möglich sind. Das limbische System im Zusammenspiel mit den Hormonen (Endorphine und Serotonin) ist die Voraussetzung des Fühlens und Sich-Fühlens und Wohlfühlens. Dieses System ist so stark, daß es die entwicklungsgeschichtlich jüngeren Teile des Hirns (die Großhirnrinde) mit seinen kognitiven Fähigkeiten überrennen kann und vernunftmäßiges Handeln verunmöglicht. (Menschen neigen dazu, diese positive Kraft der Emotionen künstlich zu stimulieren z.B. durch Drogeneinnahme.). Dichter wissen darum. Goethe läßt seinen Faust sagen: „Gefühl ist alles; Name ist Schall und Rauch.“ und: „Wenn ihr nicht fühlt, ihr werdet's nicht erjagen!), Novalis: „Das Denken ist nur ein Traum des Fühlens.“ und Schiller: „Das Genie verfährt nicht nach erkannten Prinzipien, sondern nach Einfällen und Gefühlen.“.

 

2. Präsenz, das Gewahrwerden einer Wahrnehmung.

 

Die Wahrnehmung der Realität (inklusive der Umwelt, der eigenen Person, des Selbst, der Selbstrepräsentanz und des Prozesses der Selbstrepräsentanz) gelangt in das Wahrnehmungsregister. Hier wird blitzschnell alles ausgefiltert, was im Augenblick nicht relevant erscheint. Nur wenige Reize gelangen dann wirklich in den sogenannten Arbeitsspeicher. In diesem Arbeitsspeicher findet der Prozeß der Verarbeitung statt. Dieser Arbeitsspeicher hat eine Kapazität von wenigen Informationen (vielleicht ein halbes Dutzend Informationseinheiten) in einer ganz begrenzten Zeit (vielleicht zehn Sekunden). Nur diese wenigen Einheiten sind in dieser kurzen Zeit präsent. In dieser Zeit gibt es keine Vergangenheit und keine Zukunft. Es ist eben das Präsens, die Gegenwart, der Fokus der Aufmerksamkeit. Hier werden die Entscheidungen für eine nötige Anpassung des Individuums an die Welt oder an sich selbst gefällt: Akkomodation (Ich passe mich den Verhältnissen an) oder Assimilation (Ich passe die Verhältnisse an mich an.). Inhalt des Arbeitsspeichers kann auch die Beobachtung dieses Prozesses sein. Diese Präsenz nennen wir das Bewußtsein, und wenn sich diese Präsenz auf diesen Prozeß selbst bezieht, nennen wir es Selbst-Bewußtsein.

 

Diese Leistung vollbringt ein Computer nicht. Er beobachtet sich nicht selbst. Er problematisiert seinen Arbeitsspeicher nicht selbst. Zwar kann der Prozessor mit seinem Arbeitsspeicher auch betrachtet werden, aber nicht von sich selbst. Und selbst wenn das möglich wäre, also der Arbeitsspeicher groß genug wäre um Platz zu schaffen für die Selbstbespiegelung, gäbe es noch keine Gefühle, keine Identität und das Bewußtsein hätte sich nicht entwickelt. Auch die Protokollierung der Prozesse im Arbeitsspeicher und die Protokollierung der Protokolle und die Protokollierung der Protokollierung der Protokolle würde noch nicht ausreichen, von einem Bewußtsein zu sprechen. Und diese Präsenz zu entwickeln hätten Computer keinen Grund, eben weil sie nicht dem evolutionären Druck unterworfen sind, nicht existenzorientiert sind.

 

Gefühl und evolutionäre Selektion

 

Ohne Selektionsdruck entwickeln sich keine Gefühle, weil nämlich ohne Gefühle der sachliche Aspekt eines Problems besser gelöst werden kann (siehe Spock, der Spezialität für logische Problemlösungen). Mit gutem Grund haben Computer keine Gefühle: die würden den stringenten Ablauf der Problemlösung stören.

 

Im Übrigen ist zu berücksichtigen, daß der menschliche Arbeitsspeicher sich in einigen Merkmalen vom Computerprozessor unterscheidet. Der menschliche Arbeitsspeicher

·      ist redundant,

·      ist fehlertolerant,

·      Gefühlen unterworfen, damit

·      wechselhaft und launisch,

·      unscharf und

·      fehlerhaft.

 

Was den Prozessor des Computers anbelangt, so ist er zunächst einmal überhaupt nicht fehlertolerant und wenn eine bestimmte Fehlertoleranz eingebaut wird, dann nur in einem sehr definierten Rahmen. Gefühle kennt er nicht. Während die Unschärfe seines Denkens in der fuzzi logic durchaus berücksichtigt wird, geschieht dies nicht bis zur Fehlerhaftigkeit. Die Fehler eines menschlichen Arbeitsspeichers werden besser erkannt, entweder abgestellt oder als Kreativität genutzt, während der Computer sich in Endlosschleifen aufhält.

 

Wie erhalten Computer Bewußtsein?

 

Diese Frage scheint relevanter als die Eingangsfrage: Können Computer Bewußtsein entwickeln. Denn nach allem, was gesagt wird, können sie unter den gegebenen Umständen kein Bewußtsein haben und auch keines entwickeln, aber unter anderen Umständen vielleicht sehr wohl. Jetzt möchte ich diese Umstände betrachten. Sie sind schon genannt worden: Erst müssen Computer zum Leben erweckt werden.

 

Lebendige Computer

 

Damit ist die nächste Frage aufgeworfen: Wie kriegt ein System Leben?  Was ist Leben? Dazu möchte ich die Kriterien des Lebens, wie schon angekündigt, betrachten. Klassischerweise gibt es drei Kriterien des Lebens, die erfüllt sein müssen. Formwechsel, Stoffwechsel, Reizbarkeit.

 

1. Reizbarkeit

 

Natürlich sind Computer reizbar bzw. reagibel. Sie verstehen Reize und können auf sie auch sinnvoll reagieren. Leicht wäre denkbar, den Umfang der Reizsensibilität auszuweiten, den Computern weitere Sinnesmodalitäten zu eröffnen und umfangreichere Programme, die einlaufenden Reize bewerten können. Noch ist das nur wenig der Fall. Der Informationsinput muß in einem eng definierten Rahmen liegen, sonst gilt: garbage in - garbage out. Den Computern fällt es sehr schwer, Müll von relevanter Information zu unterscheiden und er kann irrelevante Informationen kaum zurückweisen. So hat er z.B. keine Reaktionsmuster auf die Bedrohung, wenn ich mit der Axt auf ihn zukomme oder ihm drohe, den Stecker herauszuziehen. Diese Beispiele zeigen, wie umfangreich die Erweiterung des Sensoriums und der Bewertungskriterien sein müßte, um dem Computer Leben ähnliche Reizbarkeit zuschreiben zu können.

 

2. Stoffwechsel

 

Der Mensch ist ein offenes System mit einem Metabolismus, bei dem Verdauung und Atem dafür sorgen, daß unabhängig von der Diät der Organismus mit sich selbst identisch bleibt. Wir können Schweine essen oder Haferflocken, es macht im Prinzip keinen Unterschied. Der Computer ist eher kein offenes System. Sein Energieinput ist nicht variabel, ich muß ihm Strom zuführen, mit Kohlen würde er nicht arbeiten. Und wenn ich nur die Softwareseite betrachte, so ist es auch so, daß der Computer definiert ist durch das Programm, das gerade läuft. Wird das Programm gewechselt, ist er ein anderer Computer. Er ist Schreibautomat oder steuert Fließbänder. Aber auch hier wäre denkbar, daß man universale Maschinen entwickelte mit universalen Programmen, die mit unterschiedlichen Energieinputs immer die gleiche Arbeit leisten.

 

3. Formwechsel

 

Dieses Kriterium erfüllt die Maschine am wenigsten. Sie wächst nicht, entwickelt sich nicht bis zu ihrem Tod, weil sie sich nicht fortpflanzt. Der evolutionäre Selektionsdruck würde nur eingreifen, wenn dieses Kriterium erfüllt würde, wenn nämlich die Maschinen wachsen und sich selbst reproduzieren könnten, um dann abtreten zu können, um den besseren Maschinen Platz zu machen. Dieses Kriterium ist zwar kaum erfüllt, aber das heißt nicht, daß es nicht erfüllbar wäre. Es gäbe dann zwei Entwicklungslinien

 

1. Man könnte Roboter bauen, die in der Lage wären, sich selber zu reparieren, zu verbessern und sich selber zu reproduzieren. Der Tod müßte nicht extra programmiert werden, die nachfolgenden Generationen könnten dieses Problem lösen. Da sie durch Anpassung besser als die Alten sind, werden sie die Ressourcen besser nutzen können und die alten Versionen zum Aussterben bringen. Diese Utopie ist nicht undenkbar, einige Science-Fiction-Autoren sind dieser Idee längst nachgegangen.

 

2. Eine weitere Denkmöglichkeit wäre, Leben auf der Softwareebene anzunehmen, also nur die Computerprogramme zu betrachten. Da stehen wir vor der Tatsache, daß es hier ja schon so etwas wie Leben gibt, auch wenn diese Programme als Viren wohl nur eine Vorstufe sind, aber doch schon  Kriterien des Lebens aufweisen, ähnlich wie biologische Viren. Der Ausdruck Viren hat eine negative Konnotation, die aber nicht immer gerechtfertigt ist. Es gibt Versuche, auch solche Programme in Computer zu implantieren, die gutartig sind, die dem Computer nicht nach dem Leben trachten, aber so programmiert sind, sich auszubreiten und zu verbessern (Verbesserung meint: bessere Ausnutzung von Ressourcen, bessere Anpassung). Es gibt Projekte, bei denen diese Art von Programmen über das Internet in alle Computer dürfen, deren Besitzer sich einverstanden erklärt haben. Hier werden freie Speicherplätze genutzt, so daß diese „Lebewesen“ sich über den ganzen Erdball verteilen und  wachsen können. Wie sich gezeigt hat, vermehren sie sich, sind evolutionärem Druck ausgesetzt, haben sich neuen Situationen angepaßt und haben sich schon verändert. Ich bin sehr gespannt, wohin nun diese Entwicklung führen wird.

 

Software-Leben

 

Wann kann man solchen Programmen Leben zusprechen? Der entscheidende Unterschied zwischen diesen anpassungsfähigen Computerprogrammen und natürlichen Organismen ist der, daß diese Software-Lebewesen ihren Gastgeber, den Computer nicht wesentlich steuern. Biologische Organismen sind auch denkbar (entsprechend den Theorien der Soziobiologie) als Software und nur als Software. Aber sie sind dann eindeutig und unabwendbar mit ihrem Gastgeber verbunden, den sie steuern. Stirbt der Gastgeber, stirbt auch das Programm - sofern es sich nicht in Teilen in anderen Individuen fortgepflanzt hat (biologisch über Gene) und/oder psychologisch (sozial über Einstellungen). Die Frage bleibt, wie weit ein körperliches Substrat notwendig ist. Ich möchte dazu zu einem Gedankenexperiment einladen:

 

Bewußtsein als digitales Phänomen

 

Stellen Sie sich vor, man nähme Ihr Gehirn und würde an seiner Grenze, nämlich da, wo alle afferenten Fasern ins Hirn eintreten, eine Verbindung schaffen zu einem Computer. Auch alle humoralen Afferenzen werden, bevor sie das Hirns selbst als elektrische Signale erreichen, an dieser Stelle angezapft. Man würde einen Tag lang sämtliche einlaufenden Informationen in Ihr Gehirn zugleich in einen Computer speichern. Dann ginge man hin und würde alle afferenten Nervenfasern Ihres Hirns kappen und statt dessen die Leitung des Computers an Ihr Gehirn anschließen und Ihnen die Informationen des Tages wieder zuführen. Wie sollten Sie unterscheiden, ob Sie noch als ganzer Organismus existieren oder nur als Gehirn? Das eigene Potential des Gehirns stünde zur Verfügung und würde wie am Vortag sämtliche einlaufenden Informationen verarbeiten. Da das Gehirn ausschließlich Nervenimpulse zur Verfügung hat, um mit der Umwelt in Verbindung zu treten, wäre es nicht in der Lage zu entscheiden, ob jetzt die tatsächliche Realität wahrgenommen wird oder nur Informationen aus einem Computer. Sie würden zwar mißtrauisch, weil Sie ja dasselbe schon einmal erlebt haben, aber dieses Erleben kennen Sie als Déjà-vu-Erlebnis und es wäre noch kein Beweis dafür, daß Sie nicht mit der Realität, sondern mit dem Computer verbunden wären.

 

Etwas anderes würde Sie mehr irritieren. Wenn Sie versuchten zu handeln, würde dieses Handeln total folgenlos bleiben, weil dieses Handeln weder vom Computer noch von Ihrem Hirn wahrgenommen würde und somit ins Leere liefe, kein Feedback veranlaßte. Sie kämen sich vor, als wären Sie gelähmt. Aber auch diese Lähmung ist kein Beweis dafür, daß Sie am Computer angeschlossen und nicht der Realität ausgesetzt sind. Auch in diesem Zustand hätten Sie ein Bewußtsein. Dieses Bewußtsein würde sich sogar ändern. Denn wenn Sie z.B. Tag für Tag dasselbe erlebten, würden Sie sich vermutlich langweilen und mit der Zeit ein anderes Bewußtsein entwickeln. Aber nach wie vor hätten Sie ein Bewußtsein. Wenn man Ihnen andere Informationen einspielte, würden Sie vielleicht auch aufhören sich zu langweilen. Auch wenn man die Erfahrungswelt eines anderen Individuums in Sie einspielte, würden Sie noch Sie selbst bleiben, wenn dies wohl auf die Dauer über Lernprozesse Ihr Bewußtsein und damit vielleicht auch Ihre Identität änderte. Wenn ich kurzfristig die Realität eines anderen Menschen wahrnähme, würde ich diese anders verarbeiten als er, aber ich würde sie verarbeiten und dennoch meine Identität wahren, mein Bewußtsein erhalten.

 

So haben wir also ein Gehirn-Computer, der ausschließlich digital funktioniert und ein Bewußtsein hat. Wir müssen konstatieren, daß es denkmöglich ist, allein auf digitaler Datenverarbeitung ein Bewußtsein aufrecht zu halten. Bewußtsein ist ein reines Softwareproblem (mit der Einschränkung, daß es um das Sein des Bewußtseins geht, nicht um seine Entwicklung.) Diese Art von Bewußtsein hat sich nicht entwickelt, sondern wurde vorgefunden bzw. implantiert. Zur Entwicklung von Bewußtsein wäre nach wie vor die Hardware nötig.

 

Leben als digitales Phänomen

 

Noch ein Gedankenspiel. Nicht nur das Bewußtsein ist bloße Informationsverarbeitung, das Leben an sich auch. Leben ist die Entwicklung von DNS, also reine Software. Leben ist nicht nur grundsätzlich an DNS gekoppelt, DNS als Information ist grundlegende Bedingung für das Leben selöbst. Es wäre also denkbar, einen Roboter zu konstruieren, der sich selbst reproduziert und lernfähig ist. Dieser Computer braucht einen Bauplan, nach dem er sich selber reproduzieren könnte. Es sind hier nicht die Gene, sondern es ist ein Programm, das den Bauplan enthält und das Substrat wäre ein Chip, keine Aminosäuren. Wir könnten den Chip-Genen Menscheninformation implantieren und unser menschliches Bewußtsein Robotern übereignen. Wir (in einem fremden Körper mit unserem menschlichen Bewußtsein) könnten damit sogar die Erde verlassen und das All bevölkern. Denn wenn wir als Menschen mit unserer biologischen DNS (codiert in Aminosäuren) nicht überleben können, könnten wir als menschlich programmierte Robotern (codiert in Silizium-Chips) dies doch ermöglichen. So könnten wir die Bedingungen unseres Überlebens erweitern und die Weite und Kühle des Alls bevölkern.

 

Die Antwort auf unser Thema

 

1. Wir können nicht ausschließen, daß Computer Bewußtsein entwickeln.

 

2. Wir können dafür Sorge tragen und

· Robotern Bewußtsein implantieren und

· Roboter entwickeln, die primärer Evolution unterworfen sind.

 

3. Wir können das verhindern.

 

Die neue Frage lautet damit: „Sollen Computer Bewußtsein entwickeln?“ Diese Fragen müssen wir offen lassen, sie steht noch nicht an. Sie kann aber einmal brennend werden. Dabei müssen wir berücksichtigen:

 

1. Wir können davon ausgehen, was machbar ist, wird irgendwann einmal gemacht.

 

2. Es besteht die Gültigkeit von Murphy’s  Gesetz: Wenn etwas die Chance hat schief zu gehen, dann wird es irgendwann auch einmal schief gehen.

 

Aus diesem Grunde ist es so wichtig, daß wir heute beginnen, uns darüber Gedanken zu machen, weil wir eines Tages diese Entwicklung  steuern müssen. Vorsichtshalber ist zu raten: "Wehret den Anfängen" oder, wie es Clinton formuliert hat: "Niemals sollte einem Computer erlaubt werden, Golf zu spielen."

 

 

Zusammenfassung

 

Zunächst wird der Auffassung widersprochen, Computer wären auf dem Weg, Gefühle oder gar Bewußtsein zu entwickeln. Es wird dargelegt, daß diese Annahme erstens auf der Verwechslung von Simulation von Gefühlen und Gefühlen selbst basiert, und zweitens auf der menschlichen Neigung, eigene mentale Prozesse auf ein Gegenüber zu projizieren. Die Präzisierung der Phänomene Bewußtsein (als Prozeß beim Menschen) verdeutlicht die Defizite bei Computern. In einem zweiten Teil werden Bedingungen genannt, unter denen es doch möglich wäre, daß Computer Gefühle und Bewußtsein entwickeln könnten. Es werden 1. Kriterien des Lebens verdeutlicht, die unter der Voraussetzung echter evolutionärer Selektion (nicht Evolution durch Menschen) Maschinen eine Chance der Entwicklung geben und schließlich zu Gefühlen und Bewußtsein führen könnten (analog der menschlichen Entwicklung), und 2. wäre es denkbar, die komplette Software eines menschlichen Bewußtseins (die als digital vorliegend angenommen werden muß) in ein Rechenwerk zu transplantieren. Schließlich werden kurz Konsequenzen für Computer und die Menschheit angedeutet.

 

Schlüsselwörter: Computer, Bewußtsein, Evolution von Gefühlen.

 

 

 

Abstract

 

First of all the conception is contradicted that computers are just evolving feelings or even consciousness. It is explained that, firstly, this assumption is based on a confusion between the simulation of feelings and feelings itself, and, secondly, that it is a result of the human inclination to project subjektive mental processes on to an opposite object. Precising the phenomenon consciousness (as a human process), the computer’s deficiencies are elucidated. In the second part conditions are given that could make possible the computer’s evolution of feelings and consciousness. Firstly criteria of life are shown clearly, which, presupposing real evolutionary selection (not evolution by man) allow machines a chance of development maybe leading to feelings and consciousness (analogous to human evolution), and secondly, it would be possible to transplant the whole software of a human consciousness (which would be presupposed to be known digitally) into an arithmetic unit. Finally the consequences to computer and mankind are mentioned.

 

Key words: computer, consciousness, evolution of feelings.

 

 

 

Anschrift des Verfassers:

Prof. Dr. Klaus Heinerth, Universität München

Fakultät für Psychologie und Pädagogik, Leopoldstr. 13, 80802 München

 

Veröffentlicht:

Pädagogisch-Psychologische Arbeiten und Berichte (PAB) 1998/1

(Hrsg. Elbing, E.)