Geist und Bewußtsein II

Eine Diskussion mit den neuesten wissenschaftlichen Erkenntnissen zur Gehirnforschung und KI

Helmut Walther (Nürnberg)

Teil I     Teil III     Teil IV

Teil II

T.R.:

Sie versuchen einen immanenten Zusammenhang zwischen neuro-anatomischen und funktionalen, entäußerten Aspekten des menschlichen Geistes zu zeigen. Es ist Ihnen zur zweiten Natur geworden, keine Stellung zu beziehen, ohne beide Aspekte gleichermaßen ernst zu nehmen. Ich stehe bei dieser Bemühung mehr auf Ihrer Seite als es meine letzten Zeilen vielleicht auszudrücken vermochten.

Der Geist ist bedingt und selbst Bedingung, wie Sie sagen. Ich würde den zweiten Teil dieses Zusammenhanges jedoch nicht in einer teleologischen Weise verankern, wie es die Spielarten des Vitalismus und Animismus unternehmen.

Bergsons élan vital ist zwar nicht finalistisch (der Mensch ist nicht Endzweck), aber er ist bei ihm oder auch bei Butler ("cunning"-kluge Voraussicht) das Wesen des Lebens selbst. Ich denke hingegen, daß der e.v. selbst ein Produkt der Auslese ist. Insgesamt gefällt mir der e.v.-Begriff aber besser als der von Ihnen (notgedrungen) etablierte des "lebendigen Ich-Zentrum", weil mir hier doch die falsche Assoziation zu einem anatomischen Zentrum zu folgen scheint. Das würde Ihre eigenen bewundernswerten Bemühungen, wie o.g., konterkarrieren. Ich würde den Begriff nicht verwenden und beim e.v. bleiben. Besonders bedanken möchte ich mich auch für den sehr subtilen Abschnitt "Empirische Selbstreflexion", dem ich uneingeschränkt zustimme und für die folgenden Abschnitte, die genauer diskutiert werden müßten im Lichte der neueren Forschungsergebnisse. Insgesamt aber stellt dieser ältere Text höchste Anforderungen, die nicht eben im vorbeigehen besprochen werden können. Jeder Satz eine bemerkenswerte Hypothese, jeder Satz eine Implikation, der ich geneigt bin zuzustimmen.

Auch ich kann natürlich keinen Ariadnefaden herausfinden. Der prinzipielle Grundgedanke meiner kleinen Schrift bestand darin, in einer etwas drastischen Weise über die verfehlte Zielsetzung der älteren KI zu informieren. Ich kritisiere ja Chalmers Auffassung, "menschliche Intelligenz" ließe sich auf Maschinen übertragen. Ich bin nicht seiner Meinung. Ich bin es doppelt nicht. Erstens wollte ich andeuten, dass Intelligenz fälschlich mit Bewußtsein gleichgesetzt wurde und wird. Zweitens wollte ich zeigen, dass die übliche "Beweisführung" der Protagonisten solcher Auffassungen nicht standhält. Das mag mir nicht gelungen sein. Weiterhin sollte gezeigt werden, dass Intelligenz und als spätere emergente Entwicklung auch funktionales Bewußtsein (in Analogie) nicht notwendig an lebende Systeme gebunden sein muß. In diesem Punkt würde ich Chalmers zustimmen. Zu der gegenteiligen Annahme zwingt uns überhaupt nichts. Einiges spricht aber für die Annahme, dass Intelligenz nicht an lebende Systeme gebunden sein muß oder bleiben muß. Die Natur emergenter Entwicklungen besteht ja gerade darin, daß es unmöglich ist, sie vorherzusagen. So können wir sie nicht völlig absurd nennen und Vermutungen können überraschende Anreize für Entwicklungen beitragen.

Wo Sie, Herr Walther, noch Entwicklungspotential in der neuro-anatomischen Struktur des Gehirns vermuten, kann auch konträr vermutet werden, dass sich der erreichte Entwicklungsstand selbst Konkurrenz schafft und nicht einige tausend Jahre auf "Verbesserung" harrt. Der erreichte Stand der "Doppelreflexion" ist ja auch als Notstand drastischer unumkehrbarer Entwicklungen interpretierbar, die, mangels kanalisierbarer territorialer Ausweichung, in funktionale Kompliziertheit münden können. Natürlich will ich nicht behaupten, die biologische Evolution sei mit der Erfindung der künstlichen Intelligenz abgeschlossen. Es wäre ja anthropozentrischer Größenwahn, dies glauben zu wollen.

Außerdem gibt es momentan überwiegend nur künstliche Dummheit. Ich gebe aber gern zu, dass ich das Gehirn mehr als Anpassungsorgan zum Überleben betrachte denn als Erkenntnisorgan. Das ist, nach allem was die Wissenschaft gefunden hat, sein biologischer Zweck! Der Zweck allerdings hat eine Geschichte und sie ist sehr lang. Es gab und gibt Leben ohne Gehirne. Jedes Lebensniveau macht sich auf seiner Ebene Konkurrenz. Diese Konkurrenz ist in der Geschichte des Lebens vermutlich immer präsent gewesen und daher immanent. Kann es nicht sein, dass dieses Prinzip der intra- und interartlichen Konkurrenz weiter dadurch Gestalt findet, daß der Mensch scheinbar unverdrängbar in situ nach neuen "Gegnern" sucht? Natürlich führen die Menschen selbst unglaubliche Kriege um Werte. Aber die Einsicht (damit auch Gehirn als Organ des Erkennens), dass Wertfragen grundsätzlich nicht entscheidbar sind, weil jeder Wert dem individuellen Wollen unterliegt und damit wenig diskutierbar ist, weil nicht begründbar, hat sich intellektuell verbreitet. Es wird noch zu klären sein, ob das überhaupt stimmt! Hier gewinnt Ihre e.v.-migratio Bedeutung. Wenn Werte aber nicht mit wahr oder falsch belegt werden können, dann ist die Doppelreflexion am Ende ihrer vormals heilsamen Bedeutung bei den Ableitungsfunktionen des äußeren Stresses. Die Wertdebatte macht deutlich, dass wir eine andere Logik brauchen! Ich denke, Sie selbst sehen auch welche!

Ich denke, dass die evolutionäre Entwicklung, was Novitäten anbelangt, immer mehr an Tempo gewann. Dieses exponentiell zunehmende Tempo erklärt sich aus den Erfolgen eines Prinzips. Ich meine das Prinzip der Eigenaktivität des Lebendigen im Propensitätsraum. Diese Erfolge, solange ihre Entwicklung auch benötigte, sind da. Sind sie einmal da, dann wirken sie nachhaltig! Sie sind heute als Erfahrungen im Stamm- und Mittelhirn präsent und stehen unter der unscharfen Kontrolle der suprathalamischen Strukturen. An dieser Stelle möchte ich Ihnen, Herr Walther, nochmals ein großes Kompliment machen. Sie haben die Kraft besessen, diese Situation des menschlichen Geistes dezidiert zu schildern und die Novitäten elegant in eine abstrakte Bewußtseinsdefinition gebracht. Diese Definitionshypothese ist schwierig und ich werde noch auf sie zurückkommen. Ich glaube, es ist eine dem Leben immanente Lage, neue Probleme nicht direkt lösen zu können. Wenn man die Artenentwicklung und ihre spezifischen Probleme bedenkt, kommt man leicht auf diese Formulierung. Ich will darauf hinaus, dass die Entwicklung der KI vielleicht nichts weiter darstellt als die Fortsetzung der indirekten Problemlösung mit neuen Mitteln zu neuen Problemen! (Ein wichtiges Problem ist der Umgang mit dem exponentiell zunehmendem Wissen) Je mehr die Möglichkeiten wachsen, desto schneller wird die Entwicklung in diesem Bereich. Ich hatte kontraproduktiv schon vor zehn Jahren vorgeschlagen, die KI als Gedächtniserweiterung zu betrachten. Doch inzwischen bin ich weit weg von diesem Gedanken. Ich werde diesen Gesinnungswandel im Teil II der ausstehenden Antwort begründen.

Auch Gedächtnis ist nicht dasselbe wie "Bewußtsein" oder "Bewußtheit". Tatsächlich habe ich in meinen Ausführungen funktionales Bewußtsein gemeint, wenn wir Ihre Kategorien gern übernehmen wollen.

Keinesfalls wollte ich unterstellen, dass Urteilen deckungsgleich zu Denken sei. Vielmehr formulierte ich: "Wenn wir der Tatsache nicht ablehnend gegenüber stehen, daß "Urteilen" zum Denken gehört, so muß man einfach zur Kenntnis nehmen, daß der Vorgang des Urteilens niemals bewußt wird. Erst das Ergebnis des Vorgangs tritt als Urteil ins Bewußtsein."

Diese Formulierung zeigt klare Teilmengenbeziehung und keine Identität!

Das assoziative Denken (das Denken an...; Nachdenken über..) passiert nicht ohne Bewußtsein, denn es ist mit ihm assoziiert. Warum man Denken und Bewußtsein trennen darf, zeigt das Antedatierungsproblem, zu dem ich später komme.

Wenn Sie Lernen als unprädikativ sehen, dann würde ich trotzdem Lernen pauschal ohne funktionales Bewußtsein für möglich halten. Für operande Konditionierung braucht es in der Tat keines funktionalen Bewußtseins, sondern allenfalls eine nicht einmal "helle" Wahrnehmung. Wenn Sie es emotionales Bewußtsein nennen wollen, stimme ich dem gern zu. So müßte mein Satz lauten: Funktionales Bewußtsein ist nicht notwendig zum Lernen, für manche Lernprozesse schon.

Es sind hier dann alle Lernprozesse gemeint, die im weitesten Sinne eine zielgerichtete Problemerfassung erfordern. Alle weiteren Geschehnisse gleiten immer mehr ins nicht funktionale Bewußtsein ab. Der Lernerfolg wird sogar größer sein, wenn dies der Fall ist. Üben ist ein über weite Strecken unbewußter Vorgang. Dieser hat dann sicherlich etwas mit dem von Ihnen erwähnten emotionalen Bewußtsein gemeinsam, indem wir Unlust oder Freude bei stumpfsinnigen Quasiwiederholungen spüren. (Es hat aber auch etwas gemein mit sogenannten unbewußten Hypothesen.) Es gibt ja keine echten Wiederholungen beim Lernen. Wenn wir zweimal auf einen Gegenstand schauen, tun wir es beim zweiten mal mit dem Wissen, dass dieser Gegenstand da ist. Das zweite mal sehen wir anders usw.

Wissen als Hypothese über die Welt

Das "Denken" der Menschen hat sich meiner Auffassung nach seit den Zeiten der griechischen Troika bis heute hin keiner wesentlichen Veränderung unterzogen. Ich glaube auch nicht an ein Fortschrittsgesetz! Unser ganzes Wissen ist hypothetisch. Wenn ich unser ganzes Wissen meine, dann auch die archaischen Strukturen in unserem Stammhirn, unsere Emotio im Hypothalamus und limbischen System, unseren Verstand im suprathalamischen Gebiet des Gehirns und unsere Vernunft als Komplexitätszuwachs der vertikal-axonalen und horizontalen-dendritischen Verknüpfungen.

Diese anatomischen Gegebenheiten sind Hypothesen über die Welt, deren Überprüfung wir als biologische Art unablässig durchführen. Dass es besonders gute Hypothesen sind, sieht man daran, dass wir noch leben. Würden diese Hypothesen, von denen unser Leben abhängt, von sich ändernden Umweltverhältnissen ad absurdum geführt, könnten wir dagegen nichts unternehmen. Natürlich würden wir, mit der entsprechenden genetischen Information ausgestattet, keinen Tag überleben, würden wir nicht sofort selbst aktiv werden. Diese pauschale Aktivität, die "blind" ist, gründet die Voraussetzung für komplexere Lernbemühungen und Lernresultate. Als Analogie kann man das für alle Arten behaupten, denke ich. Nur der Mensch bildet eine Ausnahme. Er hat als einzige Art Wissen, das ohne ihn sterben kann. Doch auch dieses zusätzliche Wissen ist hypothetisch.

Manchmal ist es erfolgreich und manchmal eben nicht. Erfolgreiche Bestätigungen von Irrtümern, aus denen wir individuell mehr lernen als aus jeder Vorlesung, können in der nächsten Generation schon wieder verloren gehen. Aber einige unserer Irrtümer werden erst gar nicht erkannt und können Jahrhunderte lang überleben. Teils weil situationsbedingt falsche Fragen gestellt werden, teils weil wir uns damit zufrieden geben, falsche Antworten auf richtige Fragen zu akzeptieren und teilweise deshalb, weil die angebotenen Lösungen weit über das hinaus gehen, was aktuell tatsächlich problemorientiert zu nennen wäre! Diesen Fall scheint mir Platon zu repräsentieren!

Die individuellen und artspezifischen Anpassungen an unsere Umwelt sind niemals befriedigend, wie die Erfindung des Kompromisses zeigt! Ideen können als Strategie verstanden werden, bestimmte Probleme zu lösen. Wenn aber die Idee nicht sozialtechnisch (dem aktuellen Problem angepaßt) sondern futurisch implementiert wird, dann sind die Aussichten groß, daß sich dieses Lösungsangebot eine Weile in der menschlichen Geschichte als sozialtechnische Lösung selbst offeriert als Weissagung oder Utopie.

Unser Wissen ist doppelt hypothetisch. Es ist hypothetisch als strukturieller Befund in der Welt und es ist hypothetisch in Bezug auf die Resultate der Aktionen dieser Strukturen. Es ist der Funktion unseres Gehirns durchaus entgegenkommend, Verkündungen und zusammenhängende Entwürfe gern zu glauben, denn letztlich sind wir Suchende, die finden wollen. Dafür ist ja auch Ihrer Meinung nach der Verstand empfänglich oder Hauptproduzent?

Auch die Gesetze des Moses (die er von Gott erhielt?) sind in einer Weise futurische Implikation. Sie waren aber mit großer Wahrscheinlichkeit der Situatuion des Menschen ausgezeichnet angepaßt und scheinen auch heute nichts an ihrer Gültigkeit eingebüßt zu haben! Sie waren klar formuliert und damit unzweideutig und sozialtechnisch kompatibel. Sie sind nicht so leicht zu mißbrauchen. Sie kommen auf jeden Fall der menschlichen Natur entgegen und sind darum mit größerer Wahrscheinlichkeit einhaltbar. (Vetotheorie des Bewußtseins) Ich komme auf diesen Punkt noch einmal zurück. Das berührt in keiner Weise die Hypothese von der "Nichtwiederholung" der Geschichte.

Gegen das Konzept der endlos fertigen Geschichte

Die Geschichte wiederholt sich nicht. Weder in der kosmischen Dimension noch in der Anorganik und Organik bis hin zum Geist gibt es echte Wiederholungen. Selbst wenn wir die alte einseitige Frage des Materialismus nach dem Primat von Geist oder Materie zugunsten des Geistes beantworten würden, kann auch hier keine echte Wiederholung gelten. Denn es handelt sich ja nicht um eine identische Reduplikation.

Die Geschichte wiederholt sich doch tatsächlich nicht, Herr Walther, wenn eine "a priori" - Strategie zu einem späteren Zeitpunkt auf "a posteriori" - Strategien trifft, die von einem anderen Wissen oder Informationszustand ausgehen.

Sie haben recht damit, daß dann solche a priori - Strategien so schlecht nicht gewesen sein können, wenn sie wieder eine wichtige Rolle spielen. Die geschichtlichen Tatsachen entwickeln sich aber immer anders als die beste Theorie es geplant hatte. Dennoch kann man die beabsichtigte und auch eingetretene Wirkung einer Theorie unabhängig von den futurischen, geschichtlichen Entwicklungen als posteriore Strategiemöglichkeit nicht außer Sicht lassen. Der wesentliche Unterschied der Situationen ist es, der Geschichte überhaupt als solche etabliert. (universell)

Diese Situationen erklären sich einerseits daraus, daß wir einen unbeschreiblichen Wissenszuwachs verzeichnen können und andererseits aus Krisen sogenannter stabilisierter Ebenen. Ich möchte nochmals betonen, dass dieser Wissenzuwachs allein für mich keinen Fortschrittsgedanken aufkommen läßt. Zwar mag es hier und da Fortschritte geben, doch ein Gesetz des Fortschritts würde ich nicht wagen zu benennen. Trotzdem geht die Geschichte ohne echte Wiederholungen weiter. Die Evolution der Arten ist doch ein wichtiger Hinweis darauf. Doch man muß natürlich sehen, daß unser Wissen hypothetisch ist. Es läßt sich nicht mit Gewißheit davon reden, daß wir einer Höherentwicklung entgegensehen könnten! Wenn Goethe nur immer Wiederholungen des einen für ihn gewiß im Alter langweiligen Themas sieht, dann vielleicht auch darum, weil er in seiner stabilisierten Ebene konkurrenzlos der Beste war. Dazu kam die Bestrebung, nach Leibniz noch einmal zu versuchen, die Wissensstände der Zeit zu beherrschen und zwar in allen Gebieten. Goethe hatte den Anspruch an sich, Universalgelehrter sein zu wollen. Ein Anspruch, den heute kein vernünftiger Mensch mehr haben kann. Goethe entdeckte beispielsweise eine anatomische Besonderheit des palatum durum (des harten Gaumens). Das vordere Stück (Os incisivum) wird auch Goetheknochen genannt. Was Goethe durch harte Arbeit ansatzweise noch möglich war, Universalgelehrter zu sein, dass ist aus heutiger Sicht eine zu belächelnde Bestrebung. Heute kann man nicht einmal fachspezifisch alles wissen. Wenn Goethe von Wiederholungen und langweiligen Szenarien stöhnt, dann nur darum, weil er bereits alles wußte, was andere ihm als große Kunst oder wissenschaftliche Neuerung hinstellen wollten. Goethe neigte, wie fast jeder Mensch, ab einer gewissen Stufe seiner Fähigkeiten dazu, diese, als höchst mögliche Einsicht, abzuschließen. Diese Neigung nimmt zu mit abnehmenden Herausforderungen. Viele sich selbst versiegelnde Theorien beruhen auf solchen Pessimismusattacken, die im psychologischen Grunde Besitzstandswahrung bedeuten sollen. Goethe war schon zu Lebzeiten ein hoch geachtetes Genie und seine Philosophie war die eines Egozentrikers. "Was kann nach mir schon kommen?" Was erwartet ein Mensch, der von sich glaubt, das geistige Niveau seiner Zeit um Längen zu schlagen? Es ist eine große Versuchung heute in Goethes Position von damals sein zu können. Würden wir auch glauben, die Geschichte wiederholt sich nur? Entsprechend der individuellen e.v.-migratio neigt man mehr oder weniger zu dieser pessimistischen These. Es gibt aber gewiß Anlässe genug zu erkennen, dass der Mensch im besonderen und die biologische Evolution im allgemeinen in einem viel größeren Kräftespiel stehen, bei dem echte Wiederholungen nicht vorkommen. Die Welt, die wir kennen, besteht aus Erwartungen, Neigungen und Tendenzen. Hypothesen und deren Widerlegungen oder vorläufigen Bestätigungen liegen innerhalb solcher Bestrebungen. Im weitest denkbaren Sinne besteht alles in der Welt aus Propensitäten. Die relativen Uniformitäten im Anorganischen, die Sie richtig sehen, Herr Walther, sind doch vorläufiger Ausdruck einer relativ stabilen Ebene, auf deren annähernder Gleichförmigkeit, die biologische Entwicklung fußen konnte. Je enger Sie gedanklich diesen Kreis ziehen, desto anfälliger wird dieser Uniformismus für sensitive Einflüsse. Auch anorganische Reaktionen sind Gleichgewichtsreaktionen, die zu 98% das Reaktionsprodukt ergeben können.

Das wird den Kindern im Chemieunterricht nur nicht erzählt. Sie lernen diesen Gleichgewichtszusammenhang erst mit der organischen Chemie der Kohlenwasserstoffe. Auch die Welt der Anorganik ist abhängig von bestimmten Einflußgrößen. Ihre Reaktionen fallen entsprechend den vorherrschenden Propensitäten aus. "Propensitäten in der Physik sind Merkmale der gesamten physikalischen Situation und manchmal sogar der besonderen Weise, in der sich eine Situation verändert. Und dasselbe gilt für Propensitäten in der Chemie, der Biologie und der Biochemie." (Karl Popper, A World of Propensities; Bristol 1990)

Selbst in der stabilisierten Situation des Menschen gibt es gewaltige Erruptionen. Nehmen Sie nur die Theorie, dass der Gewalt am besten Liebe entgegenzusetzen sei, um die Gewalt zu beenden. Die Geschichte der Generationen denkender Menschen ging weiter, ohne dass diese Theorie des Jesus von Nazareth einen entscheidenden machtpolitischen Einfluß im praktischen Handeln der Menschen gewinnen konnte. Diese a priori - Strategie ist aber auch Bestandteil des menschlichen Denkens. Vielleicht gelingt ihr einmal ein großer Durchbruch! Gandhi und King haben versucht ihre praktische Tauglichkeit nachzuweisen. Das ist ihr großer Verdienst!

Letztlich sind alle menschlichen Ideen Beeinflussungsfaktoren dem Grade nach. Mal haben sie einen pointierten mal abgeschwächten Effekt. Doch sie bleiben als Wirkungsfaktoren erhalten. Und ihre Wirksamkeit hat entschieden etwas mit ihren Propensitäten und auch naturalistischen Betonungen gemeinsam, die nebenbei nicht die beste Lösung in der jeweiligen Situation darstellen müssen.

Begriffsproblem

Ich wollte nicht den Eindruck erwecken, Bewußtsein und Gedächtnis seien dasselbe, sondern meinte eigentlich, daß Bewußtsein und Intelligenz (fälschlich!!) immer wieder als Synonym beschrieben werden.

Wir können Gedächtnisse klassifizieren, wie Ihnen auch bekannt ist, anatomisch lokalisieren, aber nicht neuronal-funktional überleiten. Letztlich wissen wir nicht, welches konkrete neuronale Netz unser Gedächtnis ermöglicht.

Es ist weiterhin recht problematisch, was Sie zum tierischen "Bewußtsein" geschrieben haben. Sie sagen, ab der emotionalen Stufe können wir bereits mit Bewußtsein rechnen. Sie begründen dies mit der Unterscheidung von funktionalem Bewußtsein und Wahrnehmungsbewußtsein. Indem Sie diese Unterscheidung treffen, stimme ich Ihnen zu.

Ich kann Ihrer Argumentation gut folgen, denn ich selbst habe mich einige Jahre mit dieser Frage beschäftigt. Ich bin zu der Auffassung gelangt, daß hier die begriffliche Frage verschwommen ist. Wenn sie Wahrnehmungsbewußtsein sagen wollen, akzeptiere ich das gern. Nur ich würde dann dem Wahrnehmungsbewußtsein keine Exzerpierungen, Spatialisierungen, Narrativierungen, Kompatibilisierungen und keine Ich qua Analogon oder qua Metapher gar zubilligen.

Ich will auch nicht auf die Unterschiedlichkeit von Bewußtheit und Bewußtsein so sehr eingehen. So sehr uns die Begriffe einleuchten möchten, so unterschiedlich werden sie in den einzelnen Spezialdisziplinen verwendet. Diese Begriffe sind alle unscharf unterwandert genauso undeutlich wie Intelligenz und Gedächtnis und Wahrnehmung selbst.

Auch Wörter wie "Leben" oder "Sterben" oder "Sein" sind Versuche der sprachlichen Annäherung an phänomenale Erkenntnisse, die emotional "gefärbt" sind. Das alles erkenne ich an.

Der große Verdienst Ihrer eigenen Schriften besteht darin, daß Sie sehr systematisch chaotische Äußerungen über diesen Problemkomplex kanalisieren können. Ich war ein paar Wochen beruflich in Mexiko und habe mir Ihre komplette Homepage als Lektüre mitgenommen.. Im Lichte dieser Systematik habe ich eigene Hypothesen überprüfen können. Es ging nicht immer zum Besten dieser Hypothesen aus.

Das ist für mich eine erfreuliche Tatsache, denn unsere Hypothesen sollen ja widerlegt werden können. Niemals lernen wir mehr, als bei der Widerlegung unserer eigenen Theorien und Hypothesen. Andererseits können wir nicht widerlegt werden, wenn wir unsere Theorien nicht scharf und vielleicht auch übertrieben scharf formuliert haben.

Information und Bewußtsein

Bewußtsein hat nicht sehr viel mit Information zu tun. Hoch gewagte Schätzungen billigen dem Bewußtsein 40 bit/sek zu. Allein vom Auge erhalten wir 107 bit/sek, von der Haut 106 vom Ohr 105,

vom Geruchsinn 105 und vom Geschmacksinn 103 bit/sek.

Summa summarum erhalten wir ca.12 Millionen bit/sek. an Information über die Außenwelt. Es ist sehr schwer zu erklären, worüber wir uns bewußt werden! (Es ist grober Unfug über die Begriffe Daten und Information zu streiten)

Ein Großteil der Datenmengen oder "Informationspäckchen" besteht aus "unechten" Wiederholungen. Es gibt keine echten Wiederholungen! Die von uns als realistische Bewußtseinsbreite aufgefaßte Größe, liegt im Bereich von 1-18 bit/sek. Dafür gibt es einsichtige Gründe. Doch ich denke, daß dies in unserem Zusammenhang eine andere Diskussion eröffnen würde.

Der entscheidende Punkt scheint mir der zu sein, dass unser menschliches Bewußtsein keine offene systemische Funktion darstellt. Das Bewußtsein ist extrem selektiv und kommt einem "Filter" gleich, um der von Broadbent 1958 begründeten Filtertheorie zu folgen. Das Problem dieser Theorie besteht in der unabweislichen Folgerung, dass die allermeisten Informationen einfach "gelöscht" werden müssen. Es gibt demnach Filter, die entscheiden, welche Informationen zum Bewußtsein werden und welche nicht. Diese Filter haben dann auch gleichzeitig einen selektiven Wirkungseingang, den man in der Elektrotechnik Nullerdung nennen würde. Das ist nicht haltbar. Ich möchte im Folgenden einen Punkt diskutieren, der dieses Problem beschreibt, wie mir scheint.

Subliminale Wahrnehmung I

1957 begannen fast gleichzeitig zwei Firmen Werbespots zu senden, die sich den Tatbestand der menschlichen Wahrnehmungsphysiologie zu Nutze machten. (Precon Process and Equipment Corporation und Subliminal Projektion Company)

Beide Firmen erkannten fast instinktiv die große Chance der Manipulation des menschlichen Bewußtseins. Die Untersuchungen von B. Libet hatten später gezeigt, dass menschliches Bewußtsein eine bestimmte neuronale Vorbereitungszeit beansprucht, die bei 500 ms liegt. Da die Kanalbreite für Bewußtsein eben eng ist (1-18 bit/sek.), werden nur entsprechend langzeitige Informationen oder ausreichend intensive Informationen bewußt, weil ansonsten die nächste deutliche Überraschung "lauert" und "drängelt". Ultrakurze Bildsequenzen beispielsweise dringen nicht ins aktuelle Bewußtsein, werden aber wahrgenommen! Was heißt das?

Benjamin Libet hatte 1979 seine Untersuchungsergebnisse veröffentlicht, von denen er nicht glauben konnte, dass sie richtig sein könnten. Viele nach ihm haben sie dennoch im selben Unglauben bestätigt. Ein Hautreiz von einer Hand benötigt 0,02s, um eine kaskadenartige Erregungsausbreitung im Gehirn zu provozieren. Das kann man heute mit Positronenemissionsspektrographie zeigen. Die Verfahren sind so geartet, dass die nun zu besprechende Zeitdifferenz nicht durch hinlänglich bekannte intellektuelle Kniffe wegerklärt werden kann. Selbst die Apostel der pseudo-physiko-philosophischen Antimessungsallianz können hier kein Bein in die Tür bringen!

Die Größenordnungen der Unterschiede sind enorm und bei gleichen Meßmethoden keinesfalls als Fehler in der Methode der Messung zu verstehen. Auch unterschiedliche Meßverfahren erbrachten den gleichen zeitlichen Zusammenhang, den, wenn er Ihnen, Herr Walther, nicht bekannt sein sollte, ich stante pede erklären will. Sollte er Ihnen bekannt sein, wovon ich eigentlich ausgehe, betrachten Sie es bitte als rekapitulativ- rhetorische Vorbereitung meinerseits. Libet hatte sich bei seinen Untersuchungen die Möglichkeit zu Nutze gemacht, dass Operationen am Gehirn in vielen Fällen bei Bewußtsein durchgeführt werden können. Schon 1967 war Libet davon überzeugt, dass Reize, die nicht bewußte Erlebnisse auslösten, trotzdem ein evoziertes Potential im EEG auslösten.

Er überprüfte es und hatte recht. Das scheint nun eigentlich alles recht harmlos zu sein. Doch wenn man genauer überlegt, dann war diese Hypothese Anlaß zu einer Revolution unseres antiquierten Verständnisses der Gehirntätigkeit.

Libet hatte nichts weniger gefunden als die subliminale Information bezogen auf das menschliche Gehirn. Er konnte zeigen, dass Signale oder Daten oder Informationen aus der Außenwelt im Menschen mindestens zwei verschiedene Schicksale haben. Sie können eine Veränderung im EEG bewirken, die aber keine Bewußtseinsrepräsentanz erreichen. Sie können aber auch evozierte Potentiale erzeugen, die Bewußtsein erreichen. Damit ist eigentlich die von Broadbent entwickelte Filtertheorie widerlegt. Wir können Reize wahrnehmen, ohne uns über sie bewußt zu sein. Wir können sogar Handlungen initiieren, ohne uns über deren auslösende Ursache bewußt zu sein oder manchmal ohne die Handlung bewußt zu erleben. Die allermeisten Reize sind subliminaler Natur, können, auch wenn sie nicht bewußt werden, etwas verursachen.

Libet’s geniale Versuchsanordnung bestand nun darin, dass er direkte Hirnrindenreize auslöste (Sulcus postcentralis sinister) und dagegen Hautreize der linken Hand setzte. Da die Bahnen der somatosensiblen Empfindung (Vorderseitenstrangsystem und Hinterstrangsystem) größtenteils in der Comissura alba kreuzen, würde eine Stimmulierung der linken Gehirnhälfte zum Beispiel in der rechten Hand spürbar sein. Damit es zu deutlichen Empfindungsunterscheidungen kommen konnte, mußte er peripher natürlich die Unilaterale reizen, d.h. die linke Hand. Die Versuche wurden im Doppelblindverfahren durchgeführt. Weder der Patient noch der Beobachter wußten, welche Stimuli in welcher zeitlichen Abfolge verabreicht wurden. Der Patient sollte lediglich sagen, welchen Reiz er zuerst gespürt hatte, den in der linken oder den in der rechten Hand. Libet’s Erwartung bestand darin, dass es jeweils eine halbe Sekunde Verzögerung geben würde, bis es zu einer bewußten Wahrnehmung käme. Er erwartete diese Verzögerung bei der centralen wie auch bei der peripheren Reizung. Die komplexe Arbeitshypothese ließe sich demnach so formulieren: Wird während eines centralen Reizes der Hirnrinde, die beispielsweise zum Stechen in der rechten Hand führt, wird also innerhalb dieser 0,5s, die für bewußte Wahrnehmung als Aufbaureaktion des Gehirns vorausgesetzt wird, ein zweiter peripherer Reiz gesetzt, so müßte dieser zweite Reiz später oder zeitlich verzögert bewußt werden als der erste centrale, weil auch dieser periphere Reiz erst bewußt werden kann, nachdem eine halbe Sekunde vergangen ist. (!Die Reize stehen Schlange beim Bewußtsein??)

Die große Überraschung bestand nun darin, dass sich diese so einsichtige Hypothese einfach nicht unterstützen ließ. Alle Patienten, die jemals so getestet wurden, fanden immer, dass der periphere Reiz an der Hand früher erlebt wurde als der zeitlich ältere Reiz an der Hirnrinde direkt. Selbst wenn noch nach schon 0,4s Hirnreizungsbeginn ein ausreichend starker Hautreiz gesetzt wurde, erlebten die Patienten diesen früher. Das ist bis heute leider ein völlig unverständlicher Tatbestand.

Ein befreundeter Neurologe gab die Meinung von sich, es könnte sich um die gleiche zeitliche Logik handeln, der Einstein in der Relativitätstheorie begegnete. Libet’s eigener Theorie zu Folge, kümmert sich das Bewußtsein nicht um seine eigene Entwicklungszeit, also um die berühmten 0,5s.

Diese 0,5s sind die Zeit des Beginns eines evozierten Potentials oberhalb des Thalamus im perithalamischen Cortex (suprathalamische Ankunftzeit) bis zur Ausbreitungsschwelle, deren Überschreitung wir "Bewußtsein" nennen. (Das ist eine prozessive Bewußtseinsdeutung.)

Die suprathalamische Ankunftzeit eines Hautreizes und damit der initiale Funke eines evozierten Potentials ist bereits nach schon 0,02s erreicht. Die Formulierung und Deutung dieser Ergebnisse führt zu der Nothypothese, dass unser Bewußtsein einen zeitlichen Antedatierungsprozeß notwendig ausführt. Dieser Antedatierungsprozeß besteht darin, dass der Zeitpunkt der Bewußtwerdung auf das initial-suprathalamisch-evozierte Potential zurückgeführt wird. Unser Bewußtsein beginnt demnach scheinbar schon 0,02s nach dem peripheren Reiz. Eigentlich sind aber schon 0,52s vergangen. Der direkte Reiz des Cortex führt nicht zu einer Antedatierung. Er wird erlebt, mit seiner zeitlichen Verzögerung von 0,5s. Das scheint im Lichte der Evolutionsbiologie ein vernünftiges Ergebnis.

Die direkte Cortexreizung ist ja ein biologisch unsinniger Fall. Die direkte Cortexreizung benötigt 500ms bis zum subjektiven Bewußtsein, die periphere scheinbar nur 0,02s bis zur subjektiven Bewußtseinsempfindung. Aus diesem Grunde wurde auch der Hautreiz, der nach 0,4s eines Hirnreizes gegeben wurde, noch als subjektiv früher interpretiert. Um diese recht überraschenden Ergebnisse zu sichern, führte Libet einengende Untersuchungen durch. Er reizte spezifische Thalamuskerne direkt. Auch in diesem Fall wurde eine zeitliche Rückbeziehung zum Reizbeginn als dem eigentlichen Bewußtseinsbeginn festgestellt. Natürlich vergingen auch hier die üblichen 0,5s.

Als Zwischenergebnis können wir festhalten, dass Reize der relativen Peripherie 25mal schneller subjektiv bewußt werden, als das Bewußtsein objektiv zur Entwicklung benötigt. Die große Zeitdifferenz ist ein subjektiver Trugschluß. Das Bewußtsein tut so, als habe es den Reiz 25 mal schneller bemerkt, als es tatsächlich der Fall war. Als Wissenschaftler war sich Libet der Anfechtbarkeit seiner Hypothesen durchaus bewußt. Libet hat sprachlich seinen Konflikt beschrieben. Unser Bewußtsein beginnt "lange" bevor es uns bewußt ist. Libet hatte die auch heute unabweisliche Idee, dass es eine zeitliche Differenzierung innerhalb der Bewußtseinsphilosophien braucht! Zuallererst gehört zu dieser Bewußtseinsphilosophie, dass sie die von Libet gefundene Zeitrelativierung für das Bewußtsein anerkennt! (natürlich!?)

Libet konnte 1991 weiterhin zeigen, dass dieser Antedatierungsprozeß auch in weiterer Hinsicht auf den "freien Willen" recht überraschende Konsequenzen zeigt. Schon 0,35s bevor wir uns darüber bewußt werden, was wir tun wollen, beginnen bereits die dafür notwendigen evozierten Potentiale sich kaskadenartig auszubreiten, um an der Überschreitungsschwelle endlich bewußt zu werden. Wenn man darüber nachdenkt, kommt man zu der philosophisch schwerwiegenden Einsicht, dass bewußtes Wollen eine subjektive Täuschung darstellt hinsichtlich der konzipierenden Faktoren dieses Wollens, das sich im Bewußtsein manifestiert. Denn jedes bewußte Handeln bedarf einer unbewußten Vorbereitungszeit von 0,35s, deren Ergebnis eine komplexe Innervationskaskade der Hirnrinde zum Bewußtsein wird. Ein fatales Ergebnis, will ich meinen, für jeden Menschen, der vom Vorhandensein eines bewußten freien Willens überzeugt ist. Welche Handlungen wir ausführen wollen, wird uns erst bewußt, wenn die kaskadenartige Initiation des Bereitschaftspotentials für eine Handlung bereits 0,35s im Gange ist. Wir stehen damit in der eigentümlichen Situation, unsere Handlungen nicht auf unser bewußtes Ich zurückführen zu können. Eine Tatsache von der wir immer felsenfest überzeugt waren. Aber das Bewußtsein vom Wollen hinkt seinem eigentlichen Anlaß hinterher! Doch ganz so schlimm steht es nicht mit unserer Freiheit zum Willen oder Wollen. Ihre sehr schöne Darstellung der Bewußtseinsebenen führt in eine Erklärung dieses Problems. Dafür bin ich Ihnen sehr verbunden. Viele Probleme lösen wir eben nicht auf der jüngsten Stufe der Evolution des Geistes, sondern auf den altbewährten Ebenen. Diese laufen natürlich nicht immer mit höher bewußten Phänomenen ab. Trotzdem sind wir es selbst, die unseren Willen zum bewußten Phänomen führen.

Insofern sind wir ja nicht ferngesteuert. Unser Selbst ist mehr als unser bescheidenes Ich und das Ich ist darüber offenbar sehr verwundert. Unser bewußtes Ich möchte Alleinherrscher sein, doch es scheitert am Selbst. Diese Einsicht ist mir dank Ihrer Bewußtseinsdeutung klar geworden.

Obwohl es überflüssig ist, möchte ich kurz etwas zum herkömmlichen wissenschaftlichen Ausweg aus dem Dilemma sagen. Es ist eine Theorie, die man mit heutigem Datum oder Informationszustand fuzzylogisch mit 0,4 Wahrheitsgrad einstufen sollte. Aber machen Sie sich selbst ein Bild, falls ich Ihnen etwas neues erzähle?!

Vetotheorie

Mehrere Untersuchungen sind in den letzten Jahren durchgeführt worden, die sich damit beschäftigten, welchen Grad der Freiheit das Bewußtsein überhaupt haben könnte. Die befreiende Nachricht lautet: Das Bewußtsein kann noch nach Ablauf der 0,35s innerhalb von 0,2s ein Veto gegen die geplante und initiierte Handlung einleiten. Der Mensch kann zwar nicht verhindern, dass bestimmte Handlungsantriebe, die sein Bewußtsein erreichen, entstehen, doch er kann die Handlung verhindern. Dieses "Zögern" ist unser eigentlicher bewußte freie Wille.

Darum sind auch die Verbote des Moses dem archaischen Hirnmaterial des Menschen scheinbar besser angepaßt als es später die christliche Offenbarung in der Bergpredigt ist. Die Gesetze des Moses fordern: Füge keinem etwas zu, von dem du nicht willst, dass man es dir zufügt. Wollen kann man also alles, nur machen darf man es eben nicht! Das sieht nach einer in sich stimmenden, für soziale Belange hinreichenden Forderung aus. Hingegen fordert Jesus eigentlich etwas gänzlich Unverständliches in Bezug auf die Physiologie unseres Bewußtseins entsprechend der Vetotheorie.

"...Füge anderen zu, was du willst, dass man es dir antue..." Was unser Gehirn an Begierden und Handlungsantrieben aufwirft (machen Sie einmal den Versuch auf dieser Basis eine sexuelle Ethik zu entwerfen), kann ja noch nicht dem bewußten Wollen unterliegen. Wir können uns aber entscheiden etwas nicht zu tun, etwas zu verbieten, uns selbst überwinden, wie es der jüdische Philosoph Leibovitz formulierte.

Was wir nicht tun wollen, unterliegt unserem freien und bewußten Willen, indem wir zögern und ablassen von der Handlung. Was wir nicht bereit sind zu tun und wessen wir bereit sind, liegt einzig und allein in der anstrengenden Ausübung des bewußten und unbewußten Vetovermögens. Es kostet immer eine spürbare Anstrengung etwas nicht zu tun. Je öfter wir eine bestimmte Handlung per veto abweisen, desto mehr können wir unbewußte Vetos gegen die noch unbewußten Potentiale einleiten.

Sie werden dann erst gar nicht bewußt. Bewußte Vetos entstehen in Situationen, die seltener vorkommen, in unliebsamen oder ungewohnten Umgebungen. Die Gesamtheit unserer bewußten Vetos äußern sich im passiven Sinne als unsere Werte. Insofern kann der Mensch sich auf Werte berufen, er kann sie aber nicht begründen, da er nicht begründen kann, warum er kein Veto eingelegt hat!

Verantwortlich für diesen Zustand sind meiner Meinung nach subliminale Informationen, die durch den emotio-ratio-Cortex interpretiert und komprimiert werden und evozierte Potentiale im Neokortex initiieren können.

Die unabweisliche Tatsache subliminaler Informationen, die unser Gegenüber nachweislich beeinflussen, fordert eine andere Gesetzgebung als die des Moses. Denn wenn man schlecht über jemanden denkt, dann äußert sich dies in irgendeiner sublimen Weise im Verhalten, die dem bewußten Ich nicht zugänglich, dem Selbst aber als klare Information entspringt und zukommt.

Gestik, Mimik und Sprachführung und viele andere "Kleinigkeiten" führen letztlich zu einer sehr deutlichen Bildgebung. Aggressivität im Denken bleibt nicht unbemerkt, auch wenn man ihre bewußten Handlungsantriebe mit Vetos belegt. Der Anspruch der mosaischen Forderungen ist dem bewußten Ich gewidmet, der Anspruch des Jesus darüber hinaus auch dem Selbst. Darum ist meiner Meinung nach die Bergpredigt das psychologisch schwierigere und bessere Signal, die Gesetze des Moses, sind aber, wenn sie eingehalten würden, die Garantie für ein mögliches Zusammenleben der unterschiedlichsten Menschen. Jesus hat einen Weg der Sicherheit eröffnet, der nach menschlichem Ermessen unerreichbar scheint, Moses einen mit beschränkter Garantie! Denn wielange läßt sich ein zorniges Gemüt in den Vetos halten, die es sich selbst auferlegen muß? (Hier liegt nebenbei auch ein wesentlicher Kritikpunkt zur Vetotheorie verborgen.)

Subliminale Wahrnehmung II

Die reine Filtertheorie kannte keine subliminalen Informationen. Der Begriff "Filter" hingegen ist darüber erhaben. Darum kann er in Ihrer Definition Herr Walther auch stehen bleiben. Einen Filter kann man auch einen Prozeß heißen, der durch seine Funktion zu einer aktiven Auswahl beiträgt.

Ein sehr schönes Beispiel dafür ist das Auge. Das eröffnet eine sehr interessante Debatte zum "Sehen". Darum erwähnte ich Chalmers theoretisches Sehrindenexperiment, weil hier die Begriffe Wahrnehmung und Bewußtsein wiederum miteinander konfrontiert werden. Es war für mich eine sehr überraschende Tatsache, dass wir sehen können und auf das Gesehene "normal" reagieren können, ohne das geringste Bewußtsein davon zu haben, was wir gesehen haben. Ein befreundeter Augenarzt berichtete mir von einigen Patienten, die auf Grund traumatischer Schädigungen des hinteren Gehirnabschnittes nicht mehr "sehen" konnten. Die Augen waren völlig normal. Die Patienten konnten sich auch hinreichend orientieren, klagten aber über fast völligen Bildverlust. Ich denke sie hatten Wahrnehmung ohne Bewußtsein davon. Sie sahen, ohne zu wissen, dass sie sahen. Wahrnehmung und Bewußtsein von etwas sind, wie Sie selbst sagen, verschiedene Zustände des selben Gehirns. Sie haben eine andere Qualität. Wahrnehmungen können bewußt werden nur dann, wenn sie eine ausreichende Ausbreitungszeit im Cortex haben.

Das eben erwähnte "blindsight" ist eine Form subliminaler Wahrnehmung. Eine weitere das sogenannte "priming". Man kann aus einem schnell dargebotenen Bild (Tachistoskopische Instruktion) etwas lernen ohne es zu wissen. Wird in einer zweiten Aufgabe die Lösung erleichtert durch die Kenntnis des ultrakurzen Bildes, dessen wir uns aber nicht bewußt sind, dann wird die Aufgabe immer schneller gelöst als ohne diese Instruktion. Ich würde Ihnen zustimmen, wenn Sie diesen Zusammenhang als emotional-verstandesmäßiges Bewußtsein bezeichnen wollen. Durch die Technik des maskierten Stimulus können subliminale Vorgänge besser untersucht werden. Die Versuchspersonen reagieren auch auf unbewußte, verdeckte Reize mit einer deutlichen Handlung.

Insgesamt ergibt die Vielzahl der Untersuchen zur subliminalen Wahrnehmung ein Bild des Bewußtseins, das seine Bedeutung eingrenzt. Kontrollfunktionen und Vetofunktionen sind mit Bewußtsein verbunden. Die Erarbeitung schwieriger Lernaufgaben und Probleme erfordert intermittierend bewußte Aufmerksamkeit. Ich glaube, daß die Novität einer Situation (Interpretationsergebnis der Sinnesmodalitäten) oder die plötzliche Intensität einer gewohnten Situation (nicht nur der laute Knall sondern auch die plötzliche Ruhe usw.) zu kaskadenartigen Ausbreitungen im Neokortex führen, weil ein Bahnungsmechanismus fehlt, der die Kaskade verhindern könnte. Daraus ergibt sich meine Formulierungsweise der von Ihnen bezweifelten Behauptungen. Bewußtsein ist nicht notwendig ...usw.

Diese Formulierungen bedeuten jeweils, daß Bewußtsein nicht daran beteiligt sein muß und natürlich auch daran beteiligt ist, wenn neue und überraschende Aspekte eine Rolle spielen. Ich wollte nur die hinlänglich überschätzte Einflußnahme des Bewußtseins relativieren, die sich sowohl aus der Analyse der split-brain-operations bei Sperry zeigt und auch bei Libet’s Antedatierungsproblem des Bewußtseins sich aufdrängt, durch den der Dualismus von Eccles in dieser Frage zustande kommt, wie ich denke. Eccles ist Zeit seines Lebens überzeugter Dualist geblieben in dieser Frage. Er meint ja nichts weiter oder nichts mehr, als dass der menschliche Geist oder der Geist schlechthin auf der neuronalen Aktivität des Menschen gleich einem Surfbrettfahrer dahingleitet und eben die richtigen Wellen erwischt, die uns als evidente Erlebnisse bewußt werden. Doch so viele Einwände diese komplizierte Theorie aufwirft, sie ist nicht leicht zu widerlegen. Sie gehört zu den sogenannten sich selbst versiegelnden Theorien. Eccles muß man von seinen substanziellen und seinen prophetischen Argumenten utilitaristisch sezieren.

Der permanente Einschaltzustand, den Sie erwähnten, ist ein verwobenes Ereignisgeflecht aus bewußter und subliminaler Wahrnehmung. Ich stimme Ihnen daher in der Frage des tierischen Bewußtseins zu. In dem Grade des jeweiligen Anteils an subliminaler und bewußter Wahrnehmung an diesem Geflecht, äußert sich vielleicht der erreichte Entwicklungsstand.

Kritik zur Vetotheorie

Der augenfälligste Einwand zur Vetotheorie besteht darin, dass die bewußten Vetos natürlich tautologisch gesprochen bewußt sein müssen, um einen freien Willen zu diesem Veto zu begründen. Das bedeutet, dass man sich des Vetos bewußt sein muß. Wenn aber Libet unkritisch von Bewußtsein spricht, (man sollte eben Walther gelesen haben!) so muß er natürlich auch im Falle des bewußten Vetos eine unbewußte Vorbereitungszeit von 0,35s Hirnaktivität zum Bewußtsein unterstellen. Es ist leicht einzusehen, dass diese Theorie den bewußten freien Willen dann nicht rettet, sondern seine Konstituierung immer einem unbewußten Prozess unterstellen muß. Denn das Bewußtsein von einem Handlungsantrieb und das Bewußtsein von einem Veto zu diesem Handlungsantrieb gehen in der Vetotheorie nicht notwendig ineinander über.

Ein Bewußtsein an sich ist aus logischen Gründen, wie die Vetotheorie zeigt, ein Ding der Unmöglichkeit, als informativer Gehalt ebenso überflüssig wie die Antwort auf die Frage nach dem Sitz des Bewußtseins. Es gibt Fälle der klinischen Psychatrie, in denen die Patienten ihr Bewußtsein an der Zimmerdecke befindlich beschrieben!

Warum nicht? Bewußtsein hat keinen Sitz! Unsere Werte haben auch kein Zentrum!

Ein weiterer Einwand zur Vetotheorie besteht in ihrer implizierenden didaktischen Form. Dabei vergißt sie ihren hypothetischen Charakter. Die Vetotheorie wird insofern zur langweiligen akademischen Podometrie, insofern sie sich zur einzig wahren Thelematologie aufspielt. Denn unser Wille hängt nicht vom bewußten Ich ab!

Eine Erkenntnis, sei die Intensität ihres Wahrheitscharakters auch nur vorläufiger Natur, kann natürlich anderen Wissensbereichen ungeheure Impulse verleihen. Für die Informatik sind dabei alle Realwissenschaften, die Bereiche der Neurologie und Kognitionswissenschaften sowie der Mathematik und Physik, Philosophie und Sprachwissenschaften sehr bedeutsam. Beispielhaft für viele andere Bereiche der Wissenschaft erscheint heute die moderne Informatik als integrale Wissenschaft. Ihre Forschungsergebnisse konnten, wenn sie aus den Prinzipien des kritischen Rationalismus hervorkamen, immer wieder theoretische aber auch manche praktischen Ergebnisse finden, die einem kritischen Realismus zu schulden sind.

Ein unscharfer Rahmen der Erkenntnis

Viele Informatiker in Deutschland streben einen kritischen Rationalismus überwiegend nicht an, weil er eine wesentliche Komponente enthält, die wir mit Hans Albert konsequenten Fallibilismus nennen können. Die Ablehnung des konsequenten Fallibilismus in der Informatik bezieht sich auf die Geltung der zweiwertigen Logik (die angeblich niemals irrt) und der aus ihr entwickelten Theorien und Ableitungen allgemeinerer Natur. Viele Informatiker glauben, dass die angewandte Logik sicher zu unumstößlichen Wahrheiten führen muss.

Ich habe lange darüber nachgedacht und in vielen Gesprächen recherchiert, welche philosophische Denkweise stärker sein kann, als die Annahme, dass unser Wissen auf keinem sicheren Fundament stehen kann. Unabhängig von der Tatsache, dass bei vielen Informatikern einfach blinder Pragmatismus oder Instrumentalismus vorherrscht, findet man doch aber auch den kritischen Geist nicht selten. Doch der Glaube an (letzte) Begründungen wird unausgesprochen, und wie ich zugeben muss, oft auch undurchdacht als tragbares Konzept einer Wissenschafts- und Erkenntnistheorie anerkannt. In der Informatik überwiegt das Gedankengebäude des klassischen Rationalismus. Das hat mich sehr überrascht. Die Studenten der höheren Semester sind unglaublich uninformiert, was die Neuerungen in der mehrwertigen Logik und ihre Konsequenzen betreffen. Sie wissen manchmal mit dem Begriff "unscharfe Logik" nichts anzufangen, haben es aber schon oft gehört! (als fuzzy-logic hört es sich besser an und ist trendig.)

Selbst bei den gut Informierten oder sogar bei den Experten in diesen Fragen sind aber diffuse und unklare Vorstellungen darüber vorhanden, was sie da eigentlich tun. Die mehrwertige Logik ist ja letztlich eine Spätreaktion auf die Logik, die Aristoteles eingeführt hatte. Den meisten Studenten und einigen Honorigen ist völlig unbekannt, dass die klassische Logik ein internes und externes Begründungsproblem hat. Das schließt die Unkenntnis des Tatbestandes mit ein, dass der Schluss von Prämissen auf die Konklusionen den Gehalt einer möglichen Informationsmenge niemals erhöht, sondern meistens reduziert.

Ein logischer Schluss führt daher nicht zur Vermehrung des informativen Gehaltes der Prämissen. Jeder logische Schluss bedeutet demnach meistens Gehaltreduktion.

Der Schluss selbst kann eine neue Prämisse sein, die anderswo als vorausgesetzte Prämisse auftauchen kann. Die Prämissen selbst sind ebenfalls, wenn sie nicht dogmatisch eingeführt werden, Konklusionen anderer Prämissen, die darum schon gehaltreduziert sind. Will man also aktuelles Wissen damit begründen, dass es sich logisch aus Schlüssen dieser Art herleiten ließe, dann muss man demnach unnachgiebig nach weiteren Prämissen fanden, die als Begründung der letzten Prämisse-Konklusionsbeziehung taugen. Die Kantischen Antinomien hängen einerseits insofern von diesem Begründungsproblem ab. Sie werden von der Überzeugung einer letzten Begründung selbst insuggeriert (synthetische Urteile a priori).

Ein anderer Grund, den ich diskutieren möchte, ist die ungerechtfertigte Übertragung logischer Schlüsse auf intuitive Schlüsse oder evidente Erlebnisse oder auch umgekehrt. Die Verbindung von Sinn und Wahrheit, die der Essentialismus bis zur Vernebelung der Begriffe durchführt, die es letztlich unwiderstehlich erscheinen lässt, beide Begriffe synonym zu beurteilen und zu verwenden, leitet zu dieser "moderneren" Variante über.

Die Informatiker sind sehr gut mit der klassischen zweiwertigen Logik vertraut, denn sie ist ja die Grundlage der Automatentheorie. Da der Mensch keinesfalls klassisch zweiwertig adaptiert noch denkt, kann man die klassische Logik nicht als Rahmen interpretieren, der den individuellen Interpretationsspielraum festlegt. Das bedeutet harte Grenzen, aber verschwommener Ränder. Input und Output sind ganz verschiedene Dinge. Dennoch hängen sie voneinander ab und sind insofern äquivalent. Darauf fußt ja der Gedanke des Realismus. Es hängt ja auch gar nicht sosehr von der Frage ab, ob wir richtig sehen, wenn wir etwas sehen, sondern davon, ob andere es genauso sehen oder sehr ähnlich so sehen. Das ist auch weithin unbekannt, dass "Sehen" gelernt wird in der individuellen Entwicklung. Laufen dagegen ist ein angeborenes Programm, dass automatisch aktiv wird, wenn die entsprechende Vernetzungsebene erreicht wird. Natürlich muss laufen gelernt werden in einem sehr speziellen Sinne. Es bedarf aber dazu keiner Beispiele. Unsere Kinder laufen nicht deshalb, weil andere Menschen laufen! Somit ist "Lernen" und "Lernen" manchmal etwas gänzlich Verschiedenes! Das Sehen als erlernte Möglichkeit des Interpretierens von sensorischen Gegebenheiten und deren kollektive Übereinstimmungstendenz sagt also nicht etwas über die Wahrheit im Sinne des Realismus aus. Wir könnten ja auch traditionell etwas Falsches lernen, wie man es etwa von bestimmten medizinischen Praktiken kennt, die nicht schaden und deren Anwendungsgebiet Erkrankungen betreffen, die ohnehin fast immer selbst ausheilen. Was uns hier als wirklicher Zusammenhang erscheint, ist letztlich nur eine erlernte traditionelle Täuschung. Trotzdem geht der Realismus von wirklichen Zusammenhängen aus und glaubt, diese ausfindig machen zu können. Die Idee der Wahrheit ist dabei ein regulativer Wert! Es lassen sich nur realistische, also wirkliche Zusammenhänge erkennen, wenn man die regulative Idee der Wahrheit nicht ausschließt. Die Übereinstimmung von Aussagen mit Tatsachen ist ein Element der Wahrheit im Sinne des Realismus. Die strengste Argumentation gegen jede Art von Relativismus, kommt von dem Logiker Alfred Tarski. "Jede wahre Aussage einer Sprache muß auch in jeder korrekt übersetzten anderen Sprache wahr sein!"

Somit ist jeder Versuchung der Hermeneutik, zu Wahrheiten über die ursprünglichen tatsächlichen Begrifflichkeitslagen hinaus zu gelangen, ein gewichtiges Bollwerk gesetzt.

Die Rückversicherung über die Wahrheit einer Annahme oder die Wahrheit einer Prämisse oder Konklusion kann keinesfalls aus der klassischen Logik selbst erreicht werden, da sie selbst ein unauflösbares internes Begründungsproblem hat. Der infinite Regress, der dem Begründungsproblem anhängt, hat seine Tücken. Jede dogmatische Einführung von Prämissen ist untersagt. Es gelten nur Prämissen als wahr, die eine Konklusion wahrer Prämissen sind. Somit wird die Klärung der Wahrheit einer Aussage lediglich verschoben aber nie abgesichert, wenn man sie lediglich mit den Mitteln der zweiwertigen Logik erreichen will. Es ist recht interessant, darüber nachzudenken, welche Beziehung zwischen den rekursiven Unendlichkeiten des Begründungsproblems und den progressiv-regressiven Phänomenen des Halteproblems in der Automatentheorie bestehen. Das Halteproblem beschreibt die Unfähigkeit eines Automaten ein begonnenes Verfahren abzubrechen, wenn es keine offensichtliche mathematische Lösung gibt! Etwa: Suche alle Primzahlen!

Der Algorithmus ist spielend zu implementieren, doch der Computer wird sein Werk wahrscheinlich nie beenden. Der Algorithmus (n+1)! für die Bildung der natürlichen Zahlen beschreibt eine unendliche Bildungsvorschrift. Sie ist die Grundlage der Primzahlsuche.

Es ist zwar bekannt, dass sich die Primzahlen immer weiter verdünnen je höher die Zahlen werden, dennoch kann irgendwo draußen im Meer der Zahlen noch eine Primzahl verborgen sein. Eine asymptotische Annährung der Häufigkeitskurve/n+1 ist wahrscheinlich aber nicht beweisbar. Der Automat wird niemals abbrechen und weiter suchen. Unsere eigene Logik ist Teil der Automaten geworden, denen wir vorschnell Intelligenz andichteten. Es ist sehr viel schwieriger! Ich bin davon überzeugt, dass die zweiwertige Logik beide Phänomene zu verantworten hat. Sowohl der unendliche Regress des Begründungsproblems als auch das Halteproblem der Informatik sind rein logische Probleme der klassischen zweiwertigen Logik.

Das sind hausgemachte Probleme. Sie beruhen zum großen Teil auf dem Missverständnis, dass logische Schlüsse bedenkenlos auf die Realität angewendet werden können. Solche Schwierigkeiten treten ja ebenfalls bei der Vorstellung (n+1)Meter und (n+1)Sekunde auf. Die psychologischen Probleme der Unendlichkeiten sind aus der Konklusion scheinbar unbedenklicher Bildungsvorschriften mit Erfahrungs- oder Vereinbarungsgrößen entstanden. Dabei wird eben oft verkannt, dass die Logik eben auch auf Vereinbarungen zwischen Menschen beruht und nicht auf wahren Begründungen. Die Logik ist prädikative Erfahrung zur allgemeinen Erfahrung. Damit liegt ja nun auch der Gedanke nahe, eine andere Vereinbarung oder eine andere prädikative Struktur könnte das gleiche und weiteres erreichen. Darin liegt die Funktion und Plausibilität der mehrwertigen Logik offenbar begründet. Sie ist eine andere Vereinbarung zwischen Menschen, die aber dennoch nicht auf wahren letzten Begründungen fußt. Die mehrwertige Logik verzichtet auf den stringenten Wahrheitscharakter einer oder mehrerer Prämissen. Sie setzt lediglich deren Existenz voraus und ordnet ihnen Wahrheitswerte zu. Die Prämissen besitzen Plausibilität aus Erfahrung. Diese Wahrheitswerte, die nicht mit der mathematischen Wahrscheinlichkeit äquivalent sind und selbst natürlich nicht wahr sind im klassischen Sinne, sind von vornherein mit Erfahrung gewichtet. Somit operiert die unscharfe Logik von vorn herein mit Erfahrungswerten. Das ist ein Plausibilitätskriterium. Es ist ja klassisch, logisch-mathematisch möglich mit negativen Wahrheitswerten zu rechnen. Solche Werte sind aber nicht real. Darum ist der kritische Realismus unabdingbar für unsere Belange. Es gibt keine komplementäre Falschheitslogik, die mit Falschheitswerten operieren könnte. Das ist aus einsichtigen Gründen unsinnig.

Erstens würde die operationale Anwendung der Fehlerwerthäufigkeit nur Ausschlüsse erzeugen, die sich ja auf einen sogenannten positiven Wert beziehen müssten. Zweitens ist somit niemals eine konkrete Handlung initiierbar, da es sich nur um Ausschlusstechniken dreht, die den Grad der Falschheit jedes Argumentes zeigen. Wenn wir hier den infiniten Regress des Begründungsproblems integrieren, darf es letztlich weder Aussagen noch Argumente geben. Wenn man diese Argumentationskette noch etwas verziert, kommt man zu der Aussage: Die Mathematik oder die Logik im klassischen Sinne ist nicht die Realität.

Wir brauchen utilitaristische Vereinbarungen: " ...Insofern die Sätze der Mathematik wahr sind, haben sie nichts mit der Realität gemein. Wenn sie mit der Realität übereinstimmen, sind sie nicht wahr!" (Albert Einstein)

Die Verbindung von Erfahrung mit stringenter Schlusslogik, die in der fuzzy-logic angestrebt wird, erfüllt die Anforderung der Abweisung des Begründungsproblems und zerlegt das Halteproblem in ein Plausibilitätsproblem (intern und extern) und in ein Zuwachsproblem.

Das Plausibilitätsproblem beschreibt den Grad der Erfahrung und ihre situationsbedingte Anwendung, die sich extern, in den Parametern der gewichteten Größen ausdrückt und intern, in der Anpassung der Bewertungsstrukturen an Häufigkeiten im allgemeinen Sinne. (Zugehörigkeitsfunktion) Irgendwann muss man aufhören, nur für ein Detail zu rechnen. Der theoretisch erreichbare Genauigkeitsgrad widerspricht dem Aufwand und Nutzen seiner Realisierung.

Das Zuwachsproblem beschreibt den Grad der notwendigen Limitierung jeder Erfahrung zu einer logischen Struktur. Es ist dem Plausibilitätskriterium sehr ähnlich, doch es unterscheidet sich durch die Mengen an Informationen, die momentan eben nicht in ein Konzept passen. Alle diese Informationen bilden eine Gruppe möglichen Zuwachses! Diese Gruppe arbeitet notwendig mit Unendlichkeiten. Der eigentliche Ansatz ergibt sich somit aus der abwägenden Entscheidung zwischen Plausibilität und Zuwachs.

Der Mensch hat und der Automat kann eine Strategie haben, unendliche oder mathematisch momentan unlösbare Fragen weder zu ignorieren und auch nicht infinit auszurechnen, sondern an der Aktion des Gesamtapparates teilzunehmen, somit eine Plausibilitätsrechnung zu führen und eine Zuwachskomponente einzufügen. Das werde ich gern weiter erläutern – dennoch nicht jetzt!

Das Begründungsproblem wird durch die Erfahrung von seiner logischen Strenge her relativiert. Die Aneinanderreihung von Schlusstechniken sagt wenig und weniger über konkrete Situationen aus. Die bedenkenlose Anwendung der Logik hat sogar negative Konsequenzen. Sie kann zu einer völligen Fehlbeurteilung führen. Dazu werde ich lediglich ein Beispiel zeigen. Es gibt aber sicherlich unzählige!

Der kritische Realismus zeigt, dass Handlung und Denken nicht immer adäquat einer Linie folgen, die von den sogenannten Naturgesetzen oder dem wissenschaftlichen Erkenntnistand abgeleitet werden können. Solchen Gegebenheiten verleiht die mehrwertige Logik ein besseres Fundament der Beurteilung – ein besseres Frame. Wissen jeder Art ist niemals sicher!

Das beste Wissen entsteht aus unserer Kritik an anderen Wissensgegebenheiten. (Popper) Die permanente Infragestellung des Charakters unseres Wissens ist die Grundlage jeglicher Falsifikationen und die permanente Aufgabe der Erkenntnistheorie.

Evolution in der KI

Natürlich musste die Falsifikation der einfachen Filtertheorie Broadbents durch die Entdeckung der subliminalen Informationen durch Libet Einfluss auf die Informatik und KI haben. Auch aus der Informatik selbst kamen entscheidende Akzeleratoren, die neue Möglichkeiten eröffneten (Zadeh 1964 fuzzy logic). Es ist ja seit langem bekannt, dass eine Neuronenstruktur aus vielleicht 104 Neuronen bestehend (Modul), in ihrem Datendurchsatz (Entladungspotential, Aktivitätspotential, Inhibitions-Excitationsresultante/time) keine gleichförmige oder statische Matrix darstellt. Vielmehr werden sich die Module des Gehirns (Eccles 1975) variabel verhalten können. Außerdem darf man Module nicht als limitierte Input-Output-Systeme missverstehen. Jedes einzelne Neuron kann Input oder Outputfunktionen unterstützen. Somit kann eine bestimmte Neuronenstruktur, deren Grenzen willkürlich betrachtet werden, verschiedenen Funktionen in phänomenologischer Hinsicht realisieren. Außerdem gibt es keine scharfen modulären oder Input-Output-Grenzen. Die funktionelle Plastizität des Gehirns zeigt diesen Sachverhalt. Das ist kurz gesagt das Problem der rekursiven Zuordnungsschwierigkeit. (In der neuromodularen Systemanalyse der Informatik stoßen wir auf das gleiche Problem. Es ist auf einer bestimmten aktuellen Komplexitätsstufe gar nicht mehr idealtypisch vorhersagbar, was passieren wird.)

Natürlich ist verständlich, dass auch Filterfunktionen somit unmöglich statisch sein können. In der Informatik bedeutet diese Erkenntnis, dass bestimmte Algorithmen mit Filterfunktion (Kalman-Filter - ermöglichte die Mondlandung) besser funktionieren, wenn sie unscharf arbeiten.

Der von Bart Kosko entwickelte unscharfe Kalman-Filter ist das momentan leistungsfähigste Werkzeug der Militärs. Aber es gibt auch etliche zivile Anwendungen. Dieses mächtige Steuersystem, ist von vielen Regeln strukturiert. Das Grandiose daran ist auch seine Robustheit. Nimmt man ein paar Regeln weg, wird das System nur minimal schlechter funktionieren. Kosko hat sogar ein paar ganz unsinnige Regeln implementiert (!Lenke immer nach links!). Dennoch fangen die anderen Regeln diese Strategie ab. Verbunden mit einem Neuronalen Netzwerk ist dieser Filter ein schönes Beispiel für eine differenzielle wettbewerbsorientierte Lerneinheit. Auch das menschliche Zentralnervensystem kapituliert nicht bei geringfügigen Störungen. Sogar große traumatische Defekte können funktionell rehabilitiert werden. (Plastizität)

Die unscharfe Logik ist ein bedeutendes Werkzeug der KI geworden. Ich hatte schon an anderer Stelle angedeutet, welch wichtiges Problem die Wissensrepräsentation und die Wissensstrukturierung darstellen. Eine neuere Arbeit zu diesem Thema beschäftigt sich genau damit. Ich denke, dass ich Ihnen das zumuten kann, Herr Walther, da Sie ja doch sehr informiert diese Dinge verfolgen und beurteilen. Es geht um die Untersuchung und Implementierung sogenannter Unscharfer Min-Max basierter Neuronaler Netzwerks-Cluster-Bildungsmuster. Diese NNCB werden also in Clustermustern stabilisiert und das in nur wenigen Durchgängen durch eine Datenmenge. Die Unschärfe kann reduziert werden zu harten Clustergrenzen, die leicht untersucht werden können, ohne dass die unscharfen Grenzen geopfert werden müssen. Die NNCB sind in der Lage, neue Daten zu berücksichtigen und neue Cluster hinzuzufügen, ohne dass diese neu trainiert werden müssen.

Zwei wesentliche Probleme älterer Ansätze werden nahezu lösbar. Es entfällt die totale Kontextabhängigkeit und die heuristische Trägheit schwindet. Bevor ich kurz einige neue Möglichkeiten dieser unscharfen Min-Max basierten NNCB nenne, will ich Ihnen, Herr Walther das verwendete Hypersystem in wenigen Sätzen nahe bringen, weil es doch auch ein Stück weit mit der Verständnismöglichkeit zu tun hat, warum Bewusstsein und Wahrnehmung, wie mir scheint, nicht abzugrenzen sind (eine Überlegung, die unmittelbar aus Ihrem brillanten Aufsatz Bewusstsein und Wesen herrührt) . Ein Hypersystem definiert eine Region von n-dimensionalen Raummustern und alle Muster innerhalb des Hypersystems haben volle Zugehörigkeitscluster. Ein Hypersystem ist komplett definiert durch seinen Min-Max-Punkt. Die Kombination von Min-Max-Punkten mit der Hypersystem-Zugehörigkeitsfunktion definieren selbst eine unscharfe Menge (Cluster).

Das hieraus resultierende System passt natürlich in den Rahmen eines neuronalen Netzwerkes. Das Lernen in diesen NNCB besteht im Kreieren und Einfügen von Hypersystemen in Raummuster. Wenn dieses Netzwerk einmal trainiert ist, benötigt es Reizmuster (Außenreize, Innenreize usw.). Deren Zugehörigkeitswerte können sehr schnell errechnet werden. Es sind die Zugehörigkeitswerte, die das Muster in allen bekannten unscharfen Mengen aufweist.

Im Vorteil zu den Vorgängern der Adaptiven Resonanztheorie (ART) und dem Führer-Cluster-Algorithmus haben die NNCB folgende ansprechende Attribute.

  • Die Anzahl der Cluster bleibt ungebunden. Die Anzahl kann beliebig wachsen, wenn es das Problem erfordert.
  • Die Aktionen innerhalb der NNCB sind nicht unnötig kompliziert. Es werden eigentlich nur komplementäre Aktionen wie Vergleich und Häufigkeit benötigt.
  • Da eine Reduktion auf harte Clustergrenzen möglich ist, sind Verifikation und Gültigkeit erleichtert. (Eine menschliche Entscheidung ist ja ebenfalls hart, unabhängig davon ob eine interpersonale Kritik nur Falsifikationen zulässt.)
  • Es gibt nur zwei Parameter, die angepasst eingeführt werden müssen. Der eine regiert die Maximumgröße des Hypersystems und der andere kontrolliert die unscharfen Zugehörigkeitscluster.

Natürlich bleiben wichtige Probleme offen.

  • Die Regelung der Hypersystemgröße selbst wird ein interessanter Forschungsinhalt bleiben.
  • Das wohl bedeutendste Problem ist die hierarchische Strukturierung der "hypersystems fuzzy-cluster". Hier ruht ein gewaltiges Potential für die Bildung komplexer selbstorganisierender Strukturen!

Alle vorherigen Systeme, von denen ich zwei erwähnte, zu denen auch noch die Carpenter-Grossberg-Rosen- unscharfe ART gehört, hatten die Beziehung zu "Unscharfen Mengen" nicht richtig definiert. Die Benutzung von Min-Max-Operatoren hat per se nichts mit unscharfen Mengen zu tun. Nur weil Datenpunkte auf Grenzen 0-1 zurückskaliert werden, ist das System ja keineswegs zwangsläufig unscharf. Das einzige Element der älteren Ansätze, welches zu recht als unscharf bezeichnet wurde, war die Zugehörigkeitsfunktion.

  • Alle Cluster sind expansions- und kontraktionsfähig. Das bedeutet, sie können ihrer Bedeutung nach für eine aktuelle und anhaltende Reizmustersituation variieren.

Die möglichen Anwendungen scheinen unlimitiert. Der vordergründigste Aspekt, der die Entwicklungsidee vertritt, liegt in der diagnostischen Lernfähigkeit vor. Auf der Basis dieser Entwicklungen, sollte es möglich sein, regelbasierte Diagnosesysteme zu entwickeln.

Nach diesem vielleicht nicht ganz so übersichtlichen Ritt durch eine interessante Neuerung in der Informatik möchte ich nun endlich zu den Assoziationen kommen. Im Grunde liegt hier verborgen, warum ich mich vor Jahren von einer Auffassung verabschiedet habe, die ich die "Gedächtnis erweiternde Funktion" der KI genannt hatte.

Die ersten Ansätze der "neuronal networks" stimmten recht pessimistisch, was die Lernfähigkeit künftiger Computer anbelangte. Die Nachteile (langes Training, keine Flexibilität, und natürlich fehlende Assoziationsmechanismen) der Neuronalen Netze waren unübersehbar.

Die große Möglichkeit der fuzzy-logic wurde zwar von Zadeh visionär vorausgesehen. Es gab dennoch nur wenige Enthusiasten, die ihre Möglichkeiten wirklich verstanden. Der Chilene Moraga gehörte von Anfang an dazu. "Alles was wir damals über KI wussten, war die Tatsache, dass man Wissen sehr effizient speichern und sehr schnell verarbeiten konnte. Viele waren der Auffassung, damit sei schon alles gewonnen – zumal der Miniaturisierungsprozess immer weiter und schneller voran schritt. Das führte viele Insider dazu zu glauben, die genügend hohe Speicherkapazität würde ausreichen, um die Intelligenz und das Bewusstsein gleich e.p. zu realisieren. Das alles ist natürlich ad absurdum geführt worden." Ich hatte im Gegensatz zu manchen meiner Freunde damals Medizin studiert, während diese sich in die Informatik verwickelten. Aus der Sicht des jungen Mediziners, der erstmals die ungeheure Komplexität der Hirnmasse vor Augen hatte (Schnittfärbung nach Raymond Cajal, bei der man nur ca. 2% der Pyramidenzellen des cortex cerebri sehen kann), erschien mir deren Vorstellung recht illusorisch.

So ließ ich mich dazu hinreißen, die Informatik und speziell die KI als bloße Gedächtniserweiterung des Menschen zu betrachten. Ich hatte natürlich keine Ahnung welche Möglichkeiten der Informatik theoretisch schon damals zur Verfügung standen. Mein Skeptizismus ist in dieser Hinsicht stark gewichen. Dennoch halte ich nichts von sogenannten KI-Propheten, die uns wie Luc Steel die zwischenmenschlichen Beziehungen ersetzen wollen. Das würde ich auch als eine verfehlte Zielsetzung der KI bezeichnen. Vorverurteilungen lehne ich aber ebenso entschieden ab.

Wie immer steht ja dahinter ein monetärer Zirkel. Um bestimmte sicherlich interessante Forschungsprojekte zu finanzieren, knebeln die Forschungsinstitute ihre Mitarbeiter zu Arbeiten, die populistisch und damit werbewirksam sind. Steel’s Arbeit ist ja mit großem Interesse behaftet. Computer, die mit sich selbst spielen und lernen, sind von äußerst vorrangigen Zielen der KI belegt.

Zunächst die Lernfrage und die Frage der eigenständigen Wahrnehmung, die anderen in eigener sprachlicher Kreation mitgeteilt werden kann. Das ist schon ein sehr schwieriger Problemkreis. Insofern man nicht an der KI insgesamt Zweifel hegt, kann und muss man diese Bestrebungen akzeptieren. Ihre unangenehmen Begleiterscheinungen sind eine Folge zur Nähe monetärer Probleme.

Doch diese kann man nicht ausschließen. Dann müsste man auch überall sonst, wo ähnliche Projekte in der Pharmazie usw. bestehen, diese beseitigen, was letztlich auf die grundlegende Veränderung der Gesellschaft hinausliefe. Ich sehe diesen Tamagotshieffekt ebenso wie Sie selbst als äußerst negativ an. Wir haben wahrlich genug Zeit vergeudet mit der Erziehung kleiner piepsender Kunststoffeier. Letztlich ist doch aber dieses Massenphänomen auch verschwunden. Es bietet keinen Reiz mehr. Ebenso wird ein kläffender Köter auf Siliziumbasis schnell seinen Reiz verlieren. Nicht weil er aus einem bestimmten Material besteht. Er ist eben kein wirklicher Partner, weil er die erwarteten Reaktionen nicht in voller Bandbreite erfüllen kann und keine überraschenden Neuigkeiten hervorbringt, die unser Interesse nicht versiegen lassen.

Problem: Bewusstsein – Wahrnehmung

Ich hatte Ihnen, lieber Herr Walther, ja bereits offeriert, dass ich Ihre Bewusstseinsdefinition sehr unterstütze, zumal Sie der Erste(!) sind, der die Unschärfe der Phänomenologie und der Genesis berücksichtigt. Ich halte das wirklich für eine Novität! Es liegt einem vor dem Fuße und man sieht es nicht. Als Ergebnis und Folgerung lässt sich sehr schön ableiten, in welchem Verhältnis die Begriffe Bewusstsein und Wahrnehmung stehen könnten.

Das Problem besteht ja bei mir darin, erklären zu müssen, wann "bloße Wahrnehmung", die es nicht gibt, in "bloßes Bewusstsein"(siehe H.Walther "Versuch einer Kategorisierung des Geistes"), welches ebenfalls nicht existent ist, umschlägt. Wann also Sinnesinformationen, die von den Sinnesorganen und deren Rezeptoren aufgefangen werden, zu Bewusstsein werden. Die Grundlage der subliminalen Informationstheorie Libet’s für das Bewusstsein hat diese Trennung in dieser Weise noch ermöglicht. Doch davon müssen wir uns ja trennen! Es gibt zwei wichtige Gründe dafür aus meiner Sicht, die Sie, Herr Walther, schon vorausgesehen haben.

Einerseits können wir Bewusstsein nicht als rein funktionales oder gar Ich-Bewusstsein kategoriell benennen. (So meine bisherige Auffassung)

Das haben Sie mir, Herr Walther, überzeugend verdeutlicht. Der zweite Grund hängt mit dem ersten zusammen. Subliminale Information hinsichtlich des funktionalen Bewusstseins muss eine entsprechende Bedeutung innerhalb der "unteren" Vermögen haben, weil sie durch diese Interpretationsstufen notwendig rezipiert werden muss. Der Begriff der "subliminalen Information" hat somit eigentlich nur Beziehung zum funktionalen Bewusstsein. Den Begriff "Wahrnehmung" interpretieren die Philosophen gänzlich verschieden. Aber ich will an dieser Stelle keine Begriffsanalyse durchführen, die ich nicht für notwendig erachte. Wir wissen, was wir unter Wahrnehmung verstehen wollen. Somit sollten wir unser Verständnis dieses Begriffes auch nicht unnötig gewissen Techniken der Analyse opfern. Ich nenne es gern den Reißwolf der Verständnis. Denn jeder Begriff muss sonst auf einen oder eine Reihe anderer Begriffe zurückgeführt werden, die mit Erfahrung zusammenhängen, oder sie werden erfahrungslos nach "oben" geführt, wie es die Wortdichtung Heideggers zeigt! Auch Gadamer kann die Klippen seiner eigens gezimmerten Hermeneutik nicht umschiffen. Er bleibt im persönlichen Gespräch und dessen Verständnis hängen. Kein Wunder bei der sich widersprechenden Sprachakrobatik.

Popper hat die Streitigkeiten und Deutungen zum Begriffe ebenso verurteilt, wie es alle Vertreter des kritischen Rationalismus unternehmen. Wahrnehmung kann nicht isoliert gedacht werden von den Vermögen des Gesamtindividuums. Der Begriff der Wahrnehmung kann keine Eigenlebendigkeit haben. Jede komplexe Vermögensstruktur des menschlichen Gehirns interpretiert die eingereichten Sinnesdaten. Die fließenden Interpretationsschritte erzeugen Zwischenergebnisse, die jeweils mit der Verrechnung auch schon das Phänomen sind. So kann eine Gruppe sensibler Innervationen nicht abgekoppelt vom gesamten Interpretationsniveau gedacht werden, weil jede Information ein Schicksal hat, dass vom momentanen Globalzustand des Individuums abhängt. (Propensitätstheorie)

Was an Außenreizen rezipiert wird, muss dann notwendig zu Veränderungen (Membranpotentiale, Synapsenchemie, Hormonstimuli, Komplementaktivierung, Immunsystem, Gefäßturgor usw.) im Innern führen. Allerdings müssen diese Veränderungen dann primär nicht das höchste Vermögen erreichen, sie können bereits in unteren Ebenen phänomenologisch wirksam werden. Insofern durchdringen sich die Begriffe Wahrnehmung und Bewusstsein. Während Bewusstsein nicht in den Sphären der klassischen Rationalität aufgeht, wird der Wahrnehmung unrecht getan, wenn man sie als Rezeptionsleistung missversteht. Die Datenmenge wird grundsätzlich stark komprimiert. Dies geschieht einerseits durch "Kanalverengung" und andererseits durch "chemische Frequenzmodulation".

Entsprechend der Intensität und Dauer eines Reizes und der globalen Lage des rezipierenden Individuums wird das Schicksal eines Reizes jeweils sehr unterschiedlich ausfallen. (Ein interessanter Ansatz für die KI. Allerdings müssen wir uns langfristig von der methodologischen Einfachheit eines singulären Reizdenkens verabschieden.)

Mit der Anwesenheit eines entsprechend komplex organisierten Individuums in der gleichen Dimension der Informationsdimension, ist jede Wahrnehmung per se Bewusstsein.

Da Bewusstsein in mehreren Clusterzugehörigkeitsfunktionen definiert werden kann (Vermögen und anatomische Struktur), passt auf jeden Reiz ein Zugehörigkeitswert. Dieser kann innerhalb eines globalen Min-Max-Punktes erscheinen. Damit entfällt die Forderung einer Abgrenzung zwischen Wahrnehmung und Bewusstsein, weil alle Muster innerhalb des Hypersystems volle Zugehörigkeitscluster haben. Somit kommt jedem Reiz also eine minimale Bewusstseinsrealisierung zu (inflatio, Summa). Damit ist das Hypersystem erfüllt. Mit anderen Worten ist jeder Reiz innerhalb einer biologischen Min-Max-Breite und einer komplexen Interpretationsbiologie automatisch Phänomenologie im Sinne Ihrer Bewusstseinsdefinition Herr Walther. Das war das Einfache und Schöne an ihrer Definition.

Denn schon die Interpretationsschritte auf der Stufe des 1. und 2. Neurons der Sinnesmodalitäten sind unsinnig ohne die Betrachtung des Gesamtkonzeptes. Sie sind auch phylogenetisch isoliert unsinnig, da so etwas wie erstes und zweites Neuron nicht abgeschlossen vorliegen in einer phylogenetischen Situation. Die entsprechenden anatomischen Strukturen werden erst zu dem, was sie sind, durch kleine Veränderungen in langer Zeit. Variationen plus viel Zeit in relativ stabilen Umgebungsverhältnissen können evolutionär sein. In den Einzelaspekten verhält sich der Gesamtorganismus scheinbar konservativ. Aber minimale Variationen als Folge der Kooperativität machen ihn immer neu und keineswegs zur bloßen Wiederholung. Über lange Zeit gesehen, verändert sich eine Art. Die Eine mehr , die Andere weniger. Aber ich will keine Evolutionsbiologie erzählen. Ich will nur bemerken: Die Geschichte ist offen für jede unerdenkliche Entwicklung.

Es ist das (An-)Wesen der Geschichte, offen zu sein. Im Sinne Aristoteles’ bedeutet aber Entwicklung wesentlich Auswicklung einer feststehenden Form, wie Sie an anderer Stelle erläuterten.

So kann ich das nicht sehen! Genauso wie ich alle KI-Propheten kritisch durchleuchten würde, würde ich Zukunftspropheten immer auf ihre Nahinterpretationen hin testen.

Denn wenn es möglich sein soll, weitreichende wahre Prophezeiungen zu tätigen, dann hört jede Argumentationsfunktion (Popper) der Sprache auf. Wozu brauchen wir dann noch Argumente? Die Tatsache ist, dass alle Nahinterpretationen statistisch versagen. Niemand kann also voraussagen, was unmittelbar geschehen wird.

Wie soll sich dann voraussagen lassen, was viel später geschieht? Wie soll man Entwicklung mit dem Hintersinn Auswicklung verstehen? Gibt es vielleicht eine "sichere" Methode, die genetisch oder anders abgesichert ist? Im Sinne des kritischen Rationalismus müssen wir folgende Fragen stellen!

Gibt es einsichtige Gründe, die zu der Annahme berechtigen, unsere Vermutungen könnten in irgendeiner Weise mehr wahr sein als andere? Welche Argumente können wir beitragen, um diese Hypothese zu stützen?

Welche bekannten Gegenargumentationen kennen wir? Wie können wir sie entkräften? Genauso gilt dies umgekehrt!

Ich behaupte, die Geschichte wiederholt sich nicht! Ich behaupte auch, dass kognitive Ähnlichkeiten auftreten.

Ich behaupte, dass der Begriff der Ähnlichkeit, der ja von dem der Gleichheit streng gemieden wird, in sich schon die Lösung des Problems verbirgt.

Aber das ist ja noch keine Begründung. Indem man auf die Unterschiedlichkeit von Begriffen Bezug nimmt, hat man gar nichts gezeigt, außer die Unterschiedlichkeit der Begriffe und ihrer individuellen Assoziationen.

Man muss diese Begriffe in der argumentativen Funktion (Popper) der Sprache kohärent benutzen, wobei man den Assoziationsgrad jedes Begriffes traditionell und logisch ins Kalkül zieht! Nichts anderes vermag und kann Sprache über die bekannten Funktionen, die Karl Bühler ihr gegeben hat. Sowohl M. Heidegger als auch H.G. Gadamer und J. Habermas irren in dieser Frage als Galionsfiguren vor und nach anderen. Begriffe sind nicht in sich selbst logisch, obwohl sie Argumente sein können, die einen logischen Schluss bedienen können. Der logische Schluss ist aber eine vereinbarte Struktur erkenntnistheoretischer Kooperation aber außerhalb des einzelnen Individuums. Er wird jedoch individuell erlernt und kann somit individueller Bestandteil des funktionalen Bewusstseins werden. Der logische Schluss ist aber quasiobjektiv, da er nicht durch individuelle Neigung recht ist. Er ist in seinem Recht durch einen traditionellen, intersubjektiven Kooperationsvertrag. Daher ist er auch quasiobjektiv.

Der einzelne Begriff ist eine veränderliche Struktur innerhalb der Gesellschaft, der assoziativ mit vielen Menschen ungefähr geteilt werden kann. Die Logik ist ganz klar außerhalb der täglichen menschlichen Willkür. Die Logik kann zur Gefahr werden, wenn sie ihr Gebiet überschreitet und weissagend sein will ohne Erfahrung. Insbesondere wenn die Logik zu bestimmten Aussageformen benützt wird, offenbart sich ihr Verhältnis zu Aussagen in eines der Methode zur Erfahrung. Das ist, denke ich, auch unstrittig.

Gott und der kritische Realismus

Das bekannteste Gegenargument gegen die allseits erwartete Geschichte ist die Evolutionstheorie. Ihr bekanntestes Gegenargument ist hingegen die Schöpfungsbiologie oder allgemein die Schöpfungstheorie! Ich behaupte, dass diese Schöpfungstheorie in ihrer banalen Form mit dem Falschheitswerttheorem korreliert. Sie korreliert sowohl logisch und praktisch damit. Das bedeutet, sie ist logisch nicht haltbar und widerspricht jeder Erfahrung. Das scheint aber den Vertretern dieser Theorie gar nichts zu bedeuten. Sie verweisen auf die Lücken in der Evolutionstheorie, die merkwürdigerweise immer dort formuliert werden, wo gerade aktuell keine Erklärungen entstehen können. Sobald jedoch neue Entdeckungen und Schlussfolgerungen vorliegen, werden diese Kritikdomänen vermieden und der sogenannte unklare Teil wird zum Feld oft religiös motivierter Spekulationen und vernichtender Kritik. Das ist natürlich kein Mechanismus, der den Glauben bestärkt, den diese Attacken erzeugen oder verteidigen wollen.

Das reicht mir hier als Sinneskritik, weil ich natürlich nicht ohne Glauben bin und sein will. Nur diese offensichtliche Unfähigkeit zum Verständnis und die spiegelglatte Banalität der kritischen Reaktionen aus dieser Ecke sind einigermaßen befremdlich. Sie selbst, Herr Walther, haben das ja auch hermeneutisch an der neuen Enzyklika gezeigt. Aber Ich meine, dass man sich damit nur belastet, wenn man so tief wie Sie selbst darin hineindringt. Sie können die Falschheit nicht beweisen und die Wahrheit nicht sicher wissen! Trotzdem verstehe ich Ihren Antrieb sehr gut, denn die Aufdeckung von Denkfehlern in den Kreisen der Unfehlbaren ist äußerst enttäuschend und ermutigt wiederum zum eigenen Nachdenken über die Frage der Gültigkeit menschlicher Aussagen. Letztlich führen unsere Hypothesen in einen öffentlichen Tool, der nicht durch Protektion endgültig geschützt sein kann! Ich denke, dass Sie selbst einen hervorragenden Weg zur Gestaltung dieses Tools verfolgen. Sie stellen sich der öffentlichen Kritik. Mehr kann man nicht verlangen. Das ist der Geist des kritischen Realismus! Man hat nicht immer recht. Aber man kann versuchen seine subjektive Meinung zu objektivieren. Auch Sie haben ja gelernt und vertreten die Meinung des Plausibilitätskriteriums Ihrer Prägung. Damit ist sicherlich schon ein Problem im Vorfeld klar: Es gibt kein objektives Plausibilitätskriterium.

Alles ist im Flusse! Was wiederholt sich denn tatsächlich? Es lassen sich gewisse grobe Muster erkennen. Es gibt ständig Kriege irgendwo auf der Welt. Es wird ständig Musik gemacht von den Menschen. Diese Kriege und die Musik sind in einer bestimmten Weise immer das "Gleiche". Diese Behauptung würden sowohl alle Kriegsherren als auch alle Musiker sofort bestreiten. Es würde auf die Behauptung hinauslaufen, alle Kriege sind gleich, weil Waffen benutzt werden und Menschen sterben, und alle Musik ist gleich, weil Instrumente benutzt werden und Tonfolgen entstehen. Interpretationen sind ausgeschlossen, Kreativität und Variation sind Wiederholungen und damit eine täuschende subjektive Komponente, die zu erkennen nur einigen Wenigen möglich sein kann. Doch ich denke genau anders herum! Alles baut aufeinander auf. Wie die Vermögen eine Geschichte der Entwicklung haben so auch die Kunst. Die Kunst des Krieges und die der Musik haben unauslöschbare Vorbilder. Auch die Kunst des Denkens hat ebensolche Voraussetzungen. Es muss aber individuell immer neu gelernt werden, was uns kulturell wichtig ist. Aber gerade dieser stetige "Neubeginn" ist das garantum einer möglichen Veränderung. Kultur wird erlernt und nicht vererbt. (Der argumentative Nachweis wird ausgespart.) Selbst Vererbung stellt ja durch den Prozess des cromosomalen crossing over dem ungelenkten Variationsmechanismus die Rechnung. Damit hängt jeder individuellen Daseinsform, und der aus ihr erwachsenen Folgen, der Hauch der Zufälligkeit an, der auch die individuelle Hypothese doppelt zufällig erscheinen lässt. Dieser scheinbare Makel an der Idee einer Idee oder Tat ist weitgehend unwichtig, weil die Idee in einer völlig anderen Situation bestehen muss und durch den Bund der interpersonalen Kritik bewertet wird. Sie kann aber bestehen, wenn die Propensitäten der jeweiligen Situation es zulassen. Die Idee und der "Begriff", den Sie in "Bewusstsein und Wesen" definieren, haben insofern demnach eine minimale Gemeinsamkeit ja insofern, als sie beide in der jeweiligen Situation entstehen, die aktuellen genetischen Grundlagen zur Voraussetzung aufzeigen und subjektive Grundlage einer objektivierten Kunstwelt sein können.

Nicht nur die subjektive Aneignung der Welt erfüllt die Hypothese der Wiederholung nicht. Es ist auch ein Element der Ausscheidung, welches dazu führt, das der subjektive Charakter des Individuums auf seine objektive Grundlage geführt wird. Darum ist der gleiche Gedanke in einer anderen Situation schon keine Wiederholung mehr, weil wir lernen und die Anwesung eine veränderte ist. Die Anzahl der Ideen, Hypothesen und Begriffe, die "objektiviert" wurden, sind zuzüglich Parameter, die die Propensität eines gewählten Bezugssystems mit beeinflussen.

Zur Sloterdijk-Debatte

Ich bin mit den Texten Sloterdijk’s nicht vertraut. Dennoch hat mich Ihre ausgezeichnete Standortskizzierung ("Die Sloterdijk-Debatte") den Inhalten und wichtigsten Meinungen darüber sehr nahe gebracht. Ich schlage jedoch eine andere kritische Modalität vor. Sie ist meiner Meinung nach effektiver gegen solche Trivialtäter in der Erkenntnis.

Sie haben sie, Herr Walther, intuitiv bereits teilweise angewandt. Sie haben beispielsweise perfekt eingehakt bei genetischen Rekursionsproblemen. Es gibt kein Gen für Moral! Lernen und Lernen ist eben ein Unterschied. Das ganze Sloterdijk-Problem läuft auf ein Werteproblem hinaus. Für den Begriff Humanismus gibt es keine wahre Definition.

Eine Definition ist bereits eine Wertentscheidung. Alle möglichen Werte müssen nicht wahr sein, auch wenn es ihr subjektiver und evidenter Charakter suggeriert. Evidenz plus Platon und Nietzsche ergibt leider keine autoritäre Quelle des sicheren Wissens. Ebenso gilt dies natürlich für jede Art des Wissens, bei jedem Subjekt. Werte hingegen werden oft willkürlich bestimmt. Sie haben oft ein Gemeinsames mit sogenannten autoritären Quellen. Unser Wissen ist trügerisch und unvollkommen. Gerade in der Genforschung sind wir auf unsicherem Grund. Der Begriff "Gen" als Basenabfolge, die zur Realisierung eines bestimmten Proteins führt, ist äußerst fragwürdig geworden. Die Idee, einen Wert auf etwas zu begründen, was fragwürdig und ungeklärt exponiert, ist Wahnsinn.

  1. Daniel McNeill, Paul Freiberger, Fuzzy logic 1993
  2. Man sollte vorsichtig sein, wenn man bestimmte Ansätze vorschnell verurteilt. Seymour Papert und Marvin Minsky hat man schwere Vorwürfe gemacht, weil sie 1969 einen Beweis veröffentlichten, der die Perzeptronentheorie Rosenblatts widerlegte. Dieser Artikel war logisch völlig unantastbar. Nur, er hatte sich eben nur auf das damals bekannte Perzeptronmodel bezogen. Hingegen wurde die Formulierung so gewählt, dass jede mögliche Art von Perzeptronen ausgeschlossen wurde. In den Achtziger Jahren fand man aber trotzdem eine Möglichkeit neuronale Netzwerke zu gestalten, die den logischen Anfechtungen trotzten. Beide Forscher hatten die Entwicklung in diesem Bereich erheblich behindert! Sie suggerierten eine Einstellung bei forschenden Kollegen, die eine weitere Untersuchung und Forschung in diesem Bereich für zwecklos hielt. Die Suggestion wurde von einer tadellosen Logik untermauert. Der Tadel aus heutiger Sicht muss der sein, dass beide ein momentanes, situationsbedingtes Wissen als endgültige Wahrheit kritisierten. Dabei kritisierten sie nur ein aktuelles Modell. Die Anwendung der Logik ist mithin von unvorhersehbaren Grenzen einzelner Gültigkeiten limitiert. Mit seiner Logik sollte man eben vorsichtig sein!

  3. Die wesentlichen Funktionen der Sprache sind von Karl Bühler exzellent beschrieben worden. Er unterschied 3 Funktionen der Sprache: Ausdrucksfunktion, Appellation und Darstellungsfunktion. Popper fügte eine vierte Funktion hinzu: die Argumentationsfunktion.

  4. Popper, Karl Raimund ‚3-Weltentheorie’ z.B. in "Auf der Suche nach einer besseren Welt"
  5. Bei der normalen Zellteilung (Mitose) werden die doppelt vorhandenen Chromosomen vor ihrer Aufteilung und anschließenden Verdopplung zu Paaren in der Mittelebene der Zelle versammelt. Es bilden sich an den Zellpolen die Teilungszentren die Zentrosomen aus, die über Leitschienen die Chromosomen zu sich heranziehen. Dabei wird das Chromosom halbiert und später identisch vervollständigt. Es entstehen identische Tochterzellen. Bei der Keimzellenbildung (Meiose) werden die Chromosomen selbst durchtrennt. Denn die Keimzellen haben nur einen – also haploiden – Chromosomensatz. Die Chromosomen werden darum vollständig verteilt.

  6. Bevor sie jedoch aufgeteilt werden, unterziehen sie sich noch einer bestimmten Prozedur. Die vor der Teilung zu Paaren angeordneten Chromosomen tauschen einige Abschnitte ihres DNA-Gehaltes untereinander aus! Soweit wir wissen, geschieht das sehr willkürlich. Diese Form des DNA-Überwechsels wird auch als crossing over bezeichnet. Dabei wird nun aber garantiert, dass keine Tochterzelle ihrer Mutterzelle gleichen kann! Jedes Ovum und jedes Spermium ist natürlich prinzipiell gleich, aber dennoch anders! Insofern beruht die Veränderung auf einer statistischen Uniformität. Die Andersartigkeit jedes Individuums einer Art aber hängt nicht nur von momentanen Umwelteinflüssen ab, sie ist ein konzeptioneller Bestandteil des biologischen Lebens selbst geworden. Das Leben sorgt selbst für seine Variation. Nicht nur wahllose Mutationen, sondern hier wirkt die zum Mechanismus erhobene Variationsbestrebung, der Drang nach Veränderung, der Lebensfaktor, der élan vital. Ich will hinzufügen, dass ich davon ausgehe, dass diese scheinbare Zufälligkeit einen Vorgänger hat. Meiner Meinung nach sind es die Konjugationen der Bakterien. Wir können zwar Begründungen suchen, dennoch werden wir keine Begründung finden, die nicht selbst eine nötig hätte. Das ist der unendliche Regress! Es war Jacques Monod, der die Proteine genau analysierte und zu dem Schluss kam, dass wir alle Zigeuner am Rande des Universums sind. Auch in den chemischen Kräften zwischen den Proteinen liegen keine Erklärungen für die Lebenskraft. Ich bin nicht ungeteilt seiner Meinung, weil er den Reduktionismus als Methode generalisiert und logisch überfordert. Der Reduktionismus scheitert.

    Aber warum scheitert er? Der Reduktionismus scheitert daran, dass seine Suche nach letzten Begründungen, immer eine Kette weiterer Begründungen fordert. Wenn es nicht die Unschärfe der Heisenberg’schen Messungstheorie sein kann, was bleibt noch weiter? Und während wir uns in weiteren Begründungsverästelungen ergehen, übersehen wir die makroskopischen Wirkungen fast gänzlich. Der E.v. ist eine auslesebedingte makroskopische Erscheinung und keine letztlich begründbare wissenschaftliche Theorie oder eine analysierbare oder testbare Kraft, die sich physikalisch als Feld oder Teilchen darstellen ließe. Der Reduktionismus scheitert nicht nur am Begründungsproblem. Das Begründungsproblem ist aus der Sicht der Bioinformatik eine unendliche Ableitungsschleife. Von einer gegebenen Information gibt es unendliche Rückschlüsse auf deren Gründe. Wenn wir es einfach mathematisch verdeutlichen wollen, bedeutet es: das Ergebnis 4 ist auf unendliche Weise produzierbar. 2+2, 100-96, Quadratwurzel aus 16 usw. Darüber hinaus scheitert der Reduktionismus in der logischen Zirkulation. Er ergreift ständig frühere Argumente, die er als begründungsbedürftig selbst formuliert hatte. Weiterhin wird in fast allen Konzepten einer reduktionistischen Erklärung eine gewisse auch verständliche Abbruchmentalität betrieben. An einer bestimmten Stelle brechen die Argumentationsketten immer ab. Dieser Abbruch ist oft gewollt, zielgerichtet etabliert und oft dort, wo das Ausgangsargument lag. Somit wieder ein logischer Zirkel. Ich könnte einige Beispiele aufzählen, aber tun Sie sich selbst den Gefallen lieber Herr Walther!

  7. Es gibt auch heute noch sehr einflussreiche philosophische Denkrichtungen, die eine reine oder bloße, ungetrübte Wahrnehmung als Grundlage ihrer Erkenntnistheorie voraussetzen möchten. Doch der Begriff im Sinne von Rezeption von Außenreizen ist gehaltlos, weil er keine Konsequenz dieser Rezeption beschreibt. Der Reiz hat kein konkretes Schicksal. Die Klärung der Frage, worin denn nun das Wesen und die Auswirkung der Rezeption bestehe, ist dieser Philosophie zuwider. Sie will die Reizaufnahme als neutrales Geschehen der Sinnesorgane begreifen, die keinerlei vordergründige Konsequenzen für die Gesamtstruktur des rezipierenden Organismus hat. Die Untersuchungen zur subliminalen Information zeigen das Gegenteil. Der Begriff der Wahrnehmung im Sinne von Interpretation, wie er in der modernen Kognitionswissenschaft oft verwendet wird, kommt aber nicht ohne Phänomenologie aus. Die Phänomenologie beschreibt die somatischen Reaktionen auf Außenreize, die zu subjektiven Empfindungen führen. Interpretation in den Sinnesorganen selbst ist für sich völlig belanglos. Interpretation setzt immer einen Referenzwert voraus. Eine Datenreduktion oder Datenmodulation ist recht hilflos ohne eine reflektierende Matrix, die eine Referenzwertbildung ermöglicht. Ohne diese Matrix, sind unsere Sinnesorgane genauso wie ein Diaprojektor ohne Leinwand. Der Reiz muss irgendwo ankommen und eine Referenz zu dessen Ausgangspunkt haben. Man kann das verschieden formulieren. Ob es nun feedback oder interpretatio lemniscorum, clausolierter Algorithmus oder Wahrnehmung heißt, ist ja doch unwichtig. Wichtig ist jedoch, dass Reize an die subjectiva niemals reine Interpretation in eine sogenannte Empfangsrichtung sein können, noch können sie ereignislose Rezeption sein.

Weiter zu Teil III