1 Einleitung
Die logischen Konzepte, die der künstlichen Intelligenz zugrunde liegen, haben sich im Laufe der Jahrhunderte aus der Arbeit einer Reihe begabter Denker entwickelt, die sich um die Beziehungen zwischen ihren Konzepten und deren physischen Realisierung bemüht haben. Zweifellos ist Gottfried Wilhelm Leibniz (1646–1716) einer der wichtigsten unter ihnen, wenn nicht der wichtigste. Dieser Aufsatz ist Leibniz’ Beiträgen zur Mechanisierung des Denkens sowie einigen Interpretationen seiner bahnbrechenden Ideen der lingua characteristica und des calculus ratiocinator gewidmet.
Um zur Bezeichnung der Gedanken durch Zeichen zurückzukommen, glaube ich, dass die Streitfragen nie ein Ende haben werden und dass es nicht möglich sein wird, die Sekten zum Schweigen zu zwingen, wenn wir nicht von komplizierten Argumenten auf einfache Kalküle und von Ausdrücken vager und unbestimmter Bedeutung auf bestimmte Charaktere übergehen. Es muss uns gelingen, jeden Paralogismus zu einem Kalkül-Fehler und jedes Sophisma zu einem Solözismus oder einer Sprachwidrigkeit (barbarismus) zurückzuführen, welche dank der Gesetze der philosophischen Grammatik einfach entdeckt werden können. Wenn sich eine Meinungsverschiedenheit erhebt, so wird nicht mehr Diskussion zwischen zwei Philosophen nötig sein, als zwischen zwei Rechenspezialisten. Es reicht dann nämlich, die Stifte in die Hand zu nehmen, sich an die Rechentische zu setzen, und sich einander (wenn man möchte, nach Hinzuziehung eines Freundes) zu sagen: Rechnen wir’s doch aus!
Vom Standpunkt der Entwicklung der künstlichen Intelligenz aus sind die leibnizschen Konzepte der lingua characteristica und des calculus ratiocinator kaum zu unterschätzen. Es handelt sich um zwei Hauptbausteine der heutigen Computer. Um Informationen zu verarbeiten, bedarf ein Computer (i) einer mit gewissen Eigenschaften der Übersichtlichkeit, leichten Erlernbarkeit, Eindeutigkeit, und Ausdrucksstärke versehenen künstlichen Sprache zur Kodierung der Begriffe, welche algorithmisch behandelt werden sollen, und (ii) eines Algorithmus zur Verarbeitung der in der künstlichen Sprache kodierten Informationen.
In diesem Aufsatz werden wir uns zunächst mit Leibniz’ ars characteristica (lingua und calculus) in der Dissertatio de Arte Combinatoria (1666)2 beschäftigen (§ 2), um danach auf ihr wichtigstes Vorbild, Raymund Lulls ars magna (§ 3), einzugehen.
Daraufhin werden wir einige Interpretationen der leibnizschen Konzepte untersuchen, die sich aus Sicht der Mechanisierung des Denkens als sehr bedeutsam erwiesen haben. Hierbei wird die Interpretation der lingua characteristica vorgestellt, wie sie der Vater der Phänomenologie, Edmund Husserl (1859–1838) entwickelt hat und die viele Züge der Theorie der semantischen Kategorien von Stanislaw Leśniewski (1886–1939) und der Kategorialgrammatik von Kasiemierz Ajdukiewicz (1890–1963) aufweist (§ 4). Danach werden wir auf die Ausarbeitung des Begriffs des calculus ratiocinator als Logikkalkül oder Algebra der Logik eingehen, wie sie der englische Mathematiker und Logiker George Boole (1815–1864) aufstellt (§ 5), sowie auf einige Unterschiede, die der Vater der modernen Logik, Gottlob Frege (1848–1925), zwischen seiner Begriffsschrift und der formalen Sprache des italienischen Mathematikers Giuseppe Peano (1858–1932), erkennt (§ 6). Ferner werden wir uns einer Interpretation der lingua characteristica und des calculus ratiocinator im Lichte der gödelschen Sätze annehmen (§ 7), um danach die wichtigste Verwirklichung von Leibniz’ Traum im 20. Jahrhundert, die Turingmaschine, zu betrachten (§ 8).
Schließlich kehren wir zu Leibniz zurück, um uns einerseits mit einer Reihe spezifischer Ideen von Leibniz zu beschäftigen, die wie das duale System eine direkte Anwendung in der heutigen Informationswissenschaft haben (§ 9), andererseits werden wir Leibniz’ Versuch darstellen, eine Rechenmaschine konkret zu konstruieren (§ 10).
2 Die ars characteristica beim frühen Leibniz
Lebniz’ Jugendwerk, die Dissertatio de arte combinatoria, ist die Erweiterung einer mit Disputatio de arithmetica complexionibus betitelten Abhandlung, die Leibniz 1666 an der Philosophischen Fakultät Leipzig einreichte, um eine Dozentenstelle zu erhalten.3 Über die Wichtigkeit der Dissertatio äußert sich Leibniz wiederholt in seinen späteren Werken.4 Um nur ein Beispiel zu nennen, schreibt Leibniz in einem Text, welcher auf den Sommer 1679 datiert werden kann,5 er sei, „schon als Knabe auf […] Betrachtungen geführt worden“, die ihn zu einer Entdeckung von erstaunlicher Tragweite geführt haben: „Es müsste sich […] ein Alphabet der menschlichen Gedanken ersinnen und durch die Verknüpfung seiner Buchstaben und die Analysis der Worte, die sich aus ihnen zusammensetzen, alles andere entdecken und beurteilen lassen.“6 Er behauptet, es sei möglich, das gesamte (in der Enzyklopädie enthaltene) Wissen auf einige wenige Grundelemente (Grundbegriffe und Grundsätze) durch Analyse (Analysis) mit einem Prezedere zurückzuführen, das der Primfaktorzerlegung analog ist. Den Grundbegriffen sollen Zeichen für Grundbegriffe, den Verknüpfungen sollen Zeichen für Verknüpfungen und den Relationen sollen Zeichen für Relationen zugeordnet werden. Jedem Denkschritt entspricht eine analoge Operation in den Zeichen. Ordnen wir jedem einfachen Begriff ein Zeichen zu und stellen wir ferner gewisse allgemeine Regeln der Verknüpfung dieser Zeichen auf, so gewinnen wir eine symbolische Sprache die ihre eigenen Gesetze hat. Die Verletzung dieser Gesetze, müsste sich dann für uns an der Form der Zeichen selbst verraten, sodass wir einen latenten logischen Widerspruch in den Denkschritten an direkt sinnlich fassbaren „unmöglichen“ Zeichenkombinationen sichtbar machen können.7
Als ich achtzehn war, schrieb ich ein Büchlein mit dem Titel De Arte Combinatoria […] und entdeckte einen sicheren Faden für das Denken (certum meditandi filum), bewundernswertes Hilfsmittel der wahren Analyse, dessen Korollar die [künstliche] Sprache oder die allgemeine Charakteristik ist.
In seiner 1901 erschienenen La Logique de Leibniz, welche eine detaillierte Studie zu Leibniz’ Nachlass enthält, fasst der französische Logiker, Mathematiker und Linguist Louis Couturat (1868–1914) Leibniz’ Ergebnisse in der Dissertatio wie folgt zusammen:10
[Der junge Leibniz war der Meinung,] alle Wahrheiten können anhand der Analyse der in ihnen vorkommenden Begriffe aus einer kleinen Anzahl einfacher Wahrheiten hergeleitet werden sowie alle Begriffe können durch Analyse auf eine kleine Anzahl primitiver und undefinierbarer Begriffe zurückgeführt werden. Wäre dies getan, so genüge es, solche einfache Begriffe, wahre Elemente alles Denkens, vollständig aufzulisten, mit Zahlen zu versehen, und miteinander zu kombinieren, um alle zusammengesetzten Begriffe durch einen unfehlbaren Vorgang zu erhalten. So würde man ein Alphabet der menschlichen Gedanken bilden und alle zusammengesetzten Begriffe wären nichts anders als Kombinationen einfacher Begriffe, genauso wie Wörter und Sätze unendlich variierte Kombinationen der 25 Buchstaben des Alphabets sind.
Aus der Perspektive der künstlichen Intelligenz kann Leibniz’ lingua characteristica als ein Zeichensystem zur Kodierung der einfachen Begriffe angesehen werden und Leibniz’ calculus ratiocinator als ein Komplex von Regeln äußerst allgemeiner Natur, die die Bedingungen des Operierens mit Symbolen bestimmen.

Leibniz’ Calculus ratiocinator. (Quelle: eigenen Darstellung)
Was bedeutet aber, dass der calculus ratiocinator ein deduktives Problem „entscheidet“? Bevor wir uns dieser Frage zuwenden, werfen wir einen Blick auf Leibniz’ Vergangenheit. Was oder wer diente Leibniz als Inspirationsquelle für seine Ideen der lingua und des calculus?
3 Vorbilder der ars characteristica, insbesondere die ars magna von Raymund Lull
Leibniz ist weder der einzige noch der erste, der versucht hat eine ars characteristica zu entwickeln.11 Er selbst verweist auf die ars magna (Große Kunst) des mallorquinischen Philosophen, Logikers und später franziskanischen Theologen, Raymund Lull (1232–1316), als Inspirationsquelle für seine ars characteristica.12 Einige bezeichnen Lull darüber hinaus sogar „als gemeinen Ursprung der modernen Computertheorie“.13
Der corpus lullianus ist enorm und beinhaltet über 280 Titel.14 Einige der wichtigsten Ergebnisse sind in einem etwa 1305 angefertigten aber 1500 veröffentlichten Werk, der Ars generalis ultima,15 enthalten, sowie im dazugehörigen Kompendium, der Ars Brevis, enthalten.16 Unsere Ausführungen orientieren sich nach der Ars Brevis.

Lulls Alphabet. (Quelle: eigene Darstellung)
Mit jedem Zeichen des Alphabets sind sechs Kategorienbegriffe assoziiert, welche in der ersten waagerechten Reihe notiert sind: absolute Prinzipien, relative Prinzipien, Fragen, Subjekte, Tugenden, Laster. Unter jede Kategorie fallen neun Begriffe, von denen ein jeder mit einem der Buchstaben assoziiert ist.

Lulls Figur „A“. (Quelle: Llull, Ars magna generalis et ultima (per B.Lavinheta limata), 1517)

Lulls Figur „A“ (Graph). (Quelle: eigene Darstellung)
Die Linien zwischen den Eckpunkten werden „Kanten“ genannt, und stellen eine paarweise Verbindung zwischen den Eckpunkten dar. Der von Lull beschriebene Graph ist eine sogenannte Clique, d. h. ein Graph bei dem jede Ecke mit jeder anderen Ecke verbunden ist. Wir sehen insbesondere, dass dieser Graph ungerichtet ist, da man die Prädikation umkehren kann. Darüber hinaus ist der Graph schleifenfrei, d. h. keine Ecke wird mit sich selbst verbunden, da Lull die Selbstprädikation nicht explizit berücksichtigt. Die Einträge auf der Diagonalen der Inzidenzmatrix (d. h. der Tabelle, welche die Beziehungen der Knoten und der Kanten darstellt) werden als 0 und alle anderen als 1 bezeichnet.

Lulls Figur „T“. (Quelle: Llull, Ars magna generalis et ultima (per B.Lavinheta limata), 1517)
Es handelt sich um keine kombinatorische Figur, sondern eher um eine visuelle Gedächtnisstütze, um sich die festen Verhältnisse zwischen den relationalen Begriffen und „allem, was ist (quidquid est)“19 in Erinnerung zu rufen.

Lulls dritte Figur. (Quelle: eigene Darstellung)
PRINCIPIA ABSOLUTA | PRINCIPIA RELATIVA | |
B | Bonitas | Differentia |
C | Magnitudo | Concordantia |

Lulls vierte Figur. (Quelle: eigene Darstellung)
Sie besteht aus drei mit den Buchstaben des Lull’schen Alphabets verzeichneten Kreisen. Dabei ist der äußere Kreis im Gegensatz zu den beiden inneren unbeweglich. Der mittlere Kreis wird gegen den äußeren Kreis, während der innere gegen den mittleren gedreht wird. Auf dieser Weise werden alle Dreierkombinationen der neun Buchstaben unter Berücksichtigung der Reihenfolge (BCD, CDE, …) mechanisch generiert. Die Aufgabe, welche Lull lösen wollte, ist in der heutigen Begrifflichkeit diejenige, alle möglichen Variationen ohne Wiederholung von 3 Buchstaben aus einer 9-elementigen Buchstabenmenge zu finden.


Kommen wir nun zu einigen wichtigen Interpretationen bzw. Ausarbeitungen von Leibniz’ Errungenschaften: lingua und calculus.
4 Husserls Interpretation der lingua characteristica.
[Der] Begriff [der semantischen (oder Bedeutungs-) Kategorien], welcher von E. Husserl stammt, wurde durch Leśniewski in die Untersuchungen über die Grundlagen der deduktiven Wissenschaften eingeführt. Formal betrachtet, ist die Rolle dieses Begriffs bei dem Aufbau einer Wissenschaft analog der Rolle des Begriffs Typus im System der Principia Mathematica von Whitehead und Russell; was aber seinen Ursprung und seinen Inhalt anbelangt, entspricht er (annäherungsweise) eher dem aus der Grammatik der Umgangssprache wohl bekannten Begriff des Redeteiles. Während die Typentheorie hauptsächlich als eine Art Vorbeugungsmittel gedacht war, das die deduktiven Wissenschaften vor eventuellen Antinomien bewahren sollte, dringt die Theorie der semantischen Kategorien so tief in die fundamentalen, die Sinnhaftigkeit der Ausdrücke betreffende Intuitionen hinein, dass es kaum möglich ist, sich eine wissenschaftliche Sprache vorzustellen, deren Aussagen einen deutlichen inhaltlichen Sinn besitzen, deren Bau jedoch mit der in Rede stehenden Theorie in einer ihrer Auffassungen nicht in Einklang gebracht werden kann.
Im Jahre 1922 habe ich eine Konzeption der „semantischen Kategorien“ skizziert, die mir diese oder jene – meiner Ansicht nach jeder intuitiven Begründung entbehrenden – „Hierarchie der Typen“ ersetzen sollte. Diese Konzeption, um überhaupt sinnvoll reden zu wollen, wäre ich auch anzuerkennen gezwungen, auch wenn es auf der Welt keinerlei „Antinomien“ gäbe. Indem meine Konzeption der semantischen Kategorien in Bezug auf ihre theoretischen Konsequenzen in enger formaler Verwandtschaft mit den bekannten Theorien der logischen Typen blieb, knüpfte sie, was ihre intuitive Seite anbetrifft, eher an die Tradition der „Kategorien“ von Aristoteles, der „Redeteil“ der traditionellen Grammatik und der Bedeutungskategorien von Herrn Edmund Husserl an.
[A]priorischen Bedeutungsgesetze […] sind es, welche den vom Rationalismus des 17. und 18. Jahrhunderts concipirten Gedanken einer universellen Grammatik einen sicheren Halt geben. […] Instinktiv hatten die älteren Grammatiker […] die bezeichnete Gesetzessphäre im Auge, wenn sie sie auch nicht zu begrifflicher Klarheit zu bringen vermochten.
Philosophisch ist, so Husserl, die reine Grammatik „von allergrößtem Interesse“. 29 Man sollte sich klar machen, dass „aller Tadel der alten Lehre von einer grammaire générale et raisonné nur die Unklarheit ihrer historischen Gestaltungen und die Vermengung von Apriorischem und Empirischem trifft“.30 „Es ist für die Sprachforschung von fundamentaler Bedeutung […], dass die Sprache nicht bloß ein physiologisches, psychologisches und kulturhistorisches, sondern auch ein apriorisches Fundament hat.“31
Die rein logische Grammatik oder „Formenlehre der Bedeutungen“,32 wie Husserl sich ausdrückt, untersucht (i) die „reinen Bedeutungskategorien“, d. h. die grundlegenden semantischen Kategorien, (ii) die Formen der Verbindung zwischen den „niederen Bedeutungselementen zu den einfachen Sätzen“,33 (iii) die Formen der Verbindung von Sätzen zu Sätzen (insbesondere solche, die deduktiv relevant sind, wie die Konjunktion, die Disjunktion und die Implikation)34 sowie (iv) die Gesetze, die „die schrittweisen Complicationen [bestimmen], durch welche eine unendliche Mannigfaltigkeit neuer und immer neuer Formen aus den primitiven erwächst“.35
Was will Husserl unter „semantischen Kategorien“ verstanden wissen?
Analysieren wir einen einfachen kategorischen Satz, d. h. ein Satz von der Form Subjekt-Kopula-Prädikat, so kommen wir höchstwahrscheinlich zu dem Schluss, dass auf jeden Fall die Kategorien Subjekt und Prädikat zu den grundlegenden semantischen Kategorien gehören. Eine Kategorie ist aber ein Gattungsbegriff, unter den alle Satzelemente fallen die mit Bezug auf unser Beispiel als Subjekt oder als Prädikat in einem kategorischen Satz vorkommen können. Analysieren wir aber die Sprache unabhängig von ihrer Sinnhaftigkeit, so ist das, was wir eigentlich suchen, wie ein Subjektausdruck und ein Prädikatausdruck zusammengesetzt werden sollen, um eine kategorische Satzform zu erhalten. Die logische Grammatik bedarf also zunächst eines Alphabets, das Subjektausdrücke und Prädikatausdrücke und überdies auch alle Zeichen enthält, die notwendig sind, um die Sprache als syntaktisches Gebilde zu gewinnen. Blicken wir auf die Art und Weise, wie wir die Sprache verwenden, so können wir sagen, dass sie zwei Hauptaufgaben erfüllt: (i) Individuen zu bezeichnen und (ii) darzutun, dass es sich so und so verhält. Das Alphabet wird also Zeichen enthalten, die Gegenstände, solche die Eigenschaften und Relationen und solche die Verfahren bezeichnen. Darüber hinaus wird es auch Zeichen für Verknüpfungen zwischen Satzelementen und Zeichen für Verknüpfungen zwischen Sätzen geben müssen. Sieht man genauer hin, so sind die grundlegenden semantischen Kategorien auf der Basis der bisherigen Überlegungen eher Kategorien von Typen von Ausdrücken als Bedeutungskategorien. Die Kategorie der Ausdrücke, die eine hinweisende Funktion erfüllen, wird „Kategorie der Termformen“, die Kategorie der Ausdrücke, die eine deklarative Funktion erfüllen, wird „Kategorie der Aussagenformen“ genannt. Nun ist aber ein Gattungsbegriff, extensional betrachtet eine Menge. Die Kategorie der Terme wird als Menge betrachtet, die alle möglichen Termformen enthält. Die Kategorie der Aussagen wird als Menge betrachtet, die alle möglichen Aussageformen enthält. Eine Menge kann aber nicht nur als Extension eines Prädikats, sondern auch induktiv definiert werden. Die induktive Definition ist eine konstruktive Methode zur Definition einer Menge von Objekten aus Basisobjekten mittels gewisser Erzeugungsregeln, die beschreiben, wie man aus gegebenen Elementen neue gewinnen kann.
Es ist in der Literatur über die vierte logische Untersuchung von Edmund Husserl schon oft bemerkt worden, dass Husserls logische Grammatik das Konzept einer formalen Sprache sowie die Modalitäten ihrer Bildung, die wir gerade beschrieben haben, deutlich vorwegnimmt.36
legt das ideale Gerüst bloß, das jede faktische Sprache […] in verschiedener Weise mit empirischem Material ausfüllt und umkleidet. Wie viel vom tatsächlichen Inhalt der historischen Sprachen, sowie von ihren grammatischen Formen in dieser Weise empirisch bestimmt sein mag, an dieses ideale Gerüst ist jede gebunden; und so muss die theoretische Erforschung desselben eines der Fundamente für die letzte wissenschaftliche Klärung aller Sprache überhaupt ausmachen (LU IV, 338–339).
5 Booles Interpretation des calculus ratiocinator
Wer mit dem gegenwärtigen Stand der symbolischen Algebra vertraut ist, weiß, dass die Geltung der Prozesse der Analysis nicht von der Interpretation der vorkommenden Symbole, sondern nur von den Gesetzen ihrer Verknüpfung abhängt. Jede Art der Interpretation, die die Geltung der vorausgesetzten Relationen nicht beeinflusst, ist gleich zulässig, und daher kann dasselbe Verfahren bei der einen Interpretation die Lösung eines Problems der Zahlenlehre, bei einer anderen Interpretation die Lösung eines Problems der Geometrie, bei einer Dritten, die Lösung eines Problems der Dynamik oder Optik liefern.
Das Logikkalkül ist ein System von Gleichungen, die strukturelle Eigenschaften von Operationen unabhängig von der Interpretation der angewendeten Zeichen festlegen. Man kann den Logikkalkül als algorithmisches Zeichensystem für die geregelte Herleitung von Zeichen aus Zeichen ansehen, das verschiedenen Objektgebieten dienen kann, also nicht nur Zahlen- oder Größengebieten, sondern auch Bereichen, deren Gegenstände Sätze, Konzepte und im Allgemeinen qualitative Daten sind.
In seinem 1854 erschienenen Meisterwerk, The Laws of Thought, nimmt sich Boole vor, die Gesetze des Denkens zu untersuchen, d. h. die Gesetze jener Operationen des Geistes, die das rationale Argumentieren ermöglichen. Auf diese Gesetze soll das Logikkalkül gegründet werden.38 (Wir sehen hier von der Frage ab, ob Boole ein logischer Psychologist ist oder nicht.)39
Boole unterscheidet zwischen allgemeinen und grundlegenden Denkgesetzten. Aus den letzteren sollen alle logischen Gesetze überhaupt gewonnen werden.40 Das System der grundlegenden Denkgesetze wird durch einen Algorithmus widergespiegelt, der auf dem Isomorphismus zwischen algebraischen Operationen und Denkoperationen beruht. Boole untersucht zwei Arten von Relationen: Relationen zwischen Dingen und Relationen zwischen Sachverhalten. Als Relationssystem zwischen Dingen interpretiert ist der Logikkalkül die Klassenlogik, als Relationssystem zwischen Sachverhalten interpretiert ist der Logikkalkül die Aussagenlogik. Boole glaubt eine perfekte logische Methode gefunden zu haben, welche die praktische Anwendung der Logik ermöglicht und zudem die Hauptaufgabe der praktischen Logik löst. Diese lautet, in der modernen Begrifflichkeit ausgedrückt: Alle logischen Folgerungen einer gegebenen Satzmenge zu finden.
Die Kapitel V. und VI. aus Laws of Thought legen die allgemeine Form des Argumentierens mit Symbolen fest.

Booles Calculus ratiocinator. (Quelle: eigene Darstellung)
Kommen wir nun zu der Frege-Peano Kontroverse in Hinsicht auf die Interpretation der leibnizschen Begriffe.
6 Frege Interpretation der lingua characteristica und des calculus ratiocinator
Die Begriffsschrift ist ein Büchlein, das 1879 mit dem Untertitel „Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens“ veröffentlicht wurde. Es enthält die erste Formalisierung eines prädikatenlogischen Kalküls zweiter Stufe mit Identität, allerdings in einer schwer zu beherrschenden zweidimensionalen Notation geschrieben. Die Begriffsschrift wurde entworfen, um im Einklang mit dem Programm der Logizismus die Arithmetik auf der Logik zu gründen: Arithmetische Axiome sollen aus logischen Grundgesetzen als Theoreme abgeleitet werden und alle Ableitungen sollen begriffsschriftlich erfolgen.
In einem Text aus dem Jahr 1896 mit dem Titel Über die Begriffsschrift des Herrn Peano und meine eigene42 erklärt Frege, die Notwendigkeit einer Begriffsschrift gefühlt zu haben, als er „nach den unbeweisbaren Grundsätzen oder Axiomen fragte, auf denen die ganze Mathematik beruht“.43 Ist eine Theorie ein Instrument, das die Erkenntnis eines gewissen Gegenstandsgebietes ermöglicht, so entsteht die Frage, ob die Axiome der Theorie hinreichend und vollzählig sind, um alle wahren Sätze der Theorie durch Demonstration herzuleiten. Ein Hindernis dazu bildet die Mehrdeutigkeit der natürlichen Sprache sowie „der Mangel an festen Formen des Schließens“.44 Um alle Axiome und alle einfachen Schlussregeln auszusondern, wird „ein ganz neues Hilfsmittel des Gedankenausdrucks“ gebraucht, „bei dem logische Vollkommenheit mit möglichster Kürze vereinigt ist.“ Man wird die Anzahl der Schlussweisen möglichst beschränken und diese als Regeln dieser neuen Sprache aufstellen. „Dieser ist“ – so Frege – „der Grundgedanke einer Begriffsschrift. […] Sie ist, um einen Leibnizschen Ausdruck zu gebrauchen, eine lingua characterica.“45
Frege erklärt, dass das Schließen in seiner Begriffsschrift nach Art einer Berechnung vorgeht. Dies sei nicht in dem Sinne zu interpretieren, als ob dabei ein Algorithmus herrsche, wie der Algorithmus zur Berechnung der Addition oder der Multiplikation, „sondern in dem Sinne, dass überhaupt ein Algorithmus da ist, d. h. ein Ganzes von Regeln, die den Übergang von einem Satz oder von zwei zu einem neuen beherrschen, sodass nichts geschieht, was nicht diesen Regeln gemäß wäre“.46 Seine Absicht sei also auf „lückenlose Strenge der Beweisführung und größte logische Genauigkeit gerichtet, daneben auf Übersichtlichkeit.“47
In diesem Zusammenhang betrachtet Frege eine Schrift von Peano mit dem Titel „Notation de logique mathématique. Introduction au Formulaire de Mathématique publié par la Rivista di Matematica“, 48 welche vom Verfasser als Einleitung zur „Formulaire de Mathématique“,49 buchstäblich „Sammlung von Formeln“, gedacht ist. Letzteres sollte die Gesamtheit des in der Peano’schen Begriffsschrift verzeichneten mathematischen Wissens enthalten. Die Absicht von Peano scheint, so Frege, mehr auf die „Aufspeicherung des Wissens als auf das Beweisen gerichtet“,50 dies geht auch aus dem Fehlen der Schlussregeln in Peanos Begriffsschrift hervor, denn Frege betrachtet die Formeln, die Peano im Teil 1 der Formulaire de Mathématique auflistet, nicht als logische Schlussregeln.
Booles Logik ist Logik und nichts als dies. Nur auf die logische Form kommt es ihr an, gar nicht darauf, einen Inhalt in diese Form zu gießen und das ist gerade die Absicht des Herrn Peano. In dieser Hinsicht steht sein Unternehmen meiner Begriffsschrift näher als der Logik von Boole. In anderer Hinsicht kann man auch eine engere Verwandtschaft zwischen der Boolschen Logik und meiner Begriffsschrift anerkennen, sofern nämlich der Hauptnachdruck auf das Schließen fällt, was in der Peanoschen rechnenden Logik weniger betont wird. Mit Leibnizschen Ausdrücken kann man sagen: Booles Logik ist ein calculus ratiocinator, aber keine lingua characterica, die Peano’sche mathematische Logik ist in der Hauptsache eine lingua characterica, daneben auch ein calculus ratiocinator, während meine Begriffsschrift beides mit gleichem Nachdruck sein soll.
Wenden wir uns nun zu einer Interpretation der lingua characteristica und des calculus ratiocinator im Lichte der gödelschen Sätze.
7 Lingua characteristica und calculus ratiocinator im Lichte der Gödelschen Sätze
In einem unveröffentlichten, um 1961 geschriebenen Aufsatz mit dem Titel The modern development of the foundation of mathematics in the light of philosophy spricht der österreichische und später amerikanische Logiker Kurt Gödel (1906–1978) von Sinn und Zweck seiner Vollständigkeits- und Unvollständigkeitstheoreme. Aus heutiger Perspektive betrachtet kann Gödels Vollständigkeitstheorem so gedeutet werden, dass Leibniz’ Traum eines calculus ratiocinator in einem präzisen Rahmen – nämlich dem der Prädikatenlogik erster Stufe – verwirklicht werden kann. Laut diesem Theorem sind alle logischen Wahrheiten bzw. logischen Folgerungen innerhalb eines Kalküls ableitbar. Diese nüchterne Formulierung des Theorems darf nicht darüber hinwegtäuschen, dass seine Implikationen gewichtig sind: Die semantischen Begriffe der logischen Wahrheit und der logischen Folgerung sind höchst ineffektiv. Um einen Satz im Hinblick auf seine logische Wahrheit überprüfen zu können, müsste man alle unendlich vielen Interpretationen der nicht logischen Teile des Satzes betrachten und für jede einzelne dieser Interpretationen überprüfen, ob der Satz bei ihr wahr ist oder nicht. Ganz anders wenn es zu beweisen gelingt, dass alle logischen Wahrheiten bzw. logischen Folgerungen innerhalb eines Kalküls ableitbar sind: Dann kann die Bestimmung der Allgemeingültigkeit des Satzes zurückgeführt werden auf die Aufgabe, einen Beweis für diesen Satz zu finden, der von einigen wenigen Axiomen und Schlussregeln Gebrauch macht. Leibniz’s Traum von einem calculus ratiocinator kann auf dem elementaren Niveau der Prädikatenlogik erster Stufe und unter Berücksichtigung der Einschränkungen der von Church und Turing 1936 bewiesenen Theoreme (Unentscheidbarkeit bzw. Semi-Entscheidbarkeit der Prädikatenlogik erster Stufe)51 als realisiert gelten.
Nun gibt es ja heute den Beginn einer Wissenschaft, welche behauptet, eine systematische Methode für eine solche Sinnklärung zu haben, und das ist die von Husserl begründete Phänomenologie. Die Sinnklärung besteht hier darin, dass man die betreffenden Begriffe schärfer ins Auge fasst, in dem man die Aufmerksamkeit in einer bestimmten Weise dirigiert, nämlich auf unsere eigenen Akte bei der Verwendung dieser Begriffe, […]
Tatsächlich lohnt es sich, den von Gödel an dieser Stelle vorgeschlagenen Weg einzuschlagen, wenn es darum geht, die Annahmen über die Natur des Geistes zu entlarven, die der künstlichen Intelligenz und der Konstruktion von intelligenten Automaten zugrunde liegen. Denn welche intelligente Automaten wir realisieren, hängt schließlich von den Eigenschaften des Geistes ab, die wir als konstitutiv für die Intelligenz ansehen oder, was dasselbe ist, von dem Modell des Geistes, das wir annehmen.54
8 Turingmaschinen
Ganz zu Anfang unserer Darstellung haben wir dem frühen Leibniz die Auffassung zugeschrieben, alle deduktiven Probleme seien im Grunde in die lingua characteristica kodierbar und durch den calculus entscheidbar. Diese Interpretation haben wir in Abb. 1 grafisch dargestellt.
Die Frage, was „entscheidbar“ eigentlich bedeutet, entsteht aber viel später gegen Ende der 20er-Jahre im vergangenen Jahrhundert. Warum ausgerechnet dann? Man kann zwei Gründe dafür nennen: (i) Zum einen die Publikation der Grundzüge der theoretischen Logik von Hilbert und Ackermann im Jahre 1928. Hier findet man das sogenannte „Entscheidungsproblem“ zum ersten Mal formuliert. Es handelt sich um die Frage, ob die Prädikatenlogik entscheidbar ist. Wäre die Antwort auf diese Frage positiv, so würde man die Notwendigkeit eines mathematischen Gegenstücks für das Konzept eines Algorithmus wahrscheinlich nicht sehen. Um beispielsweise zu zeigen, dass die Aussagenlogik entscheidbar ist, genügt es, einen Algorithmus vorzuweisen, der für jede in der Sprache der Aussagenlogik geschriebene Aussage entscheidet, ob es sich um eine Tautologie handelt oder nicht. Als Beispiel für einen solchen Algorithmus sei auf die Wahrheitstabellen hingewiesen. Ist aber die Antwort auf die Entscheidbarkeitsfrage negativ, so muss man zeigen, dass es keinen Entscheidungsalgorithmus gibt, der die Aufgabe löst. Wie soll man aber verfahren, wenn man über kein mathematisches Gegenstück dafür verfügt? (ii) Der andere Grund ist der Beweis (1930–31) von Gödels Unvollständigkeitssätzen. Diese gelten, wie wir oben gesehen haben, für jede Theorie, die „etwas Arithmetik enthält“ und zudem effektiv und widerspruchsfrei ist. Die Bedingung der Effektivität kann auch wie folgt formuliert werden: Die Menge der spezifischen Axiome der Theorie soll „entscheidbar“ sein. Wiederum: Was heißt „entscheidbar“?
Die Aufgabe, ein mathematisches Gegenstück für das Konzept eines Algorithmus zu finden, wurde 1936 vom britischen Logiker Alan Turing (1912–1954) gelöst. Die Turingmaschine ist die natürlichste und leichteste Präzisierung dieses Konzepts.55
Turing geht von der Analyse einer Berechnung aus, die von einem menschlichen Rechner (computor) U „mit Bleistift und Papier“ ausgeführt wird. Der Rechner geht von gewissen Anfangsdaten aus und folgt einem bestimmten Algorithmus. Die Berechnung ist ein Verfahren, das in diskreten Schritten fortschreitet. Der Rechner verfügt über ein endliches Alphabet zur Darstellung der Daten und verwendet für seine Berechnung ein Mittel (Blatt Papier), worauf er die Lese- und Schreibeoperationen ausführt (Speicherung der Anfangsdaten, intermediäre Rechnung, Ergebnis). Zu jedem Zeitpunkt der Berechnung beobachtet der Rechner nur eine endliche Raumregion, worauf sich höchstens eine endliche Zeichenfolge befindet. Überdies verfügt der Rechner über eine endliche Menge von innerlichen, mentalen Zuständen. Intuitiv gesprochen „erinnert er sich“ zu jedem Zeitpunkt an das zu vorangehenden Zeitpunkten Ausgeführte bzw. Beobachtete. Jeder Übergang oder jede Transition hängt aufgrund der Algorithmusbefehle eindeutig und ausschließlich von dem beobachteten Zeichen zum Zeitpunkt t, vom Zustand, in dem sich der Rechner zum Zeitpunkt t befindet, und von der Aktion die in einer Transition ausgeführt wird. Die Aktion besteht in einer Änderung der Lage des Systems (Schreiben bzw. Löschen gewisser Zeichen, Beobachten einer neuen Region, Speichern im inneren Speicher (Gedächtnis)). Jede Aktion ändert die Lage des Systems in einer endlichen Weise. Kommen wir nun zu der abstrakten, nicht anthropomorphischen Beschreibung einer Turingmaschine.

Turingmaschine. (Quelle: eigene Darstellung)



Eine Turingmaschine stoppt, wenn für den aktuellen Zustand und das gelesene Bandsymbol keine Überführung zu einem neuen Zustand definiert ist. Es hängt also im Allgemeinen von der Kombination aus Zustand und Symbol ab, ob die Turingmaschine weiter rechnet oder stoppt. Zustände, in denen die Turingmaschine unabhängig von dem gelesenen Bandsymbol anhält, bezeichnet man als Endzustände. Es gibt aber auch Turingmaschinen, die für gewisse Eingaben niemals stoppen.
Dass der Begriff der Turingmaschine eine adäquate Auffassung des Begriffs des Algorithmus ist, ist eine Plausibilitätsbetrachtung: Es ist klar, dass jede Turingmaschine einen Algorithmus darstellt. Aber: Dass jeder Algorithmus durch eine geeignete Turingmaschine simuliert werden kann, ist eine These (Turing-Church These), die nur durch den bisherigen Mangel an Gegenbeispielen und die Äquivalenz der verschiedenen formalen Gegenstücke für das Konzept der Berechenbarkeit im intuitiven Sinne bekräftigt werden kann.56
In consequence of later advances [...] due to A.M. Turing’s work,58 a precise and unquestionably adequate definition of the general concept of formal system can now be given […]. That is, it can be proved rigorously that in every consistent formal system that contains a certain amount of finitary number theory there exist undecidable arithmetic propositions and that, moreover, the consistency of any such system cannot be proved in the system. Turing’s work gives an analysis of the concept of „mechanical procedure“ (alias „algorithm“ or „computation procedure“ or „finite combinatorial procedure“). This concept is shown to be equivalent with that of a „Turing machine“.

Universalmaschine. (Quelle: eigene Darstellung)
Die Realisierbarkeit der Universalmaschine ist nur vor dem Hintergrund der Homogenität von Programmen und Daten möglich: Die Ausführung eines Algorithmus ausgehend von gewissen Eingabedaten hat selbst algorithmische Natur. Neben der Eingabe des zu berechnenden Problems, übergibt man der Maschine eine Beschreibung des auszuführenden Algorithmus (eine Spezialmaschine). Das entspricht unserem gewohnten Bild vom Computer. Wir haben nicht für jede Aufgabe ein spezielles Gerät, sondern können verschiedene Programme ausführen, die wir vorher in den Speicher geladen haben. Vergleichen wir an dieser Stelle Abb. 1 und 10, so können wir behaupten, dass die Universalmaschine die vollkommenste Verwirklichung von Leibniz’s Traum zu sein scheint.
Wenden wir uns nun einer Theoretisierung von Leibniz zu, die eine direkte Anwendung in der heutigen Informationswissenschaft gefunden hat.
9 Leibniz’ duales System








Wir können also 127 Zeichen mit ASCII Code aufrufen. Um nur einige Beispiele zu geben, steht in dieser Codierung „156“ für das Symbol für den britischen Pfund „£“, oder „102“ für den kleingeschriebenen Buchstaben „f“.
10 Leibniz’ Rechenmaschine
Leibniz begann um 1672 in Paris mit seiner Arbeit an einer Rechenmaschine. Ihm gelang es hierbei nicht nur die erste Maschine, die alle vier Grundrechenarten berechnen konnte, zu fertigen, sondern er entwickelte neue Komponenten, die deren Bau überhaupt erst ermöglichten.
Die hier geschilderte Maschine basiert auf dem Dezimalsystem. Leibniz überlegte auch eine auf dem Dualsystem basierende „Machina arithmetica dyadica“ zu konstruieren, kam jedoch nie über eine konzeptionelle Phase hinaus, wohingegen die Versuche, die das Dezimalsystem nutzten, nicht nur realisiert wurden, sondern sogar in Serienproduktion gehen sollten. Hierzu kam es jedoch nicht. Frei nach seinem Motto theoria cum praxi beschäftigte er sich daher auch mit faktischen Problemen der damaligen technischen Möglichkeiten.
Leibniz’ Arbeit war hierbei von Blaise Pascal beeinflusst, dessen Maschine jedoch nur addieren und subtrahieren konnte. Leibniz stellte sich die Aufgabe, auch die Multiplikation und Division zu ermöglichen. Einen ersten hölzernen Prototyp seiner Maschine stellte er 1673 bei der Royal Society of London vor und erhielt sehr positive Rückmeldungen. Er wurde als Mitglied in diese aufgenommen. Die Konstruktion sollte er bis zu seinem Lebensende verfeinern und heute wissen wir noch von drei weiteren Modellen. Eines hiervon – um 1690 gebaut – wurde 1894 wiederentdeckt und ist heute in Hannover zu bewundern.
Die technische Innovation bestand u. a. aus der Nutzung von Staffelwalzen, welche er für dieses Projekt erfand. Er verfolgte hauptsächlich diesen Ansatz neben einiger Arbeit mit Sprossenrädern. Eine Staffelwalze ist ein Zylinder, auf dem unterschiedlich lange Zähne aufgebracht sind. Diese Staffelwalzen können damit sozusagen Ziffern speichern. Die Rotation dieser entspricht dem sukzessiven Erhöhen bzw. der Reduktion dieser Ziffern. Dies konnte mit einer Kurbel geschehen. Multiplikation wurde als wiederholtes Addieren realisiert und die Division entsprechend als wiederholtes Subtrahieren. Besonders problematisch sind hierbei die Überträge. Dies ging sogar soweit, dass es eine rege Debatte darum gab, ob die Leibniz Maschine tatsächlich funktionierte. Badur und Rottstedt 2004 konnten bei ihrem Nachbau jedoch sehr plausibel machen, dass Leibniz’ Maschine bei richtiger Anwendung auch mit mehreren aufeinanderfolgenden Überträgen keine Probleme hat. Es ist also auch möglich, etwas wie 999 + 1 = 1000 zu berechnen. Das Endergebnis der Rechnung lässt sich dann an kleinen runden Scheiben ablesen.
Fazit
Ausgehend von Leibniz’ Begriffen einer lingua characteristica und eines calculus ratiocinator haben wir einige Versuche betrachtet, Leibniz’ Traum zu verwirklichen. So haben wir die moderne Interpretation der lingua characteristica als formale Sprache untersucht, die der Vater der Phänomenologie, Edmund Husserl, an den Tag legt sowie die Interpretation des calculus als Algebra der Logik von George Boole und Freges Interpretation von lingua und calculus als Begriffsschrift geschildert. Sodann haben wir eine Interpretation der Leibnischen Konzepte im Lichte der Gödelschen Sätze versucht und noch eine letzte Verwirklichung von lingua und calculus als Turingmaschine dargelegt. Schließlich haben wir Leibniz’ Dualsystem und Leibniz’ Rechenmaschine etwas aus der Nähe betrachtet. Viele wichtige Konzeptualisierungen wie Peanos latino sine flexione und Leibniz’ theoria cum praxi konnten nicht genügend gewürdigt werden. Aber das ist eine andere Geschichte.