Von Neumann’s Zellularautomaten

Da die von von Neumann angedachten Systeme bisher alle nur in der  Fantasie existierten, beschäftigte ihn die Frage, inwieweit ein selbstreproduzierendes System praktisch umgesetzt werden könnte. Im Gespräch mit einem Freund, dem polnischen Mathematiker Stanislaw Ulam, entwickelte er das Konzept der Zellularautomaten, angelehnt an das Wachstum von Kristallen. Ein Zellularautomat kann als schachbrettartige Anordnung von Zellen verstanden werden, wobei jede Zelle wiederum einen endlichen Zustandsautomaten repräsentiert und somit auf einem Satz einfacher Zustände und Zustandsübergänge basiert. Der Zustand einer Zelle ist dabei abhängig von den Zuständen der umliegenden Zellen 4 und ändert sich nach einem vordefinierten Zeitintervall. In diesem Fall findet eine Aktualisierung des Zellzustandes, basierend auf den Zuständen der Nachbarzellen, statt.

Von Neumann wählte ein unendliches Schachbrett an Zellen als Grundlage seines Zellularautomaten [1]. Auf diesem malte er ein Monster auf, das aus einem großen Rechteck mit einem langen Schwanz bestand und insgesamt bis zu 200 000 Zellen umfasste, wie unten abgebildet.

Neumann_CA

Schematische Darstellung des von Neumannschen selbstreproduzierenden Zellularautomaten [3].
Jede Zelle, die von dem Monster bedeckt war, stellte einen eigenen endlichen Zustandsautomaten dar und befand sich in einem von insgesamt 29 möglichen Zuständen. Die Kombination der einzelnen Zustände repräsentierte das Verhalten und die Existenz der Kreatur. Von Neumann gab die Regeln der Zellen vor, die wiederum jedoch abhängig von der Position der Zelle in der gesamten Kreatur war. Der Schwanz hatte die Funktion eines Konstruktionsarms und war nach einiger Zeit sogar in der Lage, das Vorderteil der Kreatur (das große Rechteck) zu reproduzieren. Anschließend verdoppelte sich der Konstruktionsarm selbst, schnitt das Duplikat ab und hatte eine vollständige Kopie der ursprünglichen Kreatur erzeugt. Die Vermutung lag nahe, dass das so entstandene künstliche System einen evolutionären Prozess durchlaufen konnte. Besonders interessant war hierbei die Frage, wie sich ein gleichartiges System verhalten würde, wenn es nicht nur innerhalb eines PC-Chips, sondern in der Realität “leben” würde.

Von Neumann’s Arbeiten wurden in den darauffolgenden Jahren von zahlreichen Wissenschaftlern erweitert, darunter z.B. Arthur W. Burks, Edgar F. Codd, und Stephen Wolfram. Dazu später mehr.

References
[1] Von Neumann, J. ; Burks, Arthur W. (Hrsg.): Theory of Self-Reproducing Automata. Champaign, IL, USA : University of Illinois Press, 1966

[2] Smith, A. R.: Simple Computation-Universal Cellular Spaces. Journal of the ACM 18 (1971), Nr. 3, S. 339–353.

[3] Levy, S.: Künstliches Leben aus dem Computer. 1st. München, Droemer Knaur, 1992

Künstliches Leben – Die Anfänge

Den Grundstein für die Forschungen im Bereich künstlicher biologischer Systeme legte John von Neumann. Er war fasziniert von den Ähnlichkeiten zwischen natürlichen Systemen und künstlichen Computern und wollte eine Theorie entwickeln, die sowohl künstliche als auch natürliche Biologie umfassen sollte. Seiner Überzeugung nach basierte alles auf klaren, nachvollziehbaren Grundsätzen, auf logischen Axiomen, weshalb er bestrebt war, alles auf das Wesentliche zurückzuführen. “Ich erschaudere bei dem Gedanken, dass so eindeutig zweckgerichtete, eine Organisationsfunktion erfüllende Elemente wie Proteine durch einen zufälligen Prozess entstanden sein sollen” schrieb er 1955 in einem Brief an George Gamow [1, S.23].

In den späten vierziger Jahren hielt von Neumann einen Vortrag in Pasadena (Kalifornien) im Rahmen des Hixon-Symposiums mit dem Titel “The general and logical theory of automata”. In diesem Vortrag formulierte er die Überlegung, inwiefern Automaten zur Selbstreproduktion imstande seien. Er verglich Automaten mit Organismen wie Bakterien oder Menschen und stellte die Frage, weshalb diese nicht auch als bestimmte Formen von Maschinen angesehen werden könnten. Wenn Maschinen nun Kopien von sich selbst erzeugen, sich selbst “reproduzieren” könnten, sei dies – so von Neumann – ein deutlicher Hinweis auf die Verwandtschaft zwischen natürlichen Maschinen und Organismen. Von Neumann war der Meinung, dass Komplexität eines der zentralen Elemente natürlichen Lebens sei. Er behauptete, dass Systeme ab einer gewissen kritischen Masse an Komplexität in der Lage seien, sich selbst zu reproduzieren und führte als Beispiel die Evolution an.

Inzwischen wurden einige theoretische Überlegungen zur Realisierung selbstreproduzierender Maschinen gemacht, unter anderem von L. S. Penrose, von Neumann und Edward F. Moore. Moore erdachte sich künstliche Fabriken, die als Inseln im Meer schwimmen, Rohmaterial einsammeln und daraus Maschinen erzeugen sollten, die ihrem Erzeuger glichen und auch widerum als Erzeuger ihrer selbst fungieren könnten.

In einem von der NASA 1980 finanzierten Projekt waren 18 Universitätsprofessoren und 15 Programmierexperten, die in vier Gruppen aufgeteilt waren, damit beauftragt, ein selbstreproduzierendes System zu entwickeln, das die Besiedelung des Mondes und des ganzen Universums ermöglichen sollte. Die Wissenschaftler sprachen nicht von selbstreproduzierenden, sondern “selbstreplizierenden” Systemen, die ihrer Meinung nach über folgende Verhaltensweisen verfügen sollten:

  • Produktion
  • Replikation
  • Wachstum
  • Evolution
  • Eigenreparatur

Die Rohmaterialien für die Replikation sollten von der Oberfläche des Mondes stammen und mit Hilfe von Ausschachtungsmaschinen, Lastwägen und anderen Transportfahrzeugen gewonnen werden. Im Inneren der Maschine sollte sich eine Produktionsanlage befinden, die für die Herstellung der “Kopie” zuständig war. Der zweite Entwurf wich vom ersten insofern ab, als keine fertige, sich selbst replizierende Fabrik installiert werden sollte, sondern lediglich eine “Keimzelle”, aus der dann die komplexe Mondfabrik erwachsen sollte, wie in der Abbildung unten gezeigt.

mondfabrik
Zeichnerische Darstellung einer wachsenden Mondfabrik [1]
Im Inneren der Keimzelle befanden sich einige Roboter, die für die Materialsuche und den Bau der Fabrik zuständig waren. Nach Fertigstellung sollte diese aus Chemielabors, Kontrollsystem, Zentralcomputer, Sonnensegel zur Energieerzeugung, Herstellung, Fertigung und Controlling bestehen. Weiteres mögliches Vorgehen war nun die Expansion auf der Mondoberfläche oder die Herstellung einer weiteren Keimzelle, die auf andere Planeten exportiert werden könnte. Als Kernargument für den Bau einer wachsenden, selbstreplizierenden Fabrik führten die Wissenschaftler die Tatsache an, dass mittels dieser Technologie in den nächsten 10,000 Jahren eine Million der am nächsten gelegenen Sterne und in einer Million Jahren die gesamte Milchstraße erforscht werden könne, wobei lediglich die Kosten für die ursprüngliche Keimzelle anfielen.

Daraufhin fanden nun Diskussionen statt, die die grundsätzlichen Bedenken und Ängste gegenüber selbstreproduzierenden Maschinen zutage brachten. Eine Frage, die im Zuge dessen diskutiert wurde, war, inwieweit Maschinen aufgrund ihrer Autonomie zu menschlichen Konkurrenten werden können.

Es wurden Forderungen nach früheren Untersuchungen der maschinellen “Soziobiologie” laut, um das Verhalten der Maschinen im Voraus einschätzen zu können. Ein weiterer Diskussionspunkt war die Frage nach der Populationskontrolle. Da die Maschinen in der Lage waren, sich selbst zu replizieren, hatten die Menschen keinen Einfluss mehr auf deren Fortpflanzung. Dazu waren der Einbau einer “Anti-Baby-Pille”, die die Vermehrung nach einigen Zyklen verhindert, sowie die Konstruktion von “Fressfeinden”, die für die Reduktion der Population sorgen, angedacht. Denn – und das führte zum dritten Diskussionspunkt – eine derartige einmal ins Leben gerufene Szenerie kann nicht durch Ziehen des Stromsteckers einfach wieder deaktiviert werden. Sobald mehrere Keimzellen existieren, die in der Lage sind, sich selbst zu reproduzieren, ist die unaufhaltsame Fortentwicklung absehbar. Zwar wäre es denkbar gewesen, einen Abschaltmechanismus, der auf Signale von der Erde reagiert, einzubauen, jedoch könnte eben dieses Abschalten durch die evolutionsbedingte Mutation der Maschinen bei der Replikation außer Kraft gesetzt worden sein. Die Maschinen, bei denen das der Fall wäre, wären im Hinblick auf die Evolution deutlich im Vorteil, weshalb sich diese Eigenschaft sehr bald im Genpool verankern und zum “Standardverhalten” gehören würde.

Bald darauf erhielten bedeutende amerikanische Forschungszentren wie das Massachusetts Institute of Technology (MIT) und die Carnegie-Mellon Universität in Pittsburgh den Auftrag, die technische Durchführbarkeit des Projektes zu prüfen. Zu einer konkreten Umsetzung kam es jedoch nie.

References
[1] Levy, S.: Künstliches Leben aus dem Computer. 1st. München, Droemer Knaur, 1992

Künstliches Leben – Ein (sehr) kurzer Überblick

Im Gegensatz zur Künstlichen Intelligenz beschäftigt sich der Forschungsbereich des Künstlichen Lebens oder Artificial Life nicht mit der Frage, wie natürliches Verhalten nachgebildet werden kann, um eine Maschine als intelligent erscheinen zu lassen, sondern vielmehr mit der Frage, wie wirkliches Leben im Computer erschaffen werden kann. Hier stellt sich unweigerlich die Frage nach der Definition von Leben. Laut Aristoteles bedeutet es, Leben zu besitzen, “dass Dinge sich selbst ernähren können, aber auch vergänglich sind”. Lange Zeit waren die Menschen in ihrer Haltung den Grundfragen des Lebens gegenüber allein von der Religion und deren Sichtweise auf die Dinge beeinflusst. Leben galt als etwas Übernatürliches, dessen Entstehung vom Menschen nicht hinterfragt werden sollte. Die Ansichten änderten sich, als Wissenschaftler durch die Entdeckung der Zelle erste Erkenntnisse über das Leben gewannen. Mit der Darwinschen Evolutionstheorie zusammen entstand zum ersten Mal eine nachvollziehbare, wissenschaftliche Erklärung der Entstehung des Lebens und seiner Definition. Der Evolutionsbiologe John Maynard Smith schrieb: “Leben sollte durch den Besitz von Fähigkeiten definiert sein, die Evolution mittels natürlicher Auslese gewährleisten“ [1]. Zu den erwähnten Fähigkeiten zählt Smith Vererbung, Variation und Vermehrung.

Einige Zeit später revolutionierte die Entdeckung der DNA und ihre Bedeutung fur die Weiterentwicklung des Lebens die Sicht auf die Dinge. Immer mehr trat das Phänomen der Komplexität in den Mittelpunkt der Betrachtungen. Komplexe Systeme bestehen aus vielen Einzelteilen, die meist auf Basis simpler Regeln in Interaktion miteinander stehen, in der Gesamtheit jedoch nicht vorhersagbare Ergebnisse hervorbringen. Mittlerweile ist Komplexität als eines der Hauptmerkmale lebendiger Organismen anerkannt. Generell entwickeln Systeme mit fortschreitender Komplexität eine Eigendynamik, die sie der Analyse durch einen Beobachter schwer oder sogar nicht zugänglich macht. Ein Beispiel dafür ist das in einem früheren Blogpost angesprochene Kölner Schwarmexperiment. Obwohl die Grundregeln für jedes Individuum bekannt waren, konnte das Gesamtverhalten der Menschenmenge nicht vorhergesagt werden.

Ein weiteres Beispiel für komplexes Verhalten ist die bei Tierschwärmen beobachtete Schwarmintelligenz, die es den Tieren ermöglicht, in der Gruppe erstaunliche Planungs- und Logistikaufgaben zu lösen. Diese Mechanismen der Natur halten mehr und mehr Einzug in die Industrie, mit erstaunlichen Ergebnissen.

Die Wissenschaftler auf dem Gebiet des Künstlichen Lebens versuchen, lebende Systeme zu erzeugen, weiterzuentwickeln und zu beobachten. Sie erhoffen sich, durch die Schaffung künstlichen Lebens, Einblicke in die Entstehung und Struktur des wirklichen Lebens zu gewinnen und irgendwann vielleicht eine Antwort auf die Frage zu finden: Was ist Leben?


[1] Smith, J. M.: The Problems of Biology. Oxford, 1986