Explanation and agent-based modelling

As opposed to conventional modelling and simulation techniques, agent-based modelling is often claimed to be particular suited for the purpose of explanation. But what does it mean to explain a phenomenon, that is, to find an explanans for a given explanandum?

First of all, it is obvious that an answer to this question has to be dependent upon the type of the simulation model, upon its purpose and its domain; explanation of a phenomenon in a generator model (see my previous posts) has a different flavour than it has in a predictor model. The nature of explanation also depends on the background of the person attempting it. Statisticians often define explanation as the mere identification of sufficient conditions: explanation reduces to the analysis of correlated variables. As Marks put it, “for prediction, sufficiency suffices. There is no need to know which if any alternate conditions will also lead to the observed endogenous behaviours” [1]. In this context, conditions are defined in terms of correlations between variables. For example, variable A is correlated with B if the probability of A and B is significantly higher than their joint probabilities. This clearly makes sense. If the sole purpose of an agent-based simulation is to extrapolate historical trends and if there is enough individual data available that the individual agents can be trained with, then there is no purpose in explaining why the agents acted as they did. All the modeller needs to do is to make sure that the behaviour of the model represents the historical data with a sufficient degree of accuracy (i.e. shows a good fit). In this case, validation becomes mere line-fitting; correlation becomes the explanans.

It is also clear that the situation is rather different in the case of generator models which can often be found in the social sciences. In general, social scientists pose more strict requirements on the definition of explanation. Instead of mere correlation between variables, they tend to give  explanation a causal flavour and define it as the identification of generative mechanisms, i.e. the ‘cogs and wheels’ that are able to bring about the phenomenon under consideration [2]. Consider again Schelling’s segregation model. Instead of fitting historical data (which would be hard to impossible anyway due to its abstract nature), the model’s purpose is to show how a reasonable behavioural hypothesis about individuals can lead to a puzzling and to some extent counterintuitive outcome at the macro level. In this case, explanation means answering the question why the overall behaviour emerged which, in turn, requires to unveil the mechanisms, the cogs and wheels that lead to the global outcome1. In this case, the causal relationship— the mechanism— becomes the explanans.

The issue of the explanatory power of agent-based simulations has been debated extensively in literature [3, 4]. An interesting overview of the epistemological issues surrounding agent-based simulation is given by Epstein in his paper about the foundations of agent-based generative social science [5], as well as by David [6]. According to Epstein, the  central contribution of agent-based modelling is its ability to facilitate generative explanation. By growing a macro-level phenomenon from behavioural assumptions about the individual behaviour, generative sufficiency can be attained. However, as Epstein argues, “generative sufficiency is a necessary, but not sufficient condition for explanation”. This is due to the fact that, even if an agent-based simulation is capable of bringing about, i.e. generating, a certain macro-level phenomenon, there may be other (even better) models that are equally capable of generating it. In fact, as mentioned above, finding the model which explains the phenomenon as well as possible is the central purpose of validation; it is a continuous quest for a better model2.

The epistemological issues related with (agent-based) modelling are highly philosophical in nature but it becomes clear that, even in the context of an entirely practical simulation experiment, they cannot be fully neglected. If the purpose of the simulation is to explain a phenomenon and the task of validation (internal or external) is to assess whether the simulation satisfies its purpose with a sufficient level of accuracy, then a definition of explanation is necessary in order to define a proper validation technique.

We can thus conclude that assessing the validity of an agent-based simulation requires the analysis of its explanatory qualities which, in turn, requires the exposure of internal mechanisms. An important concept in this context is that of an artefact [7], i.e. a mechanism which has a causal effect on the observed behaviour where, in fact, it should not. A typical example of an artefact is a particular random number generator significantly influencing the qualitative outcome of the model. The detection of artefacts is a central issue in validation. In order to identify a mechanism as an artefact, one needs to perform two tasks: (i) confirming the existence of the mechanism, and (ii) establishing that it indeed has a causal effect—i.e. explaining it. Causal analysis requires the comparison of different models. Changing attributes and parameters and assessing their effect on the model’s outcome is also the purpose of exploration. As a consequence, explanation often requires exploration.

Let me summarise the ideas discussed so far. In order to assess the correctness of a model, explanation is essential — it is an integral part of the process. However, different types of models yield different definitions of explanation. The type of model determines how deep we need to immerge into the model in order to analyse its dynamics. For a predictive model, the detection of correlated variables and behaviours may suffice. For a generative, explanatory model, the underlying mechanisms may need to be unveiled. In order to accomplish that, causal relationships may need to be detected which, in turn, requires exploration of the model space.

1 Consequently, generator models are also often referred to as mechanistic models.
2 According to Ripley, validation is not (as often stated) the quest for the best model since — especially in the case of generative or mechanistic models — multiple different models may explain a phenomenon equally well [8].


[1] R. E. Marks. Validating simulation models: A general framework and four applied examples. Computational Economics, 30:265–290, October 2007.

[2] P. Hedström and P. Ylikoski. Causal mechanisms in the social sciences. Annual Review of Sociology, 36(1):49–67, June 2010.

[3] C. Elsenbroich. Explanation in agent-based modelling: Functions, causality or mechanisms? Journal of Artificial Societies and Social Simulation, 15(3), June 2012.

[4] C. Marchionni and P. Ylikoski. Generative Explanation and Individualism in Agent-Based Simulation. Philosophy of the Social Sciences, July 2013.

[5] J. M. Epstein. Remarks on the foundations of agent-based generative social science. In L. Tesfatsion and K. L. Judd, editors, Handbook of computational economics, volume 2, pages 1585–1604.
Elsevier, 2006.

[6] N. David. Validation and verification in social simulation: Patterns and clarification of terminology. In F. Squazzoni, editor, Epistemological Aspects of Computer Simulation in the Social Sciences, volume 5466 of Lecture Notes in Computer Science, pages 117–129. Springer, 2009.

[7] J. M. Galán, L. R. Izquierdo, S. S. Izquierdo, J. I. Santos, R. del Olmo, A. López-Paredes, and B. Edmonds. Errors and artefacts in agent-based modelling. Journal of Artificial Societies and Social Simulation, 12(1), 2009.

[8] B. D. Ripley. Selecting amongst large classes of models. Methods and models in statistics: In honor of Professor John Nelder, FRS, pages 155–170, 2004.

Types of agent-based simulation models

A useful way of classifying agent-based simulation models is to consider their purpose and their reliance upon external data as, for example, done by Heath et al. [1]:

  • Generators: Theoretical models with the overall goal of confirming behavioural hypotheses and assumptions and identifying mechanisms
  • Mediators: Models that incorporate both behavioural assumptions and real-world data with the overall goal of identifying mechanisms to a certain extent and performing short-term predictions
  • Predictors: Purely data-driven models with the overall goal of performing medium- to long-term predictions

Social science research typically deals with generator models; classic examples are Schelling’s model of racial segregation [2] and Epstein’s Sugarscape model [3]. Simulations of technical systems such as robot swarms as well as models of consumer marketplaces which are highly driven by (historical) data, on the other hand, can be attributed to the third category. It is important to note that the categories are not mutually exclusive and should rather be seen as a continuous spectrum. Generator models typically have a strong explanatory flavour, whereas predictors—as the name suggests—mostly focus on prediction and forecasting.


[1] B. Heath, R. Hill, and F. Ciarallo. A survey of agent-based modeling practices (January 1998 to July 2008). Journal of Artificial Societies and Social Simulation, 12(4):9, 2009.

[2] T. C. Schelling. Models of segregation. American Economic Review, 59(2):488–93, May 1969.

[3] J. M. Epstein and R. L. Axtell. Growing Artificial Societies: Social Science from the Bottom Up. MIT Press, June 1996.

Von Neumann’s Zellularautomaten

Da die von von Neumann angedachten Systeme bisher alle nur in der  Fantasie existierten, beschäftigte ihn die Frage, inwieweit ein selbstreproduzierendes System praktisch umgesetzt werden könnte. Im Gespräch mit einem Freund, dem polnischen Mathematiker Stanislaw Ulam, entwickelte er das Konzept der Zellularautomaten, angelehnt an das Wachstum von Kristallen. Ein Zellularautomat kann als schachbrettartige Anordnung von Zellen verstanden werden, wobei jede Zelle wiederum einen endlichen Zustandsautomaten repräsentiert und somit auf einem Satz einfacher Zustände und Zustandsübergänge basiert. Der Zustand einer Zelle ist dabei abhängig von den Zuständen der umliegenden Zellen 4 und ändert sich nach einem vordefinierten Zeitintervall. In diesem Fall findet eine Aktualisierung des Zellzustandes, basierend auf den Zuständen der Nachbarzellen, statt.

Von Neumann wählte ein unendliches Schachbrett an Zellen als Grundlage seines Zellularautomaten [1]. Auf diesem malte er ein Monster auf, das aus einem großen Rechteck mit einem langen Schwanz bestand und insgesamt bis zu 200 000 Zellen umfasste, wie unten abgebildet.


Schematische Darstellung des von Neumannschen selbstreproduzierenden Zellularautomaten [3].
Jede Zelle, die von dem Monster bedeckt war, stellte einen eigenen endlichen Zustandsautomaten dar und befand sich in einem von insgesamt 29 möglichen Zuständen. Die Kombination der einzelnen Zustände repräsentierte das Verhalten und die Existenz der Kreatur. Von Neumann gab die Regeln der Zellen vor, die wiederum jedoch abhängig von der Position der Zelle in der gesamten Kreatur war. Der Schwanz hatte die Funktion eines Konstruktionsarms und war nach einiger Zeit sogar in der Lage, das Vorderteil der Kreatur (das große Rechteck) zu reproduzieren. Anschließend verdoppelte sich der Konstruktionsarm selbst, schnitt das Duplikat ab und hatte eine vollständige Kopie der ursprünglichen Kreatur erzeugt. Die Vermutung lag nahe, dass das so entstandene künstliche System einen evolutionären Prozess durchlaufen konnte. Besonders interessant war hierbei die Frage, wie sich ein gleichartiges System verhalten würde, wenn es nicht nur innerhalb eines PC-Chips, sondern in der Realität “leben” würde.

Von Neumann’s Arbeiten wurden in den darauffolgenden Jahren von zahlreichen Wissenschaftlern erweitert, darunter z.B. Arthur W. Burks, Edgar F. Codd, und Stephen Wolfram. Dazu später mehr.

[1] Von Neumann, J. ; Burks, Arthur W. (Hrsg.): Theory of Self-Reproducing Automata. Champaign, IL, USA : University of Illinois Press, 1966

[2] Smith, A. R.: Simple Computation-Universal Cellular Spaces. Journal of the ACM 18 (1971), Nr. 3, S. 339–353.

[3] Levy, S.: Künstliches Leben aus dem Computer. 1st. München, Droemer Knaur, 1992

Künstliches Leben – Die Anfänge

Den Grundstein für die Forschungen im Bereich künstlicher biologischer Systeme legte John von Neumann. Er war fasziniert von den Ähnlichkeiten zwischen natürlichen Systemen und künstlichen Computern und wollte eine Theorie entwickeln, die sowohl künstliche als auch natürliche Biologie umfassen sollte. Seiner Überzeugung nach basierte alles auf klaren, nachvollziehbaren Grundsätzen, auf logischen Axiomen, weshalb er bestrebt war, alles auf das Wesentliche zurückzuführen. “Ich erschaudere bei dem Gedanken, dass so eindeutig zweckgerichtete, eine Organisationsfunktion erfüllende Elemente wie Proteine durch einen zufälligen Prozess entstanden sein sollen” schrieb er 1955 in einem Brief an George Gamow [1, S.23].

In den späten vierziger Jahren hielt von Neumann einen Vortrag in Pasadena (Kalifornien) im Rahmen des Hixon-Symposiums mit dem Titel “The general and logical theory of automata”. In diesem Vortrag formulierte er die Überlegung, inwiefern Automaten zur Selbstreproduktion imstande seien. Er verglich Automaten mit Organismen wie Bakterien oder Menschen und stellte die Frage, weshalb diese nicht auch als bestimmte Formen von Maschinen angesehen werden könnten. Wenn Maschinen nun Kopien von sich selbst erzeugen, sich selbst “reproduzieren” könnten, sei dies – so von Neumann – ein deutlicher Hinweis auf die Verwandtschaft zwischen natürlichen Maschinen und Organismen. Von Neumann war der Meinung, dass Komplexität eines der zentralen Elemente natürlichen Lebens sei. Er behauptete, dass Systeme ab einer gewissen kritischen Masse an Komplexität in der Lage seien, sich selbst zu reproduzieren und führte als Beispiel die Evolution an.

Inzwischen wurden einige theoretische Überlegungen zur Realisierung selbstreproduzierender Maschinen gemacht, unter anderem von L. S. Penrose, von Neumann und Edward F. Moore. Moore erdachte sich künstliche Fabriken, die als Inseln im Meer schwimmen, Rohmaterial einsammeln und daraus Maschinen erzeugen sollten, die ihrem Erzeuger glichen und auch widerum als Erzeuger ihrer selbst fungieren könnten.

In einem von der NASA 1980 finanzierten Projekt waren 18 Universitätsprofessoren und 15 Programmierexperten, die in vier Gruppen aufgeteilt waren, damit beauftragt, ein selbstreproduzierendes System zu entwickeln, das die Besiedelung des Mondes und des ganzen Universums ermöglichen sollte. Die Wissenschaftler sprachen nicht von selbstreproduzierenden, sondern “selbstreplizierenden” Systemen, die ihrer Meinung nach über folgende Verhaltensweisen verfügen sollten:

  • Produktion
  • Replikation
  • Wachstum
  • Evolution
  • Eigenreparatur

Die Rohmaterialien für die Replikation sollten von der Oberfläche des Mondes stammen und mit Hilfe von Ausschachtungsmaschinen, Lastwägen und anderen Transportfahrzeugen gewonnen werden. Im Inneren der Maschine sollte sich eine Produktionsanlage befinden, die für die Herstellung der “Kopie” zuständig war. Der zweite Entwurf wich vom ersten insofern ab, als keine fertige, sich selbst replizierende Fabrik installiert werden sollte, sondern lediglich eine “Keimzelle”, aus der dann die komplexe Mondfabrik erwachsen sollte, wie in der Abbildung unten gezeigt.

Zeichnerische Darstellung einer wachsenden Mondfabrik [1]
Im Inneren der Keimzelle befanden sich einige Roboter, die für die Materialsuche und den Bau der Fabrik zuständig waren. Nach Fertigstellung sollte diese aus Chemielabors, Kontrollsystem, Zentralcomputer, Sonnensegel zur Energieerzeugung, Herstellung, Fertigung und Controlling bestehen. Weiteres mögliches Vorgehen war nun die Expansion auf der Mondoberfläche oder die Herstellung einer weiteren Keimzelle, die auf andere Planeten exportiert werden könnte. Als Kernargument für den Bau einer wachsenden, selbstreplizierenden Fabrik führten die Wissenschaftler die Tatsache an, dass mittels dieser Technologie in den nächsten 10,000 Jahren eine Million der am nächsten gelegenen Sterne und in einer Million Jahren die gesamte Milchstraße erforscht werden könne, wobei lediglich die Kosten für die ursprüngliche Keimzelle anfielen.

Daraufhin fanden nun Diskussionen statt, die die grundsätzlichen Bedenken und Ängste gegenüber selbstreproduzierenden Maschinen zutage brachten. Eine Frage, die im Zuge dessen diskutiert wurde, war, inwieweit Maschinen aufgrund ihrer Autonomie zu menschlichen Konkurrenten werden können.

Es wurden Forderungen nach früheren Untersuchungen der maschinellen “Soziobiologie” laut, um das Verhalten der Maschinen im Voraus einschätzen zu können. Ein weiterer Diskussionspunkt war die Frage nach der Populationskontrolle. Da die Maschinen in der Lage waren, sich selbst zu replizieren, hatten die Menschen keinen Einfluss mehr auf deren Fortpflanzung. Dazu waren der Einbau einer “Anti-Baby-Pille”, die die Vermehrung nach einigen Zyklen verhindert, sowie die Konstruktion von “Fressfeinden”, die für die Reduktion der Population sorgen, angedacht. Denn – und das führte zum dritten Diskussionspunkt – eine derartige einmal ins Leben gerufene Szenerie kann nicht durch Ziehen des Stromsteckers einfach wieder deaktiviert werden. Sobald mehrere Keimzellen existieren, die in der Lage sind, sich selbst zu reproduzieren, ist die unaufhaltsame Fortentwicklung absehbar. Zwar wäre es denkbar gewesen, einen Abschaltmechanismus, der auf Signale von der Erde reagiert, einzubauen, jedoch könnte eben dieses Abschalten durch die evolutionsbedingte Mutation der Maschinen bei der Replikation außer Kraft gesetzt worden sein. Die Maschinen, bei denen das der Fall wäre, wären im Hinblick auf die Evolution deutlich im Vorteil, weshalb sich diese Eigenschaft sehr bald im Genpool verankern und zum “Standardverhalten” gehören würde.

Bald darauf erhielten bedeutende amerikanische Forschungszentren wie das Massachusetts Institute of Technology (MIT) und die Carnegie-Mellon Universität in Pittsburgh den Auftrag, die technische Durchführbarkeit des Projektes zu prüfen. Zu einer konkreten Umsetzung kam es jedoch nie.

[1] Levy, S.: Künstliches Leben aus dem Computer. 1st. München, Droemer Knaur, 1992

Künstliches Leben – Ein (sehr) kurzer Überblick

Im Gegensatz zur Künstlichen Intelligenz beschäftigt sich der Forschungsbereich des Künstlichen Lebens oder Artificial Life nicht mit der Frage, wie natürliches Verhalten nachgebildet werden kann, um eine Maschine als intelligent erscheinen zu lassen, sondern vielmehr mit der Frage, wie wirkliches Leben im Computer erschaffen werden kann. Hier stellt sich unweigerlich die Frage nach der Definition von Leben. Laut Aristoteles bedeutet es, Leben zu besitzen, “dass Dinge sich selbst ernähren können, aber auch vergänglich sind”. Lange Zeit waren die Menschen in ihrer Haltung den Grundfragen des Lebens gegenüber allein von der Religion und deren Sichtweise auf die Dinge beeinflusst. Leben galt als etwas Übernatürliches, dessen Entstehung vom Menschen nicht hinterfragt werden sollte. Die Ansichten änderten sich, als Wissenschaftler durch die Entdeckung der Zelle erste Erkenntnisse über das Leben gewannen. Mit der Darwinschen Evolutionstheorie zusammen entstand zum ersten Mal eine nachvollziehbare, wissenschaftliche Erklärung der Entstehung des Lebens und seiner Definition. Der Evolutionsbiologe John Maynard Smith schrieb: “Leben sollte durch den Besitz von Fähigkeiten definiert sein, die Evolution mittels natürlicher Auslese gewährleisten“ [1]. Zu den erwähnten Fähigkeiten zählt Smith Vererbung, Variation und Vermehrung.

Einige Zeit später revolutionierte die Entdeckung der DNA und ihre Bedeutung fur die Weiterentwicklung des Lebens die Sicht auf die Dinge. Immer mehr trat das Phänomen der Komplexität in den Mittelpunkt der Betrachtungen. Komplexe Systeme bestehen aus vielen Einzelteilen, die meist auf Basis simpler Regeln in Interaktion miteinander stehen, in der Gesamtheit jedoch nicht vorhersagbare Ergebnisse hervorbringen. Mittlerweile ist Komplexität als eines der Hauptmerkmale lebendiger Organismen anerkannt. Generell entwickeln Systeme mit fortschreitender Komplexität eine Eigendynamik, die sie der Analyse durch einen Beobachter schwer oder sogar nicht zugänglich macht. Ein Beispiel dafür ist das in einem früheren Blogpost angesprochene Kölner Schwarmexperiment. Obwohl die Grundregeln für jedes Individuum bekannt waren, konnte das Gesamtverhalten der Menschenmenge nicht vorhergesagt werden.

Ein weiteres Beispiel für komplexes Verhalten ist die bei Tierschwärmen beobachtete Schwarmintelligenz, die es den Tieren ermöglicht, in der Gruppe erstaunliche Planungs- und Logistikaufgaben zu lösen. Diese Mechanismen der Natur halten mehr und mehr Einzug in die Industrie, mit erstaunlichen Ergebnissen.

Die Wissenschaftler auf dem Gebiet des Künstlichen Lebens versuchen, lebende Systeme zu erzeugen, weiterzuentwickeln und zu beobachten. Sie erhoffen sich, durch die Schaffung künstlichen Lebens, Einblicke in die Entstehung und Struktur des wirklichen Lebens zu gewinnen und irgendwann vielleicht eine Antwort auf die Frage zu finden: Was ist Leben?

[1] Smith, J. M.: The Problems of Biology. Oxford, 1986

Schwärme, Emergenz und agentenbasierte Simulation

Am 11. März 2007 fand in der Messehalle in Köln ein außergewöhnliches Ereignis statt. Professor Jens Krause von der University of Leeds führte mit seinem Doktoranden und der Unterstützung von 300 Freiwilligen das weltweit bisher größte Experiment zum Thema Schwarmverhalten und Gruppendynamik bei Menschen durch. Hintergrund war die Frage, ob Verhaltensweisen, die bei Fischschwärmen auftreten, auch bei Menschen beobachtet werden können. Für die Teilnehmer galten die beiden folgenden einfachen Regeln:

  1. Stoße nicht mit deinen Nachbarn zusammen
  2. Halte den Abstand zu deinen Nachbarn möglichst gering

Während des Experimentes war die Kommunikation untereinander nicht gestattet. Das Ergebnis war erstaunlich: Die Menschenmenge bildete zwei Ringe, die sich gegenläufig zueinander bewegten. Damit war die Vermutung der Wissenschaftler bestätigt, denn genau dieses Verhalten hatten sie zuvor auch bei Fischschwärmen festgestellt.

Das beobachtete Ergebnis konnten die Wissenschaftler nicht vorhersehen, obwohl sie über die Rahmenbedingungen des Experimentes vollständig informiert waren. Sie kannten die genaue Teilnehmerzahl, die Positionierung der Teilnehmer und die Regeln, nach denen sie sich bewegen durften. Dennoch konnten sie nicht ahnen, welches Gesamtverhalten daraus resultieren wurde. Das entstandene System war komplex, das beobachtete Verhalten emergent. Emergenz bezeichnet “das Auftreten neuer, nicht voraussagbarer Qualitäten beim Zusammenwirken mehrerer Faktoren” [1]. Genau das war beim Kölner Schwarmexperiment der Fall. Emergenz ist eine der charakteristischen Eigenschaften komplexer Systeme. Eine weitere Eigenschaft ist Nichtlinearität, die ebenfalls bei Menschenmengen beobachtet werden kann: Eine geringe Anderung der Startbedingungen oder der Grundregeln kann in signifikant anderem Gesamtverhalten resultieren (natürlich werden hier Faktoren wie zum Beispiel der menschliche Wille oder ein geplanter Weg eines Individuums vernachlässigt und lediglich die reine Gruppendynamik betrachtet).

Komplexe Systeme sind häufig dann anzutreffen, wenn eine große Anzahl an realen oder abstrakten Elementen eine logische oder räumliche Gruppe bildet, deren Mitglieder sich gegenseitig beeinflussen. Dabei ist es unerheblich, um welche Art von Elementen es sich handelt. Neben Menschenmengen oder Tierschwärmen ist das Nervensystem genau so ein Beispiel, wie die molekularbiologischen Komponenten einer Zelle, der Verkehrsfluss oder das Wirtschaftssystem. Allen gemeinsam ist ihre Komplexität, die Vorhersagen schwierig, häufig sogar unmöglich macht. Ein typisches Beispiel eines komplexen Systems ist die räumliche Gruppendynamik, die durch Interaktion der einzelnen Gruppenteilnehmer entsteht und in komplexen Bewegungsmustern resultiert. Es ist hilfreich, den Begriff “Gruppe” zunächst näher zu spezifizieren. Der Berliner Sozialwissenschaftler Friedhelm Neidhardt vertrat folgende Definition [2]:

“Eine Gruppe ist ein soziales System, dessen Sinnzusammenhang unmittelbar durch diffuse Mitgliederbeziehungen sowie durch relative Dauerhaftigkeit bestimmt ist”

Der Mensch ist im Alltag permanent in Gruppen im Sinne sozialer Systeme involviert und damit der Gruppendynamik unterworfen. Ob in der Fußgängerzone, in der U-Bahn oder im Straßenverkehr: Immer wird sein Verhalten und seine Bewegung von den in seiner direkten Umgebung befindlichen Menschen und Objekten beeinflusst. Dank seiner Wahrnehmung ist er in der Lage, sich dieser bewusst zu werden und entsprechend reagieren zu können. Die Prinzipien der Gruppendynamik sind jedoch nicht nur dem Menschen inhärent. Auch Tiere folgen dieser Dynamik, die sich in faszinierendem Herden- und Schwarmverhalten äußert. Was grundlegende Verhaltensweisen wie Kollisionsvermeidung und Fluchtverhalten angeht, unterscheiden sich Menschenmengen, Vogelschwärme oder Tierherden nur unwesentlich. Aufgrund der herausragenden Bedeutung der Gruppendynamik für viele Prozesse in der Natur und ihrer Omnipräsenz im Alltag ist die rechnergestützte Nachbildung und Simulation eine wichtige Anforderung.

Das agentenbasierte Modellierungs- und Simulationsparadigma bietet hierfür eine ideale Grundlage. Die Simulation von Menschenmengen, Vogelschwärmen oder Tierherden mit Hilfe agentenbasierter Methoden findet in vielerlei Zusammenhang Verwendung. Ein wichtiges Anwendungsgebiet ist beispielsweise die Simulation von Menschenmengen auf öffentlichen Plätzen oder in Gebäuden. Mit Hilfe entsprechender Werkzeuge kann das Verhalten in Paniksituationen nachgebildet werden, woraus dann die korrekte Platzierung von Notausgängen und Evakuierungsmöglichkeiten (beispielsweise bei Veranstaltungen) abgeleitet werden kann. Entsprechende Analysen wären ohne die Verwendung rechnergestützter Verfahren nur mit erheblichem Aufwand möglich. Testszenarien, ähnlich dem zu Beginn dieses Posts erwähnten Schwarmexperiments, müssten durchgeführt und deren Ergebnisse sorgfältig mitprotokolliert werden, um bei anderer Gelegenheit gegebenenfalls wiederverwendet werden zu können. Mit Hilfe computerbasierter Simulation lassen sich derartige Simulationen beliebig oft mit wesentlich geringeren Kosten durchführen. Um andere Szenarien zu simulieren, müssen im Normalfall lediglich die Parameter der Simulation verändert werden, um das Verhalten der virtuellen Gruppenteilnehmer bestmöglich an die zu beobachtende Situation anzupassen.

[1] Die Zeit – Das Lexikon, Band 4: Dus – Flud. 1. Hamburg : Zeitverlag Gerd Bucerius, 2005. – ISBN 3–411–17564–8
[2] Neidhardt, F.: Innere Prozesse und Außenweltbedingungen sozialer Gruppen. In: Einfuhrung in die Gruppensoziologie ¨ (1999), S. 135–156