Explanation and agent-based modelling

As opposed to conventional modelling and simulation techniques, agent-based modelling is often claimed to be particular suited for the purpose of explanation. But what does it mean to explain a phenomenon, that is, to find an explanans for a given explanandum?

First of all, it is obvious that an answer to this question has to be dependent upon the type of the simulation model, upon its purpose and its domain; explanation of a phenomenon in a generator model (see my previous posts) has a different flavour than it has in a predictor model. The nature of explanation also depends on the background of the person attempting it. Statisticians often define explanation as the mere identification of sufficient conditions: explanation reduces to the analysis of correlated variables. As Marks put it, “for prediction, sufficiency suffices. There is no need to know which if any alternate conditions will also lead to the observed endogenous behaviours” [1]. In this context, conditions are defined in terms of correlations between variables. For example, variable A is correlated with B if the probability of A and B is significantly higher than their joint probabilities. This clearly makes sense. If the sole purpose of an agent-based simulation is to extrapolate historical trends and if there is enough individual data available that the individual agents can be trained with, then there is no purpose in explaining why the agents acted as they did. All the modeller needs to do is to make sure that the behaviour of the model represents the historical data with a sufficient degree of accuracy (i.e. shows a good fit). In this case, validation becomes mere line-fitting; correlation becomes the explanans.

It is also clear that the situation is rather different in the case of generator models which can often be found in the social sciences. In general, social scientists pose more strict requirements on the definition of explanation. Instead of mere correlation between variables, they tend to give  explanation a causal flavour and define it as the identification of generative mechanisms, i.e. the ‘cogs and wheels’ that are able to bring about the phenomenon under consideration [2]. Consider again Schelling’s segregation model. Instead of fitting historical data (which would be hard to impossible anyway due to its abstract nature), the model’s purpose is to show how a reasonable behavioural hypothesis about individuals can lead to a puzzling and to some extent counterintuitive outcome at the macro level. In this case, explanation means answering the question why the overall behaviour emerged which, in turn, requires to unveil the mechanisms, the cogs and wheels that lead to the global outcome1. In this case, the causal relationship— the mechanism— becomes the explanans.

The issue of the explanatory power of agent-based simulations has been debated extensively in literature [3, 4]. An interesting overview of the epistemological issues surrounding agent-based simulation is given by Epstein in his paper about the foundations of agent-based generative social science [5], as well as by David [6]. According to Epstein, the  central contribution of agent-based modelling is its ability to facilitate generative explanation. By growing a macro-level phenomenon from behavioural assumptions about the individual behaviour, generative sufficiency can be attained. However, as Epstein argues, “generative sufficiency is a necessary, but not sufficient condition for explanation”. This is due to the fact that, even if an agent-based simulation is capable of bringing about, i.e. generating, a certain macro-level phenomenon, there may be other (even better) models that are equally capable of generating it. In fact, as mentioned above, finding the model which explains the phenomenon as well as possible is the central purpose of validation; it is a continuous quest for a better model2.

The epistemological issues related with (agent-based) modelling are highly philosophical in nature but it becomes clear that, even in the context of an entirely practical simulation experiment, they cannot be fully neglected. If the purpose of the simulation is to explain a phenomenon and the task of validation (internal or external) is to assess whether the simulation satisfies its purpose with a sufficient level of accuracy, then a definition of explanation is necessary in order to define a proper validation technique.

We can thus conclude that assessing the validity of an agent-based simulation requires the analysis of its explanatory qualities which, in turn, requires the exposure of internal mechanisms. An important concept in this context is that of an artefact [7], i.e. a mechanism which has a causal effect on the observed behaviour where, in fact, it should not. A typical example of an artefact is a particular random number generator significantly influencing the qualitative outcome of the model. The detection of artefacts is a central issue in validation. In order to identify a mechanism as an artefact, one needs to perform two tasks: (i) confirming the existence of the mechanism, and (ii) establishing that it indeed has a causal effect—i.e. explaining it. Causal analysis requires the comparison of different models. Changing attributes and parameters and assessing their effect on the model’s outcome is also the purpose of exploration. As a consequence, explanation often requires exploration.

Let me summarise the ideas discussed so far. In order to assess the correctness of a model, explanation is essential — it is an integral part of the process. However, different types of models yield different definitions of explanation. The type of model determines how deep we need to immerge into the model in order to analyse its dynamics. For a predictive model, the detection of correlated variables and behaviours may suffice. For a generative, explanatory model, the underlying mechanisms may need to be unveiled. In order to accomplish that, causal relationships may need to be detected which, in turn, requires exploration of the model space.

1 Consequently, generator models are also often referred to as mechanistic models.
2 According to Ripley, validation is not (as often stated) the quest for the best model since — especially in the case of generative or mechanistic models — multiple different models may explain a phenomenon equally well [8].


[1] R. E. Marks. Validating simulation models: A general framework and four applied examples. Computational Economics, 30:265–290, October 2007.

[2] P. Hedström and P. Ylikoski. Causal mechanisms in the social sciences. Annual Review of Sociology, 36(1):49–67, June 2010.

[3] C. Elsenbroich. Explanation in agent-based modelling: Functions, causality or mechanisms? Journal of Artificial Societies and Social Simulation, 15(3), June 2012.

[4] C. Marchionni and P. Ylikoski. Generative Explanation and Individualism in Agent-Based Simulation. Philosophy of the Social Sciences, July 2013.

[5] J. M. Epstein. Remarks on the foundations of agent-based generative social science. In L. Tesfatsion and K. L. Judd, editors, Handbook of computational economics, volume 2, pages 1585–1604.
Elsevier, 2006.

[6] N. David. Validation and verification in social simulation: Patterns and clarification of terminology. In F. Squazzoni, editor, Epistemological Aspects of Computer Simulation in the Social Sciences, volume 5466 of Lecture Notes in Computer Science, pages 117–129. Springer, 2009.

[7] J. M. Galán, L. R. Izquierdo, S. S. Izquierdo, J. I. Santos, R. del Olmo, A. López-Paredes, and B. Edmonds. Errors and artefacts in agent-based modelling. Journal of Artificial Societies and Social Simulation, 12(1), 2009.

[8] B. D. Ripley. Selecting amongst large classes of models. Methods and models in statistics: In honor of Professor John Nelder, FRS, pages 155–170, 2004.

Types of agent-based simulation models

A useful way of classifying agent-based simulation models is to consider their purpose and their reliance upon external data as, for example, done by Heath et al. [1]:

  • Generators: Theoretical models with the overall goal of confirming behavioural hypotheses and assumptions and identifying mechanisms
  • Mediators: Models that incorporate both behavioural assumptions and real-world data with the overall goal of identifying mechanisms to a certain extent and performing short-term predictions
  • Predictors: Purely data-driven models with the overall goal of performing medium- to long-term predictions

Social science research typically deals with generator models; classic examples are Schelling’s model of racial segregation [2] and Epstein’s Sugarscape model [3]. Simulations of technical systems such as robot swarms as well as models of consumer marketplaces which are highly driven by (historical) data, on the other hand, can be attributed to the third category. It is important to note that the categories are not mutually exclusive and should rather be seen as a continuous spectrum. Generator models typically have a strong explanatory flavour, whereas predictors—as the name suggests—mostly focus on prediction and forecasting.


[1] B. Heath, R. Hill, and F. Ciarallo. A survey of agent-based modeling practices (January 1998 to July 2008). Journal of Artificial Societies and Social Simulation, 12(4):9, 2009.

[2] T. C. Schelling. Models of segregation. American Economic Review, 59(2):488–93, May 1969.

[3] J. M. Epstein and R. L. Axtell. Growing Artificial Societies: Social Science from the Bottom Up. MIT Press, June 1996.

Schwärme, Emergenz und agentenbasierte Simulation

Am 11. März 2007 fand in der Messehalle in Köln ein außergewöhnliches Ereignis statt. Professor Jens Krause von der University of Leeds führte mit seinem Doktoranden und der Unterstützung von 300 Freiwilligen das weltweit bisher größte Experiment zum Thema Schwarmverhalten und Gruppendynamik bei Menschen durch. Hintergrund war die Frage, ob Verhaltensweisen, die bei Fischschwärmen auftreten, auch bei Menschen beobachtet werden können. Für die Teilnehmer galten die beiden folgenden einfachen Regeln:

  1. Stoße nicht mit deinen Nachbarn zusammen
  2. Halte den Abstand zu deinen Nachbarn möglichst gering

Während des Experimentes war die Kommunikation untereinander nicht gestattet. Das Ergebnis war erstaunlich: Die Menschenmenge bildete zwei Ringe, die sich gegenläufig zueinander bewegten. Damit war die Vermutung der Wissenschaftler bestätigt, denn genau dieses Verhalten hatten sie zuvor auch bei Fischschwärmen festgestellt.

Das beobachtete Ergebnis konnten die Wissenschaftler nicht vorhersehen, obwohl sie über die Rahmenbedingungen des Experimentes vollständig informiert waren. Sie kannten die genaue Teilnehmerzahl, die Positionierung der Teilnehmer und die Regeln, nach denen sie sich bewegen durften. Dennoch konnten sie nicht ahnen, welches Gesamtverhalten daraus resultieren wurde. Das entstandene System war komplex, das beobachtete Verhalten emergent. Emergenz bezeichnet “das Auftreten neuer, nicht voraussagbarer Qualitäten beim Zusammenwirken mehrerer Faktoren” [1]. Genau das war beim Kölner Schwarmexperiment der Fall. Emergenz ist eine der charakteristischen Eigenschaften komplexer Systeme. Eine weitere Eigenschaft ist Nichtlinearität, die ebenfalls bei Menschenmengen beobachtet werden kann: Eine geringe Anderung der Startbedingungen oder der Grundregeln kann in signifikant anderem Gesamtverhalten resultieren (natürlich werden hier Faktoren wie zum Beispiel der menschliche Wille oder ein geplanter Weg eines Individuums vernachlässigt und lediglich die reine Gruppendynamik betrachtet).

Komplexe Systeme sind häufig dann anzutreffen, wenn eine große Anzahl an realen oder abstrakten Elementen eine logische oder räumliche Gruppe bildet, deren Mitglieder sich gegenseitig beeinflussen. Dabei ist es unerheblich, um welche Art von Elementen es sich handelt. Neben Menschenmengen oder Tierschwärmen ist das Nervensystem genau so ein Beispiel, wie die molekularbiologischen Komponenten einer Zelle, der Verkehrsfluss oder das Wirtschaftssystem. Allen gemeinsam ist ihre Komplexität, die Vorhersagen schwierig, häufig sogar unmöglich macht. Ein typisches Beispiel eines komplexen Systems ist die räumliche Gruppendynamik, die durch Interaktion der einzelnen Gruppenteilnehmer entsteht und in komplexen Bewegungsmustern resultiert. Es ist hilfreich, den Begriff “Gruppe” zunächst näher zu spezifizieren. Der Berliner Sozialwissenschaftler Friedhelm Neidhardt vertrat folgende Definition [2]:

“Eine Gruppe ist ein soziales System, dessen Sinnzusammenhang unmittelbar durch diffuse Mitgliederbeziehungen sowie durch relative Dauerhaftigkeit bestimmt ist”

Der Mensch ist im Alltag permanent in Gruppen im Sinne sozialer Systeme involviert und damit der Gruppendynamik unterworfen. Ob in der Fußgängerzone, in der U-Bahn oder im Straßenverkehr: Immer wird sein Verhalten und seine Bewegung von den in seiner direkten Umgebung befindlichen Menschen und Objekten beeinflusst. Dank seiner Wahrnehmung ist er in der Lage, sich dieser bewusst zu werden und entsprechend reagieren zu können. Die Prinzipien der Gruppendynamik sind jedoch nicht nur dem Menschen inhärent. Auch Tiere folgen dieser Dynamik, die sich in faszinierendem Herden- und Schwarmverhalten äußert. Was grundlegende Verhaltensweisen wie Kollisionsvermeidung und Fluchtverhalten angeht, unterscheiden sich Menschenmengen, Vogelschwärme oder Tierherden nur unwesentlich. Aufgrund der herausragenden Bedeutung der Gruppendynamik für viele Prozesse in der Natur und ihrer Omnipräsenz im Alltag ist die rechnergestützte Nachbildung und Simulation eine wichtige Anforderung.

Das agentenbasierte Modellierungs- und Simulationsparadigma bietet hierfür eine ideale Grundlage. Die Simulation von Menschenmengen, Vogelschwärmen oder Tierherden mit Hilfe agentenbasierter Methoden findet in vielerlei Zusammenhang Verwendung. Ein wichtiges Anwendungsgebiet ist beispielsweise die Simulation von Menschenmengen auf öffentlichen Plätzen oder in Gebäuden. Mit Hilfe entsprechender Werkzeuge kann das Verhalten in Paniksituationen nachgebildet werden, woraus dann die korrekte Platzierung von Notausgängen und Evakuierungsmöglichkeiten (beispielsweise bei Veranstaltungen) abgeleitet werden kann. Entsprechende Analysen wären ohne die Verwendung rechnergestützter Verfahren nur mit erheblichem Aufwand möglich. Testszenarien, ähnlich dem zu Beginn dieses Posts erwähnten Schwarmexperiments, müssten durchgeführt und deren Ergebnisse sorgfältig mitprotokolliert werden, um bei anderer Gelegenheit gegebenenfalls wiederverwendet werden zu können. Mit Hilfe computerbasierter Simulation lassen sich derartige Simulationen beliebig oft mit wesentlich geringeren Kosten durchführen. Um andere Szenarien zu simulieren, müssen im Normalfall lediglich die Parameter der Simulation verändert werden, um das Verhalten der virtuellen Gruppenteilnehmer bestmöglich an die zu beobachtende Situation anzupassen.

[1] Die Zeit – Das Lexikon, Band 4: Dus – Flud. 1. Hamburg : Zeitverlag Gerd Bucerius, 2005. – ISBN 3–411–17564–8
[2] Neidhardt, F.: Innere Prozesse und Außenweltbedingungen sozialer Gruppen. In: Einfuhrung in die Gruppensoziologie ¨ (1999), S. 135–156