Es ist wieder Freitag und damit steht die Ringvorlesung Methoden der quantitativen Sozialforschung auf dem Programm. Johannes Zschache von der Leipziger Soziologie schließt den Block Metatheoretische Grundlagen und Theoriebildung mit einem Vortrag zu Computersimulationen ab.
Computermodelle in den Sozialwissenschaften
Computersimulationen basieren auf einem Modell als formale Darstellung einer Theorie. Dabei existieren verschiedene mögliche Arten von Modellen: diese können formal sein (Differentialgleichungen), spieltheoretisch (Auszahlungsmatrix) oder Computermodelle. Mit Hilfe von Computermodellen können Simulationen durchgeführt werden, die sich in den Sozialwissenschaften in verschiedenen Bereichen nutzen lassen.
Zunächst lassen sich potentielle Erklärungen explorativ ableiten. Die Simulation fungiert dabei als formalisiertes Gedankenexperiment, mit dem geprüft werden kann, ob sich bestimmte Aussagen aus gegebenen Prämissen ableiten lassen. Dahinter steht die Theorie des methodologischen Individualismus, mit dem aus Makroaussagen aus Mikroaussagen abgeleitet werden. Ein Beispiel dafür ist Thomas Schellings Modell der Segregation in Städten. Die Theorie basiert darauf, dass es eine individuelle Präferenz von Menschen gibt, die in ihrer Nachbarschaft Menschen mit gleichen bzw. ähnlichen Lebensweisen haben wollen. Mit Hilfe der Simulation kann geprüft werden, ob die Theorie eine Erklärung für das Phänomen Segregation ist.
Neben dem Prüfen der Theorie lassen sich mit Computersimulationen auch Mechanismen verstehen, mit denen Phänomene besser erklärt werden können. Bei der Segregation haben beispielsweise Handlungen einzelner Agenten auch Einfluss auf andere (ihre Nachbarn) und führen damit zu Handlungen von anderen Agenten. Schließlich können mit Hilfe von Simulationen auch Hypothesen abgeleitet werden. Diese haben einerseits eine hohe Genauigkeit, andererseits lassen sich damit auch implizite Annahmen, die in einem Modell stecken, aufdecken. Im Segregations-Beispiel sind diese Randbedingungen unter anderem, dass von einer gleichen Gruppengröße der unterschiedlichen Agenten ausgegangen wird. Die Theorie geht darüber hinaus davon aus, dass alle Agenten überall hinziehen können. Durch Ändern dieser Randbedingungen lässt sich die Stabilität einer Theorie testen.
Agenten-basierte Modelle
Agenten-basierte Modelle sind eine formale Darstellung des methodologischen Individualismus. Mit ihrer Hilfe lassen sich soziale Phänomene erklären, die ohne Absicht der einzelnen Akteure auftreten (z.B. die Segregation in Städten oder Fußgängerströme). Die Agenten besitzen dabei folgende Eigenschaften:
- autonom: Agenten handeln autonom, d.h. sie treffen Entscheidungen selbstständig.
- gegenseitige Abhängigkeiten: Agenten üben sozialen Einfluss aufeinander aus.
- heterogen: Es gibt verschiedene Arten von Agenten, die z.B. unterschiedliche Typen von Menschen repräsentieren.
- begrenzte Rationalität: Agenten lernen aus Fehlern basierend auf verschiedenen Lernmodellen.
- einfache Interaktionsregeln
- strukturelle Einbettung: Agenten sind in dynamische Netzwerke eingebunden.
Eine wichtige Randbedingung für die begrenzte Rationalität von Akteuren ist das zugrunde liegende Lernmodell. Hier werden in der Regel zurückblickende Lernmodelle anstatt vorausschauender benutzt. Zurückblickend heißt in diesem Zusammenhang, dass Agenten ihr vergangenes Verhalten reflektieren und Handlungen, die erfolgreich waren, wiederholen. Dabei kann einerseits durch Verstärkung gelernt werden, z.B. beim stochastischen Lernen, bei dem die Wahrscheinlichkeit einer Handlung im Erfolgsfall steigt, im Falle des Misserfolgs hingegen sinkt. Dagegen wird beim Lernen durch Imitation das Verhalten anderer geprüft und erfolgreiches Handeln imitiert.
Im Gegensatz zu den Lernmodellen ist bei der evolutionären Simulation das Verhalten der Agenten fest und kann nicht geändert werden (d.h. es ist genetisch codiert). Stattdessen drückt sich erfolgreiches Handeln hier in natürlicher Selektion aus: erfolgreiche Agenten dürfen ihr genetisches Material an Nachkommen vererben. Dadurch verändert sich nicht das Verhalten einzelner Individuen sondern die Zusammensetzung einer Population. Heutzutage ist bereits eine Reihe von Phänomenen mit Hilfe evolutionärer Simulationen erklärt, z.B. die Weitergabe sozialer Normen.
Grenzen von Computersimulation
Trotz ihres großen Bandbreite an Einsatzmöglichkeiten und ihrer Vorteile haben Computersimulationen inhärente Grenzen, die sie nicht überschreiten können. Zunächst werden Hypothesen nur approximativ abgeleitet. Dadurch sind keine generellen Aussagen möglich sondern die Hypothesen gelten nur für den untersuchten Parameterbereich. Bei einer hohen Anzahl an Parametern ergibt sich darüber hinaus, dass aufgrund einer Vielzahl möglicher Kombinationen viele Simulationen notwendig sind.
Bei Simulationen, die Zufallskomponenten benötigen, ist zu beachten, dass mit Hilfe von Computersimulationen nur Pseudozufallszahlen generiert werden können. Das heißt, der Algorithmus, mit dem eine Zufallszahl berechnet wird, kann bei einer genügend großen Anzahl notwendiger Zufallszahlen wieder von vorne beginnen. Dabei sind weiterhin hohe Fallzahlen für Aussagen über die Modellentwicklung notwendig.
Schließlich können Computersimulationen auch falsch sein. Der Fehler kann hier einerseits im Programm, andererseits auch im Modell liegen. Um die Wahrscheinlichkeit von Fehlern zu minimieren sollten Reproduktionen erlaubt und der Quellcode von Programmen öffentlich zugänglich gemacht werden. Ein weiteres Problem ergibt sich durch die interne Darstellung von Fließkommazahlen, die zu Berechnungsungenauigkeiten führen kann. Auch wenn Computersimulationen komplexe Theorien prüfen können, können die Annahmen nicht beliebig komplex sein. Es gibt Probleme, die durch ihre Komplexität (NP-Problematik) nicht mit vertretbarem Aufwand berechnet werden können.
Schreibe einen Kommentar