1 / 54

Hauptseminar:

Hauptseminar:. Der Ragin – Ansatz (QCA = Qualitative Comparative Analysis). Einführung II:. Leitgedanken und Anwendungsmöglichkeiten des Ragin-Ansatzes. Das zu lösende Problem. Defizite bisheriger Datenanalyse bei Vergleichsstudien

harry
Download Presentation

Hauptseminar:

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Hauptseminar: Der Ragin – Ansatz (QCA = Qualitative Comparative Analysis) TU Dresden - Institut für Politikwissenschaft - Prof. Dr. Werner J. Patzelt

  2. Einführung II: Leitgedanken und Anwendungsmöglichkeiten des Ragin-Ansatzes TU Dresden - Institut für Politikwissenschaft - Prof. Dr. Werner J. Patzelt

  3. Das zu lösende Problem • Defizite bisheriger Datenanalyse bei Vergleichsstudien • hermeneutischer Zugriff: Bei mehr als nur recht wenigen Fällen und wenigen Variablen wird es schwierig, die in den Befunden geborgene Kausalstruktur valide und interreliabel ausfindig zu machen. • statistischer Zugriff: • n/v-Problem: ohnehin zu wenige Fälle für die einbezogenen Variablen • fehlende Werte für allzu viele Variablen behindern die schlüssige Anwendung multivariater statistischer Modelle • ‚Reißwolf-Ansatz‘: historisch-individuelle Merkmalskonfigurationen werden in eine Vielzahl von Variablenwerten ‚zerrissen‘, die dann durch (multivariate) statistische Modelle nur noch zu einem sehr geringen Prozentsatz erklärter Varianz rekonstruiert werden. • Ziel darum: • dem (multivariaten) variablenorientierten statistischen Ansatz einen (multivariaten) fallorientierten Ansatz gegenüberstellen • Kausalstrukturen auch aus solchem Datenmaterial valide und inter-reliabel hermeneutisch nachvollziehbar machen, das aus vielen Variablen für viele Fälle besteht • Ausweg aus n/v-Problem weisen, falls viele Variablen und wenige Fälle TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  4. Literaturhinweise • Werner J. Patzelt, Der Ragin-Ansatz. Eine Einführung samt weiterführenden Ideen, unv. Arbeitspapier, Dresden 1997 • Ragin, Charles C., 1987: The Comparative Method. Moving Beyond Qualitative and Quantitative Strategies. Berkeley et al.: University of California Press • Charles C. Ragin / Helen M. Giesel, User‘s Guide. Fuzzy Set / Qualitative Comparative Analysis [= Softwarehandbuch zu fs/QCA], University of Arizona 2002 TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  5. Ausgangspunkt des Verfahrens • Ausgangspunkt: eine Fragestellung und ein Erklärungsmodell, welches klar die durch Vergleich zu erklärende abhängige Variable (‚Explanandum‘) bezeichnet. • Beispiel: • Es soll durch einen Vergleich von zehn Staatsstreichen (teils erfolgreich, teils erfolglos) geklärt werden, von welchen Faktoren der Erfolg eines Staatsstreichs (= abhängige Variable Z) abhängt. • Die forschungsleitende Theorie (= das zu überprüfende Erklärungsmodell) unterstellt, es könnten die 14 Faktoren A bis N in noch unklaren Wechselwirkungen für den Erfolg von Staatsstreichen wichtig sein. • Forschungsfrage also: Welche der Faktoren A bis N sind wirklich, und gegebenenfalls in welchen Kombinationen, für den Erfolg eines Staatsstreichs wichtig? • n/v-Verhältnis: eher schlecht, da 10 Untersuchungsfälle bei 14 unabhängigen und einer abhängigen Variable! TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  6. Achtung: zunächst jeweils nur Darstellung des ursprünglichen Ansatzes, erst anschließend seiner heute verfügbaren Erweiterungen Vorbereitung des Datenmaterials • Von allen in die Untersuchung einbezogenen Variablen muß fest-gestellt werden, ob das, was ihr empirischer Referent bezeichnet, beim konkreten Vergleichsfall vorlag (= Variablenwert 1) oder nicht vorlag (= Variablenwert 0). • inzwischen auch möglich: ordinale Variablen (0,1,2, …), wobei ‚0‘ dann nicht mehr notwendigerweise ‚liegt nicht vor‘ bedeutet‘ • Beispiel: • Staatsstreich erfolgreich: Z=1, Staatsstreich erfolglos: Z=0. • Militärspitze ist einbezogen: A = 1, Militärspitze ist nicht einbezogen: A=0 (usw. für alle Variablen) • logische Struktur: Den Variablen werden ‚Wahrheitswerte‘ zugewiesen: • 1 = es ist im Fall X wahr, daß das fragliche Merkmal vorliegt • 0 = es ist im Fall X falsch, daß das fragliche Merkmal vorliegt • bei heutiger Weiterentwicklung: faktisch statt Wahrheitswerten ordinale Variablen, mit denen aber agorithmisch wie mit Wahrheitswerten umgegangen werden kann • Achtung: • Dieser Analyseansatz verlangt nur nominalskalierte Variablen, nämlich die Feststellung, ob ein Merkmal vorliegt oder nicht vorliegt. • aber: Man kann ihn inzwischen auch mit ordinalskalierten Variablen verwenden! • Er kann auch – im folgenden nicht dargestellt – Fälle verarbeiten, in denen unklar ist, ob ein Merkmal vorliegt oder nicht (sog. „don‘t cares“). TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  7.  Weitere Infos & Downloads unter http://www.compasss.org/Welcome.htm Inzwischen verfügbare weitergehende Möglichkeiten der Datenanalyse • Der ursprüngliche Ansatz der QCA verlangte und verarbeitete nur nominalskalierte Daten. • einesteils: Vorzug, weil dieses Meßniveau immer erreichbar ist. • andernteils: Nachteil, da bei ordinal und höher skalierten Daten erheblicher Informationsverlust! • Inzwischen gibt es zwei Weiterentwicklungen, für welche auch geeignete Software zur Verfügung steht: • ‚fuzzy set‘ QCA (von Charles C. Ragin): • zwischen ‚0‘ und ‚1‘ können auch Zwischenstufen in Gestalt von Dezimalbrüchen abgebildet und in probabilistischer Modifikation der analytischen Leitgedanken des Ragin-Ansatzes behandelt werden • in diesen Ansatz lassen sich auch ‚Unschärfen‘ dahingehend einbauen, daß die Software auch vordefinierte Wertebereiche um Grenzen herum verarbeitet • TOSMANA (= tool for small-n analysis; von Lasse Cronquist) • erlaubt die Verarbeitung ordinalskalierter Daten gemäß der ursprünglichen, nicht-probabilistischen Boole‘schen Methode • bietet Tools zur datenbasierten Überführung von metrischen Variablen in ordinalskalierte Daten • bietet Tools zum Boole‘schen Theorienvergleich Beispiel TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  8. Meyers Rohdaten zur Analyse von demokratischer Konsolidierung in Osteuropa in genau dieser Form liegen die Daten statistischen Analysen zugrunde Meyers Daten, recodiert für TOSMANA ein Datensatz für fs/QCA würde statt 0,1,2 … Dezimalbrüche enthalten TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  9. Pennings-Datensatz, aufbereitet für Analyse mit fs/QCA TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  10. VarZ VarA VarB VarC … VarN Fall01 1 1 2 1 1 0 Fall02 0 1 0 0 1 1 3 1 Fall03 1 1 0 0 Fall … Fall 10 0 0 2 1 1 1 Aufbereitung der Daten Zusammenstellung des Datenmaterials in einer Ausgangstabelle (‚Wahrheitswerttafel‘) hier wird notiert, wie häufig eine bestimmte Va-riablenkombination im Untersuchungsmaterialauftritt (spart Zeilen und schafft Überblick!)  ‚Präsenzvariable‘ So entstehen logische Gleichungen der Art: Z = a(bc+bd+E)+A(bC+E) = Ausgangsmaterial weiterer Analysen Der Informationsgehalt dieser Wahrheitswerttabelle (= d.h. das Muster der im Untersu-chungsmaterial enthaltenen Bedingungsfaktoren erfolgreicher Staatsstreiche) wird nun mittels Boole‘scher Algebra und der beiden de Morgan‘schen Gesetze auf die in der Tabelle implizierten logischen Behauptungen zurückgeführt (‚Primärimplikanten‘). TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt auf PCs lauffähige Software ist verfügbar!

  11. Neue Möglichkeiten bei der Aufbereitung der Daten • im Fall von fs-QCA können in den Zellen der ‚Wahrheitswerttabelle‘ auch Dezimalbrüche stehen (‚measurement by fiat‘) • im Fall von TOSMANA können in den Zellen der ‚Wahrheitswerttabelle‘ beliebige ordinalskalierte Ziffern mit Werten gleich oder größer Null stehen • es ist sinnvoll, mit nicht zu vielen ordinalen Skalenabstufungen zu arbeiten! • Damit ist die Beschränkung auch dichotome Nominaldaten entfallen und lassen sich auch Daten auf ordinalem oder auf ordinalisiertem metrischen Meßniveaus anhand des Ragin-Ansatzes analysieren. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  12. Wie liest man ‚logische Gleichungen‘? Gleichung: Z = a(bc+bd+E)+A(bC+E) • Die verfügbare Software gibt stets auch jene Fälle aus, in welchen die von einem Term der Gleichung formulierten Bedingungen gegeben sind. • Auf diese Weise kann man stets den hermeneutischen Pendelschlag zwischen theoretischer Gleichung und analysierten Untersuchungsfällen vollziehen. • Großbuchstaben: Die Variable besitzt den Wahrheitswert 1 • ‚Z‘ meint also: „Ein Staatsstreich war erfolgreich“ • Kleinbuchstaben: Die Variable besitzt den Wahrheitswert 0 • ‚a‘ meint also: „Die Militärspitze war nicht einbezogen“ • Pluszeichen: logisches ‚oder‘ • (implizites) Multiplikationszeichen: logisches ‚und‘ • Klammer: gruppiert zusammengehörige Aussagen • Folglich ist die obige Gleichung so zu lesen: Achtung: Gleichungen vonfs-QCA und TOSMANA sind etwas komplexer, im Grunde aber nicht anders notiert. Ein Staatsstreich war – laut Untersuchungsfällen – immer dann erfolgreich, wenn … • entweder: A nicht gegeben war und zugleich B und C nicht gegeben waren oder B und D nicht gegeben waren oder E gegeben war • oder: A gegeben war und zugleich B nicht gegeben war (während zugleich C vorlag) oder zugleich E gegeben war. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  13. Achtung: Für die ‚Berechnung‘ und Nutzung dieser Gleichungenist (auch bei vielen Variablen) die Fallzahl völlig irrelevant! Merkmale der ‚logischen Gleichungen‘ • Eine solche Gleichung ist eine – in der Regel ziemlich komplexe und in Worten längst nicht zu so klar formulierbare – theoretische Aussage, bei Vorliegen welcher Faktorenkonstellation das zu erklärende Ereignis auftrat ( Verallgemeinerbarkeit ist abhängig von Stichprobe!) • D.h.: Eine ‚logische Gleichung‘ ist eine (rein) induktiv gewonnene (Klein-)Theorie. • Eine solche Gleichung (= Theorie) birgt genau jene Information, die schon in der ‚Wahrheitswerttafel‘ enthalten war. • Sie verdichtet diese Information aber durch zwingende logische Schlüsse so weit, daß andernfalls schwer erkennbare Faktorenkonstellationen erkennbar werden. • Konkret gibt eine ‚logische Gleichung‘ an, welche als Vergleichskategorien genutzten Variablen … • hinreichende oder notwendige Ursachen für die abhängige Variable sind • weder hinreichend noch notwendig für die abhängige Variable sind. • D.h.: Die logischen Transformationen sind nichts anderes als ein Mittel vergleichsgestützter und ‚automatisierter‘ Theoriebildung ! TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  14. hinreichende und notwendige Ursachen • Eine ‚hinreichende‘ Ursache ist ein Faktor B, der in jedem Fall dazu führt, daß das Ergebnis Z zustande kommt. • Aber: Es ist nicht notwendig, daß B vorliegt, um Z zustande kommen zu lassen. Ebenso können die Faktoren K und L das Ergebnis Z zustande kommen lassen. • Beispiel: Wenn man Z töten will, reicht es aus, ihn zu erwürgen. Man kann ihn aber ebensogut erschießen oder erdolchen. • Z = B + K + L • Eine ‚notwendige‘ Ursache ist ein Faktor A, der für das Zustandekommen des Ergebnisses Z unbedingt vorliegen muß. • Aber: Es reicht nicht aus, daß A vorliegt, um Z zustande kommen zu lassen. Vielmehr muß auch noch der Faktor X hinzutreten. • Beispiel: Wer eine Villa mit Blick auf den Genfer See kaufen will, muß Geld dafür haben. Doch alles Geld nutzt solange nichts, wie niemand eine Villa mit Blick auf den Genfer See zum Kauf anbietet. • Z = AX TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  15. Wie entstehen ‚logische Gleichungen‘ als Ergebnisse? Info zum Algorithmus • Begriffe: • Eine logische Gleichung hat die Form einer ‚Produktsumme‘ und besteht aus ‚Boole‘schen Termen‘,z.B.: Z = a(bc+bd+E)+A(bC+E) • Leitgedanke: Der maximale Informationsgehalt der Wahrheitswerttabelle soll in einer Gleichung mit möglichst wenigen Termen und Variablen ausgedrückt werden. • Technische Formulierung: Es muß ausfindig gemacht werden, von welcher geringstmöglichen Anzahl von Boole‘schen Termen alle Kombinationen von unabhängigen Variablen vollständig impliziert werden, die in den Zeilen der Wahrheitswerttabelle mit dem Auftreten (bzw. dem Nichtauftreten) der abhängigen Variablen einhergehen. • Praktisch verlangt das: • Da jede Zeile der Wahrheitswerttabelle eine logische Gleichung für genau den in dieser Zeile ausgedrückten Falltyp darstellt, muß herausgefunden werden, mit welchen (möglichst wenigen!) Termen sich der Informationsgehalt aller Zeilen ausdrücken läßt, in denen angegeben ist, welche Variablenkombinationen mit dem Auftreten (bzw. mit dem Nichtauftreten) der abhängigen Variable einhergehen. • Jene Terme nennt man die ‚Primärimplikanten‘ des zu erklärenden Sachverhalts. • Mit den dafür verwendbaren Algorithmen identifiziert man meistens mehr Primärimplikanten als nötig sind, um die Boole‘schen Terme jener Zeilen mit einem Auftreten (oder Nichtauftreten) der abhängigen Variablen vollständig zu implizieren. Ist man damit nicht zufrieden, so wird man in einem zweiten Schritt jene Teilmenge der Primärimplikanten herausfinden wollen, die für eine vollständige Implikation aller einschlägigen Boole‘schen Terme ausreichen. • Diese Terme nennt man die ‚wesentlichen‘ Primärimplikanten des zu erklärenden Sachverhalts. • Jene ‚logisch minimierte‘ Gleichung, die man am Schluß dieses durchalgorithmisierten Verfahrens erhält, gibt genau die (wesentlichen) Primärimplikanten jener Zeilen der Wahrheitswerttabelle an, welche die Variablenkombinationen für das Auftreten (oder Nichtauftreten) der abhängigen Variablen enthalten. Das genaue Verfahren ist in der angegebenen Literatur detailliert beschrieben und wird von der Software zuverlässig verwendet. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  16. Boole‘sche Implikation • Definition: Ein Boole'scher Term I impliziert einen anderen Boole'schen Term II, wenn die Menge der (empirischen) Referenten des Terms II eine Teilmenge der (empirischen) Referenten des Terms I darstellt. • formales Beispiel: Der Term A impliziert den Term Abc, weil die (empirischen) Referenten des Terms Abc (d.h. die Fälle, in denen A anwesend ist, B und C aber abwesend sind) eine Teilmenge der (empirischen) Referenten des Terms A sind (d.h. aller Fälle, in denen A anwesend ist). • inhaltliches Beispiel: • A umfaßt alle wirtschaftlich abhängigen Länder; B jene Länder mit Schwerindustrie; C die Länder mit Zentralverwaltungswirtschaft. • Abc umfaßt dann alle wirtschaftlich abhängigen Länder ohne Schwerindustrie und ohne Zentralverwaltungswirtschaft. Also sind jene Länder, die zum empirischen Referenten von Abc gehören, eine Teilmenge von A. • Genau das heißt: A impliziert Abc. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  17. Berechnung der Produktsummen • Regel: Wenn zwei Boole'sche Terme sich nur in einer einzigen Kausalbedingung unterscheiden und dennoch zum gleichen Wahrheitswert der abhängigen Variablen führen, dann kann jene Kausalbedingung als irrelevant gelten, welche die beiden Boole'schen Terme unterscheidet. Sie kann folglich aus dem Boole'schen Term entfernt werden, der auf diese Weise einfacher wird. • Beispiel: • Es gilt: Abc=F und ABc=F. • Weil stets F herauskommt, obwohl sich die beiden Terme im Wahrheitswert von B unterscheiden, kann B aus dem Term entfernt werden. • Das heißt: die Terme Abc und ABc lassen sich zusammenfassen durch den Term Ac. • Grundsätzlich wird gemäß der Minimierungsregel 'von unten nach oben' so lange verfahren, bis keine weitere Reduktion (also Vereinfachung und Zusammenfassung) der Boole'schen Terme mehr möglich ist. • Offensichtlich ist dies … • ein sehr einfacher Algorithmus, der sich mittels geeigneter Software automatisieren läßt. • eine zugleich sehr mechanische und trotzdem sehr klares Denken verlangende Verfahrensweise, die man ohnehin besser automatisiert. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  18. Beispiel für die Berechnung der Produktsummen auf der Grundlage einer fiktiven Wahrheitstafel mit den unabhängigen Variablen A, B und C • Schritt 1: Zusammenfassung der Zeilen der Wahrheitstafel mit dem gleichen Informationsgehalt, z.B.: • Abc + ABc wird Ac • Abc + AbC wird Ab • aBc + ABc wird Bc • aBc + ABC wird aB • abC + abC wird bC • abC + aBC wird aC • Schritt 2: In gleicher Weise können von den dergestalt auf eine bereits geringere Anzahl reduzierten Zeilen auch noch jene Zeilen, in denen zwei Ursachen anwesend sind und eine abwesend ist, mit jenen Zeilen zusammengefaßt werden, in denen alle drei Ursachen anwesend sind: • ABc + ABC wird AB • AbC + ABC wird AC • aBC + ABC wird BC • Schritt 3: Die Reduzierung wird fortgesetzt, indem man Reduktionsergebnisse aus dem ersten Schritt mit solchen aus dem zweiten Schritt kombiniert, etwa so: • Ab + AB wird A • Ac + AC wird A • aB + AB wird B • Bc + BC wird B • aC + AC wird C • bC + BC wird C • Am Schluß erhält man einen zunächst nicht weiter reduzierbaren Term, der so knapp wie (einstweilen) möglich wiedergibt, was die Wahrheitswerttabelle hinsichtlich der kausalen Bedingungsmöglichkeiten der abhängigen Variablen aussagt. Dieser Term kann ein einzelnes Boole‘sches Produkt oder eine Produktsumme sein. • im Beispiel: Die abhängige Variable wird erklärt von A + B + C • Anders ausgedrückt: Es wird die zunächst einmal allgemeinste Aussage über die Kausalbedingungen des interessierenden abhängigen Merkmals herausgearbeitet, die sich formulieren läßt. Enthält diese Aussage noch Boole'sche Produkte, stellt sie also ihrerseits noch eine Produktsumme dar, so werden ihre jeweils ein Produkt darstellenden Terme 'Primärimplikanten' genannt. Regel: Wenn zwei Boole'sche Terme sich nur in einer einzigen Kausalbedingung unterscheiden und dennoch zum gleichen Wahrheitswert der abhängigen Variablen führen, dann kann jene Kausalbedingung als irrelevant gelten, welche die beiden Boole'schen Terme unterscheidet. Sie kann folglich aus dem Boole'schen Term entfernt werden. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  19. ‚wesentliche‘ Primärimplikanten • Ausgangslage: Die abhängige Variable S werde laut Wahrheitstafel erklärt durch die Ausdrücke ABC + AbC, ABC + ABc sowie ABc + aBc. • Diese Terme lassen sich in der beschriebenen Weise auf die folgende Gleichung reduzieren: S = AC + AB + Bc. • Oft implizieren Primärimplikanten mehrere Terme der Wahrheitstafel, z.B.: • AC impliziert AbC und ABC • AB impliziert ABC und ABc. • Ziel ist es nun, ‚überflüssige‘ Primärimplikanten auszuschließen und den Informationsgehalt der Wahrheitstafel auf die logisch zwingend erforderliche Minimalzahl an ‚wesentlichen‘ Primärimplikanten zurückzuführen. • Dabei kann es eine einzige Lösung geben. • Es kann aber auch so sein, daß zwei oder mehr ‚wesentliche Primärimplikanten‘ jeweils für sich ausreichen, alle Terme der Wahrheitstafel zu implizieren. • In diesem Fall muß der Forscher sich (gestützt auf theoretisch-hermeneutische Überlegungen) entscheiden, welche(n) wesentliche(n) Primärimplikanten er in die entstehende logische Gleichung aufnehmen will. • Mittel zum Auffinden der ‚wesentlichen‘ Primärimplikanten: die Primärimplikantentafel. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  20. Beispiel einer einfachen Primärimplikantentafel TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  21. Beispiel einer einfachen Primärimplikantentafel ursprüngliche Boole‘sche Terme aus der Wahrheitstafel TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  22. Beispiel einer einfachen Primärimplikantentafel ursprüngliche Boole‘sche Terme aus der Wahrheitstafel Primärimplikanten TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  23. Beispiel einer einfachen Primärimplikantentafel ursprüngliche Boole‘sche Terme aus der Wahrheitstafel Primärimplikanten TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  24. Beispiel einer einfachen Primärimplikantentafel ursprüngliche Boole‘sche Terme aus der Wahrheitstafel Primärimplikanten TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  25. Beispiel einer einfachen Primärimplikantentafel ursprüngliche Boole‘sche Terme aus der Wahrheitstafel Primärimplikanten TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  26. Beispiel einer einfachen Primärimplikantentafel ursprüngliche Boole‘sche Terme aus der Wahrheitstafel Primärimplikanten TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  27. Beispiel einer einfachen Primärimplikantentafel ursprüngliche Boole‘sche Terme aus der Wahrheitstafel Offenbar reichen AC und Bc aus, um alle ursprünglichen Boole‘schen Terme aus der Wahrheitstafel zu implizieren. Primärimplikanten TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  28. Beispiel einer einfachen Primärimplikantentafel ursprüngliche Boole‘sche Terme aus der Wahrheitstafel Offenbar reichen AC und Bc aus, um alle ursprünglichen Boole‘schen Terme aus der Wahrheitstafel zu implizieren. Also läßt sich folgende weitere Reduktion vornehmen:S = AC + AB + Bc wird: S = AC + Bc. Primärimplikanten TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  29. … und natürlich wird man auch diese Reduktion den Algorithmen einer (interaktiven) Software überlassen! Beispiel einer einfachen Primärimplikantentafel ursprüngliche Boole‘sche Terme aus der Wahrheitstafel Offenbar reichen AC und Bc aus, um alle ursprünglichen Boole‘schen Terme aus der Wahrheitstafel zu implizieren. Also läßt sich folgende weitere Reduktion vornehmen:S = AC + AB + Bc wird: S = AC + Bc Primärimplikanten Achtung: Es ist nicht nötig, oft aber wünschenswert, die logische Reduktion bis zur Ebene der wesentlichen Primär-implikanten voranzutreiben! TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  30. Feinheiten bei der Erarbeitung der logischen Gleichungen • Es gibt keine technische Notwendigkeit, nach den ‚wesentlichen‘ Primärimplikanten zu suchen. • Es mag sein, daß bereits die Primärimplikanten sehr deutlich zeigen, von welchen wie zusammenwirkenden Merkmalskomplexen der zu erklärende Sachverhalt bewirkt wird. • Also sollte man die logische Reduktion auf die wesentlichen Primärimplikanten nicht ‚mechanisch‘ benutzen – ebenso wenig, wie man das mit den Modellierungsmöglichkeiten der klassischen multivariaten Statistik tut. • Nicht selten mag es sinnvoll sein, die algorithmisch formulierten logischen Gleichungen durch (Boole‘sches) ‚Ausmultiplizieren‘ oder ‚Ausklammern‘ so umzuformen, daß … • notwendige Ursachen deutlich hervorgehoben werden • kausal äquivalente Bedingungen deutlich hervorgehoben werden • sich die theoretische Struktur der erhaltenen Gleichung besser abbildet Beispiele TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  31. Beispiele für größere theoretische Klarheit durch Umformung logischer Gleichungen • Im Fall der Gleichung S=AB+AC+AD ist A offenbar eine notwendige Bedingung für das Auftreten von S. • Dies tritt klarer hervor, wenn man die Gleichung wie folgt umformt: S=A(B+C+D). • Ebenso tritt bei der Schreibung als S=A(B+C+D) klarer hervor, daß B, C und D (sofern sie gemeinsam mit A auftreten), hinsichtlich der Bewirkung von S kausal äquivalent sind: Jede dieser drei Ursachen leistet dasselbe. • Größere Klarheit muß nicht immer größere Knappheit heißen. Vielmehr lassen sich mitunter durch ausführlichere Schreibweisen Merkmale der theoretischen Struktur einer Gleichung klarer darstellen. • Beispiel: Die ‚Ausgangsgleichung‘ sei S=abc+AbC+abd+E • Offenbar spielt sowohl die Anwesenheit als auch die Abwesenheit des Faktors A eine spezifische Rolle für das Auftreten von S: Ob A anwesend oder abwesend ist, hat je nach den Kontextfaktoren andere Folgen. • Diese unterschiedliche Wirkungsweise von A=1 oder A=0 (also: a) kann durch (mengentheoretisches!) Ausklammern und Umformen der Gleichung wie folgt dargestellt werden: S=a(bc+bd+E)+A(bC+E). TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  32. Einige Probleme bei QCA • Abhängigkeit der Ergebnisse von der Variablenauswahl • gleiches Problem wie bei statistischen Analysen; lösbar durch gute Fallkenntnis und empirisch informierte Theorie- bzw. Modellbildung! • Sensibilität der Ergebnisse für die Positionierungen der Wertbereichsgrenzen ordinaler Variablen • bewältigbar durch Experimentieren mit verschiedenen plausiblen Abgrenzungen sowie durch die Nutzung der ‚Unschärfefunktion‘ von fs/QCA • widersprüchliche Zeilen / Fälle • nähere Behandlung erforderlich! • ‚eingeschränkte Unterschiedlichkeit‘ (≈ Umgang mit ‚ungeschehener Geschichte‘) • nähere Behandlung erforderlich! TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  33. ‚widersprüchliche‘ Zeilen (‚contradictions‘) Offenbar sind das ziemlich ‚qualitative‘ Weisen, mit einem empirischen Forschungsproblem umzugehen! • Begriff: Eine ‚widersprüchliche‘ Zeile ist eine Zeile, in der die gleiche Ursachenkombination mit dem Ergebnis 0 verbunden ist, die in den übrigen Zeilen mit dem Ergebnis 1 verbunden ist. • Maßnahmen: • „Zurück zu den Daten!“ Das heißt: überprüfen, ob Meßfehler vorliegen oder die Definitionen und Operationalisierungen der einbezogenen Variablen wirklich gut genug zum Fallmaterial passen; gegebenenfalls Korrekturen oder Modifikationen vornehmen • „Zurück zu den Fällen!“ • Durch detaillierte Betrachtung der Untersuchungsfälle wird ausfindig gemacht, ob es wohl eine intervenierende ‚Störvariable‘ gibt, deren Einbeziehung vermutlich die aufgetretenen Widersprüche erklären könnte, an die man bislang aber nicht gedacht hat. • Anschließend erhebt man Daten zu dieser Störvariablen und bezieht sie in die Analyse ein. Im Optimalfall verschwinden dann die Widersprüche. • „Die widersprüchlichen Fälle verstehen!“ • Es wird gerade das Auftreten eines widersprüchlichen Falls zur abhängigen Variable gemacht und jene logische Gleichung berechnet, die das Auftreten der widersprüchlichen Fälle erklärt. • Im Optimalfall hilft einem die Interpretation dieser Gleichung beim Verstehen dessen, warum es zu den Widersprüchen im Datenmaterial kam und was nun zu tun ist. • „Notnägel“ • Interpretation der widersprüchlichen Zeilen als Nicht-Auftreten der zu erklärenden Variablen bzw. als gar nicht aufgetretene Fälle • Interpretation der widersprüchlichen Zeilen als Auftreten (!) der zu erklärenden Variablen • Bei vielen – und dabei auch vielen widersprüchlichen – Untersuchungsfällen: • Feststellung, wie häufig welche Ursachenkombination ist, die hinter den widersprüchlichen Fällen steht • Die selteneren dieser Ursachenkombinationen werden wie nicht-widersprüchliche Fälle behandelt (Vermutung: Hier wirkt einfach eine nicht erhobene Störvariable); die übrigen Ursachenkonstellationen werden wie echte widersprüchliche Fälle gemäß den eben beschriebenen Verfahren behandelt. Dabei gibt es unterschiedliche Verfahren, ‚seltenere‘ von ‚häufigeren‘ Ursachenkombinationen widersprüchlicher Fälle abzugrenzen; siehe die angegebene Literatur! TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  34. Die analytische Herausforderung der ‚eingeschränkten Unterschiedlickeit‘ ( Analyse von ‚remainders‘) • Auch bei vergleichsweise wenigen Untersuchungsfällen verwendet man zwar oft ein ‚most dissimilar cases design‘. Auch dann wird es aber so sein, daß diese Fällenicht in allen aus theoretischen Gründen wichtigen Variablen so stark unterschiedlich sind, daß man an ihnen alle eigentlich interessierenden Vermutungenüber Wirkungszusammenhänge überprüfen könnte. • Das kann an sich schon ein inhaltlich aussagekräftiger Befund sein. • Beispiel: Auch wenn man die unterschiedlichsten US-Präsidenten miteinander vergleichen will, wird man trotzdem keine Variablenkombination von Geschlecht und Rasse finden, bei welcher ein weiblicher und ein nicht-weißer Präsident in den Vergleich einbezogen werden könnten. Es ist hier selbst schon ein Schlüssel zum Verständnis von Konstruktionsprozessen sozialer Wirklichkeit, daß nur eine Teilmenge des tatsächlich Möglichen zur Wirklichkeit wurde. • Aber ist es wirklich so, daß das Ungeschehene oder nicht Vorgekommene ‚einfach unmöglich‘ war? Oder hat sich jene ‚ungeschehene Geschichte‘ oft nur deshalb nicht ereignet, weil … • Geschichte kontingent ist: Was je geschah, ist nur eine Teilmenge dessen, was geschehen hätte können, die sich ansonsten aber in nichts von jener Geschichte unterscheidet, die sich tatsächlich ereignete. • Geschichte pfadabhängig ist: Faktorenkonstellationen, die gestern rein zufällig entstanden sind, können ganz unzufällige Folgen für heute und morgen haben. • Falls das so ist, wäre ein Forschungsansatz wünschenswert, der auch die prinzipiell möglichen (und nicht nur die in der geschichtlichen Wirklichkeit gegebenen) Faktorenkonstellationen für das Auftreten interessierender Ereignisse in die Analyse einzubeziehen erlaubt. Genau diese Möglichkeit bietet QCA aufgrund ihres kombinatorischen Gesamtansatzes. Achtung: ‚Normal‘ vergleichende oder experimentierende Wissenschaftler haben natürlich auch die eben beschriebene analytische Herausforderung. Nur bieten ihre Ansätze weniger klare und viel schlechter kontrollierbare Möglichkeiten, mit ihr umzugehen! Das führt – etwa bei den Historikern – zur Tabuisierung: „Es ist ‚sinnlos‘ nach einem kontrafaktischen Was-wäre-gewesen-wenn zu fragen!“ TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  35. Kontingenz • Gottfried Wilhelm Leibniz (1646-1716): „Contingens est quod nec impossibile nec necessarium“ deutsch: „Kontingent ist, was weder unmöglich noch notwendig ist“ • D.h.: ‚Kontingenz‘ meint, daß den Lauf der Dinge verändernde Ereignisse und Prozesse auftreten ... • aus gleich welchen Gründen • mit gleich welchen Wahrscheinlichkeiten zwischen 0 und 1 • in einem System oder in dessen Umwelt und so die Entwicklung eines Systems, oder von dessen Umwelt, in wenig vorhersehbarer Weise beeinflussen. • Folgenreich für Systementwicklung und Systemgeschichte: ‚doppelte Kontingenz‘ – einesteils im System, andernteils in dessen Umwelt. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  36. Geschichte Pfadabhängigkeit t4: zwei längst getrennte Pfade kommen wieder zusammen! t4 t1 t2 t3 A B offene Zukunft – irreversibler Ablauf man schleppt mit, was man wurde C  Prägekraft ‚der Evolution‘ t1: noch istalles möglich! „kein Weg führt mehr von A nach D, und doch ....!“ t3: Pfade A und B trennen sich t2: Pfade A und B trennen sich von C und D • kontingenteAbzweigungen D • nicht vorhersehbareErgebnisse • nur imNachhinein, bei derhistorischen Analyse, klarerkennbareEntwicklungen TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  37. Wie begegnet QCA dieser analytischen Herausforderung? • Schritt 1: Es wird die empirische Einschränkung der tatsächlich realisierten und ins Untersuchungsmaterial einbezogenen Geschichte im Vergleich zur theoretisch möglichen Geschichte erst einmal sichtbar gemacht. • Weg: Feststellen, welcher Anteil der grundsätzlich möglichen Merkmalskombinationen im Untersuchungsmaterial überhaupt als realisierte Merkmalskombination vorhanden ist. • Technisch: Einführung einer Präsenzvariablen, welche für jede im Datenmaterial vorhandene Variablenkombination den Wert 1 hat, für jede zwar mögliche, doch im Material nicht auftauchende Kombination aber den Wert 0. • Schritt 2: Feststellen, was – vor dem Hintergrund aller theoretisch vorstellbaren Kombinationen von Faktoren – die tatsächlich realisierten und im Datenmaterial vorhandenen Fällekennzeichnet. • Weg: Berechnung jener logischen Gleichung, welche den Wert 1 der Präsenzvariablen erklärt. • Spiegelbildlich: feststellen, was den im Datenmaterial nicht aufgetretenen Fällen gemeinsam ist. • Weg: Berechnung jener logischen Gleichung, welche den Wert 0 der Präsenzvariablen erklärt. • Problem: ‚Repräsentativität‘ der Stichprobe für die tatsächlich realisierten, doch nicht allesamt untersuchten Fälle; bewältigbar nur über ‚theoretical sampling‘ • Schritt 3: Jene Einsichten für die Analyse der tatsächlich aufgetretenen Merkmalskombinationen fruchtbar machen, welche sich aus der Analyse der theoretisch möglichen Kombinationen (= Schritt 2) ergeben haben (Details hier). TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  38. Die analytische Einbeziehung ‚ungeschehener Geschichte‘ (= Schritt 3) Hier muß man zunächst theoretische Annahmen einführen und schlägt dann verschiedene Analysewege ein. • Weg 1: Er ist einzuschlagen, wenn die Betrachtung der Ursachenkombinationen von nicht aufgetretenen Fällen die Annahme nahelegt, daß die nicht eingetretenen Faktorenkombinationen aufgrund der Natur der Sache auch gar nicht auftreten konnten. • Dann erhalten die nicht aufgetretenen Fälle hinsichtlich der zu erklärenden Variablen den Wert 0 und werden mit diesem Wert in eine weitere Analyse einbezogen. • Weg 2: Aufgrund einer Betrachtung der Ursachenkombinationen wird angenommen, daß auch in den nicht aufgetretenen Fällen es hätte möglich sein können, daß sich das zu erklärende Ergebnis einstellt. Folglich werden sich in den Termen ihrer Gleichungen auch solche Merkmalskombinatio-nen finden lassen, die ursächlich für das Auftreten des Ereignisses hätten sein können, doch aus gleich welchen Gründen durch andere Faktoren so überlagert wurden, daß sich Auftreten des eigentlich zu erklärenden Ereignisses eben nicht einstellte. • Wenn das aber so ist, dann muß man wohl auch jene Erklärungsterme, die mit einem Nichtauftreten des eigentlich zu erklärenden Ereignisses einhergehen, für die Berechnung der Erklärungsterme des tatsächlich aufgetretenen Ereignisses nutzbar machen. • Verfahrensschritt 1: Auch die nicht aufgetretenen Fälle erhalten hinsichtlich der zu erklärenden Variablen den Wert 1; anschließend werden die Primärimplikanten ihrer Merkmalskombinationen festgestellt. • Verfahrensschritt 2: Wenn dann aber die ‚wesentlichen Primärimplikanten‘ des zu erklärenden Ereignisses festgestellt werden, entfällt die Forderung, auch die Primärimplikanten der nicht aufgetretenen Fälle müßten von ihnen impliziert werden. Das heißt: • ‚Ungeschehene Geschichte‘ wird solange einbezogen, wie man herausfinden will, welche denkbaren Ursachenkombinationen hinter dem realen, von Kontingenz und Pfadabhängigkeit gekennzeichneten Geschichtsprozeß liegen; • es wird ihre reale Ungeschehenheit aber dann berücksichtigt, wenn es um die knappestmögliche Erfassung jener Faktoren geht, die der tatsächlich realisierten Geschichte zugrunde lagen. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  39. Grundformen des Vergleichs Was ist an diesen so unterschiedlichen Fällentrotzdem ähnlich oder gleich? Theorie: analytische Kategorien, ‚Erklärungsmodell‘ Konkordanzmethode Was ist an diesen so ähnlichen Fällen trotzdem unterschiedlich? Differenzmethode TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  40. Die Konkordanzmethode • Man sucht nach dem, was selbst unter ganz verschiedenen Bedingungen noch gleich oder ähnlich sein mag. • Zweck:Allgemeine Strukturen oder Ursachen herausfinden, ‚Typisches‘ oder ‚Invarianten‘ feststellen. • Regel: Suche möglichst heterogene Stichproben! = ‚most dissimilar cases design‘ TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  41. Weiterführende Hinweise zu den Möglichkeiten, den Informationsgehalt der Ausgangstabelle zu verdichten • Man kann ‚ungeschehene Geschichte‘ in die Analyse der geschehenen Geschichte einbeziehen. • Man kann die Primärimplikanten und die wesentlichen Primärimplikanten der widersprüchlichen Fälle ausfindig machen. • Man kann nicht nur das Auftreten des interessierenden Ereignisses durch eine logische Gleichung erklären, sondern ebensogut dessen Nichtauftreten. • Statt dabei die Analyse mit abhängiger Variable = 0 neu zu starten, kann man aus der ursprünglichen Gleichung für Outcome=1 unter Anwendung von de Morgans Gesetzen eine ‚Komplementärgleichung‘ für Outcome=0 berechnen, nämlich so: • Schritt 1: Faktoren, die in der Ausgangsgleichung als anwesend codiert sind, werden nun als nicht anwesend codiert (und umgekehrt!). D.h.: Aus ‚A‘ wird ‚a‘, aus ‚a‘ wird ‚A‘. Beispiel: Aus der Gleichung S=AC+Bc wird s = ac + bC. • Schritt 2: Es werden die Boole'schen Additionen aus der Ausgangsgleichung zu Boole'schen Multiplikationen in der Komplementärgleichung (und umgekehrt!). D.h.: Ein logisches ODER wird zu einem logischen UND, ein logisches UND zu einem logischen ODER. Beispiel: Aus der Gleichung s=ac+bC wird s = (a+c) (b+C). • Durch ‚Ausmultiplizieren‘ erhält man folgende, theoretisch anders strukturierte Form: s = ab + aC + bc • Man kann – vor allem durch Boole‘sches Ausklammern und Ausmultiplizieren – das Zusammenwirken von notwendigen und hinreichenden Bedingungen in logischen Gleichungen viel klarer erfassen als anhand statistischer Maßzahlen • Man kann – bei hinlänglich großer Fallzahl – die Analyse auf eine Mindestzahl von auftretenden Variablenkombinationen eingrenzen (d.h. Präsenzvariable ≥ x), um individuelle Besonderheiten von allgemeineren Bedingungsgefügen abzuheben. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  42. obendrein: Die mit QCA gewonnenen Vergleichsergebnisse stimmen mit jenen aus der Anwendung von Statistik überein! Zusammenfassende Charakterisierungen von QCA • Alle Fälle werden in ihrer (von den einbezogenen Variablen erfaßten) Individualität betrachtet, nicht – wie in der Statistik – als als bloße ‚Merkmalsträger‘, an denen das probabilistische Zusammenwirken ‚allgemeiner Faktoren‘ eben sichtbar wird, und deren Individualität in einer möglichst großen Anzahl von Untersuchungsfällen in ganz beabsichtigter Weise untergeht. • Zwar verläuft das ergebnisverdichtende ‚Durchdenken‘ des Datenmaterials, d.h. die logische Minimalisierung des Informationsgehalts der ‚Wahrheitswerttabelle‘, rein algorithmisch, d.h. ‚automatisiert‘ und somit von den persönlichen Denk- und Deutungsvorlieben des Analytikers unabhängig. Doch sehr wohl prägt der Analytiker das Untersuchungsergebnis mit seinen Entscheidungen auf mehrfache Weise: • durch Auswahl, Operationalisierung und Messung der Variablen • durch den Umgang mit widersprüchlichen Fällen • durch den Umgang mit dem Erkenntnispotential der zwar ungeschehenen, logisch aber im Prinzip möglich gewesenen Geschichte • Das alles zeigt, daß es sich hier um einen im ganz traditionellen Wortsinn ‚qualitativen‘ Ansatz handelt, bei dem aber besonders gut die ansonsten wenig durchschaubaren individuellen Prozesse des Schlußfolgerns aus forschungsleitenden Annahmen transparent gemacht und intersubjektiv standardisiert werden. • In Verbindung mit der von QCA geleisteten Lösung des n/v-Problems macht gerade das diesen Ansatz gerade für die vergleichende Systemforschung überaus attraktiv. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  43. Weiterführende Möglichkeiten I: Bildung von Realtypologien … sind natürlich nur bei hinlänglich vielen Untersuchungsfällen sinnvoll nutzbar! • Es wird für alle Fälle, in denen das hinsichtlich seiner Ursachenfaktoren typologisch zu gliedernde Ereignis auftritt (Z=1), eine Mindestanzahl von gleichgelagerten Ursachenkombinationen festgelegt, ab welcher deren Informationsgehalt in die Bildung der angestrebten Realtypologie eingehen soll. • technische Durchführung: • es wird ein Mindestwert x für die Präsenzvariable P angesetzt • es wird für alle Fälle mit P≥x (und natürlich mit Z=1) der Wahrheitswert einer neu kreierten Variable ‚Typologierelevanz‘ auf 1 gesetzt (für P<x natürlich auf 0) • Sodann wird für alle Fälle mit Typologierelevanz=1 jene logische Gleichung berechnet, die angibt, welche notwendigen oder hinreichenden Variablenkombinationen mit der festgelegten Mindesthäufigkeit des Auftretens der abhängigen Variablen einhergehen. • Diese Gleichung enthält alle Informationen für die gesuchte Realtypologie. • Ist die Gleichung für den Zweck einer Typologiebildung sowohl zu komplex als auch nicht schlüssig umformbar, kann man ausprobieren, ob Veränderungen in der Gewichtung des Besonderen und des Allgemeinen (d.h.: beim Mindestwert der Präsenzvariablen) zu einem schlüssigeren Ergebnis führen werden. • Falls wünschenswert, kann man auch eine Typologie der nichtaufgetretenen Fälle erarbeiten. Dabei ist entweder analog zum eben beschriebenen Verfahren vorzugehen oder sind de Morgans Rechenregeln anzuwenden. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  44. Wie bildet man eine (dreidimensionale) Typologie? Realtypologie ‚Realtypen‘: im Datenmaterial vorgefunden! Fragestellung Vergleichsfälle Typ A Vergleichskategorie III Typ B Vergleichskategorie II Vergleichskategorie I Typ C TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  45. Weiterführende Möglichkeiten II: Überprüfung von Ideal- und Realtypologien • Eine in der Fachliteratur verfügbare Ideal- oder Realtypologie wird als eine logische Gleichung TLiteratur geschrieben. • Zu den von ihr abgedeckten Fällen werden die einschlägigen Daten erhoben und in einer ‚Wahrheitswerttabelle‘ zusammengestellt. • Aus diesen Daten wird eine logische Gleichung TDaten errechnet. • Es wird die Schnittmenge von TLiteratur und TDaten berechnet. (Geeignete Software bietet Tosmana). • Falls diese Schnittmenge eine leere Menge ist, erfaßt die Ideal- oder Realtypologie aus der Fachliteratur offensichtlich überhaupt nichts von jenem Wirklichkeits-ausschnitt, auf den sie sich bezieht und an dem sie überprüft wurde. • Im Fall von Realtypologien heißt das: Sie sind falsifiziert. • Idealtypologien behaupten ohnehin nicht, die vorfindbare Wirklichkeit abzubilden. Doch wenn sie von ihr in ihrem Anwendungsbereich überhaupt nichts erfassen, werden sie auch nicht sehr nützlich sein. • Falls es eine Schnittmenge zwischen TLiteratur und TDaten gibt, kann die überprüfte Ideal- oder Realtypologie als hinsichtlich jener Wirklichkeitsausschnitte bekräftigt gelten, die von solchen Boole‘schen Termen erfaßt werden, aus welchen die Schnittmenge besteht. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  46. Schnittstelle zur mathematischen Modellierung politischer Prozesse (‚positive political theory‘) Realtyp vs. Idealtyp • Realtyp: ‚Cluster‘ von tatsächlich vorkommenden Fällen bzw. Merkmalskombinationen Zweck:Ordnungsstrukturen entdecken • Idealtyp: Konfiguration von Extremwertenauf den Vergleichskategorien Zweck: • Gedankliche Analyse der Funktionslogik solcher (Extrem-)Konfigurationen (‚Gedankenexperimente‘) • Analyse und Beurteilung realer Fälle / Merkmalskombinationen anhand der in solchen ‚Gedankenexperimenten‘ gewonnenen Vermutungen TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  47. Wie arbeitet man (dreidimensional)mit ‚Idealtypen‘? Idealtypologie ‚Idealtypen‘: durch Theoriebildung ‚konstruiert‘ Fragestellung Vergleichsfälle Fallgruppe A Vergleichskategorie III Fallgruppe B Fallgruppe C Vergleichskategorie II Vergleichskategorie I Interpretation der Fallgruppen im Licht der Idealtypen TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  48. Weiterführende Möglichkeiten III: Bildung und Überprüfung von Theorien (1) • Induktive Entwicklung neuer Theorien • Nach Inspiration aus der einschlägigen Literatur wird festgelegt, anhand welcher Variablen man wohl nach einer Theorie zur Erklärung eines interessierenden Sachverhalts suchen sollte. • Zu diesen Variablen werden für eine aussagekräftige Anzahl von Fällen valide Daten erhoben und mit dem Ragin-Ansatz analysiert. • Die – bei vergleichender Anwendung verschiedener Analysestrategien – als zentrales Ergebnis festgestellte Gleichung wird, gegebenenfalls nach geeigneten logischen Umformungen, zum Ausgangspunkt weiterer Theoriebildung gemacht. • Überprüfung vorhandener Theorien • Eine selbst formulierte oder aus der Literatur (weiterentwickelnd) übernommene Theorie wird (nötigenfalls in Gestalt eines Pfeilmodells)transparent gemacht. • Sodann wird dieses Pfeilmodell in eine logische Gleichung TLiteratur übersetzt. • Zu den Variablen dieser Theorie werden für eine aussagekräftige Anzahl von Fällen valide Daten erhoben und mit dem Ragin-Ansatz analysiert. • Aus der dabei (gegebenenfalls unter vergleichender Anwendung verschiedener Analysestrategien) berechneten Gleichung TDatensowie aus der Gleichung TLiteratur wird die Schnittmenge berechnet. (Geeignete Software bietet Tosmana). • Falls diese Schnittmenge eine leere Menge ist, erfaßt überprüfte Theorie TLiteraturoffensichtlich überhaupt nichts von jenem Wirklichkeitsausschnitt, auf den sie sich bezieht und an dem sie überprüft wurde. Sie kann darum als falsifiziert gelten. • Falls es aber eine Schnittmenge zwischen TLiteratur und TDaten gibt, kann die überprüfte Theorie als hinsichtlich jener Wirklichkeitsausschnitte bekräftigt gelten, die von solchen Boole‘schen Termen erfaßt werden, aus welchen die Schnittmenge besteht. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  49. ‚exogene‘ Variablen unabhäng. Variable 1 unabhäng. Variable 1 1 abhängigeVariable abhängigeVariable unabhäng. Variable 2 unabhäng. Variable 2 2 intervenierende Variablen intervenierende Variablen 3 Struktur eines Pfeilmodells ‚endogene‘ Variablen Gruppierungsvariable Fallgruppen unabhäng. Variable 1 abhängigeVariable Hintergrundvariablen unabhäng. Variable 2 intervenierende Variablen TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

  50. Weiterführende Möglichkeiten III: Bildung und Überprüfung von Theorien (2) • Feststellung von ‚Blindstellen‘ einer Theorie • Es wird die zu überprüfende Theorie in Gestalt einer logischen Gleichung T formuliert. • Es wird – durch Anwendung von de Morgans Rechenregeln – die Komplementärgleichung T ‘ dieser Theorie formuliert. Diese Gleichung T ‘ gibt an, was alles die zu prüfende Theorie für empirisch nicht vorkommend erklärt. • Es wird – in schon beschriebener Weise – anhand geeigneter Daten die Gleichung TDaten berechnet. • Sodann wird die Schnittmenge zwischen der Komplementärgleichung T ‘ und TDaten berechnet. • Wenn diese Schnittmenge eine leere Menge ist, hat die zu überprüfende Theorie T offenbar keine ‚Blindstellen‘. Andernfalls gibt es offenbar in der Wirklichkeit vorkommende Fälle, die sie nicht erklären kann. Also muß die Theorie T so modifziert werden, daß sie keine ‚Blindstellen‘ mehr hat. • Feststellung von ‚Fehlprognosen‘ einer Theorie • Man formuliert eine Theorie T, welche vorhersagt, bei welchen Faktorenkombinationen es zum interessierenden, vorherzusagenden Ereignis X kommen wird. • Sodann wird – in schon beschriebener Weise – anhand geeigneter Daten die Gleichung TDaten berechnet. • Anschließend wird die Komplementärgleichung zu TDaten berechnet. Diese Komplementärgleichung T ‘Datengibt an, welche Ursachenkombinationen gerade nicht zum interessierenden, vorherzusagenden Ereignis X führen. • Nunmehr wird die Schnittmenge aus T und aus T ‘Daten berechnet. • Falls diese Schnittmenge keine leere Menge ist, formuliert die Theorie T offenbar Fehlprognosen und muß entsprechend modifiziert werden. • Feststellung, ob zwei Theorien denselben Erklärungsbereich (‚die gleiche Erklärungskraft‘) haben • Häufig gibt es in der Literatur konkurrierende Theorien zur Erklärung von X, etwa T1 und T2 . • Beide Theorien formuliere man (nötigenfalls nach ihrer Klärung anhand von Pfeilmodellen) als logische Gleichungen. • Sodann berechne man die Schnittmenge beider Gleichungen. • Jene Boole‘schen Terme, welche sich gegebenenfalls in dieser Schnittmenge befinden, geben den gemeinsamen Erklärungsbereich beider Theorien an. TU Dresden – Institut für Politikwissenschaft – Prof. Dr. Werner J. Patzelt

More Related