Skip to content

Neues aus der Forschung: Wiesbadener Grundsätze vs. Freiheitsthesen – Das alte und der Entwurf zum neuen FDP-Grundsatzprogramm im Vergleich

21. April 2012

Auch wenn es erst morgen endgültig verabschiedet wird: Wir vergleichen schon heute einmal den Entwurf für das neue Grundsatzprogramm der FDP („Freiheitsthesen“) mit dem bisherigen Grundsatzprogramm von 1997 („Wiesbadener Grundsätze“). Sobald das neue Programm dann endgültig beschlossen und veröffentlicht ist, folgt eine umfassende Analyse, die dann auch einen Vergleich mit den Grundsatzprogrammen der anderen Bundestagsparteien enthalten wird.

Verständlichkeit

Bei der Verständlichkeit zeigen sich kaum Unterschiede zwischen den beiden Programmen. Die Wiesbadener Grundsätze erreichen auf dem Hohenheimer Verständlichkeitsindex einen Wert von 9,0 Punkten, der Entwurf zu den Freiheitsthesen einen geringfügig besseren Wert von 9,7 Punkten. Auch bei der ersten Wiener Sachtextformel (die ermittelt, welche Klassenstufe nötig ist, um den jeweiligen Text verstehen zu können) zeigen sich nur geringe Unterschiede: Bei den Wiesbadener Grundsätzen ergibt sich eine Klassenstufe von 12,2, bei den Freiheitsthesen eine Klassenstufe von 11,7. Die mittlere Reife reicht also für das Verständnis beider Programme nicht aus.

Im Vergleich zu den bislang von uns untersuchten Wahlprogrammen der FDP (Werte zwischen 4,6 und 7,9 auf dem Hohenheimer Verständlichkeitsindex) fallen beide Grundsatzprogramme jedoch relativ verständlich aus. Während bei den Wiesbadener Grundsätzen die Satzlänge etwas kürzer ausfällt (12,2 Wörter pro Satz vs. 11,7 Wörter pro Satz bei den Freiheitsthesen), liegt die durchschnittliche Wortlänge hier etwas höher (6,9 Buchstaben pro Wort vs. 6,6 Buchstaben pro Wort bei den Freiheitsthesen). Dies spricht für eine etwas komplexere Satzstruktur bei den Freiheitsthesen, aber gleichzeitig auch für ein – im Vergleich mit den Wiesbadener Grundsätzen – etwas leichteres Vokabular.

Dogmatismusgrad

Neben der Verständlichkeit interessierte uns auch der Dogmatismusgrad der beiden Grundsatzprogramme. Diesen kann man über das sogenannte DOTA- oder DTA-Verfahren von Ertel (1972) bestimmen. Hierfür werden bestimmte Wörter und Wortgruppe ausgezählt, die auf einen hohen bzw. niedrigen Dogmatismusgrad schließen lassen und anschließend miteinander verrechnet. So lassen beispielsweise die Wörter “immer”, “nie”, “ausschließlich” und “müssen” auf einen höheren Dogmatismusgrad schließen als die Wörter “gelegentlich”, “selten”, “auch” und “können”. Der Wertebereich des Dogmatismusgrads reicht von 0 bis 1.

Betrachtet man die Ergebnisse, so lässt sich feststellen, dass beide untersuchten Programme einen vergleichsweise hohen Dogmatismusgrad aufweisen. Zum Vergleich: Die Dogmatismusgrade bei den saarländischen Landtagswahlprogrammen lag zwischen 0,28 (CDU) und 0,44 (Piratenpartei), das FDP-Programm wies hier einen Wert von 0,34 Punkten auf. Allerdings fällt der Dogmatismusgrad des Entwurfs zum neuen FDP-Grundsatzprogramm (0,4 Punkte) etwas niedriger aus als beim Grundsatzprogramm von 1997 (0,45 Punkte).

Interessant wird sein, wie in unserer umfassenden Analyse die Dogmatismusgrade der Grundsatzprogramme der anderen Parteien ausfallen. Es ist durchaus plausibel, dass der Dogmatismusgrad bei Grundsatzprogrammen generell höher ausfällt als bei Wahlprogrammen. Denn während sich die Grundsatzprogramme v.a. an Parteimitglieder richten, zielen die Wahlprogramme auf eine breitere und damit auch heterogene Zielgruppe: die potenzielle Wählerschaft der jeweiligen Partei. Dass bei der Ansprache dieser Zielgruppe eine geringere sprachliche Verbindlichkeit angeschlagen wird, wäre aus Sicht der Parteien also durchaus rational.

Vokabular

Eine einfache und schnelle Möglichkeit, die Inhalte des alten und neuen Grundsatzprogramms zu vergleichen, ist ein Vergleich der 100 häufigsten Wörter in beiden Programmen anhand einer sog. Wordcloud oder Wortwolke (jeweils erstellt mit wordle.net). Betrachtet man die beiden Wortwolken im Vergleich, so sticht zunächst ins Auge, dass es im Programm von 1997 v.a. um „Bürger“ ging, während es 2012 v.a. um „Menschen“ geht. Auch die „Bürgergesellschaft“, die Programm von 1997 noch eine zentrale Rolle spielte,  wird im neuen Programm vergleichsweise selten erwähnt.

Das neue Leitthema und damit auch das neue Leitwort des FDP-Grundsatzprogramms von 2012 ist „Wachstum“. „Staat“  und „Verantwortung“ spielen im neuen Programm hingegen eine deutlich geringere Rolle als noch 1997. Es gibt aber auch Konstanten beim Vergleich der beiden Programme: So spielen die drei Begriffe „Freiheit“, „Liberale“ und „Gesllschaft“ in beiden Programmen eine ähnlich wichtige Rolle.

Die 100 häufigsten Wörter im FDP-Grundsatzprogramm von 1997

Die 100 häufigsten Wörter im Entwurf zum FDP-Grundsatzprogramm von 2012

Fazit: Die größten Unterschiede zwischen dem bisherigen Grundsatzprogramm und dem Entwurf zum neuen Grundsatzprogramm der FDP zeigen sich beim Vokabular. Bei Verständlichkeit und Dogmatismusgrad hingegen kommt es lediglich zu geringen Veränderungen: Die Verständlichkeit steigt im Entwurf zum neuen Grundsatzprogramm leicht an, der Dogmatismusgrad hingegen sinkt etwas. Ach ja, einen größeren Unterschied zwischen beiden Programmen stellt schließlich auch noch der bloße Umfang dar: Die Wiesbadener Grundsätze umfassen gerade einmal 10.360 Wörter, der Entwurf zu den Freiheitsthesen hingegen 14.635 Wörter. Das entspricht einer Steigerung von stolzen 41 Prozent.

Sobald die FDP ihr neues Grundsatzprogramm endgültig verabschiedet hat, werden wir Verständlichkeit, Dogmatismusgrad, Vokabular und dann auch die Themengewichtung mit dem bisherigen FDP-Grundsatzprogramm und den Programmen der anderen Bundestagsparteien vergleichen. So stay tuned… :-)

Literatur zum DOTA-Verfahren nach Ertel:

  • Ertel, Suitbert (1972): Erkenntnis und Dogmatismus. Psychologische Rundschau, Nr. 23, S. 241-269.
  • Günther, Ulrich / Groeben, Norbert (1978): Mißt Ertels Dogmatismus-Textauswertungs-Verfahren Dogmatismus? Ansätze zur Konstruktvalidierung des DTA-Verfahrens. In: Keiler, Peter / Stadler, Michael (Hrsg.): Erkenntnis oder Dogmatismus? Kritik des psychologischen “Dogmatismus”-Konzepts. Köln: Pahl-Rugenstein Verlag, S. 85-131.
  • Stadler, Michael / Huckenbeck, Bernd / Spanuth, Rudolf (1978): Erkenntnistheorie oder Dogmatismus: Validität und innere Konsistenz des DTA-Verfahrens. In: Keiler, Peter / Stadler, Michael (Hrsg.): Erkenntnis oder Dogmatismus? Kritik des psychologischen “Dogmatismus”-Konzepts. Köln: Pahl-Rugenstein Verlag, S. 210-238.
Advertisements
3 Kommentare leave one →
  1. Hans-Viktor Hoffmann permalink
    25. April 2012 20:29

    Es ist relativ einfach, sich einen oder zwei Texte vorzunehmen und zu zählen beginnen. Dazu ist ein Computer ja da. Die Originalität der Zählweise in der vorliegenden Untersuchung möchte ich damit nicht in Frage stellen.
    Ich habe mich nur gefragt, was der Grund für die Auswahl der Zählweisen ist. Die Verfügbarkeit der Verfahrensweisen? Gewisse Gewohnheiten? Oder eine Entscheidung, die etwa lautet: Alles was zählbar ist, das hat auch eine Bedeutung zu haben. Alles Andre ist sinnlos.
    Mit dem letzten Fragenteil habe ich zu einem Komplex von Auswertungsmethoden übergeleitet, der sich auf eine gewisse Finalität der Texte bezieht: Die sollten bzw bzw. sollen ja das Leben der Menschen in unserem Lande irgendwie erleichtern, verbessern oder zumindest zu erhalten trachten. Die Methoden dazu würden auf der Befragung der Adressaten beruhen. Der Fragenkomplex kann einerseits aus dem Text selbst erzeugt werden: Sind die Tatsachenbehauptungen über das Erleben und Verhalten von „Bürgern“ oder „Menschen“ denn realistisch? Andererseits kann man auch einen unabhägigen Standpunkt einnehmen: Ein Menschen oder Gesellschaftsbild oder ein Bild vom Staat (am besten als Theorie aufbereitet) und daraus mittels des Textes Fragen an die Menschen stellen.
    Die Auswertungsmethode könnte ja einen Bezug zum Verfahren der Entstehung des Textes haben – und der Text ist nicht von einem Computer konstruiert, sondern von vielen tausenden engagierten Menschen geschaffen worden. Dann sollte man diese auch befragen.
    „Sinn“ und „Zählbarkeit“ bezeichnen nicht immer die gleichen Eigenschaften eines Textes.

    Mit freundlichen Grüßen
    Hans-Viktor Hoffmann
    Der Diplom-Psychologe für
    Politik, Wirtschaft und – Musik

    • 27. April 2012 23:36

      Hallo Herr Hoffmann,

      zu Ihrem ersten Punkt „Grund für die Auswahl der Zählweisen“: Das ist relativ einfach zu beantworten. Es gibt im Grunde vier zentrale Ansätze der Verständlichkeitsmessung. Das sind:
      – Lesbarkeitsformeln (die wir verwenden)
      – Hamburger Verständlichkeitskonzept
      – Verständlichkeitskonzept von Groeben
      – Verständlichkeitsansatz von Kintsch und Kollegen

      Das Konzept von Groeben ist leider nicht praktikabel umsetzbar, hierin sind sich so gut wie alle Forscher einig, die sich mit dem Konzept befasst haben. Hinzu kommen schwerwiegende methodische Mängel. Ähnliches gilt für das Konzept von Kintsch und Kollegen. Dieses haben wir getestet und sind – wie andere Forscher auch – zu dem Schluss gekommen, dass der Aufwand enorm und der Ertrag minimal ist. Denn das Konzept erlaubt leider keine objektive bzw. intersubjektiv nachvollziehbare Messung: Unterschiedliche Messer kommen jeweils zu unterschiedlichen Ergebnissen. Ähnliches gilt wiederum für das Hamburger Verständlichkeitskonzept, das sogar explizit auf subjektiven (wenn auch geschulten) Einschätzungen beruht. Dieses Konzept mag zwar für Praktiker geeignet sein, aber leider nicht für objektive wissenschaftliche Messungen.

      Bleibt also das Konzept der Lesbarkeitsforschung mit den Lesbarkeitsformeln, das zwar das älteste von allen vier Konzepten ist, aber trotzdem nach wie vor das einzige Konzept ist, das eine objektive Verständlichkeitsmessung erlaubt (bei der jeder dasselbe Ergebnis erhält, der die entsprechenden Messvorschriften beachtet). Sie haben also recht: In gewisser Weise geht es um die Verfügbarkeit von Verfahrensweisen. Aber das ist bei wissenschaftlichen Messungen ja eigentlich immer so. Man muss als Forscher mit dem leben, was es an Messmethoden gibt. Oder versuchen, die bestehenden Methoden weiterzuentwickeln oder neue zu erfinden. Wir gehen den ersten Weg und versuchen, die Lesbarkeitsforschung, die aus unserer Sicht (aus oben genannten Gründen) nach wie vor den für die wissenschaftliche Forschung fruchtbarsten Ansatz darstellt, weiterzuentwickeln. Hierfür haben wir neue Lesbarkeitsformeln entwickelt, die teilweise die Schwäche früherer Lesbarkeitsformeln vermeiden. Das sind noch immer keine perfekten Messinstrumente, aber unsere Erfahrungen aus den bisherigen Untersuchungen bestätigen uns, dass sie relativ gut funktionieren. Denn die Übereinstimmungen zwischen unseren Experten-Analysen und den Messungen der Lesbarkeitsformeln sind immer wieder erstaunlich hoch.

      Zu Ihrer anderen Anregung: Auch da gebe ich Ihnen recht. Es ist sinnvoll, diejenigen zu befragen, die für die Programme verantwortlich sind. Das haben wir auch bereits getan. Demnächst wird ein Aufsatz von Herrn Brettschneider und mir zur Verständlichkeit von Wahlprogrammen erscheinen, der auch die Ergebnisse einer Parteimitglieder-Befragung enthält. Zudem haben wir uns schon häufiger mit Politikern über die unterschiedlichen Problemstellungen beim Entstehen von Wahl- und Grundsatzprogrammen ausgetauscht und sind uns natürlich bewusst darüber, dass hier noch andere Dinge beachtet werden müssen als nur die Verständlichkeit (insbesondere parteiinterne Abstimmungsprozesse und Kompromisse spielen hier natürlich eine wichtige Rolle). Aber das ändert aus unserer Sicht trotzdem nichts daran, dass die Verständlichkeit der Wahlprogramme ein wichtiges und hohes Gut bleibt, das man bei aller berechtigten parteiinternen Abstimmung nicht aus den Augen verlieren sollte. Denn schließlich haben Wahlprogramme sehr vielfältige und wichtige Funktionen, die zum Großteil darauf aufbauen, das sie auch verstanden werden können. Auch auf diese Problematik gehen wir in dem bald erscheinenden Aufsatz zu den Wahlprogrammen ausführlicher ein. Falls Sie dieser Aufsatz interessieren sollte, der Titel lautet: „Wahlprogramme als Pflichtübung? Typen, Funktionen und Verständlichkeit der Bundestagswahlprogramme 1994-2009.“ (von Jan Kercher & Frank Brettschneider). Der Aufsatz wird in einem Sammelband zur Bundestagswahl 2009 (vermutlich unter dem Titel „Wahlen und Wähler: Analysen zur Bundestagswahl 2009“) im VS Verlag erscheinen, Herausgeber sind Oscar W. Gabriel, Bernhard Weßels und Jürgen W. Falter.

Trackbacks

  1. Neues aus der Forschung: Länge, Verständlichkeit und Dogmatismusgrad der Grundsatzprogramme der deutschen Parteien (Teil 1) « campaignwatchers.de

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: