• Aucun résultat trouvé

Im Dialog mit den Daten das eigene Erzählen der Geschichte finden. Über die Kodierverfahren der Grounded Theory Methodologie

N/A
N/A
Protected

Academic year: 2021

Partager "Im Dialog mit den Daten das eigene Erzählen der Geschichte finden. Über die Kodierverfahren der Grounded Theory Methodologie"

Copied!
27
0
0

Texte intégral

(1)

Im Dialog mit den Daten das eigene Erzählen der Geschichte finden.

Über die Kodierverfahren der Grounded-Theory-Methodologie

1 Charles Berg & Marianne Milmeister

Zusammenfassung: Kodierverfahren in der Grounded-Theory-Methodologie (GTM) sind das Thema des vorliegenden Beitrags. Ziel ist die Verbesserung der Kodierpraxis und die Explizierung unterschiedlicher Grundannahmen der GTM. Besonders betont wird sowohl die Notwendigkeit eines Dialogs mit den Daten als auch die Entwicklung einer Storyline.

Ausgangspunkt des Beitrags ist die allgemeine Beschreibung des Kodierens, der dann eine Diskussion der verschiedenen Kodieretappen (offenes, axiales beziehungsweise theoretisches und selektives Kodieren) folgt. Abschließend wird das Bild eines reflektiv-interpretativen Umgangs mit der GTM entworfen.

Inhaltsverzeichnis

1. Qualitative Verfahren in der Methodenlehre und im Forschungsprozess 2. Eine erste Annäherung ans Kodieren

2.1 Was ist Kodieren?

2.2 Minimalia der qualitativen Kodierarbeit

2.3 Kodieren und die Methode des permanenten Vergleichs 3. Hierarchisch-iterative Etappen des Kodierprozesses

3.1 Zitatauswahl und Textsegmentierung 3.2 Offenes Kodieren

3.3 Axiales Kodieren 3.4 Selektives Kodieren

4. Für eine flexible und reflexive Praxis der Grounded-Theory-Methodologie Literatur

Zum Autor und zur Autorin Zitation

1 Dem Text liegt ein Paper (BERG & MILMEISTER 2000) zugrunde, das ursprünglich in einem vom Luxemburger Forschungsministerium finanzierten Projekt (R&D) entstanden ist. Wir bedanken uns sehr herzlich bei Günter MEY und Katja MRUCK, die die Überarbeitung und Veröffentlichung des Textes bei einem ZUMA-Workshop zur Grounded-Theory-Methodologie in Mannheim angeregt und kritisch begleitet haben. Gaston STOOS danken wir dafür, dass er, wie so oft schon, die Aufgabe des Korrekturlesens übernommen hat. Eine erste Fassung dieses Beitrags ist gedruckt im HSR-Supplement 19: "Grounded Theory Reader" (MEY & MRUCK 2007) erschienen und wurde für diese Veröffentlichung in FQS durchgesehen und überarbeitet.

Keywords:

Grounded-Theory- Methodologie, Kodierverfahren, qualitative Methoden, Storyline

(2)

1. Qualitative Verfahren in der Methodenlehre und im Forschungsprozess

Die Unterscheidung von qualitativen und quantitativen Verfahren gehört heute zum Grundbestand sozialwissenschaftlicher Methodenlehre. Bemüht werden dabei die unterschiedliche Datenqualität und – auf Seiten qualitativer

Sozialforschung – die größere Nähe zur subjektiven Erfahrung und zur sozialen Lebenswelt, die Präferenz für natürliche, weniger artifizielle

Erhebungssituationen, die stärkere Kontextualisierung und die deutliche Orientierung an alltagsweltlichen Handlungs- und Sinnzusammenhängen (z.B.

BREUER 2000; MRUCK & MEY 2005). Mehr oder minder unausgesprochen wird dabei unterstellt, dass sich die aufgelisteten Attribute zu einem paradigmatischen Muster zusammenfügen, das eine dichotome Gegenüberstellung der "Natur" (vgl.

BRYMAN 2001, S.61 und 263) von quantitativer und qualitativer Forschung erlaubt. Nathaniel GAGE (1989) spricht gar von "Paradigmenkriegen". Was sich in der Methodentheorie eher plausibel anhört, erweist sich in der praktischen Forschungsarbeit als kaum brauchbar. Hier wird es wichtig, zu strikte oder zu simple Polarisierungen zu vermeiden. Martyn HAMMERSLEY (1992, S.80) hat zurecht darauf hingewiesen, dass die lehrbuchhafte Opposition von quantitativem und qualitativem "Paradigma" sich oft auf ein Bündel unabhängiger Dimensionen bezieht, d.h. ein Forschungsdesign kann z.B. mit quantitativen Daten arbeiten und dennoch in der Interpretation die Nähe zur lebensweltlichen Erfahrung

suchen. Das Vorhandensein eines Attributs impliziert also nicht notwendigerweise auch das der übrigen Theoriekennzeichen. Dabei lässt die zunehmende

Verbreitung qualitativer Sozialforschung die These einer Paradigmendichotomie immer unwahrscheinlicher erscheinen, und allmählich wird die Kluft zwischen quantitativem und qualitativem Arbeiten zumindest partiell überwunden (vgl.

BRYMAN 2001, S.427ff.). [1]

Praxis- und handlungsrelevante Theorien entsprechen einem gemeinsamen Erkenntnisanspruch, unabhängig davon, wie sie generiert wurden (vgl. zur Diskussion über die Integration qualitativer und quantitativer Analyse etwa MAYRING 2002; ROST 2005). So kann z.B. gefragt werden, wie Kohärenz und Reichweite auf der einen und Überprüfbarkeit und Verlässlichkeit auf der anderen Seite durch das methodische Vorgehen, sei es qualitativer oder quantitativer Natur, abgesichert werden. Trotz unterschiedlicher Forschungsstile bleibt es in der Regel wichtig, in Bezug auf den eigenen Kontext sinnvolle Fragen zu stellen, die Datenerhebung und -auswertung in Bezug auf Genauigkeit und

Objektadäquanz, sowie die entwickelten Theorien in Bezug auf ihre Ökonomie, Relevanz und Nachvollziehbarkeit hin zu verbessern. [2]

Um diesem allgemeinen Qualitätsanspruch zu entsprechen, muss der Weg der Wissensproduktion von der Fragestellung zur Theorie intersubjektiv

nachvollziehbar bleiben. Daraus ergibt sich, dass die angewandten Verfahren möglichst genau beschrieben und so überdacht werden, dass sie nachprüfbar bleiben. Man entfernt sich von einer "naturwüchsigen" Alltagsinterpretation, indem man versucht, sie so gut wie möglich zu kontrollieren (HITZLER & HONER 1997, S.12). Gleichzeitig muss auf der anderen Seite eine zu rigide

(3)

Hypostasierung des Analyseverfahrens, ein Verkommen zum schlichten Rezept, vermieden werden. Nur so kann nämlich jene Flexibilität gewährleistet werden, die es erlaubt, gerade offenes, komplexes und vielfältiges Material angemessen zu bearbeiten: eine Beschaffenheit des Materials, die sich u.a. daraus ergibt, dass die anfängliche Komplexitätsreduktion beim qualitativen Arbeiten weit geringer ist als bei den meisten quantitativen Verfahren. Qualitative Forschung braucht deshalb Spielraum für die Empfindlichkeit, die "Kunst" und die

theoretische Intuition des Interpreten bzw. der Interpretin, und gibt so der soziologischen imagination2, der theoretical sensitivity3 eine größere Chance. [3]

Das eben angesprochene Problem verstärkt sich im Rahmen der Grounded- Theory-Methodologie (GTM). Das liegt daran, dass das Verhältnis einer grounded theory zur empirischen Realität durch eine Doppelbewegung gekennzeichnet ist. Einerseits soll der Prozess der Generierung theoretischer Hypothesen auch empirisch fundiert erfolgen, den Daten kommt also größere Bedeutung zu, Theorie wird im direkten Kontakt mit ihnen entwickelt.

Andererseits sollen aber empirische Gegenstände nicht in ihrer Einzigartigkeit beschrieben werden. Das zentrale Anliegen ist nämlich gar nicht die

Beschreibung, sondern die Konzeptionalisierung (GLASER 2001, S.9ff.). So bekommt das eigene Sprechen der Interpretinnen und Interpreten in einem verstärkten Maße sein Recht, und die "Macht" der Daten wird eingeschränkt.

Dadurch liegt der GTM eine für das hermeneutische Arbeiten charakteristische Konfliktfigur zugrunde, die Spannung von Nähe und Distanz, von Vertrautheit und Fremdheit. Die Konfrontation mit der Subjektivität des oder der Anderen ist so von zwei widersprüchlichen Momenten gekennzeichnet: dem Anspruch, ihn oder sie zu verstehen, als wäre er/sie ein Alter Ego, und dem Wissen um die Opazität des Anderen oder zumindest um dessen plurale Wahrheit. [4]

Der folgende Beitrag ist dem Kodieren gewidmet. Im Blickpunkt steht dabei weniger die epistemologische und methodologische Unterfütterung (vgl. hierzu etwa KELLE 1995; STRÜBING 2004) oder die prozedurale Beschreibung von Verfahren, wie sie bei STRAUSS und CORBIN (1990) zu finden sind. Wir möchten vielmehr zeigen, wie in der praktischen Forschungsarbeit dem

doppelten Anspruch auf Nachvollziehbarkeit und Offenheit zu genügen, wie die Verbindung von Systematik und Kreativität zu leisten ist. Das bedeutet kein rewriting der GTM (vgl. dazu GLASER 2001, S.201ff.). Unser Hauptziel ist, a) die Kodier- und Auswertungspraxis zu verbessern und b) das eine oder andere implizit in der GTM angelegte Moment deutlicher zu machen. Dabei liegt uns daran, auch zu zeigen, wie die alltäglichen kleinen Entscheidungen getroffen werden können, aber auch, wie mit Unwägbarkeiten und Unsicherheiten im Forschungsprozess umgegangen werden kann. Unsere Grundthese ist, dass entsprechend dem Anspruch der GTM in allen Teilschritten des Kodierprozesses,

2 "The sociological imagination enables its possessor to understand the larger historical scene in terms of its meaning for the inner life and the external career of a variety of individuals" (MILLS 1959, S.5).

3 "The grounded theory researcher must have an integrative ability, a summary ability, and a connective ability. He must have a social organization, social structural and interactional perspective with theoretical meanings in order to help him use theoretical codes with grounded control" (GLASER 1995, S.13; vgl. auch GLASER 1978).

(4)

wenn auch in unterschiedlicher Form, der Doppelbezug aufrechterhalten werden soll, einerseits zum Dialog mit den Daten (BECKER 1998, S.109) und

andererseits zum Herausschälen des eigenen Erzählens der Geschichte (STRAUSS & CORBIN 1990, S.119-121). [5]

Hintergrund unserer Überlegung ist dabei die Forschung am Centre d’études sur la situation des jeunes en Europe, dem Luxemburger nationalen

Jugendforschungsinstitut. Hier sind seit dem Jahre 2000 eine Reihe von Projekten durchgeführt worden, die entweder qualitative Analyseverfahren anwandten oder sich explizit auf die Grounded-Theory-Methodologie bezogen.

Rückblickend kann man sagen, dass wir einerseits aus allen Projekten gelernt haben, keines aber andererseits unserem derzeitigen methodologischen Anspruch genügt.4 Unser Text versteht sich also als Reflexion unserer Forschungspraxis und der in ihr gewonnenen Erfahrungen. Er ist kaum eine Anleitung zum Kodieren, denn Königswege zum Kodierenlernen, die kaum durch eine papierene Beschreibung von Verfahren und auch nicht durch Workshops ersetzt werden können, sind unserer Erfahrung nach die langfristige Arbeit mit einem Mentor oder einer Mentorin, die Arbeit in einem Forschungsteam mit komplementären Kompetenzen und Sensibilitäten und der Austausch in einem Netzwerk.5 [6]

4 Ein erstes Projekt bezog sich auf die Mobilität von Jugendlichen im grenzüberschreitenden regionalen Raum um Luxemburg. Datenmaterial waren Leitfadeninterviews mit Jugendlichen und Jugendexpert(inn)en. Das Projekt befasste sich mit der Fragestellung, wie die Öffnung der Grenzen und die damit einhergehende Steigerung der Mobilität der Jugendlichen sich als Sozialisationsfaktoren auswirken können. Ein zweites Projekt hatte als Thema die Freiwilligenarbeit Jugendlicher (vgl. MEYERS 2006). Hier bestand das Datenmaterial in Experteninterviews und Gruppendiskussionen. Wir gingen dabei der Frage nach, was Freiwilligenarbeit für Jugendliche ist, was sie für deren Sozialisation bedeutet und was deren Motive für die Freiwilligenarbeit sind. Ein weiteres Projekt befasste sich mit den Jugendlichen im öffentlichen, städtischen Raum (BERG, MILMEISTER & SCHOOS 2005). Wir arbeiteten hier mit Experteninterviews, Gruppendiskussionen und Feldprotokollen. Zwei Fragen standen in diesem Projekt im Mittelpunkt: welches problematische Verhalten Jugendlicher gibt es im öffentlichen Raum der Stadt Luxemburg und mit welchen Lösungsansätzen kann darauf reagiert werden. Im Jugendkommunalplan (WILLEMS, JOACHIM, MEYERS, MILMEISTER & WEIS 2004) der Stadt Luxemburg haben wir eine Sozialraumanalyse, Experteninterviews, Gruppendiskussionen mit Jugendlichen und eine Telefonumfrage durchgeführt. In dem Projekt ging es in erster Linie um das Freizeitverhalten der Jugendlichen, aber auch z.B. um deren Bewertung von

Freizeitinfrastrukturen, Wohnvierteln usw. Auch in einigen Evaluationsprojekten wurden qualitative Verfahren angewandt (JOACHIM 2005). Eine unserer letzten Analysen bezog sich auf die Kurzkommentare, die Teil einer Fragebogenerhebung zu Gesundheit und Wohlbefinden bei Jugendlichen waren (BERG, MEYER & MILMEISTER 2006).

5 Eine negative, wenn leider auch verbreitete Praxis besteht darin, an Survey- oder

experimentelle Studien einen "Grounded-Theory-Teil" anzuhängen, ohne dass in der jeweiligen Forschungseinrichtung die notwendigen methodologischen Voraussetzungen erfüllt und aufgebaut worden wären. In der Folge besuchen dann Doktoranden und Doktorandinnen verzweifelt Grounded-Theory-Workshops in der unrealistischen Hoffnung, hier alles für die alltägliche Forschungsarbeit Erforderliche in ein oder zwei Tagen erlernen zu können.

(5)

2. Eine erste Annäherung ans Kodieren

2.1 Was ist Kodieren?

Im Bereich der qualitativen Methoden Begriffe eindeutig definieren, ist nicht immer einfach, da sich allein schon die Grounded-Theory-Methodologie heute als geschichteter methodologischer Kanon präsentiert. Die Aussage, man wende GTM an, hat also nicht die gleiche Genauigkeit wie z.B. die Referenz auf ein etabliertes statistisches Verfahren zur Signifikanzprüfung. Um halbwegs genau zu sein, muss mindestens GTM auf dem "Discovery-Niveau" (GLASER &

STRAUSS 1967) unterschieden werden von den späteren Fassungen von STRAUSS (1987), von STRAUSS und CORBIN (1990) und von GLASER (1992, 1998). Hinzu kommen Second-Generation-Modelle, individuelle Anpassungen im Rahmen spezifischer Forschungsprozesse (vgl. GLASER 2001, S.211-229) und sicher auch Verfahrensmodellierungen, wie sie durch QDA-Software (vgl.

WEITZMAN & MILES 1995), in unserem Falle vor allem ATLAS.ti, vermittelt werden. Dennoch stehen die unterschiedlichen GTM-Varianten nicht beliebig zur Auswahl. Das Studium der GTM kann sich deshalb nicht auf das Erlernen einer Verfahrensvariante reduzieren, sondern setzt eine breitere Auseinandersetzung mit der Literatur zur GTM voraus. Nur durch die interpretative Aufarbeitung der vierzigjährigen Geschichte des Ansatzes (vgl. LAROSSA 2005) wird

nachvollziehbar, was den gemeinsamen Grundstock der GTM ausmacht. Unsere Überlegungen zielen nun nicht darauf, eine zusätzliche Variante des

Kodierverfahrens zu entwickeln, sondern wir wollen explizieren, wie sich der für die GTM charakteristische doppelte Anspruch auf Systematik und Offenheit in der Kodierpraxis verwirklichen lässt.6 [7]

Unter Kodieren verstehen wir in einer ersten Annäherung das Zuordnen von Schlüsselwörtern zu einzelnen Textstellen. Diese Schlüsselwörter werden Kodes oder Kategorien genannt. Kode und Kategorie7 sind nicht bedeutungsgleich, dennoch sind die Übergänge zwischen beiden Begriffen fließend. In der Regel ist

6 Es mag hilfreich sein, zum Verständnis und für Relativierungen der folgenden Ausführungen einige Stationen unseres eigenen Weges offenzulegen. Wir begannen im Jahre 2000 in einer Forschungsgruppe, die heute zwölf Personen umfasst, uns mit qualitativen Methoden der Sozialforschung zu beschäftigen. Ein Teil der Gruppe zeigte dabei besonderes Interesse an der GTM. Am Anfang stand die Lektüre beziehungsweise die Wiederlektüre des Discovery-Buches aus dem Jahre 1967 (GLASER & STRAUSS 1967). Damit fehlte aber immer noch eine konkrete Handlungsanleitung, und wir stießen sehr schnell auf STRAUSS und CORBIN (1990), auf STRAUSS (1987) und auf ATLAS.ti, dessen Programmstruktur in starkem Maß der Grounded- Theory-Methodologie entspricht. Wir machten dann die Erfahrung des Steckenbleibens. Wir kamen oft aus unterschiedlichen Gründen über das Kodieren nicht hinaus. Die

Konzeptualisierung, die zentrale Kategorie festzulegen, eine kohärente, nicht beliebige Geschichte zu erzählen, bereiteten uns Schwierigkeiten. Wir waren deshalb insgesamt eher unzufrieden mit den eigenen Arbeiten. Die Lektüre von DEY (1999), der einen interpretativen Zugang zur GTM sucht, hatte eine befreiende Wirkung und gab uns eine gewisse

Selbständigkeit und Leichtigkeit zurück. Wir relativierten dann besonders das axiale Kodieren bei STRAUSS und CORBIN durch die späten Arbeiten von GLASER (1992, 1995, 1998, 2001).

Die Teilnahme an den Grounded Theory Sessions mit Barney GLASER beim 37. Weltkongress des International Institute of Sociology in Stockholm im Juli 2005 und die Teilnahme an einem Workshop mit Günter MEY und Katja MRUCK beim Mannheimer Zentrum für Umfragen, Methoden und Analysen (ZUMA) haben uns dann zur reflexiven Arbeit an der GTM weiter angeregt. Unser Hauptziel ist dabei die Verbesserung der eigenen Forschungspraxis.

7 Vgl. allgemein zur Frage der Kategorisierung MUCKEL (2007).

(6)

ein Kode datennah, er ist an eine Textstelle angeknüpft, eine Kategorie hingegen ist Bestandteil der zu entwickelnden Theorie. Kodes8 und Kategorien

unterscheiden sich demnach durch ihre Reichweite: der Kode ist eine engere Kategorie, die Kategorie ein Oberbegriff, der mehrere Kodes zusammenfasst.

Beide Begriffe weisen darüber hinaus eine unterschiedliche interne Struktur auf.

Ein Kode ist im Wesentlichen eine Begriffsassoziation zu einer Textstelle, eine Kategorie hingegen hat ein komplexeres "Innenleben". Nach STRAUSS und CORBIN (1990, S.150) setzt sie sich aus Eigenschaften zusammen, die ihrerseits wieder unterschiedliche dimensionale Merkmalsausprägungen annehmen

können. Die Anreicherung der Kategorie geschieht durch die Klassifikation von Ähnlichkeiten und Unterschieden.9 Umso weiter die Datenanalyse fortschreitet, desto stärker entwickelt sich nach unserer Erfahrung der kategoriale Charakter der Kodes. Nach unserer Logik, die wir weiter unten ausführlicher entwickeln werden, entspricht ein Kode der Rezeption des Datentextes, eine Kategorie dem Versuch des eigenen konzeptuellen Sprechens. Es ist wichtig, während des Kodierprozesses diese Doppelreferenz aufrecht zu halten, weil sie gerade das forcing in der Kategorienbildung verhindert und die emergence fördert (vgl. zu emergence vs. forcing und zur Differenz zwischen GLASER und STRAUSS:

GLASER 1992, BOYCHUK DUCHSCHER & MORGAN 2004). Udo KELLE (2005, Absatz 19ff.) hat deutlich gemacht, dass die Opposition zwischen STRAUSS und GLASER relativiert werden kann. Forcing sollte sicher soweit wie möglich

vermieden werden, umgekehrt übersieht die ausschließliche Berufung auf die Begriffsemergenz die Unumgehbarkeit von theoretischem Vorverständnis, bleibt aber ebenso problematisch. KELLE verweist deshalb auf Abduktion, auf

Falsifizierbarkeit und die Notwendigkeit der Untermauerung, alles Aspekte, welche die von uns vertretene Doppelreferenz als plausibel erscheinen lassen. [8]

Der Kode- und Kategoriebegriff, aber auch das Verhältnis von forcing vs.

emergence sind abhängig vom jeweils zugrunde liegenden Theorieverständnis.

Das Theoriekonzept im Discovery-Buch hat einen sehr statischen Charakter. Eine Theorie besteht nach GLASER und STRAUSS (1967, S.35) aus "conceptual categories", "their conceptual properties" und "generalized relations among the categories and their properties". Dem hingegen würde es der Polemik gegen die grand theory und dem impliziten Anspruch auf Demokratisierung der

soziologischen Erkenntnis anstehen, den narrativen Charakter von Theorie anzuerkennen. GTM steht nämlich tatsächlich in einem

wissenschaftsgeschichtlichen Kontext, in dem der Rückgriff auf das Erzählen10 als notwendig anerkannt und selbst der naturwissenschaftliche

8 Wir gebrauchen den Kode-Begriff in Anlehnung an ATLAS.ti. Bei STRAUSS und CORBIN (1990, S.61) wird concept synonym zu unserem Kode-Begriff gebraucht. Sie sprechen dann in Bezug auf das Kodieren auch von "conceptualizing data"(S.63) und unterstreichen damit, dass es weniger um Zusammenfassung des Datenmaterials als um ein konzeptionelles Aufbereiten der Daten geht. DEY (1999, S.129) hingegen findet den Terminus Kode vollkommen unpassend und schlägt vor, ganz auf ihn zu verzichten.

9 Die Arbeiten zur Kategorisierung aus dem Bereich der kognitiven Wissenschaft (z.B. LAKOFF 1987) wurden im Bereich der GTM, außer bei DEY (1999, S.76-86, 254-255 u.a.) leider nicht rezipiert. Dennoch würde dieser Ansatz gerade eine lebenswelt- und alltagssprachnahe Kategorienbildung unterstützen; auf Besonderheiten und Einschränkungen der Verbindung von GTM und Metaphernanalyse weist Rudolf SCHMITT in seinem Diskussionsbeitrag auf der Mailingliste Qualitative Sozialforschung (QSF-L) hin (siehe: http://lists.spline.inf.fu- berlin.de/mailman/htdig/qsf_l/2006-August/001208.html).

(7)

Wissenschaftsprozess als narrativ gesehen wird11. Diese Verbindung wird insofern anerkannt, als GLASER und STRAUSS (1967, S.251-257) ausdrücklich den Zusammenhang von wissenschaftlicher Erkenntnis und persönlicher Einsicht und STRAUSS und CORBIN (1990, S.119-121) die Bedeutung der storyline betonen. Die GTM leistet in dieser Hinsicht einen wichtigen Beitrag zur Evolution der Grammatik des wissenschaftlichen Befundes, die Immanuel WALLERSTEIN (2004, S.183ff.) später gefordert hat. [9]

Beim Lesen und Glossieren von Textdaten (in unserem Fall Interview- und Gruppendiskussionstranskripten) können idealtypisch verschiedene

Kodieroperationen unterschieden werden, die zueinander in einem hierarchischen Verhältnis stehen, sich aber in der praktischen Arbeit oft vermischen und

überschneiden. Das Kodieren in der qualitativen Datenanalyse hat, oberflächlich betrachtet, wenig zu tun mit dem Kodieren z.B. eines standardisierten

Fragebogens. Während es dort um das möglichst reliable Zuordnen von vordefinierten und operationalisierten Variablenwerten zu Merkmals-

ausprägungen geht, kommt es hier auf eine eher interpretative und heuristische Erschließung von vorerst nur als Annäherungswerten verstandenen Kategorien im Dialog mit den empirischen Daten an. Speziell auf die Grounded-Theory- Methodologie bezogen gilt, dass die Distanz zwischen qualitativen und quantitativen Kodierverfahren größer oder geringer ist, je nachdem, ob

ausschließlich ein interaktionistisches Verständnis zugrunde gelegt wird oder ob auch die Wurzeln in den mathematischen Modellen freilegt werden, wie sie im Zusammenhang mit der index formation an der Columbia University u.a. von Paul F. LAZARSFELD gelehrt wurden (GLASER 1998, S.22f.). Mehrere beobachtbare Sachverhalte ergeben dabei die Dimensionen, anhand derer ein nicht

beobachtbares (latentes) Konstrukt gemessen wird. In beiden soll durch den Oberflächengehalt eines Textes oder einer Beobachtung hindurch zu tieferen Sinn- und Bedeutungsschichten gestoßen werden, beide Male ist deshalb die dialogische Verbindung von Hinwendung zum Anderen und Durchsetzung des eigenen Sprechens zentral. Aus ihm ergeben sich auch die Vorläufigkeit des Kategorialen und die damit verbundene Endlosigkeit des Analyseprozesses.

Kategorien werden zuerst immer tentativ gebraucht, zum Probieren sozusagen.

In der Art eines guten Schuhverkäufers sagt Anselm STRAUSS (1991, S.467):

"Let’s just try it on for size." Saturierung (GLASER & STRAUSS 1967, S.111) bleibt deshalb auch immer ein relativer Begriff. Beendet ist die Analyse, die unendlich fortgesetzt werden könnte, nur vorläufig unter einem nach den Forschungsinteressen der Interpretinnen und Interpreten ausgewählten Analyseaspekt. [10]

10 Vgl.: "Il n' est donc pas exclu que le recours au narratif soit inévitable; pour autant du moins que le jeu de langage de la science veuille la vérité de ses énoncés et qu’il ne puisse pas la

légitimer par ses propres moyens [Es ist als nicht ausgeschlossen, dass der Rekurs auf das Narrative unvermeidlich ist, insofern zumindest als das Sprachspiel der Wissenschaft die Wahrheit seiner Aussagen beansprucht, ohne sie durch eigene Mittel legitimieren zu können]"

(LYOTARD 1979, S.49; Übersetzung C.B/M.M.).

11 Vgl.: "The process of science making is narrative" (BRUNER 1996, S.126).

(8)

2.2 Minimalia der qualitativen Kodierarbeit

Aus den beiden Bildern vom permanenten Dialog mit den empirischen Daten und von der Suche nach dem eignen Erzählen ergeben sich einige Minimalia der Kodierarbeit. Grundlage des Kodierprozesses ist die Unterscheidung zwischen Primärdokument12, Historiker und Historikerinnen würden vielleicht "Quelle"

sagen, das die Daten enthält, und dem Kode, der die Daten

beschreibt/kommentiert. Die Primärdokumente müssen nicht unbedingt einer einzigen Dokumentsorte angehören. Nach dem GLASER-Prinzip "All is data"

(GLASER 2001, S.145) ist es durchaus möglich, unterschiedliche Genres zu mischen. Primärdokumente repräsentieren das Sprechen der/des Anderen. Die Unterscheidung von Primär- und Sekundärdokument13 muss nicht starr und unüberwindlich gesehen werden, es können auch eigene Memos, also ursprüngliche Sekundärdokumente, in einer reflexiven Schleife als

Primärdokumente behandelt werden. Das eigene Sprechen kann in der zeitlichen Distanz fremd werden. [11]

Die Dichotomie von primär vs. sekundär, auch wenn sie relativiert werden kann, öffnet auf alle Fälle einen doppelten Referenzhorizont. Das Primärdokument steht demnach im Zusammenhang mit zwei Kommunikationssituationen: der Produk- tionssituation, in der das Primärdokument entsteht, und einer nachträglichen Rezeptionssituation, in der das Primärdokument gelesen wird. Im Spiel sind also immer mindestens zwei Rollen: Respondent(in) und Forscher(in), Produzent(in) und Rezipient(in), Ego und Alter. Wissen entsteht aus der Beziehung.

Begegnung ist die Grundlage der Konzeptualisierung. Es gilt, was Jessica H.

DAVIS von der ästhetischen Kommunikation sagt: Im Mittelpunkt steht eine wenn auch indirekte "conversation of two active meaning-makers, the producer and the perceiver", und beide spielen "a pivotal role" (LAWRENCE-LIGHTFOOT & DAVIS 1997, S.29), denn es geht um die Koproduktion von Bedeutung. LYOTARD (1979, S.39) verweist darauf, dass die Selbstlegitimierung des Erzählers darin besteht, sich als Zuhörer(in) der Geschichte auszuweisen. Aus der eigenen Perspektive rekonstruiert der Interpret/die Interpretin die subjektiven

Perspektiven, die Lebenswelten der Anderen. Im hermeneutischen Prozess wird in der GADAMERschen Formulierung die Gewinnung des Auslegungshorizontes zur Horizontverschmelzung (vgl. GADAMER 1965, S.375). [12]

Der Kodierprozess ist schließlich seinem dynamischen Annäherungscharakter entsprechend iterativ-hierarchisch angelegt. Er wird wiederholt und kommt dabei der Entdeckung einer storyline und der Ausformulierung einer Theorie allmählich näher. Diese Struktur wird oft im Bild der Spirale wiedergegeben (z.B. DEY 1999). Es können dabei, wie wir es in Anlehnung an STRAUSS und CORBIN (1990, S.57-194) auch tun, verschiedene Kodierungsprozeduren unterschieden

12 Wir übernehmen den Begriff aus der ATLAS.ti-Software, wo primary document neben quote, code und memo eines der Programmobjekte darstellt.

13 Wir denken aber auch an die literaturwissenschaftliche Unterscheidung von Primär- und Sekundärliteratur. Der Unterscheidung haftet eine gewisse Beliebigkeit an, und man könnte auf sie verzichten oder sie als eine Art veränderbare Rollenverteilung in der Inszenierung der Interpretation lesen. Der Veränderung der Rollen entspricht dann der Wechsel eines Textes von der Gattung der Primärdokumente in die der Memos.

(9)

werden, die aber nicht klar voneinander getrennt sind und die auch nicht zeitlich voneinander abgegrenzte Etappen der Datenanalyse darstellen. Die Hierarchie kommt u.a. dadurch zustande, dass der Lektüreprozess vonseiten der Lesenden mehr oder weniger aktiv sein kann. Das Vermischen der hierarchischen

Kodiertypen entspricht dem Vorgehen des "theoretical sampling" (GLASER &

STRAUSS 1967, S.45-49), das bei der qualitativen Analyse Datenerhebung, Datenlektüre, Datenreduktion und Theoriebildung nicht voneinander abschottet, sondern in Schleifen miteinander verbindet. Charakteristisch ist in dieser Hinsicht, dass der Prozess der Datenreduktion schon beginnt, während man noch dabei ist, Daten zu erheben, die Datenerhebung ihrerseits aber auch während der Analyse fortgesetzt wird. [13]

2.3 Kodieren und die Methode des permanenten Vergleichs

Das Kodieren erlaubt den ständigen Vergleich von Fällen, Phänomenen und Konzepten, und so können die Fragen, die an den Text gestellt werden, allmählich verfeinert werden. Kodieren steht also auch in einem direkten Zusammenhang mit der komparativen Methode (GLASER & STRAUSS 1967, S.101-116). Theorie wird dementsprechend verstanden als fortlaufender Prozess der Theoriediskussion und -modifikation. Sie bietet in dieser Hinsicht weniger Lösungen von Problemen und gibt eigentlich keine abschließenden Antworten, sondern liefert komplexere Konzepte, die gerade dazu dienen, neue Fragen und Probleme zu formulieren, über die es wert ist nachzudenken und deren Analyse so überhaupt erst möglich wird. Dies macht auf alle Fälle deutlich, dass die Analyse, wie sie im Rahmen der GTM praktiziert wird, nicht für alle möglichen Fragestellungen gleich adäquat ist. Sie eignet sich kaum für experimentelle Designs (Vergleich von Treatmentgruppe und Kontrollgruppe) und auch nicht zur Untersuchung eindeutig linear-kausaler Zusammenhänge. Sie ist aber besonders dann angemessen, wenn es darum geht, alltägliche Sinnkonstitutionsprozesse als Ausgangspunkt geistes- und sozialwissenschaftlicher Theoriebildung zu nutzen, wenn die Forschenden bereit sind und wenn es darauf ankommt, dem/der Anderen zuzuhören. [14]

3. Hierarchisch-iterative Etappen des Kodierprozesses

3.1 Zitatauswahl und Textsegmentierung

Auf der untersten Stufe geht es lediglich darum, Textstellen zu identifizieren, die relevant sind für die bearbeitete Fragestellung. Der Datenkorpus wird in

Teileinheiten aufgegliedert und die Datenstücke, mit denen weitergearbeitet werden soll, werden bestimmt. Diese Teileinheiten, Textausschnitte, werden Textsegmente oder Zitate (quotations) genannt. Der Ausdruck Textsegment stellt die Operation objektiver dar, als sie schlussendlich ist. Der Begriff Zitat macht deutlich, dass es sich um ein Sprechen auf zwei Ebenen handelt. Ein Ausschnitt des Interviewtexts wird von den Forschenden in ihrem Sprechen wiederholt, zitiert. Die doppelte Terminologie ist auch hier ein Symptom der doppelten Referenz, auf die Daten und auf das eigene Erzählen. Wichtig ist, dass der Unterschied zwischen den beiden Perspektiven, zwischen "Er/sie sagt …" und

(10)

"Ich erzähle, dass er/sie sagt …", den Interpretinnen und Interpreten bewusst bleibt. [15]

Das Bild von dem doppelten Sprechen fungiert als epistemologisches Klärungsmoment. Es erlaubt den tiefenstrukturellen Zusammenhang von qualitativ-heuristischem und quantitativ-verifikatorischem Kodieren zu

verdeutlichen. Zu dem Sprecher/der Sprecherin oder den Sprechenden, die den Korpus generiert haben, steht der Dateninterpret oder die Dateninterpretin in einem dialogischen Verhältnis. Sie lesen so, wie sie auch andere Text lesen würden und versuchen, den Sinn zu verstehen. Im Blickpunkt steht also das Verstehen des Handlungssinns, nicht die Rekonstruktion oder gar Zuweisung von A-tergo-Ursachen (HITZLER 2003, S.297). Dabei sind die Interpret(inn)en

selbstverständlich sowohl auf die Daten als auch auf das eigene Vorverständnis angewiesen. Die Theoretisierung ergibt sich aus einem ständigen Hin und Her von Frage und Antwort. Das Verschweigen der Interaktion von

Beobachter/Beobachterin und Objekt kommt gar nicht in Frage, da sie gerade das "Theater" darstellt, vor dessen Hintergrund Erkenntnis entsteht (vgl. MRUCK

& BREUER 2003, Absatz 9f.). Die Komplexitätsreduktion findet in vielen kleinen, deshalb aber kontrollierbaren und empirischen Schritten statt. Beim

standardisierten Kodieren hingegen wird das Sprechen auf beiden Seiten im Vorfeld schon extrem reduziert. Die Komplexitätsreduktion hat stattgefunden, bevor man sich überhaupt mit den Daten auseinandergesetzt hat. Theorie entsteht hier logisch-deduktiv, die empirische Analyse der Daten dient lediglich der möglichen Falsifizierung. Das wissenschaftliche Sprachspiel wird so auf eine isoliert gesehene, denotative Funktion reduziert (vgl. LYOTARD 1979, S.45), während bei der qualitativen Analyse zwar eine Annäherung an das Denotative angestrebt wird, aber Kontextualität und Einbettung in andere Diskurse sichtbar bleiben und nicht verleugnet werden. Wir haben es also zwar mit einer ähnlichen Basiskonstellation zu tun, die aber nach grundsätzlich verschiedenen Szenarien montiert wird. Beide Vorgehensweisen können je nach Forschungslogik legitim und ökonomisch sein. Es geht trotz möglicher unterschiedlicher Zielsetzung zweimal um das gleiche Problem: nämlich die Unsicherheit, die durch das doppelte Sprechen entsteht und kontrolliert werden soll, um so intersubjektive Verbindlichkeit zu gewährleisten. Die eingesetzten Strategien unterscheiden sich:

Einmal ist das Mittel die extreme Reduktion, das andere Mal Offenheit und Transparenz. Beide Wege bieten natürlich Vor- und Nachteile. Der verstehende Ansatz aber ist sicher dort überlegen, wo Sinnkonstitutionsprozesse eine

wesentliche Rolle spielen, während dann, wenn eine mechanistisch-lineare Modellierung der von vornherein als relevant angesehenen Fragestellung möglich ist, sich der standardisierte Ansatz empfiehlt. [16]

Textsegmentierung und Zitatauswahl sollen grundsätzlich zwei Ansprüchen genügen: Einerseits soll Spontaneität erhalten bleiben, nur so kann das eigene Sprechen emergieren, und andererseits soll der Prozess revidierbar und

nachvollziehbar sein, nur so ist die Rückbindung an die Daten zu gewährleisten.

Verschiedene Mittel und Techniken helfen dabei im Forschungsalltag, die scheinbar widersprüchlichen Ziele "unter einen Hut" zu bringen, es sind dies die

(11)

mehrperspektivische Ausrichtung der Auswahlkriterien und die spezifischen Momente der Organisation der Textarbeit. [17]

Die Textauswahl richtet sich an drei Kriteriendimensionen aus: sie beziehen sich auf textlinguistische Merkmale, dann auf das eigene Vorwissen, dem die

zugrunde liegenden Fragestellungen entstammen, und schließlich auf Sedimente der Kommunikationssituation, in der die Texte entstanden sind. [18]

Textlinguistische Merkmale sind jene sprachlichen Verfahren, die dem Text Struktur und Kohärenz verleihen.14 In semantischer Hinsicht ist z.B. die funktionale Satzperspektive wichtig, die es erlaubt, einen Satz in Thema und Rhema zu zerlegen.15 Die jeweilige thematische Verkettung, aber auch Themenkonstanz und Themenwechsel liefern sicher Kriterien für die

Segmentierung. Ebenso sind Konjunktionen und die adverbiale Angabe, aber auch die anaphorische Verkettung16 über Pronomina wichtige

Gliederungssignale. [19]

Die Segmentierung ergibt sich aber nicht mechanisch aus der Textstruktur. Der Dialog, die Ko-Konstruktion von Bedeutung, kommt nur dann zustande, wenn auch die Interpretierenden sich einbringen können. Sie sollen deshalb das eigene Vorwissen offenlegen, von eventuellen Interviewleitfäden ausgehen und klären, auf welche Fragen sie Antworten erwarten oder suchen. Das Vorwissen aber kann nicht statisch gesehen werden. Im Prozess des Kodierens sollte es grundsätzlich revidierbar sein, also nicht einfach übernommen, sondern an den Daten korrigiert, modifiziert und erweitert werden. [20]

Textstruktur und Fragestellungen sind nicht die einzigen Orientierungsgrößen.

Den Primärdokumenten haften Sedimente der ursprünglichen

Kommunikationssituation, Spuren der Entstehungssituation und ihrer Ordnung an. Interviews und Gruppendiskussionen können so als Beispiele von ordinary conversation gelesen und interpretiert werden. Es sollte versucht werden, den Zusammenhang mit dem Entstehungskontext zu rekonstruieren. Die linguistische Pragmatik sensibilisiert uns für die Lektüre der entsprechenden Indizien. Es sind z.B. Pronomina, Zeit- und Ortsangaben, die auf den Hier-Jetzt-Ich-Origo des Textes verweisen, aber auch Präsuppositionen, die auf charakteristische Wissensbestände hindeuten, auf die die Kommunikationspartner(innen) zurückgreifen. Eine an der Konversationsanalyse geschulte Lektüre achtet auf die Diskursorganisation, auf die interaktionsstrukturelle Ordnung, wie sie sich in der Klassifikation von Sozialgruppen, im turn taking, in paarweise auftretenden

14 Das bedeutet nicht, dass Sozialwissenschaftler und Sozialwissenschaftlerinnen sich der Textarbeit verschreiben. Sie hat eine Durchgangsstation auf dem Weg zur Generierung von Theorie oder Theorieelementen zu bleiben.

15 Der Prager Anglist Vilém MATHESIUS hat in den zwanziger Jahren des vorigen Jahrhunderts das Konzept der funktionalen Satzperspektive entwickelt. Es handelt sich dabei um eine dynamische, kommunikationsbezogene Struktur. Jeder Satz ist zweiteilbar, er enthält ein Thema (basis, topic, Argument) – das worüber gesprochen wird – und ein Rhema (nucleus, comment, focus, Prädikat) – das, was über das Thema gesagt wird (MATHESIUS 1929).

16 Kataphorik und Anaphorik bezeichnen textinterne Verweismuster. Die anaphorische Verbindung verweist auf eine vorausgehende Textstelle, die kataphorische auf eine nachfolgende

(WEINRICH 1993, S.410-414).

(12)

Interaktionszügen, in der Präferenzordnung, aber auch in Korrekturen und

Selbstkorrekturen niederschlägt (vgl. HUTCHBY & WOOFFITT 1998, S.38ff.). Es gibt auch in diesem Zusammenhang für offene Interviews typische Momente von Strukturzusammenhängen, die es erlauben, auch längere Gesprächsbeiträge nicht als monologische, sondern als interaktive Passagen zu lesen. Wir wollen nicht einen Mix von linguistischer oder konversationsanalytischer

Gesprächsanalyse mit GTM anstreben. Unser Argument lautet vielmehr: wenn im Primärdokument "Abdrücke" von Sozialhandeln und Sozialstruktur (SCHEGLOFF 1991) vorhanden sind, dann sollen die Interpretierenden sie als Katalysatoren der GTM-Konzeptionalisierungsarbeit nutzen und sich nicht nur auf Textstruktur und Textbedeutung beschränken. [21]

Die Arbeit mit einem mehrperspektivischen Kriterien-Set verlangt auf der anderen Seite auch nach einer entsprechenden Organisation. Es gibt hierbei besonders drei Aspekte, die wir auf Grund unserer Erfahrung hervorheben möchten: das ständige Memoschreiben, die Variation der Distanz zur Textstelle und die Teamarbeit. [22]

Bereits der erste Schritt der Textarbeit soll von Memoschreiben begleitet sein. Es gibt unterschiedliche Typen von Memos (vgl. zum Memoschreiben: STRAUSS 1987, S.109-129), die in dieser Phase eine Rolle spielen: theoretische Memos, die das Vorwissen abklären; operative Memos, die beschreiben, wie an den Text herangegangen werden soll, die also den oder die Filter explizit machen, mit denen der Text durchforstet werden soll; Memos, die beschreiben, wie ein Primärdokument oder eine Primärdokumentfamilie zustande gekommen ist;

Kode-Memos, die explizieren, was hinter einer Begriffsassoziation steckt. Memos können auch Detailinterpretationen von Textstellen oder Textmerkmalen sein, sie liefern dann Begründungen für die Auswahl des Zitats und beschäftigen sich mit Stellen, die bei der Lektüre auffielen und die gerade deshalb in den Zitatkorpus aufgenommen worden sind. [23]

Ein zweites nützliches Organisationsmoment besteht unserer Erfahrung nach darin, dass bei der Analyse die Distanz zum Text variiert wird. BÖHM, LEGEWIE und MUHR (1992) geben hierzu einige Hinweise, die aber letztlich zu

schematisch sind. Die Lesenden müssen unseres Erachtens über eine Art flexibles und flinkes "Zoom-Werkzeug" verfügen, das ihnen erlaubt z.B. am Textganzen zu arbeiten und eine Überblicksgliederung zu erstellen, um im Augenblick darauf den Text Zeile für Zeile, Wort für Wort durchzugehen und sich auf die Interpretation einzelner Konversationszüge oder die Bedeutung und Funktion einzelner Partikel zu konzentrieren. Detailinterpretationen sollten dann immer wieder in das Gesamtbild eingeordnet werden. Diese Leseweise entspricht der hermeneutischen Grundeinstellung, dass die Teile die Bedeutung des

Ganzen und das Ganze die Bedeutung der Teile (vgl. BRUNER 1996, S.137) mitbestimmt. [24]

Das dritte Organisationsmoment ist die Arbeit im Forschungsduo (bzw. der Forschungsgruppe). Textarbeit bzw. Datenanalyse in der GTM haben

kommunikativen Charakter. Sie sollten nicht allein durchgeführt werden, sondern

(13)

(mindestens) zu zweit. Dieses Moment gehört zum GTM-Grundbestand. Es wird in der Regel mit dem Geist der Chicago-Schule (vgl. RIEMANN 2005, S.9-10) in Verbindung gebracht. STRAUSS (1987) hat ausführlich dargestellt, wie Team- Meetings durchgeführt werden können. Alan BRYMAN verweist auf die

Bedeutung der Verlässlichkeit und Nachvollziehbarkeit qualitativer Forschung;

Teampartner(innen) spielen dabei sozusagen die Rolle der ersten Prüfinstanz (BRYMAN 2001, S.273f.). Katja MRUCK und Günter MEY (1998) haben das Konzept einer "Projektwerkstatt qualitativen Arbeitens" entwickelt. Sie machen deutlich, wie die Subjektivität im Forschungsprozess auch nach einer

entsprechenden sozialen Organisation verlangt. Für uns sind besonders drei Aspekte wichtig:

Teamarbeit erlaubt (flexible) Rollenverteilungen. So können sich z.B. auf die Doppelreferenz bezogene, charakteristische Muster einspielen, wobei eine Person zum Korrektiv der oder der Anderen werden kann. Überlässt sich nämlich ein Interpret/eine Interpretin seiner/ihrer theoretischen

Empfindlichkeit, kann der/die andere das Prinzip der "Datentreue" verteidigen.

Bleibt der/die eine in der schieren Deskription stecken, kann der/die andere zur Konzeptualisierungsarbeit anstacheln.

Darüber hinaus hat der Interpretationsdialog eine Bedeutung in Bezug auf das Interpretationstempo. Er verlangsamt das Festlegen auf Kategorien, macht deshalb den Weg dorthin sichtbarer, verhindert das Aufzwingen und

"Durchboxen" von Konzepten und gibt der Konzeptgenerierung einen kommunikativen Nährboden.

Schließlich, findet das eigene Sprechen im Team einen ersten Adressat(inn)enkreis. Eine Geschichte macht Sinn im Horizont einer

Erzählgemeinschaft, sie setzt einen Erwartungshorizont (JAUß 1970, S.180) voraus, dem sie entspricht, den sie durchbricht und somit modifiziert. Die Geschichte kann aber auch an den Erwartungen des Adressat(inn)enkreises scheitern. [25]

3.2 Offenes Kodieren

Durch die Auswahl von Zitaten ist der geschlossene Textblock vorerst zerstückelt/zerlegt worden. Irrelevantes ist weggefallen. Konkret könnte der Arbeitsschritt darin bestehen, dass einzelne Textausschnitte mit einer Wellenlinie am Rand als relevant markiert werden für die Fragestellung, so wie sie zwischen den beiden Interviewparteien ausgehandelt wird. Zitate werden so aus dem ursprünglichen kommunikativen Verbund, der Interviewsituation, "gelockert", und es wird auch schon eine Datenauswahl getroffen, die dem Zweck der

Theoriegenerierung dienen soll. [26]

Das regt ohne Zweifel die Analyse an, führt aber auch schnell dazu, dass die Lage sehr unübersichtlich wird. Denn wir werden sehr schnell über eine große Menge von Einheiten verfügen. BOGDAN und BIKLEN (1992) vergleichen die Situation damit, dass in einer großen Turnhalle eine Riesenmenge Spielzeug ausgebreitet wird und dass die Aufgabe des Kategorisierens darin besteht, die

(14)

Einzelstücke in Haufen zusammenzulegen, die untereinander in einem sinnvollen Zusammenhang stehen. Dabei ist das Schema, nach dem die einzelnen

Gegenstände geordnet werden, nicht von Anfang an bekannt. Es bildet sich erst während der Arbeit an den Daten heraus. Das Ziel jedenfalls ist, wie KUCKARTZ (1997) es sieht (allerdings eine andere Metapher heranziehend), dass

schlussendlich alle Zitate gruppiert sind wie Medikamente in einer Apotheke, d.h.

in säuberlich etikettierten Schubladen und Regalen systematisch geordnet abgelegt sind. [27]

Am Anfang der Analyse aber haben wir nur eine vage Vorstellung, wie dieser Zusammenhang aussehen könnte. Die Kategorien und ihre Verbindungen sollen sich ja, dem Prinzip des "Entdeckens" folgend, aus den Daten selbst, oder wie wir meinen, um die aktive Rolle der Forschenden kenntlich zu machen, aus dem Dialog mit den Daten ergeben. Ein erster einleuchtender Schritt wäre dann, dass wir lediglich die Daten "etikettieren", d.h. jedem einzelnen Gegenstand einen Namen geben. Offene Kodes zielen dann z.B. darauf, sich das implizite Motiv zur Auswahl einer Textstelle bewusst zu machen. Die Arbeit des offenen Kodierens soll den Überblick erleichtern. Dateneinheiten werden auf einen Aspekt hin

verkürzt und erste Entsprechungen werden sichtbar. Eigentlich wird jedes Zitat so auf ein Kürzel reduziert. Die Datenmenge ist leichter zu handhaben, Listen

werden erstellt, Ähnliches wird zusammengelegt, sodass Muster offensichtlicher werden. Wir schaffen also auf diese Art und Weise eine erste Grundlage für die Emergenz von Kategorien und Kategorienrelationen. Aus unserer Sicht ist es wichtig, auch das narrative Moment im Assoziationsprozess im Auge zu behalten.

Die Interpret(inn)en deuten auf mögliche Erzählstränge, die sie ihrer Geschichte zugrunde legen könnten. Aber sie haben noch keine Richtungsentscheidung getroffen, ihr Erzählen ist rudimentär, stammelnd fast, gekennzeichnet von der Koexistenz sich ausschließender Geschichte; es reduziert sich vorerst noch auf einzelne Wörter, die ihnen beim Zuhören des oder der Anderen einfallen. Die Assoziation stellt dennoch einen zaghaften Schritt auf dem Weg zum eigenen Erzählen dar. Die storyline ergibt sich also aus dem Prozess und wird nicht erst in den späteren Kodieretappen aufgesetzt. [28]

Voraussetzung für das offene Kodieren ist das genaue Lesen. Barney GLASER (1998, S.24f.) gibt als eine der Wurzeln der GTM die Methode der explication de texte an, so wie er sie an der Sorbonne kennengelernt habe. Kennzeichen der explication de texte als Lesemethode ist, dass der Text hinterfragt und ihm Einwände der Lesenden entgegengehalten werden sollen, um ihn so "zum Sprechen" zu bringen. Beachtet werden sollten dabei auffällige grammatische Formen, Partikelwörter, Bildelemente, Stilwechsel, Andeutungen. Die

Entschlüsselungsarbeit geht dabei von der Hoffnung aus, dass sich im Detail der Textstelle auch die Gesamtproblematik spiegelt. Das Vorgehen ist normalerweise linear, es wird dem Aufbau des Textes gefolgt, nicht um den Zitaten augenfällige Bedeutungen zuzuweisen, sondern um sie in ihrer Komplexität und

Doppelbödigkeit zu erfassen. Das Postulat der Textimmanenz führt hiernach geradezu zur Entdeckung der Ambiguität des von seinem Entstehungskontext losgelösten Textes. So spannend GLASERs Hinweis auf diese

literaturwissenschaftliche Wurzel der Grounded-Theory-Methodologie auch sein

(15)

mag, darf doch nicht übersehen werden, dass er sich damit gegen die in der Chicagoer Tradition stehende Betonung des interpretativen Anteils der GTM richtet. Deutlich wird so ex negativo, dass sozialwissenschaftliche

Textinterpretation eine Wurzel auch in der an MEAD, HUGHES und BLUMER ausgerichteten Reaktion gegen die Verdinglichung des Strukturalen hat (STRAUSS 1977, S.xviii), aber die hermeneutisch-interpretative Haltung auch andere Bezugsgrößen haben kann. Wir denken z.B. an den New Criticism und an die literaturkritische Methode von I.A. RICHARDS (2001), die Arbeiten des

Konstanzer Anglisten Wolfgang ISER (1994), der zeigt, wie Erzähltexte Lücken eröffnen, die von den Lesenden gefüllt werden, oder das Werk von Paul DE MAN (1988) und den Yale Critics, die sich mit den immanenten Widersprüchen

literarischer Texte befassen. Gerade das Paradox von Lesbarkeit und

Unlesbarkeit ist eines der Probleme, auf das man beim offenen Kodieren stoßen kann. Daneben gibt es genuin sozialwissenschaftliche Methoden der

Gesprächsanalyse (z.B. DEPPERMANN 2001, S.49ff.), die durchaus beim offenen Kodieren von Zitatstellen hilfreich sein können. Im Allgemeinen gilt, dass die Beschäftigung mit der literaturwissenschaftlichen Interpretationstheorie (BRENNER 1998) und besonders die Auseinandersetzung mit den

entsprechenden Überschreitungen des disziplinären Kanons die in der GTM- Textarbeit erforderte Lese- und Interpretationsempfindlichkeit steigern kann.

Dabei sollte nie vergessen werden, dass die Betonung des Textimmanenten in der GTM-Arbeit immer nur die eine Seite der Medaille ist. Susan SONTAGs (1994) harsche Kritik an der Interpretation trifft auf die GTM nicht zu, da in deren genialer Janusköpfigkeit die immanente Textarbeit durch die analytisch-

konzeptuelle Kontextualisierung ergänzt wird. [29]

In der Praxis ist das offene Kodieren in der Regel für Forschende mit einer gewissen Ängstlichkeit verbunden. Es entsteht bei der Arbeit an der

Sinnkonstruktion offensichtlich eine Spannung zwischen Lesenden und Text.

Günter MEY (1999, S.319f.) hat beschrieben, wie sowohl Fremdheit als auch Nähe Angst einflößend sein können. Daraus entsteht sehr schnell ein Druck; der Forscher/die Forscherin wünscht sich, möglichst bald eine Kategorie zu finden, die ihm/ihr Orientierung und Sicherheit gibt, und er/sie ist deshalb versucht, diese aus bestehenden Theorien abzuleiten oder zu übernehmen. Forschende

möchten, statt sich auf dem unsicheren Weg zu einer Vielleicht-Geschichte zu befinden, aufgehoben sein in einer sicheren Erzählung. Dazu lassen sie Daten zu Exempeln verkommen und bringen die Respondent(inn)en zum Schweigen. Der hermeneutische Umgang aber mit den Daten besteht gerade darin, dass die konzeptuelle "Überlegenheit" der Forschenden nicht vorausgesetzt, aber auch nicht ganz auf sie verzichtet wird. Das hat offensichtlich mit Enthierarchisierung von Wissensformen zu tun. Anselm STRAUSS (1987, S.28ff.) rät

Sozialwissenschaftler(inne)n in dieser Situation, alles und nichts zu glauben, was sie lesen. Sie sollten sich dabei u.a. an folgende einfache Grundsätze halten:

a. Es sollten wenige, einfache und konsistente Fragen, die dem ursprünglichen Forschungsdesign entsprechen, an die Daten gestellt werden.

(16)

b. Am Anfang der Kodierungsarbeit ist Mehr besser, d.h. es sollte eher minutiös kodiert werden, auch wenn später die Zahl der Kodes reduziert und Kodes zu Super-Kodes zusammengefasst werden.

c. Das Kodieren sollte öfters unterbrochen werden, um theoretische Memos zu formulieren. So gehen ursprüngliche Ideen nicht verloren, und es bleibt eine Spur davon erhalten, wie sich im Dialog mit den empirischen Daten die an den Text gestellten Fragen verändern.

d. Auf keinen Fall sollte die Relevanz traditioneller Kategorien wie Alter, Geschlecht oder soziale Herkunft vorausgesetzt werden, ohne dass hierfür Hinweise und Belege im Datenmaterial zu finden sind. Sie verfügen nämlich über keinerlei Privilegien und müssen sich wie andere Kategorien auch über den steinigen Weg der gegenstandsbezogenen Datenanalyse "hocharbeiten".

Die Entdeckung aber von membership classification devices im Sinne von Harvey SACKS (1990, S.40-48) legitimieren umso mehr zum Gebrauch der entsprechenden Kategorien. [30]

Bei der Lektüre von Interviewtranskripten stößt man auf ein weiteres Problem.

Über die Vorbereitung der Interviews können Kategorien in den Text hineingelangen, die nicht unbedingt vom Interviewpartner oder der

Interviewpartnerin stammen. Mögliche Kategorien, die oft gleich beim ersten Lesen aufscheinen, sind deshalb oft solche, die durch die Interviewenden in das Gespräch hinein gefragt worden sind. Deshalb eignet sich Interviewmaterial umso besser zum offenen Kodieren, je offener die Gesprächsbeiträge der Interviewenden formuliert sind. Im Idealfall bieten sie einen Sprech- und Erzählanlass, der zwar ein intensives Ansprechpotenzial besitzt, aber die Thematik nicht unbedingt genau festlegt und einschränkt. Aktives und

akzeptierendes Zuhören sollte dann die Interviewten anregen, weiteres Material zu produzieren. Gerade freiere Textpassagen können als Antwort auf eine nicht gestellte Frage oder auf eine von den Interviewten selbst vorausgesetzte, aber von den Interviewenden nicht gemachte Äußerung gelesen werden. Es ist dieses

"Zwischen-den-Zeilen-Lesen", die Rekonstruktion also eines impliziten, vom dem/der Interviewten vorausgesetzten Diskurses, das die Entdeckung gegenstandsbezogener Kategorien ermöglicht. Die nicht-direktive

Gesprächsführung stellt in dieser Hinsicht eine wichtige Voraussetzung für die Produktion von brauchbarem Textmaterial dar.17 Wichtig ist es jedenfalls, darauf zu achten, dass ein evtl. verwendeter Interviewleitfaden nicht dazu anregt, lediglich Kategorien abzufragen, sondern dass er Erzählanlässe schafft, welche die Interviewten dazu veranlassen, sich frei zu äußern. Offene und intensive Gesprächsstimuli, welche die Interviewten ansprechen, sind wichtiger als präzise Fragen, die Antworten zu sehr lenken. Darüber hinaus stellt auch das frühe, wenn auch unsichere Memo-Schreiben (Memos, die wahrscheinlich nie außerhalb der Forschungsgruppe gelesen werden) eine wichtige Arbeitsweise dar, die Transparenz, Systematisierung und Teamfähigkeit fördert. Ein

spannender Punkt sind Passagen, an denen kognitive Konflikte zwischen

Fragenden und Befragten sichtbar werden. Es zeigte sich z.B. bei unserer Studie

17 Schwierig ist beim nicht-direktiven Forschungsinterview die paradoxe Voraussetzung, dass es in der Regel und im Gegensatz zum Beratungsgespräch auf Anfrage nicht der Interviewten, sondern der Interviewenden zustande kommt.

(17)

über die Mobilität von Jugendlichen in der Großregion sehr schnell, dass alle Gesprächspartner(innen) der Frage nach ihrer Mobilität, die uns problemlos erschienen war, wenig abgewinnen konnten, aber um so lieber über ihre

Führerscheinprüfung, das Auto der Eltern, mit dem sie fahren durften, oder das eigene Auto sprachen. Wir berücksichtigten dann bei der

Konzeptualisierungsarbeit, dass eben der direkte Zugang zu einer alltäglichen Mobilitätstheorie abgeblockt wurde und dass wir Antworten auf unsere Fragen nur im Zeichen der Metonymie finden konnten. Im Alltagsgespräch geschieht nämlich die Referenz auf die eigene Mobilität eher in der Form des Pars pro toto Autofahren als durch den Gebrauch des abstrakten Konzepts. [31]

3.3 Axiales Kodieren

Wir können nun der Analyse weiter auf die Sprünge helfen, indem wir nicht nur

"assoziativ" vorgehen, sondern gewissermaßen als heuristischen "Schmierstoff"

der Analyse axiale Modelle oder ein axiales Modell benutzen. Bruce L. BERG (1998) nennt solche Paradigmen Kode-Frames. Wir unsererseits sprechen auch lieber von Kode- oder Kodierrahmen statt, wie von STRAUSS und CORBIN (1990) vorgeschlagen, vom Kodierparadigma, um den möglicherweise

verwirrenden Bezug zur KUHNschen Paradigmendiskussion zu vermeiden. Beim axialen Kodieren sollen explizite Fragen an den Text gestellt werden, es geht nicht darum, sich dem Text zu überlassen, sondern eine Strukturierung, ein allgemeines Raster, wird probeweise an den Text angelegt. Dabei wird für jeden Fall bestimmt, welche typischen Merkmale berücksichtigt werden sollen, wobei weniger auf Verteilungsrepräsentativität als auf theoretische Relevanz zu achten ist. Die Literatur bietet nun unterschiedliche Verfahrensweisen, die je nach Zielsetzung und Fragestellung mehr oder weniger geeignet sind, die sich aber auch miteinander kombinieren lassen. STRAUSS und CORBIN (1990), Ian DEY (1993), Andreas BÖHM et al. (1992) und darauf Bezug nehmend Uwe FLICK (2002) erwähnen das Arbeiten mit Schlüsselfragen: Wer? Wann? Was? Wo?

Warum? Dieses klassische Fragequintett lässt sich noch erweitern: Womit? Was, wenn ...? Was, wenn nicht ...? [32]

STRAUSS und CORBIN (1990, S.99) aber gehen über die simplen

Schlüsselfragen hinaus. Sie liefern als Kodierrahmen eine kompakte Version einer interaktionistischen Handlungstheorie, die auf jedes analysierte soziale Phänomen anwendbar sei. Unterschieden wird zwischen dem Phänomen, den ursächlichen und intervenierenden Bedingungen, dem Kontext, den Handlungs- und den interaktionalen Strategien und den Konsequenzen. Insoweit wird

deutlich, dass beim Fortschreiten der Analyse das offene Kodieren weniger offen wird und man sich deutlicher und expliziter an einen theoretisch fundierten Kodierrahmen anlehnt. Klar ist auch, dass bereits der Bezug auf das Vorwissen, das wir schon bei der Zitatauswahl erwähnten, eigentlich schon ein axiales Moment enthält. Nichtsdestotrotz bereitet das axiale Kodieren nach STRAUSS und CORBIN Schwierigkeiten. Forschende fühlen sich möglicherweise eingeengt, eher behindert auf dem Weg zur storyline. So wurden auch Alternativen zum strengen axialen Kodieren formuliert. [33]

(18)

BOGDAN und BIKLEN (1992) gehen ohne expliziten Bezug auf STRAUSS und CORBIN von einem breiteren Modell aus. Sie geben umfassendere Kode- Rubriken an, die je nach Themenstellung unterschiedlich gefüllt werden können.

Dadurch wird die heuristische Funktion des axialen Modells deutlicher. Eine erste Kode-Familie stellen die Kontext-Kodes (setting, context) dar. Es geht darum, die allgemeine, deskriptive Voraussetzung eines Falles festzuhalten. Eine zweite Kode-Familie sind die sogenannten Situationsdefinitions-Kodes. Es geht hier um die Werte und Einstellungen, mit denen sich Einzelne oder eine Gruppe in einem Handlungsvorgang beschäftigen müssen, und die auch den Bezug für die

Planung und Bewertung von Handlungen und von deren Ergebnissen darstellen.

Ein dritter Kode-Typus sind die Standpunkte einzelner Akteure und deren Sicht einzelner Phänomene. Eine vierte Kode-Familie erfasst die Art und Weise, wie Akteure über andere Menschen und Gegenstände denken. Die fünfte Familie sind Prozess-Kodes, die dazu dienen, Ereignisse in einer Zeitsequenz

zusammenzufassen. Ereignis-Kodes, die sechste Familie, bezeichnen einmalige und seltene Geschehnisse, während Tätigkeits-Kodes, die siebte Familie, sich auf wiederholende, regelmäßige Handlungen beziehen. Beziehungs- und Sozialstruktur-Kodes, die achte Familie, erfassen das Verhältnis zwischen interagierenden Personen: Freund(in), Vorgesetzte(r), Verwandte(r), richten das Augenmerk aber auch auf die klassischen sozialstrukturellen Dimensionen (Rollen, Positionen). Methoden-Kodes, die neunte Familie schließlich, markieren Datenmaterial, das sich auf Forschungsprozeduren, Probleme, Dilemmata und ähnliches bezieht. [34]

GLASER (1998, S.163ff.) stellt der Methode von STRAUSS und CORBIN seine Version des theoretischen Kodierens gegenüber. In der Form von Kodierfamilien stellt GLASER (vgl. 1998, S.170) Kodes zu Gruppen zusammen und erhält so eine fragmentarische und offene Theorieheuristik, die sich von der

dominierenden grand theory der "Theoriekapitalisten" unterscheidet und deshalb eben nicht Begriffe auf unzulässige Weise in die Daten hinein importiert. Die Notwendigkeit des axialen oder theoretischen Kodierens ergibt sich aus der Unzulänglichkeit der auf der Grundlage der textnahen Dateninterpretation erhaltenen Ergebnisse. Zwar können die am Material gewonnenen, konkreten Kodes (substantive codes) zueinander in Verbindung gesetzt werden, das Ergebnis kann aber ohne eine zusätzliche Heuristik ein eher konfuses Produkt sein. Das theoretische Kodieren erlaubt es, diesen Knäuel zu entwirren, Verbindungen herzustellen zu bestehenden Wissens- und Theoriebeständen.

Theoretische Kode-Familien stellen so die eigentliche Grundlage der

Generierung und Entwicklung von Theoriebausteinen dar. Theoretische Kodes sind entsprechend den axialen Kodes bei STRAUSS und CORBIN

Reduktionsformeln bestehender Theorieansätze, die es erlauben, die konkreten Analyseergebnisse zu strukturieren. Der wesentliche Vorteil von theoretischen Kodes ist, dass sie offener und breiter angelegt sind. Sie erlauben deshalb unterschiedliche Möglichkeiten. Das Verständnis von GTM wird somit nicht ausschließlich auf das interaktionistische Muster reduziert, GTM nähert sich vielmehr einer universellen Methode an. [35]

(19)

Sandra TIEFEL (2005) hat gezeigt, dass in ihrem Forschungsgebiet, der biografischen Bildungsforschung, der Ansatz von STRAUSS und CORBIN deutliche Unzulänglichkeiten aufweist. Als Alternative hat sie einen

überzeugenden, speziell auf die Belange des Spezialgebiets zugeschnittenen Kodierrahmen entwickelt. Zur Analyse biografischer Lernprozesse unterscheidet TIEFEL drei Analyseperspektiven: Sinnperspektive, Strukturperspektive,

Handlungsweisen. Die Sinnperspektive ist dabei auf die Rekonstruktion des Selbstbildes, die Strukturperspektive auf die Rekonstruktion des Weltbildes und die Handlungsweisen sind auf Aktivitäten und Interaktionen bezogen. Es gelingt so eine Erfassung biografischer Lernprozesse über die Kodierung, obwohl die Interviewtranskripte keine unmittelbare chronologische Darstellung enthalten. Der Versuch scheint sinnvoll und es ist durchaus vorstellbar, dass

Forschungsgruppen die Interessen, die sie verbinden, in ähnliche Kodierrahmen fassen. Der Kodierrahmen erscheint so sozusagen als Destillat eines

professionellen Relevanzsystems. [36]

Die Hauptfunktion des axialen beziehungsweise theoretischen Kodierens besteht darin, über das empirische Material hinauszukommen. Es gilt zwei

gegensätzliche Gefahren zu bannen: das Versinken in der Datenflut und das Aufpfropfen datenfremder Kategorien. Man geht deshalb jetzt auf Distanz zu den Daten, und das eigene "Sprechen" gewinnt an Bedeutung. Während beim

offenen Kodieren die Geschichte nicht vollständig und explizit ausformuliert wird, also vage bleibt und sich nur in den Assoziationsketten ahnen lässt, werden jetzt versuchsweise Erzählrahmen angelegt, die eine sinnvolle und brauchbare Geschichte ergeben sollen. Es handelt sich um Theorie-Heuristiken, die jedoch bedingt durch die starke Prozesshaftigkeit der Analysepraxis einen narrativen Charakter behalten. Theorie erscheint nicht als statische Figur, sondern als Versuch, kohärent zu erzählen, welcher Sinn den interpretierten Äußerungen auch im Licht bestehender Theorien gegeben werden soll. [37]

Das Loslassen der Daten ist der Preis, der für die Konzeptualisierung zu zahlen ist. Zu hoch ist der Preis, wenn die Analysearbeit den empirischen Bezug verliert und einen deduktiv-logischen Charakter bekommt. Das lästige pet coding, das quasi mechanische Zurückgreifen auf immer die gleichen, vorgefassten

theoretischen Kategorien, ist eine der GTM-Sünden, die GLASER (vgl. z.B. 1998, S.166; 2001, S.201 und besonders 2005, S.106ff.) geißelt. Es führt dazu, dass in unzulässiger Art und Weise auf selektives Kodieren vorgegriffen wird und

falsche, parasitäre18 Kernkategorien sich durchsetzen. Es kann eingeschränkt und kontrolliert werden, indem auch hier den Grundmerkmalen der GTM-Arbeit, Offenheit und Flexibilität, Langsamkeit und Allmählichkeit, Vorläufigkeit und Revidierbarkeit, eine Chance gegeben wird. [38]

Die theoretischen Kodierrahmen sollen unseres Erachtens nicht vorgegeben, sondern im Kontext spezifischer Projekte oder Projektfamilien entwickelt werden.

Sie spiegeln sowohl die disziplinären und teildisziplinären Zugehörigkeiten der Forscher(innen) und ihre Theoriebiografie(n). Sie können sich aber auch auf

18 Wir nennen den pet-Kode parasitär, weil er den Daten nichts "gibt", sie nur zum eigenen Zweck verwendet, ja missbraucht.

(20)

spezifische Referenzgruppen, Praktiker(innen), Lehrer(innen), Polizist(inn)en und politische Entscheidungsträger(innen) beziehen. Durch Referenzdiversität kann man leicht zum Grenzgänger oder zur Grenzgängerin werden, und die

Geschichte muss in einem Zwischenland erzählt werden (vgl. hierzu BERG 2003, S.110), in dem Forschenden das Dilemma, widersprüchlichen Referenzsystemen entsprechen zu müssen, nicht erspart bleibt. [39]

3.4 Selektives Kodieren

Der Prozesscharakter des Kodierens vom offenen und punktuellen Kodieren zum selektiven und theoriebezogenen Kodieren bringt mit sich, dass sich während der Arbeit am Text das Gewicht verlagert, vom Sprechen der Akteure im Feld zum Sprechen der Interpret(inn)en. Der Kodierprozess entwickelt sich vom Rezeptiven über das Theoretische zum Rhetorischen. Es ist bei der qualitativen

Datenanalyse ein wenig so, als wenn über dem Zuhören und Dialogisieren die eigenen Aussagen und die ihnen angemessene Sprache gefunden würden. Das ist sicher mit angesprochen, wenn GLASER und STRAUSS (1967, S.28) meinen, die GTM stärke die Forschenden und ermögliche deshalb erst die

Theoriegenerierung. [40]

Das selektive Kodieren erlaubt, dass die endgültige Interpretation nicht angeheftet (tagged on) wirkt, sondern im ständigen Dialog mit den Daten formuliert wird. Die Theorie hat nun nicht unbedingt einen nomothetischen Charakter, d.h. es wird keineswegs nur allgemeingültiges und gesetzmäßiges Wissen formuliert. Vielmehr handelt es sich um eine an Standpunkt und Lebenswelt der Theorieproduzent(inn)en gebundene, narrativ-deskriptive Annäherung an das zentrale Phänomen der Studie. Charakteristisch für diese Phase der Kodierungsarbeit ist das Vor- und Rückwärtsbewegen im Datensatz.

Die Interviews werden selektiv durchforstet im Hinblick darauf, ob sie etwas für die zu erzählende Geschichte hergeben. Das selektive Kodieren spielt sich wieder um zwei Pole ab, den Pol des "Er-Findens" der Geschichte und den der Überprüfung an den Daten. Offensichtlich ist, dass die Theorie sich nicht

automatisch aus den Daten ergibt, sondern auf der theoretischen Sensibilität der Forschenden beruht, die aber ihrerseits wieder an den Daten geschärft wird. [41]

Das selektive Kodieren steht also wesentlich im Dienst der "Er-Findung" der storyline. Zentrale Operationen beim Erfinden der Geschichte sind das Festlegen der Kernkategorie, die erste Explizierung des Erzählbogens und die Ausfor- mulierung der Geschichte. Die emergierende Geschichte wirkt dann ihrerseits als ein Filter, ein Verstehensraster, eine Vorstrukturierung, eine Art kategorialer Rahmen. Sie hat deshalb einerseits Ähnlichkeiten mit dem Kode-Frame des axialen/theoretischen Kodierens, ist aber andererseits weniger starr, plastischer, kann bewegt und verändert werden und dient in diesem Sinn der konzeptuellen Findigkeit. Gerade durch diese Beweglichkeit entsteht beim selektiven Kodieren das typische Hin und Her zwischen Text und Geschichte. [42]

Beim selektiven Kodieren werden u.a. die Eigenschaften der Kernkategorie und ihre jeweiligen dimensionalen Reichweiten definiert. Die Kernkategorie wird dann

(21)

zu anderen Kategorien in Beziehung gesetzt. Die Geschichte wird dabei zum Teil neu erzählt, und die Kategorien werden neu geordnet. Beziehungen zwischen Kategorien werden validiert und Strukturmuster aufgedeckt. Um Verbindungen zu systematisieren und zu festigen, bewegt man sich dabei immer wieder hin und her zwischen Fragenstellen, Hypothesengenerieren und Vergleichen. Die

analytisch-interpretative Arbeit wird auf diese Art und Weise integriert und an den Daten validiert, die schlussendlich in eine analytische Geschichte übersetzt werden. [43]

Die Geschichte, die erzählt wird, hängt dabei nicht nur von den Daten ab, sondern "von der Stimme", d.h. der Erzählrolle (persona) (BECKER 1986, S.26ff.), dem Milieu, in dem gesprochen wird, von dem Publikum, das erreicht werden soll. Treffen wir Entscheidungen darüber, wer, wem, was, wie und wozu erzählt, spielt nicht zuletzt auch die Vorstellung, die wir von möglichen

Geschichten haben, eine Rolle. Eine Fabel, ein Exempel, ein Gleichnis kommen anders daher als ein Roman, der Subjektivität und Modernität integrieren

möchte.19 Soll die Rhetorik in diesem Zusammenhang die Analyse nicht mit Blindheit schlagen, bleibt nur der Weg der historischen "Selbstdurchsichtigkeit".

So wie beim Centre Pompidou in Paris die Versorgungsrohre offenliegen und dennoch der Schönheit der Architektur nichts anhaben, sollte in GTM-

Publikationen der eigene Standpunkt reflektiert und sichtbar gemacht werden.

Klar wird dann, warum eine akademische Arbeit, ein im Auftrag durchgeführtes Evaluationsprojekt oder eine Studie im Vorfeld politischer Maßnahmenplanung nicht unbedingt die gleiche Geschichte erzählen. [44]

4. Für eine flexible und reflexive Praxis der Grounded-Theory- Methodologie

Die Auseinandersetzung mit dem Kodieren im Rahmen der Grounded-Theory- Methodologie sollte verdeutlicht haben, dass es sich hierbei um mehr als ein sozialwissenschaftliches Verfahren handelt. GTM stellt tatsächlich die

Grundfragen der geistes- und sozialwissenschaftlichen Erkenntnis. Es geht um das allgemeine Verstehen menschlicher Praxis, um das Verstehen, die

Rekonstruktion, auch der Praxis des oder der Anderen. Es ist deshalb zwar immer noch legitim, die genaue Referenz auf die angewandten Verfahren zu fordern, aber diese Bedingung ist nicht ausreichend.

19 Vgl. zur Vielfalt von literarischen Erzählmöglichkeiten KLOTZ (2006).

(22)

Abb. 1: Britain seen from the North (Tony CRAGG, 1981, Relief, Tate Modern, London.

Bildrechte: Tony CRAGG, Tate Gallery, London [Foto]; reprinted by permission) [45]

Wenn uns die Kodierungsarbeit bis dahin an Tony CRAGGs dekonstruktivistische Kunstwerke erinnert (siehe Abbildung 1), macht es deutlich, dass es sich um einen kreativen Prozess handelt, der durch seine prinzipielle Offenheit mit einem gewissen Grad an Konfusion und Regression verbunden ist. Es ist wohl dieser Tatbestand, der Uwe FLICK (2002, S.196-206) mit dazu veranlasst, der

Analyseprozedur vorzuhalten, dass die Grenze zwischen wissenschaftlicher Methode und Kunstlehre mitunter fließend sei. GTM hat tatsächlich zwei Gesichter: auf der einen Seite ist sie regelgeleitet und systematisch, auf der anderen Seite aber räumt sie der assoziativen Kreativität, der Fluidität und der Offenheit viel Platz ein. Der zweite Aspekt kann bei manchen den Eindruck erwecken, GTM-Analysen seien wenig verbindlich, wenig intersubjektiv

nachvollziehbar, sie würden also von subjektiver Beliebigkeit bestimmt. Dieser Eindruck wird noch dadurch verstärkt, dass zumindest das offene Kodieren prinzipiell unendlich fortgesetzt werden kann. Es müssen also Wege gefunden werden, uns gegen Selbsttäuschung und unverbindliche Schlussfolgerungen zu schützen. Eine Lösung liegt in der methodischen Reflexion der

Interpretationsarbeit. Es kann also hierbei nicht um naives Interpretieren im Sinne der romantischen Hermeneutik von SCHLEIERMACHER und DILTHEY gehen, sondern Hermeneutik wird im Sinne GADAMERs verstanden, sie ist demnach auch Reflexion der Bedingungen des Interpretierens (GADAMER 1965, S.220f.).

GTM kann ihrem von ihren Vätern erhobenen Anspruch, eine demokratische Sozialwissenschaft zu sein, nur dann genügen, wenn die methodologische Reflexion als Verstehen des Verstehens (vgl. SOEFFNER 1989) (zumindest zum Teil) in die Analysearbeit einbezogen wird. Das bedeutet, dass die Reflexion der Subjektivität (vgl. BREUER, MRUCK & ROTH 2002; MRUCK & BREUER 2003;

Références

Documents relatifs

Eine Ergänzung der §§ 16 und 20 JMStV, soweit „Aufsicht“ im § 20 erweiternd über Anbieteraufsicht hinausgehend verstanden werden soll, oder § 19 JMStV, wenn die Aufsicht über

Damit stellt sich die Frage, wie der erfolgreiche Studienverlauf ¨uber die Studienphasen und -zeiten hinweg strukturell bestm¨oglich gew¨ahrleistet und unterst¨utzt werden kann so-

Sie befasste sich nicht nur mit der Erforschung und dem Vergleich der ausländischen Gesetze, sondern war auch darauf bedacht, die internationale Zusammenarbeit zwischen

4.. Mein Je-sus lieb und klein, 3.. nnd ent-stellt, Hängst du voll Schmerz am 3. Kren-ze, Ver-kanntnon al ° 1er Welt. Vein Heiland ist gestorben. Dein Hei-land ist ae-stör-ben,Schau'

Wie sieht nun die Sprachlemwelt eines Asylbewerbers in der Deutschschweiz aus? Beispielhaft sollen einige Ausschnitte aus den Interviews vorgestellt werden, in denen

Vor diesem Hintergrund sind die Aussagen des Bundesgerichts zu diesem Punkt missverständlich, und es erscheint zutreffender, von einem Grundsatz der Beachtlichkeit

Die Spit- zenverbände der Arbeitgeber, von denen eine solche Haltung am ehesten hätte erwartet werden können, beziehen alle eine Stellung zwischen Nationalismus und

62) Fischer, W., Die Verstaatlichung weiterer Privatbahnen in der Schweiz im Lichte der Tarifpolitik.. die ira öffentlichen Verkehr ohnehin schon zurückgestellten