Название | Digitale Evolution, Revolution, Devolution? |
---|---|
Автор произведения | Brendan Erler |
Жанр | Математика |
Серия | |
Издательство | Математика |
Год выпуска | 0 |
isbn | 9783741851414 |
2.3.2 Grundgesamtheit, Korpus und Analyse
Grundsätzlich muss unterschieden werden zwischen dem Korpus der Diskursanalyse und anderen Informationsmaterialien (von Gesetzestexten zu Verbandstexten der Spezialdiskurse), die der Vertiefung des Wissens zu den erörterten Themen dienen. Als vorläufige Grundgesamtheit der eigentlichen Diskursanalyse dienen als Ausgangsbasis alle Artikel der Tageszeitungen Süddeutsche Zeitung, Frankfurter Allgemeine, WELT und TAZ, sowie die Wochenmagazine ZEIT und SPIEGEL, jeweils inklusive Online-Ablegern zwischen 2000-2012. Diese Grundgesamtheit wird in einem ersten Schritt durch eine kombinierte Stichwortsuche mit sich in der Vorrecherche als relevant herausgestellten Schlüsselbegriffen auf ein überschau- und bearbeitbares Maß reduziert. Die Einzelsuche aller Begriffe erwies sich als zu grob, aufwendig und diese Kombination aus jeweils mindestens einem Kultur- und Technik- bzw. Rechtsbegriff als gute Mischung aus Quantität und Qualität. Im nächsten Schritt werden für jedes Jahr aus diesen Artikeln alle Fehltreffer aussortiert, also alle Artikel, die keinerlei Bezug zum aktuellen Thema haben, z.B. eindeutige Fehltreffer [11] oder Artikel, die zwar z.B. irgendwie Urheberrechte zum Thema haben, aber in einem eindeutig anderen Kontext stehen.[12]
Grundgesamtheit: Alle Artikel der Tageszeitungen Süddeutsche Zeitung, Frankfurter Allgemeine, WELT und TAZ, sowie die WochenmagazineZEIT und SPIEGEL, jeweils inklusive Online-Ablegern. Zeitung des neuen Jahrtausends (2000-2012) [13].
1. Selektionsschritt: Kombinierte Stichwortsuche aus jeweils mindestens einem Kultur- (Kultur, Musik, Literatur etc.) und Technik- bzw. Rechtsbegriff (Digitalisierung, Urheber, Copyright etc.) bei SZ und FAZ.[14] Gleiches Prozedere mit angepasster Stichwortliste[15], wiederholt für die Tageszeitungen WELT und TAZ, sowie die Wochenmagazine ZEIT und SPIEGEL jeweils inklusive Online-Ablegern. Der Korpus umfasst 5064 Artikel.
Der übrig gebliebene „Rest“ der Artikel jeden Jahres bildet das vorläufige theoretische Sample der Diskursanalyse, wobei im Sinne des „theoretical sampling“ der GT jederzeit gezielt neue Daten zu einem bestimmten Themenaspekt erhoben werden können, da im Gegensatz zum statistischen sampling das Ziel der theoretischen Stichprobe kein verkleinertes Abbild der empirischen Fälle einer Grundgesamtheit ist, sondern „ein Abbild der theoretisch relevanten Kategorien“ (Hermanns zit. nach Rosenthal 2005, 85). Vollständigkeit entwickelt sich erst im Laufe der Untersuchung. Fällt ein Begriff oder Ereignis vollständig durch das Raster, so kann man entweder davon ausgehen, dass er keine größere Relevanz besitzt, oder, falls dies nicht der Fall ist, es sich um typische strukturelle Exklusionsmechanismen handelt, denen man in der Folge nachspüren kann (vgl. Keller 2003, 228). Im Laufe der Untersuchung identifizierte neue Schlüsselwörter können jederzeit in die kombinierte Suche der folgenden Jahre integriert werden oder gezielt zur Anreicherung eines Diskursstranges in einer Einzelsuche verwendet werden.
Bei der ersten Durchsicht der Artikel eines Jahres lassen sich diskursive Ereignisse bzw. Diskursstränge, also thematisch verwandte Artikel, identifizieren.[16] Diese Schlüsselereignisse dienen dann als Wegweiser des Diskursverlaufes, um die herum sich diskursive Positionen im Kampf um Deutungshoheit gruppieren.[17] Reiner Keller orientiert sich in seiner Diskursanalyse der bundesdeutschen Abfalldiskussion an den „wesentlichen Stationen der gesetzlich-administrativen Bearbeitung des Abfalls in diesem Zeitraum“ (Keller 2009, 97), also an den zum Thema verabschiedeten Gesetzen und Verordnungen. Für die Zusammenstellung des Korpus griff er weitgehend auf die Pressedokumentation beim Presse- und Informationsamt der Bundesregierung und auf die Dokumentationsstelle der Landeszentralbibliothek Düsseldorf zurück. Diese Strategie der Vorauswahl bietet sich aus pragmatischen Gründen der Zeitersparnis sicher an, jedoch würde dies für unseren Fall eventuell einen erheblichen Verlust spannender und relevanter Auseinandersetzungen mit sich bringen.
Außerdem ist es doch gerade interessant, welche Ereignisse überhaupt im Diskurs eine Rolle spielen im Sinne des „was wird gesagt und kann gesagt werden“, welche Ex- und Inklusionsmechanismen dabei am Werk sind. Zu diesem Zweck wäre es sicherlich spannend zu sehen, inwiefern bestimmte Ereignisse in den „seriösen“ Medien gerade keine Rolle spielen, z.B. im Vergleich zu Netzpublikationen. Da es sich eben nicht um die Analyse eines abseits des Diskurses erfass- oder messbaren „Gegenstandes“ oder klar definierbaren Themas handelt, wäre eine starre Vorabfestlegung des Datenmaterials oder der Themendefinition kontraproduktiv und -intuitiv, da ja gerade die Frage von Bedeutung ist, wie das Phänomen / Thema / Ereignis diskursiv konstruiert wird. Daher ist die „Identifikation der Daten für eine Diskursanalyse […] deswegen ein eher offener Suchprozess in verschiedene Richtungen, der sich immer nur vorläufig an Themen, Referenzphänomenen, Schlüsselbegriffen usw. orientieren kann. Denn ein wesentliches Ziel der Diskursforschung ist ja gerade die Beantwortung der Frage, welche(s) Wissen, Gegenstände, Zusammenhänge, Eigenschaften, Subjektpositionen usw. durch Diskurse als ,wirklich’ behauptet werden“ (Keller 2008, 265).[18]
2. Selektionsschritt: Identifikation von Schlüsselereignissen und Themen, Sortierung der Artikel.[19] Mittels der Identifikation von Deutungsmustern[20], „typisierte Schemata, die für individuelle und kollektive Deutungsarbeit im gesellschaftlichen Wissensvorrat zur Verfügung stehen“ (Keller 2003, 209), lässt sich ein „diskurstypisches Interpretationsrepertoire“, ein typisierbarer Kernbestand an Grundaussagen erarbeiten, welches sich über eine „story line“ zu einem Diskurs zusammenfügt (Keller 2008, 274): „Während der Begriff des Interpretationsrepertoires das Gesamt der spezifischen und typisierten Grundannahmen eines Diskurses bezeichnet, bezieht sich ,story line‘ auf die in-terne Strukturierung des Zusammenhangs dieser Grundannahmen“ (Keller 2009, 47).
Die sukzessive Auswahl zu analysierender Diskursfragmente erfolgt nach den Kriterien minimaler bzw. maximaler Kontrastierung. Begonnen wird mit einem als besonders bedeutend, vorbildhaft oder auffallend eingestuftem Text (Schlüsseltext). Dieser wird nach vorhandenen Deutungsangeboten, Diskurspositionen und Argumentationsmustern durchsucht. Nach erfolgter Auswertung und Kodierung wird zunächst nach möglichst ähnlichen Diskursfragmenten Ausschau gehalten, um die gebildeten Codes und Kategorien zu testen und gegebenenfalls zu erweitern. Mit Hilfe der maximalen Kontrastierung möglichst unterschiedlicher Daten ist man hingegen in der Lage „nach und nach das Gesamtspektrum des oder der Diskurse innerhalb eines Korpus zu erfassen und dadurch mehrere Diskurse zu einem Thema oder innerhalb eines Diskurses seine heterogenen Bestandteile herauszuarbeiten“ (Keller 2004, 88). Die Ergebnisse lassen sich nach und nach zur idealtypischen Form eines Diskurses verdichten und abstrahieren (vgl. Glaser / Strauss 1967 55f.; Rosenthal 2005, 96ff.; Keller 2003, 221f.).
3. Selektionschritt: Identifikation von besonders „ergiebigen“ (meinungsfreudigen, kontroversen) Schlüsseltexten, Suche nach ähnlichen und oppositionellen Artikeln (Minimale/Maximale Kontrastierung), Ergänzung ausgewogenerer „Mischartikel“[21]. Zu jedem Diskursstrang entwickelt sich ein Kategoriensystem vorhandener Diskursfragmente und diskursiver Positionen. Stellt sich heraus, dass man zu einem Diskursstrang keine wesentlichen neuen Fragmente und Aspekte entdecken kann und das Thema sich evtl. auch dem Ende zuneigt, z.B. im Rahmen eines Gesetzgebungsverfahrens, so geht es im nächsten Schritt darum, die Codes im Sinne des axialen Codierens zu abstrakteren Konzepten zusammenzufassen und deren latente Deutungsmuster und Interpretationsrepertoires herauszuarbeiten. So lässt sich der Diskursstrang zum „Urhebervertragsrecht“ von den ersten Unmutsäußerungen betroffener Autoren im Jahr 2000 bis zu den Résumés nach der Verabschiedung des Gesetzes Anfang 2002 nachverfolgen.
Abschluss der Codierung