ohne regionalen Schwerpunkt
Kommerzielle Bildanbieter entledigen sich zunehmend ihrer analogen Fotoarchive. Dabei geht es nicht selten um Millionen von Fotografien. Angesichts dieser Entwicklung stellt sich die Frage, wie es bei solchen Anbietern um die Wertschätzung ihres analogen Fotoerbes steht. Die Antwort scheint entsprechend einfach zu sein: Solche Bestände werden gering geschätzt. Die Fotoarchive werden abgegeben oder gar vernichtet, weil sie für ihre Besitzer mehr Verlust als Profit einbringen. In manchen Fällen übernehmen öffentliche Gedächtnisinstitutionen wie Archive, Museen und Bibliotheken die Bestände und widmen sie von Gebrauchs- zu historischen Fotoarchiven um. Dies hat im Zusammenspiel mit der allgemeinen Digitalisierung der Fotografie das Bewusstsein für die Historizität alter Pressefotografien und damit für ihren kulturellen sowie wissenschaftlichen Wert geschärft. Die einst massenhaft für den Verkauf hergestellten Gebrauchsbilder gelten heute als zeithistorische Dokumente. In der medialen Öffentlichkeit wird vollmundig vom »visuellen« oder vom »fotografischen« Gedächtnis eines ganzen Landes geschrieben.
Nachdem das Interesse an Dingen und damit an Materieller Kultur im Forschungsalltag mancher Disziplinen lange Zeit eher gering war, erlebt die Auseinandersetzung mit Dingen seit etlichen Jahren auch in der deutschsprachigen Wissenschaftslandschaft eine Renaissance. Das gilt nicht nur für Fächer, die sich schon seit jeher mit Materieller Kultur beschäftigen – etwa die archäologischen Wissenschaften, die Ethnologie und die Volkskunde/Europäische Ethnologie –, sondern zunehmend auch für solche Wissenschaften, deren genuiner Forschungsgegenstand keine materiellen Hinterlassenschaften sind, wie die Geschichtswissenschaft, die Philosophie, die Germanistik und verschiedene sozialwissenschaftliche Fächer. Zu denjenigen Fächern, die die Dinge für sich entdeckt haben, gehört seit wenigen Jahren auch die Zeitgeschichtsforschung. Auf den ersten Blick mag das zunehmende Interesse verwundern, verfügt die Zeitgeschichte doch über andere Quellenarten (Schriftdokumente, audiovisuelle Quellen, mündliche Zeugnisse), die deutlich mehr Aussagekraft als gegenständliche Objekte zu haben scheinen. Den Dingen wird von der Zeitgeschichtsforschung heute offenbar ein Erkenntniswert zugemessen – befördert unter anderem auch durch die Studien Bruno Latours und seine Akteur-Netzwerk-Theorie (ANT) –, der ihnen zuvor abgesprochen bzw. nicht zuerkannt worden war.
Vertreter_innen der Akteur-Netzwerk-Theorie oder der Cyborg-Anthropologie kritisieren gegenwärtig die Privilegierung des Menschen als autonomem Akteur und handlungsmächtigem Gestalter seiner Umwelt. Dadurch wird die Frage nach der Rolle und Bedeutung von Dingen für gesellschaftliche Dynamiken neu aufgeworfen. Galten sie bisher meist als passive Objekte menschlicher Agency, erscheinen sie nun zunehmend als Koproduzenten von Handlungsmacht. In diesem Sinn spricht Bruno Latour von menschlichen und nicht-menschlichen Aktanten.
In den 1970er- und 1980er-Jahren galt die militärgeschichtliche Forschung in der Bundesrepublik als sehr konservativ. Viele sich als progressiv verstehende Geschichtswissenschaftler und -lehrer betrachteten eine zu intensive Beschäftigung mit Militär und Krieg als politisch verfehlt, pädagogisch gefährlich und wissenschaftlich anachronistisch. Zwar wurde „Militarismus“ als historisches und soziologisches Phänomen erforscht sowie „historische Friedensforschung“ zum Postulat der Geschichtsdidaktik gemacht, doch entfernte man sich in „pazifistischem Affekt“ (Jan Philipp Reemtsma) von der konkreteren Realität des Gewalthandelns und der militärischen Vergesellschaftung. Dies war einerseits verständlich und aus heutiger Sicht dringend geboten, um die preußisch-deutschen Traditionen einer Glorifizierung des Militärs und einer anwendungsorientierten Operationsgeschichtsschreibung zu überwinden. Andererseits wurden durch die dezidierte Abkehr vom Militärischen viele Gegenstandsbereiche ausgegrenzt, die zum Verständnis der deutschen und internationalen Geschichte besonders des 19./20. Jahrhunderts essenziell sind.
Seit einiger Zeit erfreuen sich Themen wie »Gerechtigkeit«, »Würde« oder das »richtige« Leben großer Popularität. Auch in der Geschichtswissenschaft floriert die Erforschung von Moral: »Menschenrechte«, »Transitional Justice« oder »Humanitarismus« sind als neue Themenfelder erschlossen worden. In Frankfurt am Main und Berlin beschäftigen sich größere Forschungsverbünde mit der Analyse normativer Ordnungen moderner Gesellschaften. Unter dem Schlagwort »NS-Moral« geht es um Inhalte und Geltungsmacht einer partikularen Moral des Nationalsozialismus. Zeitlich übergreifende Darstellungen zur Geschichte der »Menschheit« oder des »Westens« verfolgen selbst das Ziel, eine bestimmte (politische) Moral zu rechtfertigen.
Die (west)deutsche Geschichtsdidaktik hat in den letzten drei Jahrzehnten eine erstaunliche Entwicklung genommen. Fast 100 Jahre in das Gehäuse einer bloßen Methodenkunde der historischen Wissensvermittlung gesperrt, hat sie die Überwindung der Geschichtskrise der 1970er-Jahre genutzt, um sich nachgerade als eine historische Metawissenschaft neu zu begründen. Karl-Ernst Jeismanns programmatische Erklärung auf dem Historikertag 1976, das Interesse der Geschichtsdidaktik gelte „dem ständigen Um- und Aufbau historischer Vorstellungen, der stets sich erneuernden und wachsenden Rekonstruktion des Wissens von der Vergangenheit“, hat eine Neuorientierung ermöglicht, die von der Pragmatik der historischen Wissensvermittlung zu den Normen der historischen Wissensgeltung im Spannungsfeld von Vergangenheit, Gegenwart und Zukunft vorstieß. Der Geschichtsunterricht wurde dabei nur mehr „als ein geschichtsdidaktisches Aufgabenfeld unter vielen [...], damit auch als ein Forschungsfeld unter vielen“ betrachtet. Besonders durch die Systematisierung der „Geschichtskultur“ als weiterer Zentralkategorie, deren Über- oder Unterordnungsverhältnis zum Terminus „Geschichtsbewusstsein“ unter Didaktikern selbst umstritten ist, trat die Geschichtsdidaktik aus dem schulischen Klassenzimmer heraus, um sich den übergreifenden Mechanismen der Vergangenheitsvergegenwärtigung in der Gegenwart zu widmen.
Nach zwei großen Konjunkturen von den 1920er bis in die 1940er Jahre und von den 1960er bis in die 1970er Jahre war in den 1980er Jahren ein Niedergang der vergleichenden Faschismusforschung zu verzeichnen. Hans-Gerd Jaschke sprach für diese Zeit sogar von einem »theorielosen Empirismus« und einem Abrutschen in »marginale Fragestellungen« der Faschismusforschung. Die alten Bekannten aus den 960er und 1970er Jahren, wie etwa George L. Mosse, Stanley Payne, Wolfgang Schieder und später auch Wolfgang Wippermann, publizierten zwar nach wie vor wichtige Aufsätze und anregende Monographien und Sammelbände, aber die vergleichende Faschismusforschung hatte an Ausstrahlkraft verloren. Nicht unwesentlich hatten die Probleme der tradierten Faschismusforschung der 1970er Jahre zum Erliegen der Faschismusrezeption und -forschung geführt.
Es Ist ein fragend-tastendes sich Annähern an eine historiografische Perspektivumkehr, wie sie aus den zitierten Zeilen von Tony Bennett und Patrick Joyce spricht. Beide haben mit „Material Powers" einen der Bände herausgegeben, die hier zur Diskussion stehen. Für manche Historikerinnen und Historiker mag der,material turn1 eine „Provokation“ bedeuten (so der Untertitel einer Sektion zu Geschichte und Materialität auf dem Historikertag 2012 in Mainz). Doch beweist die gegenwärtige (Wieder-)Annäherung unterschiedlicher kultur- und gesellschaftswissenschaftlicher Disziplinen an die Dimension Materialität, dass Jahrzehnte einer perspektivischen Ent-Materialisierung als Defizit wahrgenommen werden - der Archäologe Bjornar Olsen spricht von einer „kollektiven Amnesie“ der Kultur- und Gesellschaftswissenschaften gegenüber dem Materiellen.
„Computerspiele einschließlich anderer interaktiver Unterhaltungsmedien (Video-/Konsolen-, Online- und Handyspiele) haben in den letzten Jahren kontinuierlich an Bedeutung gewonnen. Sie sind in Deutschland wirtschaftlich, technologisch, kulturell und gesellschaftlich zu einem wichtigen Einflussfaktor geworden. [...] Computerspiele transportieren gesellschaftliche Abbilder und thematisieren eigene kulturelle Inhalte. Sie werden damit zu einem bedeutenden Bestandteil des kulturellen Lebens unseres Landes und sind prägend für unsere Gesellschaft.“1 Wie der Beschluss des Deutschen Bundestags zur Einrichtung des Deutschen Computerspielpreises zeigt, der seit 2009 jährlich vergeben wird, werden Computerspiele mittlerweile auch von offizieller Seite als ebenso bedeutsam wahrgenommen wie andere, bereits etablierte Kulturgüter. Diese Entwicklung entspricht in ihrer Grundtendenz derjenigen anderer Medien wie Film oder Comic, deren kulturelle Bedeutung ebenfalls erst einige Zeit nach ihrer Erfindung gesellschaftlich anerkannt und staatlich gefördert wurde.
Der Titel legt nahe, es ginge im Folgenden darum, zukünftige theoretische oder empirische Forschungsthemen zu identifizieren, die bislang entweder kaum bearbeitet wurden oder deren weitere Bearbeitung zusätzliche Erkenntnisgewinne verspricht. Zwar wird auch davon noch die Rede sein, aber in erster Linie verfolge ich die Absicht, eine kritische Bestandsaufnahme der derzeitigen sozialwissenschaftlichen Gewaltforschung vorzunehmen, indem ich frage, welche Ansätze sich schon in der Vergangenheit als problematisch erwiesen haben und von welchen somit wohl auch in Zukunft kaum Neues zu erwarten sein dürfte. Mein Text ist thesenartig gehalten und gliedert sich in mehrere Teile: Im ersten Teil zeichne ich einleitend die Frontlinien in der vor etwa 20 Jahren aufgebrochenen und mittlerweile gut bekannten Auseinandersetzung zwischen den sogenannten »Mainstreamern« und den sogenannten »Innovateuren« der Gewaltforschung nach, bevor ich zu diesem ganzen Komplex einige wissenschaftstheoretische Anmerkungen mache, mit denen ich dann zu den Themen des zweiten Teils überleite. In diesem zweiten Teil liegt der Schwerpunkt auf Theorieangeboten, die im Kontext der Gewaltforschung derzeit gemacht werden: Aufgrund einer Reihe aktueller Publikationen zu »Gewalträumen« gehe ich zunächst vergleichsweise ausführlich und kritisch auf diese Problematik ein, bevor ich mich anschließend den organisationssoziologischen Herangehensweisen an das Gewaltthema widme. Im letzten Teil lasse ich mich zunächst von der Beobachtung einer allzu häufigen und leichtfertigen Rede von »Eigendynamiken« und »Prozessen« in der Gewaltforschung irritieren, um schließlich am Ende meiner Ausführungen einige Linien für zukünftige Arbeiten zu skizzieren.
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
Im September 2004 gab es in Oxford bereits die fünfte «Global Conference Cultures of Violence». Und an deutschsprachigen Pendants herrscht kein Mangel – zuletzt etwa die Tagung zur Repräsentation von «Gewalt und Moral» an der Universität Basel, Juli 2006, die Sektion über Gewaltbil der auf dem Deutschen Historikertag, die Tagung «Blutige Worte: Sprache und Gewalt» im September 2006 an der FU Berlin, und noch einmal «Gewalt durch Sprache», ebenfalls in Berlin, Anfang November 2006. Das ist eine ganze Menge Gewalt. Ich habe selbst über Gewaltdarstellungen gearbeitet und fleißig Tagungsvorträge darüber gehalten. Aber ich habe allmählich leise Zweifel, ob das alles so richtig läuft mit der Gewalt in den Kulturwissenschaften. Und davon handelt dieser Versuch.
Betrachtet man die Moderne als Projekt der Kontingenzbewältigung, so ist „Sicherheit“ eines ihrer wichtigsten Kernelemente, zielte das Projekt der Moderne doch unter anderem darauf, durch soziale Sicherungssysteme Lebensrisiken zu reduzieren. Wissenschaftliche und technische Fortschritte spielten dabei eine wesentliche Rolle, da entsprechende Hoffnungen von einem weit verbreiteten Optimismus getragen wurden. Je stärker sich jedoch die Erfahrung verdichtete, dass dieser Fortschritt vielfältige Gefahren erst schuf, umso mehr erschien die Moderne als eine Epoche, die im Dienst des Fortschritts auch neue Risiken wie Reaktorunfälle, Börsencrashs oder Arbeitslosigkeit generiert.
Es liegt gleichsam auf der Hand, dass Sicherheit immer auch eine räumliche Dimension aufweist – „Territorialisierungsdynamiken“, so stellte der Historiker Eckart Conze fest, „sind über weite Strecken Sicherheitsdynamiken.“ Schon der Geograph Robert Sack fasste Territorialität als ein Bestreben von Individuen oder Gruppen, im Raum auf Personen, Phänomene und Beziehungen ordnend einzuwirken. Durch die Begrenzung eines geographischen Gebiets werde versucht, eine regulative Kontrolle durchzusetzen. Umso mehr erstaunt daher, wie wenig dieser offensichtliche Wechselbezug zwischen Räumlichkeit und Sicherheit in der Theoriediskussion bislang reflektiert worden ist. Dieser Beitrag möchte aus historischer Perspektive einzelne Ansätze systematisch aufeinander beziehen. Er wird zunächst einen kurzen Überblick über die fragmentierte Theorielandschaft geben, um dann am Beispiel zentraler interdisziplinärer Forschungsfelder neue Perspektiven für einen integrierten Gesamtansatz zu erschließen.
Mit dem Ende des Ersten Weltkrieges war der Abschied von einem bedingungslosen Fortschrittsglauben gekommen. Die Erfahrungen des Stellungskrieges und der Materialschlacht munitionierten die Fortschrittskritik. Die universitäre Etablierung des Fachs Volkskunde im Jahr 1919 war seit den letzten beiden Jahrzehnten des 19. Jahrhunderts durch wissenschaftliche Zeitschriften, Kongresse und museale Sammlungen vorbereitet und von der »Suche nach dem Elementaren in der Kultur« begleitet worden. Die Hinwendung zu den Dingen, vor allem zu Arbeits- und Hausgerät aus europäischen Reliktgebieten, spielte in diesem Prozess eine wichtige Rolle. Die Frage nach ihrer Bedeutung und Sinnaufladung verdichtete sich mit der Disziplinierung, auch wenn die Erforschung der materiellen Kultur nicht der einzige Gegenstand des Faches war, das sich aus den Philologien herausbildete. Geht man davon aus, dass das 19. Jahrhundert das »Saeculum der Dinge« ist, weil die industrielle Massenproduktion die Verfügbarkeit sowie den Verbrauch der Dinge seit der zweiten Hälfte des 19. Jahrhunderts immens steigerte, dann führt der Weg zu der intensivierten Aufmerksamkeit für die Dinge des Alltags in Kunst, Literatur und Wissenschaft in die ersten Jahrzehnte des 20. Jahrhunderts.
Milton Friedman hung up the phone in disgruntlement. The most influential economist of the postwar era had just called three different banks, one in Chicago and then two in New York, in order to initiate a financial transaction. He wanted to sell short $300,000 in pound sterling. Short selling is a technique for speculating on falling prices. Initially, speculators can only speculate on rising prices: they buy something and hope that it gains value, so that they can sell it at a profit. If the price for this asset goes down instead, the speculator incurs a loss when he resells it. So in order to profit from falling prices, speculators need to sell first and buy later – which is indeed possible if what is sold now is in fact only to be delivered a few weeks later. If the speculator is right and prices fall in the interim, he can buy cheap just before delivery is due and thus profit from having already sold what, at the time, he had not yet owned.
The fiftieth issue
(2021)
At first glance, the seventeenth year of this journal’s publication would not appear to mark any particular anniversary. And yet the present edition is quite special for the editors and the editorial team: it is the 50th issue overall. (There was a double issue in 2007, otherwise there have always been three issues each year.) This milestone is the occasion for a brief review of the original objectives and of developments thus far, as well as a (self-)critical look at what the future may bring. Scholars in the nascent field of the cultural study of periodicals have rightly observed: ›The production of periodicals is often accompanied by reflections on the value, conditions, and promise of producing periodicals.‹
Historians have analyzed films, novels, records, theater plays etc. primarily in reference to their meaning and reception. This article makes a case for moving the focus to the actors, structures and processes that shape symbolic objects before these are consumed. To this end, we present a framework established in US sociology to study the fabrication, distribution and evaluation of symbolic content. We discuss the production of culture perspective as an approach that appears to be particularly useful for historical research and, by reviewing selected works from the sociological literature, demonstrate how this perspective can be applied to phenomena like popular music and literary fiction. We focus on genres as bundles of conventions as one lens through which historians may analyze the creation, reproduction, evaluation and consumption of culture.
Theory matters. Most historians would probably agree with this postulate, in the sense that theories from disciplines such as sociology, economics or psychology can sharpen historical analyses of any topic (though many of them may prefer quite pragmatic, common-sense approaches in their own empirical studies). But when it comes to a historical understanding of a phenomenon like marketization, theory does remain an analytical resource – and at the same time turns into a multifaceted object of research. The way we think about markets is highly affected by theorists, and not only by their ideas but also by their effectiveness in making them influential over specific periods of time.