Wissenschaft
Refine
Year of publication
Document Type
- Journal Article (159)
- Online Publication (69)
- Part of a Book (13)
- Book (4)
Keywords
- Historiker (2)
- Auftragsforschung (1)
- Behördenforschung (1)
- Deutschland (1)
- Deutschland (DDR) (1)
- Dossier (1)
- Geschichte (1)
- Geschichte 1930 - 1949 (1)
- Geschichte 1949-2014 (1)
- Geschichte 1969-1975 (1)
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
Stress ist als Begriff und Problem weit über die Medizin- und Wissenschaftsgeschichte hinaus relevant; Stressdiskurse können als Sonde für breitere gesellschaftsgeschichtliche Konstellationen dienen. Eine geschichtswissenschaftliche Auseinandersetzung mit Stress muss daher zum einen dem medizinisch-biologischen Konzept nachgehen, zum anderen dessen gesellschaftliche Funktionalität erfassen. Die Zeitgeschichte wird den Fokus besonders auf die sozioökonomischen Prozesse und die soziale Sinngebung richten. Gleichwohl gibt es ein nicht zu vernachlässigendes methodisches Grundproblem: Wie lässt sich eine Beziehung herstellen zwischen den biochemischen und psychologischen Dimensionen, die mit dem Stressbegriff verknüpft sind, sowie den komplexen sozialen Konfigurationen, die dieser Begriff rationalisieren soll? Was sind die Konstituenten und Selbstbeschreibungsmodi einer Gesellschaft, die sich durch Flexibilisierung und Regulierung gleichermaßen auszeichnet? In welchem Verhältnis stehen zudem die jüngere Entwicklung seit den 1970er-Jahren, in der Stress eine hohe Deutungsmacht erhalten hat, und die Überforderungsdiskurse seit dem Ende des 19. Jahrhunderts?
Seit den 1960er-Jahren ist die Kopplung von Stress und Vorsorge unter dem Stichwort der »Risikofaktoren« zunehmend populär geworden. Wahrscheinlichkeitskalküle, die auf die Steuerung und Verbesserung der kollektiven Gesundheit der Bevölkerung zielen, werden als Grundlage herangezogen, um dem Individuum eine Selbstverantwortlichkeit für seine Risikovorsorge zuzuschreiben. Dieser Ansatz ermöglicht die Übersetzung statistischer Wahrscheinlichkeiten in eine Hermeneutik des Selbst. Im Rahmen der Prävention verschiebt sich der Akzent von der Krankheitsdiagnostik auf die Gesundheitsvorsorge. Durch die Propaganda zur Risikoverhütung – dass der Gesunde pathogene Faktoren vermeiden solle – verschwimmt allerdings die Grenze zwischen Gesundheit und Krankheit. Das gilt auch für das Phänomen Stress. Obschon Stress selbst nicht als Krankheit gilt, wird in ihm doch ein potentieller Verursacher vermutet: eben ein »Risikofaktor«. Und auch wenn er damit als mögliche Ursache für viele Krankheiten verhandelbar wird, gibt es bestimmte pathologische Erscheinungen, mit denen er eine besonders innige Beziehung unterhält – dazu zählt der Herzinfarkt. Dieser wird zum Synonym für die Folgen eines von zu viel Stress bestimmten Lebens. Die Relation von Stress und Herzinfarkt lässt sich nicht nur medizinisch begründen; ihre kulturelle Plausibilität verweist auch auf eine symbolische Dimension. Das Herz als symbolischer Träger menschlicher Aktivität und Emotionalität gerät unter dem Eindruck der modernen Hetze außer Takt.
»Anyone writing about the history of wellness would have an easy time at the beginning of the endeavor. Regarding the origin there is no doubt.« Am Anfang des Diskurses über Wellness, so war sich der »Wellness-Evangelist« Donald Ardell 1985 sicher, steht eine Person: Halbert L. Dunn, der im Jahr 1959 insgesamt 29 Vorträge zum Thema »High-Level Wellness« in der Unitarian Church in Arlington, Virginia hielt. 1961 erschienen diese Vorträge in Buchform. »Wellness«, bis dahin ein wenig gebräuchliches Wort für das Gegenteil von »Sickness«, wurde infolge dieser Publikation zu einer Antwort auf »Stress«. Dass Dunn die Vorträge in einer Kirche hielt, passte zu seiner epochalen Mission. Der Mensch stehe an einem Scheitelpunkt: Er könne sich für sein kreatives Potential entscheiden oder in den Abgrund des Krieges zurückrutschen.
»The Wisdom of the Body«: Das klingt nicht erst heute mehr nach Esoterik als nach dem wichtigen physiologischen Hauptwerk, als das es Walter Bradford Cannon 1932 für ein breites Publikum verfasste. Solche Überraschungen hören nicht beim Titel auf. Gleich der erste Satz der Einleitung lautet zum Beispiel: »Our bodies are made of extraordinarily unstable material.« Und das erste Kapitel trägt den Titel »The Fluid Matrix of the Body«. War Cannon ein postmoderner Theoretiker dynamisch-fluider Körperlichkeit avant la lettre? Soweit wird man nicht gehen können, aber tatsächlich hat das Buch heute in Zeiten von Stress, Resilienz und einem wiedererstarkten Systemdenken in der Biologie an Aktualität und Überzeugungskraft zurückgewonnen. Was Cannon hier auf dem Höhepunkt seiner Karriere vorgelegt hatte, war mehreres in einem: die Summa seiner Forschungen, das Lehrbuch einer neuen integrierten Theorie des Organismus – für die er den Neologismus »Homöostase« prägte –, ein populäres Werk über die Fortschritte physiologischer Forschungen seiner Zeit und schließlich das Plädoyer eines fest in den Naturwissenschaften verankerten Humanisten für eine bessere Weltordnung. Denn auf der Basis seiner Theorie der Homöostase wollte er schließlich auch den Staat reformieren – zu einem perfekten Vorsorgestaat nach biologischem Vorbild, inklusive systematischer Vorratsplanung mitsamt Reservearbeitsplätzen für Krisenzeiten. Mit etwas Zögern, aber dafür umso nachdrücklicher hatte er deshalb dem Buch einen Epilog hinzugefügt: »Relations of Biological and Social Homeostasis«.
Was vor einigen Jahren ein Schreckensszenario war, ist längst eingetreten. Für den wissenschaftlichen Nachwuchs gilt schon heute: »Quod non est in google, non est in mundo.« Freilich, eine verkürzte Sicht. Der Aufbau elektronischer Findmittel zur Durchforstung von Archiv-, Bibliotheks- und Museumsbeständen hat in den vergangenen Jahren ein starkes wissenschaftliches Interesse gefunden. Die Gesellschaft vernetzte sich, es entstanden viele nützliche Service-Angebote, neue Begehrlichkeiten wurden geweckt. Heute geht es nicht mehr darum, Inhalte nur zu erschließen, sondern darum, sie online zu vermitteln. In sozialen Medien werden diese Inhalte »getaggt«, »geliked«, empfohlen oder gar kommentiert. Die sammelnden Institutionen stehen damit vor einer gewaltigen Herausforderung – technisch, finanziell und vor allem konzeptionell. Mit dem Aufkommen von Bits und Bytes befindet sich die Kulturtechnik des Sammelns und Präsentierens in einem tiefgreifenden Umbruch. Der digitale Wandel impliziert die Frage, ob Gedächtnisinstitutionen künftig noch derselbe Stellenwert zukommen wird, zukommen muss wie heute: Schaffen entmaterialisierte Kulturgüter eine neue Kulturgesellschaft?
Fotografien haben für die historische Forschung zunehmend an Bedeutung gewonnen. Dienten sie vormals zumeist der Textillustration, werden sie inzwischen als eigenständige historische Quellen ernstgenommen. Die einschlägigen Publikationen, die sich entweder theoretisch mit der Visual History auseinandersetzen oder aber an konkreten Beispielen sich bildhafter Quellen annehmen, sind kaum mehr zu überblicken. Eine Gemeinsamkeit ist dabei: Nicht mehr nur der Bildinhalt spielt für die Geschichtswissenschaft eine Rolle; gefragt wird auch nach dem Entstehungskontext, der Überlieferung und der Rezeption der Bilder. Damit gerät zugleich die bisher übliche Aufbewahrungspraxis der Fotografien im Archiv in den Fokus: Die meist thematische Ordnung der Materialien lässt häufig keine Rückschlüsse auf diese neuen Fragen zu.
The paper explores representations of economic reform in Czechoslovakia immediately before and after the fall of the centrally planned economy in 1989/90. By what means was the concept of rapid economic transition towards a liberal market setting mediated into the academic and the public sphere? How did it achieve wide public consent? In the first part, the paper analyzes the Czechoslovak academic discussion about perestroika in the late 1980s, where a rapid liberal transition was cast by a distinct group of younger scholars as the only possible way of reforming the socialist economy. Their training was based above all on Paul A. Samuelson’s canonical textbook Economics, which presented this discipline almost as a natural science with universal standards. Immediately after 1989/90, when some of these scholars assumed executive positions within the new Czechoslovak government, what were at first purely economic ways of reasoning merged with certain images of the national past, creating a mixture of liberal economic knowledge and national exceptionalism.
The newly emerging historical scholarship on the era ›after the boom‹, on the marketization of societies in the wake of the neoliberal political reforms, deregulation, and privatization starting in the 1970s, has emphasized this threshold as an epochal break that was driven by large-scale structural shifts in the global economy, in social relations, and in cultural identities. This new accentuation of the economic and social transformation has, for good reason, eclipsed older historical traditions that focused on events, discourses, specific interests, and individual actors. The marketization of social relations is thus often considered to be the result of processes beyond the reach and scope of purposeful actors that promoted specific societal changes. While this historical focus is quite right in denying independent causal status to specific agents and the self-aggrandizement of vain leaders and their intellectual entourage, it tends to obscure the historical genesis of ideas and concepts that later became critical components of political leadership, and the specific constellations of interests, knowledge and actors that did prefigure and originally promote the marketization of economic and political institutions.
In seiner Geschichte der jüngsten Vergangenheit Amerikas, die 2011 unter dem Titel »Age of Fracture« erschien, begreift der Historiker Daniel T. Rodgers die wirtschaftlichen Veränderungen, die sich seit den 1970er-Jahren vollzogen, in ideengeschichtlicher Perspektive als »Wiederentdeckung des Marktes«. Paradoxerweise sei die Idee und Rhetorik des Marktes, als eines abstrakten und dekontextualisierten Prinzips, das auf eine Vielzahl menschlicher Lebensbereiche angewendet werden könne, gerade zu dem Zeitpunkt populär geworden, als allenthalben Marktversagen zu beobachten gewesen sei.[1] Die entscheidende Veränderung der letzten Jahrzehnte, die sich im Bereich der akademischen Wirtschaftswissenschaften vollzogen habe, fasst Rodgers als »an effort to turn away from macroeconomics’ aggregate categories and try to rethink economics altogether from microeconomic principles outward«.[2] Mit der Erklärung makroökonomischer Phänomene auf der Basis mikroökonomischen Verhaltens sei zugleich versucht worden, immer weitere Gesellschaftsbereiche über die Prinzipien individueller Nutzenmaximierung zu erklären.
Marketization is a broad term with a wide range of meanings. It encompasses measures of deregulation and privatization as well as the perceived increase of an ›economic‹ logic in social relationships. For historical purposes, the term should not be narrowly defined, and nor should the concept of marketization be used in an ahistorical manner detached from contemporary usage. However, there are two questions which the historical analysis of marketization needs to address. First, what is the conceptual understanding of the market mechanism to which the term marketization is linked? Second, what is the relationship between marketization and economic theory?
»What was it that converted capitalism from the cataclysmic failure which it appeared to be in the 1930s into the great engine of prosperity of the post war Western world?« (S. 3) Das ist die Leitfrage von Andrew Shonfields vor 50 Jahren erschienenem Buch über den »modernen Kapitalismus« der 1960er-Jahre. Wie konnte es zu dem »Goldenen Zeitalter« (Eric Hobsbawm), also der fast drei Jahrzehnte andauernden Nachkriegsprosperität kommen, nachdem der Kapitalismus im Zuge der Großen Depression abgewirtschaftet zu haben schien und sich eine breite ordnungspolitische Debatte um alternative Wirtschaftsformen entwickelt hatte?
Theory matters. Most historians would probably agree with this postulate, in the sense that theories from disciplines such as sociology, economics or psychology can sharpen historical analyses of any topic (though many of them may prefer quite pragmatic, common-sense approaches in their own empirical studies). But when it comes to a historical understanding of a phenomenon like marketization, theory does remain an analytical resource – and at the same time turns into a multifaceted object of research. The way we think about markets is highly affected by theorists, and not only by their ideas but also by their effectiveness in making them influential over specific periods of time.
Stress ist ein ubiquitärer Begriff – seine geschichtswissenschaftliche Erforschung aber hat erst begonnen. Der Aufsatz skizziert programmatisch die Genese und die Funktionen des Stresskonzepts im 20. Jahrhundert. Dabei wird Stress nicht in erster Linie als Syndrom und Krisenphänomen betrachtet, sondern als Deutungs- und Handlungsangebot westlicher Gesellschaften, die sich als instabil, wandelbar, innovativ und dynamisch begreifen. Die performative Kraft des Stresses als Modus gesellschaftlicher Selbstreflexion wird in vier historisch und systematisch aufeinander bezogenen semantischen Feldern untersucht: Stress als Regulations- und Anpassungsmodell, Stress als Prinzip der Wettbewerbsgesellschaft (mit engen Beziehungen zu Arbeit, Leistung und Erfolg), Stress als Zivilisationskritik (mit der stressfreien Gesellschaft als utopischem Gegenbild) sowie Stress als flexible Ökologie von Mensch-Umwelt-Verhältnissen. Dabei handelt es sich weniger um eine chronologische Ordnung als vielmehr um Deutungsvarianten, die in unterschiedlichen Verwendungskontexten aufkamen und sich im heutigen Stressbegriff überlagern.
In der westdeutschen Universitätsmedizin galt Stress zunächst als deskriptive Laborbeobachtung und nur wenig origineller Versuch des Hormonforschers Hans Selye, die Regulationsmechanismen des Körpers mit einem ganzheitlichen Konzept zu beschreiben. Selyes in Kanada entwickelte Ansätze fanden in der Bundesrepublik kaum positive Resonanz; das Stresskonzept schien in den 1950er-Jahren keine Zukunft zu haben. Dies änderte sich in den 1960er-Jahren, als Stress über das Risikofaktoren-Modell mit der Diskussion um Herz- und Kreislauferkrankungen verbunden wurde. Stress wurde nun Leitbegriff und Forschungsressource von Disziplinen wie Sozialmedizin, Psychosomatische Medizin, Arbeitsmedizin und Präventivmedizin. Um 1970 trat zu den Bezugsebenen »Zivilisation« und »Gesellschaft« noch »Umwelt« hinzu. Insbesondere drei Bedrohungsszenarien erwiesen sich als Stimuli der medizinischen Stressforschung: Überbevölkerung und Verstädterung, Verkehr und Lärm sowie der Wandel der Arbeitswelt. Weit über wissenschaftliche Verwendungen hinaus wurde der Stressbegriff populär, weil er zeitdiagnostisches Deutungspotential gewann und sich als eine Verständigungsplattform der Verunsicherten eignete.
Wie reagieren Menschen auf Katastrophen? Wie lassen sich Bevölkerungen in Extremsituationen führen? Mit diesen Fragen beschäftigten sich in den 1950er-, 1960er- und 1970er-Jahren mehrere US-amerikanische, teilweise durch die Armee finanzierte Forschungsgruppen. Sie waren interdisziplinär zusammengesetzt, aber mehrheitlich soziologisch ausgerichtet. Innerhalb wie außerhalb der USA studierten sie das Stressverhalten von Individuen und Gruppen in Tornados, eingeschneiten Autobahnraststätten und »racial riots« sowie ergänzend in Laborsimulationen. Anhand zeitgenössischer Publikationen und interner Akten werden in diesem Aufsatz die Erkenntnisinteressen und Untersuchungsfelder der sozialwissenschaftlichen Katastrophenforschung, ihre Befunde und deren Nutzung dargestellt. Die Tätigkeit der Wissenschaftler/innen stand im Kontext des Kalten Kriegs und eines sich verschiebenden Gefahrensinns. Dabei ließen sich die Forscher/innen keineswegs vollständig politisch vereinnahmen, sondern verfolgten durchaus eigene Interessen und gaben mitunter Antworten, die den Intentionen der Auftraggeber zuwiderliefen.
Wann und wie wandelten sich in der DDR-Gesellschaft langfristig politische Einstellungen und Wertorientierungen, wie sie dann 1989 in der Herbstrevolution sichtbar wurden? Anknüpfend an Konrad H. Jarauschs These von der »Umkehr« als fundamentalem Demokratisierungsprozess im geteilten Nachkriegsdeutschland untersucht der Beitrag die Möglichkeiten und Grenzen der Stellvertreterbefragungen, die das westdeutsche Meinungsforschungsunternehmen Infratest im Auftrag der Bundesregierung von 1968 bis 1989 durchgeführt hat. Befragt wurden westdeutsche Besucher der DDR über die Ansichten eines von ihnen definierten Gesprächspartners im ostdeutschen Staat, den sie besucht und mit dem sie ausführlich gesprochen hatten. Dieser Serie zufolge stand eine breite und wachsende »schweigende Mehrheit« der DDR-Einwohner dem System distanziert gegenüber, war aber weder im westlichen noch im östlichen Sinne besonders ideologisch präformiert. Sie maß die DDR vor allem an ihren praktischen Leistungen im Hinblick auf Lebensstandard und Perspektiven. Das Interesse an Politik sank ab Mitte der 1970er-Jahre, stieg dann aber wieder an und orientierte sich zunehmend an westlichen Politikformen.
Kommerzielle Bildanbieter entledigen sich zunehmend ihrer analogen Fotoarchive. Dabei geht es nicht selten um Millionen von Fotografien. Angesichts dieser Entwicklung stellt sich die Frage, wie es bei solchen Anbietern um die Wertschätzung ihres analogen Fotoerbes steht. Die Antwort scheint entsprechend einfach zu sein: Solche Bestände werden gering geschätzt. Die Fotoarchive werden abgegeben oder gar vernichtet, weil sie für ihre Besitzer mehr Verlust als Profit einbringen. In manchen Fällen übernehmen öffentliche Gedächtnisinstitutionen wie Archive, Museen und Bibliotheken die Bestände und widmen sie von Gebrauchs- zu historischen Fotoarchiven um. Dies hat im Zusammenspiel mit der allgemeinen Digitalisierung der Fotografie das Bewusstsein für die Historizität alter Pressefotografien und damit für ihren kulturellen sowie wissenschaftlichen Wert geschärft. Die einst massenhaft für den Verkauf hergestellten Gebrauchsbilder gelten heute als zeithistorische Dokumente. In der medialen Öffentlichkeit wird vollmundig vom »visuellen« oder vom »fotografischen« Gedächtnis eines ganzen Landes geschrieben.
Anfang 2014 konnte der rund 50.000 Aufnahmen umfassende Nachlass des Fotografen Wolfgang G. Schröter (1928–2012) zusammen mit zahlreichen Arbeitsabzügen, Belegexemplaren, der Handbibliothek und biographischen Dokumenten von der Deutschen Fotothek für das »Archiv der Fotografen« übernommen werden. Schröter gehörte zu den paradigmatischen Ausnahmefotografen der frühen DDR. Unter Nutzung der Methoden von Wissenschafts- und experimenteller Fotografie entwickelte er eine eigene Bildsprache, die avantgardistische internationale Fotografie-Entwicklungen aufgriff, ohne diese zu imitieren. Schröters frühe farbfotografische Experimente wurden 1977 im Zuge der Nobilitierung der Fotografie als künstlerisches Medium in der Hallenser Ausstellung »Medium Fotografie« gewürdigt. Bis heute werden seine Aufnahmen in zahlreichen Einzel- und Gruppenausstellungen gezeigt.
Die gleichberechtigte Einbeziehung von Frauen in Forschung und Lehre steht heute weit oben auf der politischen Agenda bundesdeutscher Wissenschaftspolitik. Primäres Ziel ist es gemäß dem sogenannten »Kaskadenmodell«, den Frauenanteil auf allen Karrierestufen in Forschung und Lehre demjenigen der Studierenden und Promovierenden anzugleichen. Dies sei, so das Bundesministerium für Bildung und Forschung, »nicht nur eine Frage der Gerechtigkeit«. Gemischte Gruppen führten, »wenn sie geeignete Rahmenbedingungen vorfinden«, außerdem »zu besseren Forschungs- und Entwicklungsergebnissen« sowie »zu einer Erweiterung der Forschungsperspektive«. Das gelte auch »für die Berücksichtigung von Geschlechterfragestellungen als Forschungsgegenstand«. Ähnlich beschreibt die Europäische Kommission das Ziel ihrer Gleichstellungspolitik für Wissenschaft und Forschung.
Unternehmensplanspiele entstanden in den USA um 1956 aus militärischen Simulationsprogrammen, Fallstudien an Business Schools sowie Kriegsplanspielen und einer Reihe weiterer Einflussgrößen. Angesiedelt am Schnittpunkt von Unternehmensführung, ökonomischen Paradigmen und Computerisierung, bietet das Feld der Unternehmensplanspiele besonders gute Voraussetzungen, um Transformationen gesellschaftlicher Steuerungslogiken nach dem Ende des Zweiten Weltkriegs nachzuvollziehen. In den »ernsthaften Spielen« wurden Praktiken des Entscheidens sowie die Adaption an ein neues Medium und einen veränderten Rationalitätsbegriff (spielerisch) erprobt. Der Aufsatz nähert sich diesem Feld aus einer medienkulturwissenschaftlichen Perspektive. Der Beitrag fokussiert auf die erste Phase der Verwendung von Unternehmensplanspielen bei der Ausbildung von Führungskräften in der Bundesrepublik seit Beginn der 1960er-Jahre. Näher vorgestellt wird der Einsatz des von IBM entwickelten Planspiels TOPIC 1 bei Hoechst.
Vertreter_innen der Akteur-Netzwerk-Theorie oder der Cyborg-Anthropologie kritisieren gegenwärtig die Privilegierung des Menschen als autonomem Akteur und handlungsmächtigem Gestalter seiner Umwelt. Dadurch wird die Frage nach der Rolle und Bedeutung von Dingen für gesellschaftliche Dynamiken neu aufgeworfen. Galten sie bisher meist als passive Objekte menschlicher Agency, erscheinen sie nun zunehmend als Koproduzenten von Handlungsmacht. In diesem Sinn spricht Bruno Latour von menschlichen und nicht-menschlichen Aktanten.
Nachdem das Interesse an Dingen und damit an Materieller Kultur im Forschungsalltag mancher Disziplinen lange Zeit eher gering war, erlebt die Auseinandersetzung mit Dingen seit etlichen Jahren auch in der deutschsprachigen Wissenschaftslandschaft eine Renaissance. Das gilt nicht nur für Fächer, die sich schon seit jeher mit Materieller Kultur beschäftigen – etwa die archäologischen Wissenschaften, die Ethnologie und die Volkskunde/Europäische Ethnologie –, sondern zunehmend auch für solche Wissenschaften, deren genuiner Forschungsgegenstand keine materiellen Hinterlassenschaften sind, wie die Geschichtswissenschaft, die Philosophie, die Germanistik und verschiedene sozialwissenschaftliche Fächer. Zu denjenigen Fächern, die die Dinge für sich entdeckt haben, gehört seit wenigen Jahren auch die Zeitgeschichtsforschung. Auf den ersten Blick mag das zunehmende Interesse verwundern, verfügt die Zeitgeschichte doch über andere Quellenarten (Schriftdokumente, audiovisuelle Quellen, mündliche Zeugnisse), die deutlich mehr Aussagekraft als gegenständliche Objekte zu haben scheinen. Den Dingen wird von der Zeitgeschichtsforschung heute offenbar ein Erkenntniswert zugemessen – befördert unter anderem auch durch die Studien Bruno Latours und seine Akteur-Netzwerk-Theorie (ANT) –, der ihnen zuvor abgesprochen bzw. nicht zuerkannt worden war.
Michael Thompsons Buch »Mülltheorie« beginnt mit einem sehr unappetitlichen Rätsel zu »Rotz«. Es endet mit der Zusammenfassung einer im Buch Schritt für Schritt entwickelten Theorie, in der es darum geht, »Monster« (wie den »Rotz«) nicht aus der gesellschaftlichen Betrachtung und der wissenschaftlichen Theorie auszuschließen. Müll sei ein solches Monster, das in einem modernen Wissenschaftsverständnis ignoriert werde, da der Wert und die soziale Funktion von Müll mit »Null« gleichgesetzt werde. So beobachtete es Thompson in den 1960er- und 1970er-Jahren, als sein Buch entstand.
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.
Seit anderthalb Jahrzehnten widmet sich die Geschichtswissenschaft verstärkt dem Thema „Bild“. Dabei wurden zahlreiche, im Zuge des pictorial bzw. iconic turn in der Kunst- und der Kulturwissenschaft entwickelte Bildtheorien in den geschichtswissenschaftlichen Methodenapparat integriert. Einer der unter HistorikerInnen umstrittensten Ansätze ist die von dem Berliner Kunsthistoriker Horst Bredekamp entwickelte Bildakttheorie, die Bilder nicht nur als Ausdruck und Widerschein historischer Vorgänge, sondern als autonome, wirkmächtige Akteure begreift, die historische Prozesse auszulösen in der Lage sind. Philipp Molderings sprach mit Horst Bredekamp über die veränderte Bedeutung von Bildern in der Geschichtswissenschaft, die Skepsis von HistorikerInnen gegenüber der Bildakttheorie und über die Notwendigkeit, verstärkt die historische Eigendimension der Bilder zu erforschen.
Ist eine Geschichte ohne Dinge vorstellbar? Wohl kaum, denn auch der reine Gedanke benötigt Dinge, will er auf Dauer festgehalten werden. Ist eine Geschichtsschreibung ohne Dinge vorstellbar? Sehr wohl, wenn wir die in Bibliotheken und auf Festplatten angesammelte Geschichtsschreibung Revue passieren lassen. Dieses Dilemma der Diskrepanz zwischen der realen Welt, ihrer Wahrnehmung und der intellektuellen Reflexion betrifft zwar nicht allein die dingliche Dimension historischer Lebenswelten, doch stellt sich die Frage nach der Einbeziehung der materiellen Kultur in die historische Forschung aus mehreren Gründen besonders deutlich.
Am Anfang des 20. Jahrhunderts stand Mathematikern, Naturwissenschaftlern und Ingenieuren eine Reihe von mathematischen Methoden (numerischen und graphischen Verfahren) sowie technischen Hilfsmitteln (Instrumente, Apparate, Maschinen, Tafelwerke) zur Verfügung, um exakte Lösungen bzw. Näherungslösungen für mathematische Probleme »ausrechnen« zu können, die im Zusammenhang mit ihrer wissenschaftlichen oder praktischen Arbeit auftraten. Ein genauerer Blick zeigt, dass um 1900 ein ganzer »Apparate- und Methoden-Zoo« zur Verfügung stand, dessen Klassifizierung – um im Bild zu bleiben – einen sehr kundigen »Apparate- und Methoden-Zoologen« erforderte, um die »Morphologie« und »Anatomie« der Apparate und deren »Physiologie« (in Bezug auf die informationsverarbeitenden Funktionen) zu überblicken. So gab es z. B. weit verbreitete Apparate und Methoden wie Rechenschieber und Planimeter, mechanische Rechenmaschinen, Multiplikations- und Logarithmentafeln oder das Runge-Kutta-Verfahren zur numerischen Lösung gewöhnlicher Differentialgleichungen, aber auch nur in Einzelexemplaren existierende Geräte, wie die im 19. Jahrhundert verschiedentlich entwickelten Gleichungswaagen.
Wer sich mit der Geschichte der Wissenschaftspopularisierung auseinandersetzt, kommt an der Zäsur 1800 nicht vorbei. Zwar existieren bereits seit der Antike Formen populärwissenschaftlicher Literatur, die im Zuge der wissenschaftlichen Revolution im 16. und 17. Jahrhundert eine Ausdifferenzierung erfahren, doch beginnt der eigentliche Aufstieg im frühen 19. Jahrhundert, als die Wissenschaftspopularisierung ihre Präsentationsformen einem breiten Publikum anpasst (vgl. Schwarz 1999, 89f.). In dieser Zeit wird es nicht nur üblich, von populärer Sprache und populären Vorträgen zu sprechen. 1805 erscheint auch die erste deutschsprachige Theorie der Popularität (Greiling 1805). Der Text stellt eine Art didaktischer Unterweisung in Hinsicht auf Anordnung, Sprache und Verständlichkeit vorgetragener Sachverhalte dar. Während Popularität hier auf das Predigen und die Volksaufklärung bezogen bleibt, rückt sie bis zur Mitte des 19. Jahrhunderts unaufhaltsam in die Nähe der (Natur-)Wissenschaft. Der Ausdruck „populär“3 etabliert sich als geläufige Bezeichnung für „gemeinfassliche“
naturkundliche Buch- und Zeitschriftenliteratur. In Wörterbüchern und Lexika, Vereinsnamen und Publikationstiteln setzt sich in der zweiten Hälfte des 19. Jahrhunderts schließlich die Wortverbindung „populärwissenschaftlich“ durch.4 Sie eignet sich sowohl für die literarische Selbstbezeichnung als auch zur Markierung bestimmter Schriften, thematischer Genres und Darstellungsformen, welche dem Anspruch folgen, naturkundliche und technische Wissensbestände an ein breites Publikum zu vermitteln.
Mit dem Ende des Ersten Weltkrieges war der Abschied von einem bedingungslosen Fortschrittsglauben gekommen. Die Erfahrungen des Stellungskrieges und der Materialschlacht munitionierten die Fortschrittskritik. Die universitäre Etablierung des Fachs Volkskunde im Jahr 1919 war seit den letzten beiden Jahrzehnten des 19. Jahrhunderts durch wissenschaftliche Zeitschriften, Kongresse und museale Sammlungen vorbereitet und von der »Suche nach dem Elementaren in der Kultur« begleitet worden. Die Hinwendung zu den Dingen, vor allem zu Arbeits- und Hausgerät aus europäischen Reliktgebieten, spielte in diesem Prozess eine wichtige Rolle. Die Frage nach ihrer Bedeutung und Sinnaufladung verdichtete sich mit der Disziplinierung, auch wenn die Erforschung der materiellen Kultur nicht der einzige Gegenstand des Faches war, das sich aus den Philologien herausbildete. Geht man davon aus, dass das 19. Jahrhundert das »Saeculum der Dinge« ist, weil die industrielle Massenproduktion die Verfügbarkeit sowie den Verbrauch der Dinge seit der zweiten Hälfte des 19. Jahrhunderts immens steigerte, dann führt der Weg zu der intensivierten Aufmerksamkeit für die Dinge des Alltags in Kunst, Literatur und Wissenschaft in die ersten Jahrzehnte des 20. Jahrhunderts.
Ambivalente Metaphorik. Ein kritischer Rückblick auf Zygmunt Baumans "Dialektik der Ordnung" (1989)
(2017)
Lange vor Baumans »Dialektik der Ordnung« war mir ein Text von Yvonne Hirdman in die Hände gefallen, als ich mich für ein Forschungsprojekt zum »social engineering« in die Forschungsliteratur zur schwedischen Geschichte und Gesellschaftspolitik einzulesen begann. Hirdman, Historikerin, hatte 1989 ein schlankes Buch mit dem aus dem Deutschen abgeleiteten Titel »Att lägga livet tillrätta« publiziert, »Das Leben zurechtlegen«.[1] Die Studie war im Rahmen einer Enquête entstanden, mit deren Hilfe der schwedische Staat sein eigenes Funktionieren untersuchte. Hirdman, die zehn Jahre zuvor eine Geschichte der Sozialdemokratie unter dem selbstsicheren Titel »Wir bauen das Land« verfasst hatte, hielt nun derselben sozialdemokratisch dominierten Gesellschaftspolitik vor, die Menschen systematisch übermächtigt zu haben.
»Kern/Schumann I und II« sind wichtige Quellen für den Wandel der Arbeitswelt, allerdings können die Studien aufgrund ihres spezifischen Untersuchungsdesigns nur auf bestimmte geschichtswissenschaftliche Fragen Antworten geben: Sie konzentrierten sich auf Erwerbsarbeit und besonders auf die industrielle Stammbelegschaft. Begrenzt erkennbar sind deshalb Erfahrungen von Migranten und Frauen sowie unterschiedliche Beschäftigungsarten und -bereiche. Hierzu versprechen andere SOFI-Studien mehr Auskunft.[52] Die Vorstellung von »Kern/Schumann I und II« in diesem Beitrag ist verbunden mit einem Plädoyer, die große Vielfalt der SOFI-Studien für Zwecke der Geschichtswissenschaft zu nutzen.
Das seit 2015 laufende Dissertationsprojekt „Zur visuellen Produktion von ‚Flucht‘ und ‚Asyl‘ in Pressefotografien der Bundesrepublik“ beschäftigt sich im ausgeführten Zusammenhang mit Pressefotografien, die in Debatten um „Flucht“ und „Asyl“ seit den 1950er Jahren bis Mitte der 1990er Jahre in der Bundesrepublik in fünf überregionalen Tages- und Wochenzeitungen veröffentlicht wurden („Frankfurter Allgemeine Zeitung“, „Stern“, „Spiegel“, „Süddeutsche Zeitung“, „Die Welt“ – zudem partiell die „Zeit“ und die „tageszeitung“). Der Korpus besteht aus 1800 veröffentlichten Fotografien, den dazugehörigen Zeitungsartikeln und Bildunterschriften.
In meinem Forschungsprojekt geht es um Plakate als eine spezielle Form der Gebrauchsgrafik. Gegenübergestellt und gleichzeitig miteinander in Beziehung gebracht werden „okzidentale“ und „orientalische“ Plakate, vornehmlich Werbeplakate, die auf der „westlichen“ Seite orientalistische Motive und auf der „orientalischen“ Seite okzidentalistische Formsprache und Informationsgehalte verwenden. Der Untersuchungszeitraum ist die zweite Hälfte des 20. Jahrhunderts ab 1945 bis zum September 2001, also bis zu der Zeit, bevor der sunnitisch geprägte Fundamentalismus für die Kunst relevant wurde. Dabei werden die künstlerischen Verbindungen und Wege von Motiven zwischen West und Ost verfolgt und somit die komplexen Beziehungen zwischen der Plakatproduktion zweier sich selbst jeweils als „anders“ wahrnehmender Kulturen untersucht. Es geht nicht nur um Unterschiede, sondern gleichermaßen um Gemeinsamkeiten, Übernahmen, Verwandlungen, wechselseitige Stereotypisierungen und um möglicherweise parallele Entwicklungen, also um transkulturelle Prozesse, die an konkreten und in den jeweiligen Gesellschaften sichtbaren Kunstprodukten ablesbar sind.
Die Leibniz-Gemeinschaft gehört seit 1995 neben der Max-Planck-Gesellschaft, der Fraunhofer-Gesellschaft und der Helmholtz-Gemeinschaft zu den vier großen außeruniversitären Wissenschaftsorganisationen in Deutschland. Sie ist ein Zusammenschluss rechtlich selbstständiger Forschungseinrichtungen, deren thematische Bandbreite alle wissenschaftlichen Disziplinen umfasst. Als eingetragener Verein verfolgt die Leibniz-Gemeinschaft ausschließlich gemeinnützige Zwecke.
Abgebildet wird hier nicht nur die Historie seit der offiziellen Gründung der Gemeinschaft, sondern auch deren lange Vorgeschichte. Denn die hier untersuchten Prozesse auf dem Weg der Entwicklung einer staatlichen Forschungsförderung reichen bis in die frühe Nachkriegszeit zurück. Gleichfalls zäsurbildend wirkte schließlich die deutsche Wiedervereinigung, die zu weitreichenden Transformationen der außeruniversitären Wissenschaftslandschaft führte und maßgeblich die heutige Gestalt der Leibniz-Gemeinschaft prägt.
Dieser Beitrag geht der Frage nach, wie Migration durch Statistik sozial relevant wird. Welche Kategorien kommen dabei zum Einsatz? Zuerst wird die historische und wissenssoziologische Perspektive erläutert. Im zweiten und dritten Teil werden historische Umbrüche in der Kategorisierung von Migration am Beispiel der amtlichen Statistik im Deutschen Kaiserreich und in der Bundesrepublik Deutschland skizziert. Der Fokus verschob sich von Migration als Ein- und Ausreisebewegung zu Migration als Alteritätszuschreibung (gestützt auf die Kategorie »Migrationshintergrund« ab 2005). Vor diesem Hintergrund wird im letzten Teil gezeigt, wie sich vergangene und aktuelle Kategorisierungen von Geflüchteten mit der Migrations- und Integrationssemantik verbanden bzw. verbinden. Über die Rekonstruktion der semantischen Brüche und Kontinuitäten hinaus dient die historische Kontextualisierung dem Ziel, heute gängige Kategorien für Migration und Flucht besser reflektieren zu können, die in der Wissenschaft, Politik und Verwaltung verwendet werden.
Hoffnung auf Erfolg. Akteurszentrierte Handlungskonzepte in der Migrations- und Flüchtlingsforschung
(2018)
Die Herausforderung besteht somit in einer reflektierten Verbindung von historischer Wissens- und Migrationsforschung.[37] Darin könnte die Chance liegen, die oftmals eindimensionale Wahrnehmung von Migrant/innen als Opfer restriktiver Grenzregime aufzubrechen, denn sie blockiert tendenziell eher Erkenntnismöglichkeiten, als dass sie neue eröffnet. Wenn ein Konzept wie Eigen-Sinn dazu beitragen würde, die verengten Perspektiven auf Migrationsregime zu erweitern, wäre das nur zu begrüßen. Allerdings spricht die bisherige Inanspruchnahme des Begriffes dafür, doch eher auf andere handlungstheoretische Konzepte wie die Analyse von individuellen und kollektiven Handlungsspielräumen zurückzugreifen oder einer an die Arbeiten von de Certeau angelehnten und auf globale Migrationsbewegungen zugeschriebenen »Rhetorik des Wanderns« zu folgen. Eines zeichnet sich indes jetzt schon ab: Ohne eine stärkere und theoretisch durchdachte Berücksichtigung akteurszentrierter Konzepte wird die Migrationsforschung zentrale Aspekte ihres Gegenstandes weiterhin nur oberflächlich erfassen können.
Die Pyrenäen bilden eine natürliche Grenze zwischen Frankreich und Spanien, zwischen dem europäischen Hauptland und der iberischen Halbinsel. Dort, wo sie nicht in den Himmel ragen, in ihren Tälern und auf ihren Passhöhen sowie an den Meeren, waren die Pyrenäen auch stets eine tierra de paso, eine Transitzone. An ihren östlichen Ausläufern gibt es zwei bedeutende Übergänge. Einer liegt im sanften, flachen Tal von La Jonquera und quert die Landesgrenze bei Le Perthus. Der andere kreuzt an der Küste am Coll dels Belitres zwischen Cerbère (Frankreich) und Portbou (Spanien). Daneben und dazwischen durchziehen kleine Wege die Landschaft, offizielle und inoffizielle, Pfade für Schmuggler, Verfolgte, Fliehende. Jede Gegend und jede Route hat ihre Konjunktur. Die Hoch-Zeit dieser Transitlandschaft, als sich die europäische Kriegs- und Verfolgungsgeschichte des 20. Jahrhunderts an dieser Grenze kristallisierte, war zwischen dem Winter 1938/39, als der spanische Krieg mit dem Sieg Francisco Francos endete, und den Jahren 1940/41, bevor im Sommer 1941 die systematische Vernichtung der europäischen Juden begann.
Im Vorwort zur deutschsprachigen Ausgabe seines Buches »Exit, Voice, and Loyalty« stellte Albert O. Hirschman, US-amerikanischer Ökonom und Entwicklungstheoretiker, seine Konzepte »Abwanderung« (exit) und »Widerspruch« (voice) in einen doppelten historischen Zusammenhang: zum einen mit »dem Schicksal der Juden, die noch nach 1939 in Deutschland waren«, zum anderen mit seiner eigenen Flucht aus Deutschland in die USA, nach der »Machtergreifung« durch die Nationalsozialisten. 1933, im ersten Jahr seines Studiums, verließ der 1915 geborene Hirschman (damals noch: Otto-Albert Hirschmann) Berlin und flüchtete zunächst nach Paris. 1935/36 verbrachte er ein Jahr an der London School of Economics. Nach Paris zurückgekehrt, kämpfte er 1936 für kurze Zeit im Spanischen Bürgerkrieg gegen die Putschisten unter General Francisco Franco und ging dann nach Triest, wo er zwei Jahre später promoviert wurde. Aufgrund der italienischen Rasse-Gesetze reiste Hirschman 1938 wieder nach Frankreich aus. Zunächst Soldat in der französischen Armee, floh er wegen der Invasion der Wehrmacht 1940 nach Marseille, wo er für den US-Journalisten und Fluchthelfer Varian Fry arbeitete. Ende 1941 emigrierte er in die USA, bevor er 1943 als Soldat der amerikanischen Armee wieder nach Europa zurückkehrte. Nach dem Krieg arbeitete er zunächst als Ökonom im Auftrag der US-Bundesbank wie auch der Weltbank, später als Wissenschaftler an verschiedenen amerikanischen Universitäten. 2012 verstarb er im Alter von 97 Jahren.
»Man erinnert sich nicht, sondern man schreibt das Gedächtnis um, wie man die Geschichte umschreibt. Wie sollte man sich an den Durst erinnern?«, fragt sich der Schriftsteller, Fotograf und Regisseur Chris Marker (1921–2012) in seinem Filmessay »Sans Soleil« (1983). Damit weist er auf die Kluft zwischen Erfahrung und Erinnerung hin, die stets das Ergebnis reflexiver Prozesse ist. Er deutet des Weiteren einen Aspekt an, der für Historiker*innen von beträchtlicher Relevanz ist: den konstruktiven Charakter des Selbstzeugnisses. Nicht erst die historische Erzählung, sondern schon das Elementarteilchen der Geschichtsschreibung, das (Selbst-)Zeugnis, ist seit jeher das Ergebnis eines kontinuierlichen Prozesses der Neu- bzw. Umschreibung. Denn auf der einen Seite unterliegen Zeugnisse selektiven Wahrnehmungs- und Gedächtnismechanismen, auf der anderen ändern sie sich im Laufe der Zeit durch die Interaktion mit neu eingetretenen Erfahrungen und kollektiven Anstößen. Die negative Kehrseite dieser Verformbarkeit kommt bei der Manipulation und Instrumentalisierung von Zeugen durch Politik und Medien ans Licht, worüber Historiker*innen in den letzten Jahrzehnten intensiv reflektiert haben. Jedes (Selbst-)Zeugnis muss daher als eine Momentaufnahme in einem Prozess der Erinnerungsverarbeitung angesehen und entsprechend kritisch im Kontext seiner Entstehung und späteren Rezeption analysiert werden. Ohne Zeugnisse damit dem Bereich des Fiktiven zuzuordnen, bezweckt diese kritische Auseinandersetzung, ihnen die Qualität der Reinheit, Ursprünglichkeit und Beständigkeit, der Unmittelbarkeit des Zugangs zur Vergangenheit und der Individualität abzusprechen und sie in den Horizont sinnbildender Prozesse zurückzuführen.
»Hitler has won another victory at Bermuda […].« So kommentierte die Zeitung der zionistischen Arbeiterbewegung in den USA, »The Jewish Frontier«, die Bermuda-Konferenz vom April 1943. Was war passiert? Nach der Konferenz von Evian im Juli 1938 (und ihrem ernüchternden Ergebnis) war dies der zweite Versuch, mit einer internationalen Konferenz die Frage der jüdischen Flüchtlinge zu klären. Doch wie bereits 1938 am Genfer See, als sich außer der Dominikanischen Republik alle Teilnehmerstaaten weigerten, jüdische Flüchtlinge aufzunehmen, kam auch auf Bermuda keine Lösung zustande, obwohl an den mörderischen Absichten und Praktiken Nazi-Deutschlands 1943 kein Zweifel mehr bestand. Der World Jewish Congress (WJC) hatte für die Gesandten eine Informationsmappe zusammengestellt, die die nationalsozialistische Vernichtungspolitik darlegte und zum entschlossenen Handeln aufrief. Doch die Gesandten der Vereinigten Staaten und Großbritanniens, die auf der britischen Inselgruppe im Nordatlantik zusammenkamen, um über die Aufnahme europäischer Juden zu verhandeln, begruben die Idee einer groß angelegten Rettungsaktion rasch. Beide Staaten begnügten sich mit Symbolpolitik und kleinteiligen Maßnahmen. Zwar wurde das Intergovernmental Committee on Refugees (ICR) reaktiviert, welches nach der Evian-Konferenz gegründet worden war und sich größtenteils als ineffektiv herausgestellt hatte. Doch blieb das ICR auch für den Rest des Krieges unbedeutend.
Zwei Pressefotografien zeigen Menschen unterschiedlicher Migrantengruppen: eine türkische „Gastarbeiterfamilie“ und sogenannte Aussiedlerkinder. Beide Bilder stehen in einem engeren inneren Zusammenhang, als man auf den ersten Blick vermuten würde. Im Juli 1973, vier Monate vor Verkündung des „Anwerbestopps“ von Arbeitskräften aus Südeuropa, titelt „Der Spiegel“: „Gettos in Deutschland. Eine Million Türken“. Auf dem Cover des Nachrichtenmagazins ist eine achtköpfige, vermutlich türkische Familie abgebildet: fünf Kinder, Mutter, Vater und ein weiterer männlicher Verwandter oder Freund der Familie. Das zweite Bild zeigt ein modernes Sprachlabor im Durchgangswohnheim Unna-Massen im Jahr 1971: An Arbeitsplätzen, die mit Trennwänden voneinander abgeschirmt sind, sitzen „Aussiedlerkinder“ und erhalten über Kopfhörer Deutschunterricht.
Ausgehend von der These, dass die Internationalen Organisationen im Zeitalter der Dekolonisation nach 1945 auf die Erfindung einer neuen Bildsprache angewiesen waren, die uns bis heute zutiefst vertraut ist und inzwischen selbstverständlich anmutet, fragt das Projekt nach Akteuren, Politik und Praxis des Fotojournalismus im Mid-Century. Die Geschichte der Internationalen Organisationen ohne ihr Bildprogramm erklären zu wollen, läuft daher zumindest für die nach unserem heutigen Verständnis naiv-optimistischen 1950er Jahre ins Leere: Bilder waren die Sprache, welche weltweit verstanden werden konnte, und sie waren – vieles weist darauf hin – anders als die „Weltsprachen“ Englisch oder Französisch zumindest zeitgenössisch als herrschaftsfreie Ausdrucksformen weitgehend akzeptiert.
Das seit April 2017 laufende Dissertationsprojekt untersucht den sich wandelnden Medieneinsatz und Stellenwert von Visualisierungen in lokalen Stadtplanungsdebatten der Berliner Öffentlichkeit im Laufe des 20. Jahrhunderts. In der sozial- und medienhistoriografischen Arbeit werden anhand ausgewählter Beispiele der Berliner Bebauungsgeschichte aus verschiedenen Zeitphasen (zwischen1910 und 1990) schlaglichtartig zeitgenössische Schnittpunkte zwischen Stadtplanung, Gesellschaft, Öffentlichkeit sowie Medientechnologie und -einsatz erforscht. Um die historischen Prozesse von Mediatisierung und Medienwandel einzuordnen, sollen die Erkenntnisse zu Nutzung und Stellenwert von visuellen Medien aus den Fallbeispielen in Form einer diachronen Vergleichsgeschichte systematisch kontextualisiert werden.
1917 veröffentlichte das US-amerikanische Magazin „Vanity Fair“ einen Artikel mit der Überschrift „Moving Pictures for Golfers“. Das war nichts Ungewöhnliches, denn Sport war eines der Themen, die das zumeist weiße, urbane, gebildete Publikum dieses Lifestyle-Magazins ansprach. Außergewöhnlich waren die beiden Bilderserien, die den Artikel illustrierten – bestehend aus je 22 individuellen Fotos zeigten sie zwei Golfer beim Abschlag des Balls. Die bloße Anzahl unterschiedlicher Bilder athletischer Körper in diesem Zeitraum ist ein Indikator für ihre Relevanz. Und jenseits dieser quantitativen Beobachtung waren große mediale Räume von diesen Darstellungen besetzt, von Zeitungen, Zeitschriften und Büchern, über Werbeposter, Sammelkarten und Kunst bis hin zu Lehrfilmen, Wochenschauen und Spielfilmen. Das Projekt widmet sich diesen Quellen als eine ausdrücklich transnational ausgerichtete Kulturgeschichte der USA.
»Alternative Fakten«, »erinnerungskulturelle Wenden«, Konflikte um Museen und Gedenkstätten, historische Sehnsüchte und Ressentiments – es nimmt nicht Wunder, dass der Aufstieg des Populismus1 überall in Europa auch von der Geschichtswissenschaft als Herausforderung verstanden wird. Das gilt in besonderem Maße für Deutschland, wo die politische Ordnung so sehr mit einer spezifischen Geschichtserfahrung und Geschichtsdeutung verbunden ist. Seit den Mobilisierungserfolgen von »Pegida« ab 2014 und der »Alternative für Deutschland« (AfD) ab 2015 steht der liberale Basiskonsens mit seiner um selbstkritische Reflexion und historische Verantwortung modellierten Erinnerungspolitik öffentlich unter Druck wie selten zuvor.
Der junge Historiker Lutz Niethammer (geb. 1939) wollte kein »68er« sein. Viele seiner Altersgenossen fanden den Weg in die Außerparlamentarische Opposition, doch Niethammer blieb distanziert – er wollte teilhaben, nicht teilnehmen. Zwar rezipierte er die marxistisch wie psychoanalytisch inspirierten Faschismustheorien, doch blieb es bei einem grundlegenden Wissenschaftsinteresse.2 Während sich viele andere der Studentenbewegung anschlossen und ihr Augenmerk auf den Antiimperialismus und Internationalismus legten, brachte Niethammer die Gefahr von rechts in den Blick. Schon früh wandte er sich gegen den Geschichtsrevisionismus: Seine Kritik an David L. Hoggans Buch »Der erzwungene Krieg« von 1961 bildete den Anfang einer längeren Auseinandersetzung. »Ich glaubte, wir sollten etwas gegen den Aufstieg des Neofaschismus tun«, erklärte Niethammer retrospektiv in seiner fragmentarisch-autobiographischen Essaysammlung »Ego-Histoire?«. Dies erschien ihm »näherliegender« (sic) als der hilflose Antikapitalismus der Linken.
Für diese Debatte haben wir vier prominenten Vertreter*innen beider Disziplinen, der Rechts- und der Geschichtswissenschaft, schriftlich Fragen zur Situation, zum Potential und zu den Herausforderungen einer Zeitgeschichte des Rechts gestellt.
Wie verhält sich die Rechtsgeschichte zur »allgemeinen« Geschichtswissenschaft in Deutschland? Woher rührt das ausgeprägte disziplinäre Selbstbewusstsein der juristischen Rechtshistoriker*innen, und sollten Allgemeinhistoriker*innen dem etwas entgegensetzen? Worin sehen Sie die »großen Themen« und methodischen Trends der aktuellen rechtshistorischen Forschung, besonders der Juristischen Zeitgeschichte in der Bundesrepublik? Wieviel Theorie und Methodik braucht die Rechtsgeschichte? Wo sehen Sie Potential für neue Perspektiven, und inwieweit sollte eine zeitgemäße Rechtsgeschichte über den nationalen Rahmen hinausgehen? Welche Chancen, welche Grenzen sehen Sie für die interdisziplinäre Zusammenarbeit von Jurist*innen und Historiker*innen?