Wissenschaft
Refine
Year of publication
Document Type
- Journal Article (159)
- Online Publication (69)
- Part of a Book (13)
- Book (4)
Keywords
- Historiker (2)
- Auftragsforschung (1)
- Behördenforschung (1)
- Deutschland (1)
- Deutschland (DDR) (1)
- Dossier (1)
- Geschichte (1)
- Geschichte 1930 - 1949 (1)
- Geschichte 1949-2014 (1)
- Geschichte 1969-1975 (1)
Marketization is a broad term with a wide range of meanings. It encompasses measures of deregulation and privatization as well as the perceived increase of an ›economic‹ logic in social relationships. For historical purposes, the term should not be narrowly defined, and nor should the concept of marketization be used in an ahistorical manner detached from contemporary usage. However, there are two questions which the historical analysis of marketization needs to address. First, what is the conceptual understanding of the market mechanism to which the term marketization is linked? Second, what is the relationship between marketization and economic theory?
»What was it that converted capitalism from the cataclysmic failure which it appeared to be in the 1930s into the great engine of prosperity of the post war Western world?« (S. 3) Das ist die Leitfrage von Andrew Shonfields vor 50 Jahren erschienenem Buch über den »modernen Kapitalismus« der 1960er-Jahre. Wie konnte es zu dem »Goldenen Zeitalter« (Eric Hobsbawm), also der fast drei Jahrzehnte andauernden Nachkriegsprosperität kommen, nachdem der Kapitalismus im Zuge der Großen Depression abgewirtschaftet zu haben schien und sich eine breite ordnungspolitische Debatte um alternative Wirtschaftsformen entwickelt hatte?
Theory matters. Most historians would probably agree with this postulate, in the sense that theories from disciplines such as sociology, economics or psychology can sharpen historical analyses of any topic (though many of them may prefer quite pragmatic, common-sense approaches in their own empirical studies). But when it comes to a historical understanding of a phenomenon like marketization, theory does remain an analytical resource – and at the same time turns into a multifaceted object of research. The way we think about markets is highly affected by theorists, and not only by their ideas but also by their effectiveness in making them influential over specific periods of time.
Stress ist ein ubiquitärer Begriff – seine geschichtswissenschaftliche Erforschung aber hat erst begonnen. Der Aufsatz skizziert programmatisch die Genese und die Funktionen des Stresskonzepts im 20. Jahrhundert. Dabei wird Stress nicht in erster Linie als Syndrom und Krisenphänomen betrachtet, sondern als Deutungs- und Handlungsangebot westlicher Gesellschaften, die sich als instabil, wandelbar, innovativ und dynamisch begreifen. Die performative Kraft des Stresses als Modus gesellschaftlicher Selbstreflexion wird in vier historisch und systematisch aufeinander bezogenen semantischen Feldern untersucht: Stress als Regulations- und Anpassungsmodell, Stress als Prinzip der Wettbewerbsgesellschaft (mit engen Beziehungen zu Arbeit, Leistung und Erfolg), Stress als Zivilisationskritik (mit der stressfreien Gesellschaft als utopischem Gegenbild) sowie Stress als flexible Ökologie von Mensch-Umwelt-Verhältnissen. Dabei handelt es sich weniger um eine chronologische Ordnung als vielmehr um Deutungsvarianten, die in unterschiedlichen Verwendungskontexten aufkamen und sich im heutigen Stressbegriff überlagern.
In der westdeutschen Universitätsmedizin galt Stress zunächst als deskriptive Laborbeobachtung und nur wenig origineller Versuch des Hormonforschers Hans Selye, die Regulationsmechanismen des Körpers mit einem ganzheitlichen Konzept zu beschreiben. Selyes in Kanada entwickelte Ansätze fanden in der Bundesrepublik kaum positive Resonanz; das Stresskonzept schien in den 1950er-Jahren keine Zukunft zu haben. Dies änderte sich in den 1960er-Jahren, als Stress über das Risikofaktoren-Modell mit der Diskussion um Herz- und Kreislauferkrankungen verbunden wurde. Stress wurde nun Leitbegriff und Forschungsressource von Disziplinen wie Sozialmedizin, Psychosomatische Medizin, Arbeitsmedizin und Präventivmedizin. Um 1970 trat zu den Bezugsebenen »Zivilisation« und »Gesellschaft« noch »Umwelt« hinzu. Insbesondere drei Bedrohungsszenarien erwiesen sich als Stimuli der medizinischen Stressforschung: Überbevölkerung und Verstädterung, Verkehr und Lärm sowie der Wandel der Arbeitswelt. Weit über wissenschaftliche Verwendungen hinaus wurde der Stressbegriff populär, weil er zeitdiagnostisches Deutungspotential gewann und sich als eine Verständigungsplattform der Verunsicherten eignete.
Wie reagieren Menschen auf Katastrophen? Wie lassen sich Bevölkerungen in Extremsituationen führen? Mit diesen Fragen beschäftigten sich in den 1950er-, 1960er- und 1970er-Jahren mehrere US-amerikanische, teilweise durch die Armee finanzierte Forschungsgruppen. Sie waren interdisziplinär zusammengesetzt, aber mehrheitlich soziologisch ausgerichtet. Innerhalb wie außerhalb der USA studierten sie das Stressverhalten von Individuen und Gruppen in Tornados, eingeschneiten Autobahnraststätten und »racial riots« sowie ergänzend in Laborsimulationen. Anhand zeitgenössischer Publikationen und interner Akten werden in diesem Aufsatz die Erkenntnisinteressen und Untersuchungsfelder der sozialwissenschaftlichen Katastrophenforschung, ihre Befunde und deren Nutzung dargestellt. Die Tätigkeit der Wissenschaftler/innen stand im Kontext des Kalten Kriegs und eines sich verschiebenden Gefahrensinns. Dabei ließen sich die Forscher/innen keineswegs vollständig politisch vereinnahmen, sondern verfolgten durchaus eigene Interessen und gaben mitunter Antworten, die den Intentionen der Auftraggeber zuwiderliefen.
Wann und wie wandelten sich in der DDR-Gesellschaft langfristig politische Einstellungen und Wertorientierungen, wie sie dann 1989 in der Herbstrevolution sichtbar wurden? Anknüpfend an Konrad H. Jarauschs These von der »Umkehr« als fundamentalem Demokratisierungsprozess im geteilten Nachkriegsdeutschland untersucht der Beitrag die Möglichkeiten und Grenzen der Stellvertreterbefragungen, die das westdeutsche Meinungsforschungsunternehmen Infratest im Auftrag der Bundesregierung von 1968 bis 1989 durchgeführt hat. Befragt wurden westdeutsche Besucher der DDR über die Ansichten eines von ihnen definierten Gesprächspartners im ostdeutschen Staat, den sie besucht und mit dem sie ausführlich gesprochen hatten. Dieser Serie zufolge stand eine breite und wachsende »schweigende Mehrheit« der DDR-Einwohner dem System distanziert gegenüber, war aber weder im westlichen noch im östlichen Sinne besonders ideologisch präformiert. Sie maß die DDR vor allem an ihren praktischen Leistungen im Hinblick auf Lebensstandard und Perspektiven. Das Interesse an Politik sank ab Mitte der 1970er-Jahre, stieg dann aber wieder an und orientierte sich zunehmend an westlichen Politikformen.
Kommerzielle Bildanbieter entledigen sich zunehmend ihrer analogen Fotoarchive. Dabei geht es nicht selten um Millionen von Fotografien. Angesichts dieser Entwicklung stellt sich die Frage, wie es bei solchen Anbietern um die Wertschätzung ihres analogen Fotoerbes steht. Die Antwort scheint entsprechend einfach zu sein: Solche Bestände werden gering geschätzt. Die Fotoarchive werden abgegeben oder gar vernichtet, weil sie für ihre Besitzer mehr Verlust als Profit einbringen. In manchen Fällen übernehmen öffentliche Gedächtnisinstitutionen wie Archive, Museen und Bibliotheken die Bestände und widmen sie von Gebrauchs- zu historischen Fotoarchiven um. Dies hat im Zusammenspiel mit der allgemeinen Digitalisierung der Fotografie das Bewusstsein für die Historizität alter Pressefotografien und damit für ihren kulturellen sowie wissenschaftlichen Wert geschärft. Die einst massenhaft für den Verkauf hergestellten Gebrauchsbilder gelten heute als zeithistorische Dokumente. In der medialen Öffentlichkeit wird vollmundig vom »visuellen« oder vom »fotografischen« Gedächtnis eines ganzen Landes geschrieben.
Anfang 2014 konnte der rund 50.000 Aufnahmen umfassende Nachlass des Fotografen Wolfgang G. Schröter (1928–2012) zusammen mit zahlreichen Arbeitsabzügen, Belegexemplaren, der Handbibliothek und biographischen Dokumenten von der Deutschen Fotothek für das »Archiv der Fotografen« übernommen werden. Schröter gehörte zu den paradigmatischen Ausnahmefotografen der frühen DDR. Unter Nutzung der Methoden von Wissenschafts- und experimenteller Fotografie entwickelte er eine eigene Bildsprache, die avantgardistische internationale Fotografie-Entwicklungen aufgriff, ohne diese zu imitieren. Schröters frühe farbfotografische Experimente wurden 1977 im Zuge der Nobilitierung der Fotografie als künstlerisches Medium in der Hallenser Ausstellung »Medium Fotografie« gewürdigt. Bis heute werden seine Aufnahmen in zahlreichen Einzel- und Gruppenausstellungen gezeigt.
Die gleichberechtigte Einbeziehung von Frauen in Forschung und Lehre steht heute weit oben auf der politischen Agenda bundesdeutscher Wissenschaftspolitik. Primäres Ziel ist es gemäß dem sogenannten »Kaskadenmodell«, den Frauenanteil auf allen Karrierestufen in Forschung und Lehre demjenigen der Studierenden und Promovierenden anzugleichen. Dies sei, so das Bundesministerium für Bildung und Forschung, »nicht nur eine Frage der Gerechtigkeit«. Gemischte Gruppen führten, »wenn sie geeignete Rahmenbedingungen vorfinden«, außerdem »zu besseren Forschungs- und Entwicklungsergebnissen« sowie »zu einer Erweiterung der Forschungsperspektive«. Das gelte auch »für die Berücksichtigung von Geschlechterfragestellungen als Forschungsgegenstand«. Ähnlich beschreibt die Europäische Kommission das Ziel ihrer Gleichstellungspolitik für Wissenschaft und Forschung.
Unternehmensplanspiele entstanden in den USA um 1956 aus militärischen Simulationsprogrammen, Fallstudien an Business Schools sowie Kriegsplanspielen und einer Reihe weiterer Einflussgrößen. Angesiedelt am Schnittpunkt von Unternehmensführung, ökonomischen Paradigmen und Computerisierung, bietet das Feld der Unternehmensplanspiele besonders gute Voraussetzungen, um Transformationen gesellschaftlicher Steuerungslogiken nach dem Ende des Zweiten Weltkriegs nachzuvollziehen. In den »ernsthaften Spielen« wurden Praktiken des Entscheidens sowie die Adaption an ein neues Medium und einen veränderten Rationalitätsbegriff (spielerisch) erprobt. Der Aufsatz nähert sich diesem Feld aus einer medienkulturwissenschaftlichen Perspektive. Der Beitrag fokussiert auf die erste Phase der Verwendung von Unternehmensplanspielen bei der Ausbildung von Führungskräften in der Bundesrepublik seit Beginn der 1960er-Jahre. Näher vorgestellt wird der Einsatz des von IBM entwickelten Planspiels TOPIC 1 bei Hoechst.
Vertreter_innen der Akteur-Netzwerk-Theorie oder der Cyborg-Anthropologie kritisieren gegenwärtig die Privilegierung des Menschen als autonomem Akteur und handlungsmächtigem Gestalter seiner Umwelt. Dadurch wird die Frage nach der Rolle und Bedeutung von Dingen für gesellschaftliche Dynamiken neu aufgeworfen. Galten sie bisher meist als passive Objekte menschlicher Agency, erscheinen sie nun zunehmend als Koproduzenten von Handlungsmacht. In diesem Sinn spricht Bruno Latour von menschlichen und nicht-menschlichen Aktanten.
Nachdem das Interesse an Dingen und damit an Materieller Kultur im Forschungsalltag mancher Disziplinen lange Zeit eher gering war, erlebt die Auseinandersetzung mit Dingen seit etlichen Jahren auch in der deutschsprachigen Wissenschaftslandschaft eine Renaissance. Das gilt nicht nur für Fächer, die sich schon seit jeher mit Materieller Kultur beschäftigen – etwa die archäologischen Wissenschaften, die Ethnologie und die Volkskunde/Europäische Ethnologie –, sondern zunehmend auch für solche Wissenschaften, deren genuiner Forschungsgegenstand keine materiellen Hinterlassenschaften sind, wie die Geschichtswissenschaft, die Philosophie, die Germanistik und verschiedene sozialwissenschaftliche Fächer. Zu denjenigen Fächern, die die Dinge für sich entdeckt haben, gehört seit wenigen Jahren auch die Zeitgeschichtsforschung. Auf den ersten Blick mag das zunehmende Interesse verwundern, verfügt die Zeitgeschichte doch über andere Quellenarten (Schriftdokumente, audiovisuelle Quellen, mündliche Zeugnisse), die deutlich mehr Aussagekraft als gegenständliche Objekte zu haben scheinen. Den Dingen wird von der Zeitgeschichtsforschung heute offenbar ein Erkenntniswert zugemessen – befördert unter anderem auch durch die Studien Bruno Latours und seine Akteur-Netzwerk-Theorie (ANT) –, der ihnen zuvor abgesprochen bzw. nicht zuerkannt worden war.
Michael Thompsons Buch »Mülltheorie« beginnt mit einem sehr unappetitlichen Rätsel zu »Rotz«. Es endet mit der Zusammenfassung einer im Buch Schritt für Schritt entwickelten Theorie, in der es darum geht, »Monster« (wie den »Rotz«) nicht aus der gesellschaftlichen Betrachtung und der wissenschaftlichen Theorie auszuschließen. Müll sei ein solches Monster, das in einem modernen Wissenschaftsverständnis ignoriert werde, da der Wert und die soziale Funktion von Müll mit »Null« gleichgesetzt werde. So beobachtete es Thompson in den 1960er- und 1970er-Jahren, als sein Buch entstand.
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.
Seit anderthalb Jahrzehnten widmet sich die Geschichtswissenschaft verstärkt dem Thema „Bild“. Dabei wurden zahlreiche, im Zuge des pictorial bzw. iconic turn in der Kunst- und der Kulturwissenschaft entwickelte Bildtheorien in den geschichtswissenschaftlichen Methodenapparat integriert. Einer der unter HistorikerInnen umstrittensten Ansätze ist die von dem Berliner Kunsthistoriker Horst Bredekamp entwickelte Bildakttheorie, die Bilder nicht nur als Ausdruck und Widerschein historischer Vorgänge, sondern als autonome, wirkmächtige Akteure begreift, die historische Prozesse auszulösen in der Lage sind. Philipp Molderings sprach mit Horst Bredekamp über die veränderte Bedeutung von Bildern in der Geschichtswissenschaft, die Skepsis von HistorikerInnen gegenüber der Bildakttheorie und über die Notwendigkeit, verstärkt die historische Eigendimension der Bilder zu erforschen.
Ist eine Geschichte ohne Dinge vorstellbar? Wohl kaum, denn auch der reine Gedanke benötigt Dinge, will er auf Dauer festgehalten werden. Ist eine Geschichtsschreibung ohne Dinge vorstellbar? Sehr wohl, wenn wir die in Bibliotheken und auf Festplatten angesammelte Geschichtsschreibung Revue passieren lassen. Dieses Dilemma der Diskrepanz zwischen der realen Welt, ihrer Wahrnehmung und der intellektuellen Reflexion betrifft zwar nicht allein die dingliche Dimension historischer Lebenswelten, doch stellt sich die Frage nach der Einbeziehung der materiellen Kultur in die historische Forschung aus mehreren Gründen besonders deutlich.
Am Anfang des 20. Jahrhunderts stand Mathematikern, Naturwissenschaftlern und Ingenieuren eine Reihe von mathematischen Methoden (numerischen und graphischen Verfahren) sowie technischen Hilfsmitteln (Instrumente, Apparate, Maschinen, Tafelwerke) zur Verfügung, um exakte Lösungen bzw. Näherungslösungen für mathematische Probleme »ausrechnen« zu können, die im Zusammenhang mit ihrer wissenschaftlichen oder praktischen Arbeit auftraten. Ein genauerer Blick zeigt, dass um 1900 ein ganzer »Apparate- und Methoden-Zoo« zur Verfügung stand, dessen Klassifizierung – um im Bild zu bleiben – einen sehr kundigen »Apparate- und Methoden-Zoologen« erforderte, um die »Morphologie« und »Anatomie« der Apparate und deren »Physiologie« (in Bezug auf die informationsverarbeitenden Funktionen) zu überblicken. So gab es z. B. weit verbreitete Apparate und Methoden wie Rechenschieber und Planimeter, mechanische Rechenmaschinen, Multiplikations- und Logarithmentafeln oder das Runge-Kutta-Verfahren zur numerischen Lösung gewöhnlicher Differentialgleichungen, aber auch nur in Einzelexemplaren existierende Geräte, wie die im 19. Jahrhundert verschiedentlich entwickelten Gleichungswaagen.
Wer sich mit der Geschichte der Wissenschaftspopularisierung auseinandersetzt, kommt an der Zäsur 1800 nicht vorbei. Zwar existieren bereits seit der Antike Formen populärwissenschaftlicher Literatur, die im Zuge der wissenschaftlichen Revolution im 16. und 17. Jahrhundert eine Ausdifferenzierung erfahren, doch beginnt der eigentliche Aufstieg im frühen 19. Jahrhundert, als die Wissenschaftspopularisierung ihre Präsentationsformen einem breiten Publikum anpasst (vgl. Schwarz 1999, 89f.). In dieser Zeit wird es nicht nur üblich, von populärer Sprache und populären Vorträgen zu sprechen. 1805 erscheint auch die erste deutschsprachige Theorie der Popularität (Greiling 1805). Der Text stellt eine Art didaktischer Unterweisung in Hinsicht auf Anordnung, Sprache und Verständlichkeit vorgetragener Sachverhalte dar. Während Popularität hier auf das Predigen und die Volksaufklärung bezogen bleibt, rückt sie bis zur Mitte des 19. Jahrhunderts unaufhaltsam in die Nähe der (Natur-)Wissenschaft. Der Ausdruck „populär“3 etabliert sich als geläufige Bezeichnung für „gemeinfassliche“
naturkundliche Buch- und Zeitschriftenliteratur. In Wörterbüchern und Lexika, Vereinsnamen und Publikationstiteln setzt sich in der zweiten Hälfte des 19. Jahrhunderts schließlich die Wortverbindung „populärwissenschaftlich“ durch.4 Sie eignet sich sowohl für die literarische Selbstbezeichnung als auch zur Markierung bestimmter Schriften, thematischer Genres und Darstellungsformen, welche dem Anspruch folgen, naturkundliche und technische Wissensbestände an ein breites Publikum zu vermitteln.
Mit dem Ende des Ersten Weltkrieges war der Abschied von einem bedingungslosen Fortschrittsglauben gekommen. Die Erfahrungen des Stellungskrieges und der Materialschlacht munitionierten die Fortschrittskritik. Die universitäre Etablierung des Fachs Volkskunde im Jahr 1919 war seit den letzten beiden Jahrzehnten des 19. Jahrhunderts durch wissenschaftliche Zeitschriften, Kongresse und museale Sammlungen vorbereitet und von der »Suche nach dem Elementaren in der Kultur« begleitet worden. Die Hinwendung zu den Dingen, vor allem zu Arbeits- und Hausgerät aus europäischen Reliktgebieten, spielte in diesem Prozess eine wichtige Rolle. Die Frage nach ihrer Bedeutung und Sinnaufladung verdichtete sich mit der Disziplinierung, auch wenn die Erforschung der materiellen Kultur nicht der einzige Gegenstand des Faches war, das sich aus den Philologien herausbildete. Geht man davon aus, dass das 19. Jahrhundert das »Saeculum der Dinge« ist, weil die industrielle Massenproduktion die Verfügbarkeit sowie den Verbrauch der Dinge seit der zweiten Hälfte des 19. Jahrhunderts immens steigerte, dann führt der Weg zu der intensivierten Aufmerksamkeit für die Dinge des Alltags in Kunst, Literatur und Wissenschaft in die ersten Jahrzehnte des 20. Jahrhunderts.