Wissenschaft
Refine
Year of publication
Document Type
- Journal Article (159) (remove)
Keywords
- Auftragsforschung (1)
- Behördenforschung (1)
- NS-Aufarbeitung (1)
Der Mainzer Europa-Kongress im März 1955 war ein publizistisch stark beachtetes Ereignis, zudem dasjenige, mit dem das knapp fünf Jahre zuvor ins Leben getretene Institut für Europäische Geschichte erstmals bewusst den Lichtkegel der Öffentlichkeit suchte. Die Tagung wurde von mehr als 300 Wissenschaftlern und Persönlichkeiten des öffentlichen Lebens aus 16 Staaten besucht, sprengte die räumlichen Kapazitäten des Instituts bei weitem und musste deswegen an den prominentesten Platz der Rheinstadt verlagert werden, nämlich in das Kurfürstliche Schloss. Schon im Folgejahr, 1956, konnte der Direktor der ausrichtenden Institutsabteilung, Martin Göhring, die gedruckte Dokumentation dieses Kongresses vorlegen. Sie trug denselben Titel wie die Tagung selbst: „Europa - Erbe und Aufgabe“.
In den Meisternarrativen der deutschen Zeitgeschichte spielt die Jugend als Vorhut kultureller und politischer Entwicklungen eine bedeutende Rolle. Neuere Gesamtdarstellungen des 20. Jahrhunderts differenzieren jugendliche Subkulturen, Konsumgewohnheiten, Bildungswege und politische Lager ausführlich. Die historische Entwicklung wird in diesen Erzählungen vorangetrieben durch die rechtsnationalen und antisemitischen Studenten der Weimarer Zeit, die jungen Funktionäre und Soldaten des Nationalsozialismus, die sich dem Westen zuwendenden jungen »Fünfundvierziger«-Eliten der 1950er- und 1960er-Jahre sowie schließlich die revoltierenden Jugendlichen von »1968«. Oft sind solche Narrative mit einem Generationenmodell verknüpft, das in Anlehnung an Karl Mannheim die Jugend als formative Phase und treibende Kraft historischer Veränderung versteht und diese vorwiegend als männlich und intellektuell definiert. Historiker/innen definieren damit Jüngere als den geschichtlichen Akteur »Jugend« und investieren stark in die Binnendifferenzierung dieser Gruppe.
Richard Horton, ein britischer Arzt und Chefredakteur der einflussreichen medizinischen Fachzeitschrift »The Lancet«, löste Ende 2012 mit einer Serie von Twitter-Nachrichten eine hitzige Debatte aus. Polemisch zugespitzt kritisierte Horton den schädlichen Einfluss der Ökonomie auf das öffentliche Gesundheitswesen. In zehn Thesen beklagte er, dass die Wirtschaftswissenschaften keine Vorstellung von moralischem Handeln hätten und einem falschen Menschenbild folgten. Die Marktideologie lasse sich nicht vereinbaren mit den Werten, auf denen sozialstaatliche Gesundheitssysteme begründet seien. Auch wenn die Gesundheitsökonomie das Gegenteil behaupte – Gesundheit sei kein ökonomisches Gut. Horton folgerte: »Economics […] may just be the biggest fraud ever perpetrated on the world.«
In den 1980er-Jahren erweiterte die In-vitro-Fertilisation (IVF) nicht nur die Möglichkeiten der Familienplanung, sondern eröffnete auch neue, rasch expandierende Forschungs- und Geschäftsfelder für Mediziner in der Bundesrepublik. Die Vermarktlichung der menschlichen Reproduktion war Gegenstand eines breiten Aushandlungsprozesses über das technisch Machbare und das ethisch Vertretbare. Der Aufsatz stellt die Reproduktionsmediziner in den Mittelpunkt: Als Anbieter von innovativen Dienstleistungen verfolgten sie neben einem wissenschaftlichen Fortschrittsstreben auch ökonomische Interessen. Über die Medien sowie als Mitglieder von Ethikkommissionen nahmen sie politischen Einfluss. Sie verstärkten die öffentliche Wahrnehmung der Reproduktionsmedizin und waren an der Erstellung von gesetzlichen Richtlinien für ihr Tätigkeitsfeld beteiligt. Die medial geübte Kritik betonte die Gefahren einer technokratisch-politischen Steuerung und mögliche Kontinuitäten zur NS-Zeit. Mit der Verabschiedung des – im internationalen Vergleich restriktiven – Embryonenschutzgesetzes von 1990 kam die Debatte zu einem vorläufigen Ergebnis, war und ist jedoch keineswegs beendet.
Anhand der bundesdeutschen Pharmawirtschaft, genauer der Unternehmen Bayer, Hoechst, Merck und Schering, wird gezeigt, dass die Bedeutung von Patentrechten für die Gesundheitsökonomie in der zweiten Hälfte des 20. Jahrhunderts deutlich wuchs: Die Unternehmen erhöhten nicht nur die Anzahl von Patenten, sondern auch die Investitionen in immaterielles Vermögen erheblich. Die Kosten für Forschung und Entwicklung (F&E) überstiegen seit etwa Ende der 1970er-Jahre die Investitionen in Produktionsanlagen. Patente selbst avancierten zum Instrument, um unternehmensseitig den Wettbewerb zu beeinflussen. Das 1968 eingeführte »Stoffpatent« für neue chemische Verbindungen hatte dafür erweiterte Möglichkeiten geschaffen. Patent- und Lizenzabteilungen wurden zu wichtigen Orten unternehmensinterner Entscheidungsfindung. Zudem wurden die Forschungsleistungen hervorgehoben, um den Anstieg der Arzneimittelpreise zu rechtfertigen. Der Aufsatz leistet einen Beitrag zur Beantwortung der Frage, wie und wann die bundesdeutsche Wirtschaft verstärkt zu einer »Intangible Economy« wurde. Er verdeutlicht, wie relevant geistiges Eigentum für die Transformation seit den 1970er-Jahren war – und damit für die Zeitgeschichte des Kapitalismus als Kombination von Vermarktlichung und Verrechtlichung, von globalem Wettbewerb und nationalstaatlicher Regulierung.
Seit den Anschlägen vom 11. September 2001 ist auch in Deutschland ein steigendes öffentliches und wissenschaftliches Interesse an kriegerischen Konflikten zu beobachten. War dieses Forschungsfeld lange vor allem Zeithistorikern und -historikerinnen vorbehalten, so interessieren sich zunehmend auch die Politik- und Sozialwissenschaften für das Gebiet, was sich an einer Fülle von Publikationen und Konferenzen zeigt. Besonders mit dem Erscheinen von Herfried Münklers Buch „Die neuen Kriege“ (2002) ist eine lebhafte Diskussion entbrannt. Münkler konstatiert in seinem Werk die Entstehung einer neuen Form von Kriegen: Die Kriegsakteure hielten sich nicht mehr an Regeln; die Unterscheidung zwischen Kombattanten und Nichtkombattanten sei aufgehoben; und die Kriege hätten in erster Linie einen ökonomischen Hintergrund. Ob man nun von „neuen“, „asymmetrischen“, „kleinen“ oder „low-intensity-Kriegen“ sprechen will: Die AKUF distanziert sich von der Vorannahme, die aktuellen Konflikte seien eine gänzlich neue Entwicklung.
Seit einigen Jahren lässt sich in der Historiographie ein gesteigertes Interesse an der Geschichte von Luft- und Raumfahrt beobachten, das sich auch in Museumsaktivitäten und Ausstellungsprojekten niederschlägt. Zugleich erlebt die Beschäftigung mit dem Thema „Imperium“ einen Aufschwung, insbesondere das Interesse an den USA als imperialer Macht. Die folgende Besprechung der Dauerausstellung des National Air and Space Museum (NASM) bringt beide Untersuchungsfelder zusammen und legt die Untersuchungskategorie „Imperium“ an die Musealisierung von Luft- und Raumfahrt an. Dabei werden zunächst die Sammelschwerpunkte des Museums sowie die Charakteristika der Präsentation betrachtet; in einem zweiten Schritt werden verschiedene Themenfelder der Ausstellung diskutiert, bevor abschließend die Bedeutung des NASM als imperial museum ausgelotet wird, in dem sich der amerikanische Aufstieg zur Weltmacht widerspiegelt.
Die zeitgeschichtliche Forschung hat sich erst vor kurzem den 1970er-Jahren zugewandt. In der öffentlichen Erinnerung ist dieses Jahrzehnt hingegen sehr präsent, wie sich an Erfolgsbüchern wie Florian Illies’ „Generation Golf. Eine Inspektion“ und „Generation Golf zwei“ (München 2000/03 u.ö.) oder jüngst an den Debatten um den „Deutschen Herbst“ 1977 und seine Folgen gezeigt hat. Besonders in der Populärkultur - Mode, Musik, Möbel etc. - erfreuen sich die 1970er-Jahre (zumindest in Deutschland) großer Beliebtheit; man kann geradezu von einer „Retrowelle“ sprechen. Während diese Dekade aus Sicht der Geschichtswissenschaft vor allem eine Zeit der Krisen und beginnenden Transformationen darstellt, erscheint sie im alltäglichen Geschichtsbewusstsein eher als buntes Experimentierfeld unterschiedlicher Lebensstile und als eine Phase vergleichsweise gesicherten Wohlstands.
Die Industrieländer Europas, Nordamerikas und teilweise Asiens leiden derzeit unter Schrumpfungsängsten: Der „demographische Wandel“, der Übergang von hohen zu niedrigen Geburtenraten, hat düstere Prognosen von Kindermangel, Überalterung, Entleerung großer Landstriche, ja vom Verschwinden ganzer Nationen hervorgerufen, die in Deutschland innerhalb weniger Jahre enorme Medienpräsenz entfaltet haben. Der Alarmismus ist umso bemerkenswerter, als vor knapp 40 Jahren mit ähnlicher Dringlichkeit davor gewarnt wurde, dass die Welt im Begriff sei, an „Übervölkerung“ zu ersticken. Im „Umweltzeitalter“ geriet der fast unangefochtene Wachstumsglaube des Westens heftig in die Kritik und die Endlichkeit natürlicher Ressourcen der Erde in den Blick. Nicht nur den Ländern der „Dritten Welt“, sondern auch den Industriestaaten wurden damals sofortige Kontrollmaßnahmen zur Durchsetzung eines „Nullwachstums“ der Bevölkerung abverlangt, um das schiere „Überleben“ der Menschheit auf dem begrenzten Globus zu sichern.
„Die Kosten, die beim ‚Transfer‘ theoretisch fundierter Geschichtswissenschaft zum lesenden Publikum durch Fachjargon und Abstraktion entstehen könnten, dürfen zwar nicht übersehen werden; umgekehrt sind die Nachteile traditioneller Geschichtsschreibung, z.B. in Schnabels ‚Deutscher Geschichte im neunzehnten Jahrhundert‘, so deutlich zu erkennen, daß ich bei einer Güterabwägung die Vorzüge einer explizit theoretisch argumentierenden Geschichtswissenschaft für größer als eventuelle Verständigungsschwierigkeiten halte.“ (Hans-Ulrich Wehler, Diskussionsbeitrag, S. 170). Neuerliche Lektüre steckt nicht selten voller Überraschungen. Das ist auch bei der Wiederannäherung an die „Theorien in der Praxis des Historikers“ der Fall. Als junger Bielefelder Student hatte ich den Sammelband von 1977 neugierig verschlungen, ehe, gegen Ende der Studienzeit, das Unbehagen an gewissen Grenzen des Bielefelder Theoriebegriffs gewachsen war und die Suche nach befriedigenderen konzeptionellen Entwürfen losging.
Experten, Stiftungen und Politik. Zur Genese des globalen Diskurses über Bevölkerung seit 1945
(2008)
Der Aufsatz untersucht die weltweite Popularisierung des bevölkerungspolitischen Diskurses und leistet damit einen Beitrag zur kritischen Historisierung gegenwärtiger Deutungsmuster. Wie und warum entwickelte sich ein zunächst nur von wenigen Experten als Problem wahrgenommenes Phänomen zu einem globalen Diskurs über die Gegenwart und Zukunft der Menschheit? Im Kontext von Kaltem Krieg und Dekolonisierung rückte das Bevölkerungswachstum in der „Dritten Welt“ in den Mittelpunkt demographischer Überlegungen. Amerikanische Stiftungen, überzeugt von der humanitären und sicherheitspolitischen Relevanz des Bevölkerungswachstums, setzten sich massiv für eine globale biopolitische Steuerung ein. Seit Beginn der 1960er-Jahre beeinflussten die Stiftungen und die „epistemische Gemeinschaft“ der Bevölkerungsexperten dann auch maßgeblich das Handeln der US-Regierung. Schließlich schwenkten die Vereinten Nationen um 1970 ebenfalls auf eine neo-malthusianische Politik ein. Damit entwickelte sich die Steuerung des Bevölkerungswachstums zu einem zentralen, weithin unstrittigen, aber doch interessengeleiteten Aspekt von Weltinnenpolitik.
Der für uns ungewöhnlich klingende Name „Deutsches Hygiene-Museum“ bezeichnet ein einzigartiges Spezialmuseum in der gegenwärtigen Museumslandschaft. Im Zentrum seiner Arbeit stehen der Mensch und die unterschiedlichen Aspekte des menschlichen Lebens, eingebettet in den natur-, kultur- und gesellschaftswissenschaftlichen Kontext. Doch warum trägt das Museum diesen eigenartigen und belasteten Namen, der museologischen Marketingstrategien so gar nicht entspricht und die heutigen Ausstellungsinhalte höchst unvollständig beschreibt? Dies ist nur aus der Geschichte des Museums und seiner Themen zu erklären.
Zum achten Mal in Folge hat das Bundesministerium für Bildung und Forschung (BMBF) 2007 ein Wissenschaftsjahr einem bestimmten Fachgebiet bzw. einer Fächergruppe gewidmet. Nach Physik (2000), Lebenswissenschaften (2001), Geowissenschaften (2002), Chemie (2003), Technik (2004), dem Einsteinjahr (2005) und Informatik (2006) standen die Geisteswissenschaften im Rampenlicht. Das BMBF stiftete aus diesem Anlass 64 Millionen Euro, die für verschiedene Großprojekte, aber auch für kleinere Veranstaltungen, Vortragsreihen, Ausstellungen und Symposien eingesetzt wurden. Teil des Programms war auch eine von der Agentur Scholz & Friends gestaltete Werbekampagne, die in Kooperation mit zahlreichen Medienpartnern durchgeführt wurde. Zu ihren Kernstücken gehörte das „ABC der Menschheit“: Mit 26 Schlüsselbegriffen von „Aufklärung“ bis „Zukunft“ sollte gezeigt werden, welche Bedeutung die Geisteswissenschaften für die gesellschaftliche Selbstverständigung haben. Lernen konnten wir im Lauf des Jahres zum Beispiel, dass die größten geisteswissenschaftlichen Fächer in Deutschland die Germanistik mit 93.000 Studenten, die Anglistik mit 49.000 Studenten und die Geschichtswissenschaft mit 39.000 Studenten sind, dass trotz dieses großen und zum Teil wachsenden Interesses jedoch Lehrpersonal abgebaut wird. Erfreulich ist hingegen, dass die Arbeitslosigkeit bei Geisteswissenschaftlern mit etwa sechs Prozent deutlich unter dem Durchschnitt liegt (wobei die mitunter prekären Beschäftigungsverhältnisse von geisteswissenschaftlichen Absolventen in solchen Statistiken meist nicht aufscheinen).
Die Werbung für die eigene Sache sei für viele Geisteswissenschaftler mit dem Odium des Unseriösen behaftet, schrieb der Germanist und erfahrene Wissenschaftsorganisator Wolfgang Frühwald zu Beginn des Jahres der Geisteswissenschaften 2007. Doch an dessen Ende bilanzierte er positiv: „Wir sind offensichtlich Spätzünder; wenn es aber zündet, läuft es gut [...]. Insgesamt ist das Jahr ein Erfolg.“ Niemand wird von solch einem „Fokus-Jahr“, wie es das Bundesministerium für Bildung und Forschung (BMBF) jedes Jahr für unterschiedliche Fächer oder Fächergruppen ausschreibt, Wunderdinge erwarten. Viele Historiker behalten überdies ihre Skepsis gegenüber der Kategorisierung als „Geisteswissenschaftler“, denn sie wissen, dass sie sich im Überschneidungsfeld zwischen Geistes-, Kultur- und Sozialwissenschaften bewegen. Was die PR-Agentur Scholz & Friends im Auftrag des Ministeriums mit 331 Partnern aus Wissenschaft, Kultur und Wirtschaft, in 1.064 Veranstaltungen, mit Hilfe von sieben Buchstabeninstallationen im öffentlichen Raum (zum Beispiel D wie Demokratie am Marie-Elisabeth-Lüders-Haus des Bundestages), zahlreichen Ausstellungen, Wettbewerben, Lesungen, Städtepartnerschaften etc. an Diskursen, Präsentationen und Bildern im Lauf des Jahres 2007 in Gang gesetzt hat, erscheint aus fachwissenschaftlicher Perspektive oft als laut und oberflächlich, marktschreierisch und abgehoben, d.h. ohne viel Bezug zum eigenen Schaffen. Wer tief vom Selbstwert der eigenen Wissenschaft überzeugt ist, hält solches Buhlen um öffentliche Aufmerksamkeit ohnehin für überflüssig, wenn nicht gar für unwürdig. Und in der Tat: Kaum eine Monographie, Vorlesung oder gelehrte Edition wird durch den Aufwand dieses Jahres der Geisteswissenschaften besser geworden sein.
In den vergangenen Jahren hat eine Entwicklung eingesetzt, in deren Rahmen zahlreiche geisteswissenschaftliche Fächer eine ‚kulturwissenschaftliche Neuausrichtung‘ vorgenommen oder doch zumindest angekündigt haben. Auch an der Geschichtswissenschaft ist diese Entwicklung nicht spurlos vorbeigegangen, wenngleich die Rolle des Vorreiters in dieser Hinsicht eher bei den Literaturwissenschaften liegt, vor allem der Anglistik und Germanistik. Innerhalb der Geschichtswissenschaft gibt es verschiedene Ansätze zur Entwicklung einer ‚neuen Kulturgeschichte‘, die teilweise an ältere Vorbilder anknüpfen, die aber nicht umhinkommen, sich auch mit der aktuellen ‚Verkulturwissenschaftlichung‘ der Geisteswissenschaften auseinanderzusetzen. In diesem Kontext gilt es zu klären, was wir unter Kulturwissenschaft verstehen, was die Kulturwissenschaft als eigenständige akademische Disziplin von den Kulturwissenschaften unterscheidet, die oft als Synonym für die Geisteswissenschaften, d.h. als Sammelbegriff verstanden werden. Zu diskutieren ist in diesem Kontext aber vor allem, in welchem Verhältnis Kultur- und Geschichtswissenschaft, speziell Kulturwissenschaft und Zeitgeschichte, zueinander stehen.
Von ihren Lebensläufen her könnten sie kaum unterschiedlicher sein: Georg Picht, 1913 als Sohn des damals als Vordenker der „Erwachsenenbildung“ geltenden Werner Picht geboren, entschied sich früh für die akademische Laufbahn. Er studierte Philosophie und Pädagogik, arbeitete als Assistent an der Universität Freiburg und wurde 1942 zum Dr. phil. promoviert. Johannes Hörnig, Jahrgang 1921, arbeitete hingegen als Schlosser, nahm von 1940 bis 1945 als Wehrmachtssoldat am Zweiten Weltkrieg teil und erwarb erst 1952 sein Diplom in Gesellschaftswissenschaften. Während Picht dem evangelischen Milieu entstammte, engagierte sich Hörnig direkt nach dem Krieg in der SPD und dann in der SED. Praktische Erfahrungen im Bildungssektor sammelten beide in Schulen, jedoch auch hier auf unterschiedlichen Ebenen: Während Picht als Schulleiter versuchte, erste reformpädagogische Akzente zu setzen (Förderung der persönlichen Entfaltung der Lernenden durch Gemeinschaftserziehung und Mitverantwortung), war Hörnig als Grundschullehrer tätig.
Im April 2008 wurde in Gegenwart von Simone Veil, der früheren Präsidentin des EU-Parlaments, an der Pariser Universität Sciences Po eine neue und ambitionierte elektronische Informationsquelle freigeschaltet: die Enzyklopädie über Massengewalt oder „mass violence“, wie der Titel im Englischen heißt (das die bevorzugte Sprache dieser Website ist). Das Projekt ist also noch jung, und so nimmt es nicht wunder, dass es trotz einer fast vierjährigen Vorlaufphase nicht frei von Startproblemen ist. Sie liegen zum Teil im monumentalen, aber noch unzureichend eingelösten Dokumentationsanspruch der Enzyklopädie, vor allem aber in der unscharfen Bestimmung dessen, was dokumentiert werden soll.
Wie haben sich die Perspektiven auf die NS-Zeit seit 1989/90 verändert? Nach einem knappen Rückblick auf die „historiographische Systemkonkurrenz“ in der Ära des Kalten Krieges werden zunächst wichtige Blickerweiterungen skizziert, die bereits vor 1989/90 einsetzten: die wachsende Aufmerksamkeit für alltagsgeschichtliche Zusammenhänge sowie vor allem für die Verfolgung und Ermordung der Juden. Die Zäsur von 1989/90 brachte für die NS-Forschung einen zusätzlichen Schub, weil sie die Bedeutung von Akteuren in historischen Entscheidungssituationen nachhaltig in den Vordergrund rückte. Der Aufsatz erläutert darüber hinaus drei Stränge der aktuellen NS-Forschung: Ansätze einer integrierten Geschichte, die eine dichotomische Betrachtung von Opfern und Tätern überwinden; die Europäisierung und Globalisierung nicht nur der Erinnerungspolitik, sondern auch der wissenschaftlichen Arbeiten zur NS-Zeit; sowie das übergreifende Phänomen einer verstärkten Medialisierung von Geschichte.
Die visuelle Überlieferung aus der Zeit der NS-Diktatur lässt sich nur interdisziplinär erforschen. Die fotografische Massenkommunikation, die im NS-Staat dem Propagan-daministerium unterstellt wurde, kann mit herkömmlichen zeithistorischen Methoden, aber auch mit dem kunstwissenschaftlichen Instrumentarium allein nicht umfassend erklärt werden. Qualitative Ansätze etwa der Kommunikationswissenschaft bieten zusätzliche Möglichkeiten des Erkenntnisfortschritts – nicht zuletzt im Hinblick auf die private Fotografie. Im Paradigma der „Bildwissenschaft“ können sich die Kompetenzen der Einzeldisziplinen neu verbinden und zum differenzierten Verständnis der NS-Herrschaft einen wichtigen Beitrag leisten. Der Aufsatz skizziert zunächst die fotohistorische Erforschung der NS-Zeit seit den 1980er-Jahren. Gefragt wird dann nach der Überlieferungssituation in den Archiven und den Auswirkungen der Digitalisierung. Eine zentrale These lautet dabei, dass sich das Problem der bisher oft mangelhaften Klassifizierung und Erschließung von Fotomaterial durch dessen digitale Zirkulation weiter verschärft.
Noch immer liegen NS- und Genozidforschung weit auseinander – und sind zugleich doch eng miteinander verbunden. Denn zum einen bildet der Holocaust für die Genozidforschung bis heute die Matrix der unterschiedlichsten Typologieversuche. Zum anderen gründet die These von der Singularität des Holocaust notwendig, obgleich meist nur implizit auf dem Vergleich mit anderen Massenmorden. Dennoch arbeiten beide Disziplinen bis heute vielfach nebeneinander her. NS-Forscher ignorieren die Forschungsergebnisse zu den übrigen Völkermorden im 20. Jahrhundert weitgehend und perpetuieren damit die Singularitätsthese durch den eigenen eingeengten, überwiegend nationalgeschichtlich-deutschen Horizont. Die zahlreichen Bücher zu Genoziden basieren hingegen oft auf einem Kenntnisstand des Holocaust, der aus den 1970er-Jahren stammt, und beziehen sich damit sich auf eine gänzlich veraltete Matrix, die wiederum die eigenen Schlussfolgerungen verzerrt.
Als Francis Fukuyamas Essay „The End of History?“ im Sommer 1989 in der Zeitschrift „The National Interest“ erschien, brach ein Sturm der Empörung los. Die Vorstellung von einem „Ende der Geschichte“ hatte zwar gerade Konjunktur; so kamen in der Bundesrepublik 1989 gleich zwei Bücher heraus, die dieses Thema kritisch beleuchteten. Meist gründete das Interesse an einem „Ende der Geschichte“ allerdings auf einer postmodernen Position. Vilém Flusser oder Jean Baudrillard etwa behandelten unter diesem Schlagwort den Verlust von Sinn- und Wirklichkeitsbezügen in der multimedialen Kommunikationsgesellschaft. Fukuyama hingegen knüpfte an eine andere Tradition mit politisch konservativem Hintergrund an, wie sie beispielsweise von Arnold Gehlen, Ernst Jünger und Hendrik de Man vertreten worden war. Vor allem berief er sich auf den russisch-französischen Philosophen Alexandre Kojève, der Hegels „Phänomenologie des Geistes“ als Setzung eines Endpunkts der Geschichte gedeutet und später die amerikanische Lebensart als die Lebensform des Menschen nach dem Ende der Geschichte bezeichnet hatte.
Taylors Name steht heute – mit dem Begriff „Taylorismus“ – für Arbeitszerlegung und Dequalifizierung. In seinem vielfach nachgedruckten Hauptwerk „The Principles of Scientific Management“ fasste der amerikanische Ingenieur und Rationalisierungsberater Frederick Winslow Taylor (1856–1915) vorhandene heterogene Rationalisierungsvorschläge und -maßnahmen sowie eigene Überlegungen zu einer plakativen Lehre zusammen. An ihr entzündeten sich in den Jahren vor und nach dem Ersten Weltkrieg heftige Auseinandersetzungen um die Organisation der Fabrik und die Gestaltung industrieller Arbeit.
Die zu keinem Zeitpunkt besonders exklusive Position der akademischen Zeitgeschichte in der Öffentlichkeit wird heute mehr denn je herausgefordert von außerakademischen Beiträgen zur Geschichtsschreibung. Das gestiegene wie auch pluralisierte Bedürfnis nach geschichtlicher Einordnung der Gegenwart findet in den populären Geschichtsformaten ganz offensichtlich eine breite Resonanz. Bei dieser Ausweitung spielen fundamentale politische, sozialgeschichtliche und kulturelle Entwicklungen eine Rolle, namentlich die Aufweichung der nationalgeschichtlichen und nationalkulturellen Rahmenbedingungen, unter denen die moderne Geschichtsforschung und Geschichtsschreibung seit dem frühen 19. Jahrhundert entstanden waren. Im frühen 21. Jahrhundert verstehen sich vormals undiskutierte Bezugsrahmen einer solchen Geschichtsschreibung nicht mehr von selbst. Vielmehr muss zunehmend klargestellt werden, wer welche Art der Geschichte für welches Publikum darstellen will.
Wie verändern sich die Objekte der Geschichtsschreibung, also die Gegenwart und die jüngere Vergangenheit, durch die Medien? Wie verändert sich die Geschichtsschreibung selbst durch die Medien? Was bedeutet die in Forschung und Öffentlichkeit verbreitete Rede von der ‚Mediengesellschaft‘ aus historischer Perspektive eigentlich genau? Der Aufsatz unterscheidet zunächst einige Prozesse der ‚Medialisierung‘, geht damit verbundenen Strukturverschiebungen nach und betrachtet insbesondere Veränderungen von Öffentlichkeiten. Dabei wird dafür plädiert, die Ambivalenz der Entwicklungen anzuerkennen und nicht vorschnell Paradigmenwechsel zu behaupten. Zudem werden einige Leitlinien formuliert, was eine Medialisierung der Zeitgeschichtsschreibung bedeuten könnte. Hier gilt es, neue Wege zu beschreiten und neue Ziele zu setzen, die der Ära der Audiovisualität gerecht werden.
In Auseinandersetzung mit Jörn Rüsens „vier Typen des historischen Erzählens“ (traditionales, exemplarisches, kritisches und genetisches Erzählen) wird ein fünfter Idealtypus zu begründen versucht, der sich aus gesellschaftlichen und kulturellen Veränderungen sowie der Emergenz digitaler Medien ergibt. Das „situative Erzählen“ als neuer Modus der historischen Sinnbildung antwortet zum einen auf Formen der Identitätskonstruktion innerhalb einer „flüchtigen Moderne“, deren Kennzeichen die Absage an „große Erzählungen“ und die Auflösung stabiler Identitäten sind. Zum anderen wird diese Erzähl- und Sinnbildungspraxis durch hypertextuelle Kulturtechniken codiert, ausgestaltet und prämiert. Der Beitrag nennt einige historiographische Ansätze des „situativen Erzählens“ und fragt nach den Konsequenzen für die Geschichtswissenschaft.
Die Deutung der jüngeren und jüngsten Vergangenheit liegt nicht allein in der Hand professioneller Zeithistorikerinnen und Zeithistoriker, sondern ist ein hart umkämpftes Feld mit verschiedensten Akteuren. Das vorliegende Heft widmet sich diesem breiteren Feld der „populären“ Geschichtsschreibung aus unterschiedlichen Perspektiven. Welche Rolle spielt die „akademische“ Zeitgeschichte nun bei der Konstituierung von Geschichtsbildern und Geschichtserzählungen? „Akademisch“ mag wie ein abwertendes Signum klingen – unverständlich, im System Wissenschaft verfangen, vorbei am Publikum –, während es für den praktizierenden Akademiker eine Quelle seines Berufsethos sein dürfte (oder vielleicht der letzte Rettungsanker der Selbstlegitimierung). Strittig bleibt indes, was das „Fachwissenschaftliche“ genau ausmacht: Sind es bestimmte Mindeststandards, die ein Geschichtswerk erfüllen muss, um als „wissenschaftlich“ anerkannt zu werden, oder ist die „akademische“ Geschichtsschreibung im Wesentlichen durch eine (nicht allein fachspezifische) Forschungspraxis gekennzeichnet, die an strukturelle Bedingungen von Drittmittel- und „Exzellenz“-Projekten und akademische Moden gebunden ist sowie zu guter Letzt als „Abschlussbericht“ in Darstellung überführt werden muss?
Wie stellen sich aktuelle Tendenzen in der Zeitgeschichtsschreibung dar – im Vergleich mit dem auffällig gewachsenen Interesse literarischer Autoren für zeitgeschichtliche Themen? Welche Konvergenzen sind zu verzeichnen, und welche textsortenbedingten Differenzen bleiben? Sind die zeitgeschichtlichen Erzählmuster in diesem Umfeld vorwiegend konstant, oder gibt es strukturelle Veränderungen? Worauf lassen sich diese eventuell zurückführen?
Die folgende Skizze verzichtet ganz auf normative Stellungnahmen. Wie man „gute“ Zeitgeschichte schreiben und welche Aufgaben sie haben sollte – solche Proklamationen sind eine allzu verbreitete Übung von Historikern, zumal sie ohne die Anstrengung empirischer Forschung von der Hand gehen. Stattdessen soll hier gefragt werden, inwieweit wir es uns überhaupt erlauben können, Diagnosen über Wandel und Kontinuität in der Zeitgeschichtsschreibung aufzustellen und daran Empfehlungen zu knüpfen, solange wir nicht auf empirisch gesichertem Grund stehen. Wohlgemerkt, es geht um Anfragen, nicht um Resultate oder Lösungen. Sind die oft behaupteten Tendenzen – zunehmende Marktabhängigkeit, Emotionalisierung, Internationalisierung, mangelnde Selbstreflexion der Zeitgeschichte, teleologische und gegenwartslegitimatorische Geschichtsschreibung à la Treitschke – typisch für die Zeitgeschichte? Vorausgesetzt, die Elemente des Merkmalskatalogs treffen überhaupt zu: Was davon betrifft die Zeitgeschichte, was die gesamte Geschichtsschreibung?
Heute gilt es als unbestritten, dass die allgegenwärtigen Geschichtsdarstellungen in den Medien massiv das Geschichtsbewusstsein prägen. Allerdings wurde selten gefragt, welche Konsequenzen dies für die Geschichtswissenschaft hat und wie diese damit umging. Ein früher Beitrag eines Historikers, der die Folgen von Geschichts-Fernsehserien für die Forschung reflektierte, stammt von Martin Broszat, der 1979 auf den damaligen Erfolg der amerikanischen Fernsehserie „Holocaust“ reagierte. Seinen Aufsatz neu zu lesen lohnt in doppelter Hinsicht: Einerseits ist der Text ein frühes selbstkritisches Zeugnis dafür, wie ein renommierter Historiker aus einer medialen Geschichtsdarstellung einen Perspektivwechsel für die Forschung ableitet. Andererseits lässt sich der Artikel als eine trotzige Verteidigungsschrift der Zunft verstehen, die zahlreiche problematische Punkte aufweist, welche die Beziehung zwischen Geschichtswissenschaft und Medien bis heute prägen.
„Anarchie der Zellen“.
Geschichte und Medien der Krebsaufklärung in der ersten Hälfte des 20. Jahrhunderts
Am Beispiel des Films „Krebs“ (1930) wird die historische Bedeutung und Funktion von Filmen im Rahmen der Gesundheitsaufklärung analysiert. Seit der Wende zum 20. Jahrhundert und verstärkt durch den Ersten Weltkrieg etablierten sich in verschiedenen Ländern Kampagnen zu medizinischen und hygienischen Themen. Neben Plakaten und Ausstellungen erschienen Filme als ein ideales Medium der Wissensvermittlung. Die Filme verknüpften Inszenierungen von Wissenschaft mit gesellschaftspolitischen Visionen und Aufforderungen für das individuelle Verhalten. Ein zentraler Akteur war dabei – vor und nach 1945 – das Hygiene-Museum in Dresden, das unter anderem den Film „Krebs“ produzierte. Die Argumentationsstrategien dieses Films werden hier näher untersucht, um damit einen Einblick in die Entstehung der Wissensgesellschaft im 20. Jahrhundert zu geben. Der Aufsatz verbindet medizin-, medien- und museumsgeschichtliche Zugänge mit Fragen der Körpergeschichte und des social engineering.
Das Taschenbuch „Medizin ohne Menschlichkeit“ wurde ein Best- und Longseller. Binnen sechs Wochen nach Erscheinen, im Frühjahr 1960, konnte der Fischer-Verlag bereits 29.000 Exemplare absetzen. 2004 erreichte der Band die 16. Auflage. Ein erstaunlicher Erfolg für die Neuausgabe eines Buches von 1949; eines Buches zudem, das, wie der Untertitel anzeigte, „Dokumente des Nürnberger Ärzteprozesses von 1946/47“ präsentierte. Seither waren immerhin 13 Jahre vergangen. Auch die Herausgeber waren einem breiten Publikum unbekannt: Der Psychoanalytiker und Heidelberger Extraordinarius Alexander Mitscherlich war eben erst dabei, in Frankfurt das spätere Sigmund-Freud-Institut zu begründen. Fred Mielke, in den ersten Nachkriegsjahren Medizinstudent bei Mitscherlich, war bereits im Frühjahr 1959 an Leukämie verstorben.
Keine Stunde Null. Sozialwissenschaftliche Expertise und die amerikanischen Lehren des Luftkrieges
(2020)
Alle Kriegsparteien bombardierten im Zweiten Weltkrieg Ziele, die lange Zeit als zivil gegolten hatten. Diese sogenannten strategischen Bombardierungen wurden im Auftrag der US-Regierung ab dem Kriegsende mit einem Stab von über 1.000 Mitarbeitern in Deutschland und Japan aufwendig evaluiert (United States Strategic Bombing Survey, USSBS). Mithilfe ambitionierter Sozialwissenschaftler gelang es der jungen US Air Force, den strategischen Luftkrieg als militärisch und psychologisch entscheidend darzustellen, und so taten sich für die Luftkriegsexperten auch nach 1945 attraktive neue Beschäftigungsfelder auf. Die Wissenschaftler argumentierten, sie seien in der Lage, methodisch abgesichert einen schnellen und vermeintlich »sauberen« Krieg aus der Luft zu planen. Der Aufsatz stellt die bisher kaum erforschten Logiken und Folgen dieser Kooperation sowie die behaupteten Lehren des Weltkrieges für den Korea- und den Vietnamkrieg dar. Damit hinterfragt er das gängige Verständnis einer radikalen Zäsur, die der erste Einsatz der Atombombe mit sich gebracht habe, und plädiert für einen neuen Blick auf die Militär-, Gewalt- und Wissensgeschichte des »Kalten Krieges«.
Ein Gespenst geht um in der Geschichtswissenschaft: das Gespenst der Quantifizierung. Ringsum wird geklagt, dass Drittmittelbilanzen und Bibliometrie, Evaluierungen und Rankings immer wichtiger werden. Dies gehört zu einer allgemeinen Entwicklung nicht nur in der Geschichtswissenschaft, die Universitäten und außeruniversitäre Forschungsinstitute gleichermaßen betrifft. In Deutschland wird sie besonders mit Bologna-Reformen und Exzellenz-Initiative in Verbindung gebracht, wenngleich die Anfänge dieses Prozesses weiter zurückreichen. Die Geschichtswissenschaft, so scheint es, wurde also bereits mehr oder weniger sanft über die Türschwelle jener von Steffen Mau so bezeichneten »Bewertungsgesellschaft« geschubst, »die alles und jeden einer Bewertung mittels quantitativer Daten unterzieht und damit zugleich neue Wertigkeitsordnungen etabliert«
Der Begriff »Diversität« hat in den letzten Jahrzehnten eine erstaunliche Verbreitung erfahren. Traditionell bezeichnete das Wort nur einen Zustand der Verschiedenheit; in der Gegenwart erscheint es in vielen Kontexten, um dessen Gegenteil zu erreichen: Das Wort meint Verschiedenheit und zielt auf Gleichheit. Schulen und Universitäten regeln Chancengleichheit im Namen von Diversität, Unternehmen formen eine heterogene Belegschaft mittels eines »Diversitätsmanagements«, und Migrationsbewegungen haben die alte Debatte um den Multikulturalismus wieder belebt. Durch seine vielseitige Anschlussfähigkeit ist Diversität zu einem populären und meist positiv besetzten Begriff geworden, der theoretisch jedoch weithin unterbestimmt blieb. Seine Paradoxie besteht in der Kollektivierung von Individuen zu homogenen Gruppen bei gleichzeitiger Pluralisierung dieser Gruppen zu nebeneinanderstehenden Einheiten – ausdrücklich ohne eine umfassende Universalisierung anzustreben.
Seit einigen Jahren verdichtet sich auch in Deutschland das Gespräch über Herausforderungen und Perspektiven des digitalen Zeitalters für die Geschichtswissenschaft. Auf jedem Historikertag seit 2010 gab es mehrere Sektionen, die sich unterschiedlichen Facetten des Themas zuwandten. Es entstehen Fachpublikationen, Überblickswerke, Dissertationen und erste Ansätze, das Feld institutionell neu zu gestalten. Die Geschichtswissenschaft bemüht sich, produktiv auf die Veränderungen einzugehen. Punktuell ist es auch bereits zu einem Dialog mit Archiven und der Archivwissenschaft gekommen. So hat der Verband der Historiker und Historikerinnen Deutschlands (VHD) 2015 unter Federführung der Vorsitzenden Eva Schlotheuber und Frank Bösch ein Grundsatzpapier verabschiedet, das sich der Quellenkritik im digitalen Zeitalter annimmt. Die Forderung, Elemente der Digital Humanities in die Historischen Grundwissenschaften zu integrieren, wurde seitdem noch weiter unterstrichen.
»[…] wenn ›die Quelle‹ die Reliquie historischen Arbeitens ist – nicht nur Überbleibsel, sondern auch Objekt wissenschaftlicher Verehrung –, dann wäre analog ›das Archiv‹ die Kirche der Geschichtswissenschaft, in der die heiligen Handlungen des Suchens, Findens, Entdeckens und Erforschens vollzogen werden.« Achim Landwehr wirft in seinem geschichtstheoretischen Essay den Historikern ihren »Quellenglauben« vor – diese Kritik ließe sich im digitalen Zeitalter leicht auf die Heilsversprechen der Apostel der »Big Data Revolution« übertragen. Zwar regen sich mittlerweile vermehrt Stimmen, die den »Wahnwitz« der digitalen Utopie in Frage stellen, doch wird der öffentliche Diskurs weiterhin von jener Revolutionsrhetorik dominiert, die standardmäßig als Begleitmusik neuer Technologien ertönt. Statt in der intellektuell wenig fruchtbaren Dichotomie von Gegnern und Befürwortern, »First Movers« und Ignoranten zu verharren, welche die Landschaft der »Digital Humanities« ein wenig überspitzt auch heute noch kennzeichnet, ist das Ziel dieses Beitrages eine praxeologische Reflexion, die den Einfluss von digitalen Infrastrukturen, digitalen Werkzeugen und digitalen »Quellen« auf die Praxis historischen Arbeitens zeigen möchte. Ausgehend von der These, dass ebenjene digitalen Infrastrukturen, Werkzeuge und »Quellen« heute einen zentralen Einfluss darauf haben, wie wir Geschichte denken, erforschen und erzählen, plädiert der Beitrag für ein »Update« der klassischen Hermeneutik in der Geschichtswissenschaft. Die kritische Reflexion über die konstitutive Rolle des Digitalen in der Konstruktion und Vermittlung historischen Wissens ist nicht nur eine Frage epistemologischer Dringlichkeit, sondern zentraler Bestandteil der Selbstverständigung eines Faches, dessen Anspruch als Wissenschaft sich auf die Methoden der Quellenkritik gründet.
Zu den drängenden Problemen der Historischen Grundwissenschaften gehört es heute, ein erweitertes Instrumentarium für digitale Quellengattungen zu entwickeln. Dabei ist das breite Feld der digitalen Informationstypen der Gegenwart, der sogenannten born digitals (also der genuin digitalen Objekte), noch nicht einmal vollständig in den Blick geraten.1 Dies liegt zum einen daran, dass sich das Quelleninteresse der Zeitgeschichtsforschung in wachsendem Maße auch auf frei im Netz zugängliche Ressourcen richtet.2 Das dort vorhandene Material ist von beachtlicher Vielfalt (und quellenkritischer Brisanz), was eine quellenkundliche Erfassung erschwert. Die mangelnde Durchdringung des digitalen Quellenkanons hat aber auch mit den im Umbruch befindlichen Fachaufgaben der Archive als »traditionellem Ort« der Geschichtsforschung zu tun. Denn die Archive haben in vielen Fällen erst in den letzten Jahren mit systematischen Übernahmen und der Bereitstellung digitaler Unterlagen begonnen. Dementsprechend stehen viele digitale Quellen aus Verwaltungszusammenhängen der Forschung noch gar nicht zur Verfügung. Gleichwohl werden sie für die spätere geschichtswissenschaftliche Erforschung unserer heutigen Gegenwart und jüngsten Vergangenheit von zentraler Bedeutung sein.
Archive investieren mittlerweile sehr viel Geld in die Digitalisierung ihrer Bestände, um sie ihren NutzerInnen komfortabel online bereitzustellen. Mit dem Aufbau virtueller Lesesäle geht es nicht mehr um die schon traditionell zu nennende Form der Digitalisierung, bei der exemplarisch besondere Einzelstücke in Form einer Ausstellung online präsentiert werden, sondern es geht tatsächlich um die Bereitstellung von Archivgut zur wissenschaftlichen Auswertung im virtuellen Raum statt im analogen Lesesaal. Doch während Fördermittel in großem Stil beantragt und bewilligt sowie die technischen Rahmenbedingungen geschaffen und ausgebaut werden, finden inhaltlich-methodische Diskussionen in Deutschland bisher kaum statt. In Frankreich hingegen wird in Anlehnung an das vor 30 Jahren erschienene Buch von Arlette Farge der »Geschmack des Archivs« im digitalen Zeitalter debattiert, und in der Schweiz wird das klare Ziel verfolgt, dass der virtuelle Raum den analogen ersetzen soll. In skandinavischen Ländern ist dies sogar schon geschehen. Dabei ist es in Deutschland keine programmatische Festlegung, dass am traditionellen Lesesaal festgehalten wird, oder muss es zumindest nicht sein, weil die schiere Menge an analogem Archivgut noch für lange Zeit auch herkömmliche Lesesäle erforderlich machen wird. Umso schwieriger wird es in dieser Übergangsphase, die Konturen des virtuellen Raumes genauer zu fassen und zu klären, was eigentlich das Ziel der digitalen Bereitstellung sein soll: eine Art Add-on, ein gleichwertiges Nebeneinander oder eine neue Form der Quellennutzung?
Für dieses Buch muss man sich etwas Zeit nehmen. Ich hatte die gut 700 Seiten umfassende amerikanische Originalausgabe von »Mechanization Takes Command« (den Titel kürzte Giedion in seinen Notizen mit dem Akronym »M.T.C.« ab) im Sommer 2017 im Amtrak California Zephyr auf meiner Reise von Greenriver, UT, nach Chicago, IL, im Gepäck. Diese Reise bot aktualisiertes Anschauungsmaterial zu Giedions Sondierungen der US-amerikanischen Industrialisierungsgeschichte. Sie folgte jener Eisenbahnlinie, welche Kalifornien (wo die Frontier-Gesellschaft Amerikas im ausgehenden 19. Jahrhundert an ihr Ende gelangte) mit Chicago verbindet (der nach dem großen Brand von 1871 zur Industriemetropole avancierten Stadt am Lake Michigan). Dazwischen öffnete sich der Midwest, dessen verrostete und verlassene industrielle Infrastruktur (Bahnhöfe, Fabriken, Brücken, Städte) durch das Zugfenster ins Blickfeld geriet und somit den Endpunkt der von Giedion dokumentierten Entwicklungen brutal vor Augen führte. Die heruntergewirtschafteten Landschaften des Midwest und Giedions Streifzüge in ihre Industrialisierung während des 19. Jahrhunderts flossen ineinander über. Etwa dann, wenn der Zug stillstand und mein Blick bei den Getreide-Elevatoren hängen blieb, wo sich die Eisenbahnlinien kreuzen und der Personenzug den unendlich langen Güterwagen, die von Diesellokomotiven angetrieben werden, den Vortritt lassen musste. Oder wenn ich beim mäandrierenden Durchblättern des Buches und dem Blick aus dem Zugfenster den Faden verlor und eindöste – und dann beim Eindunkeln jäh von den sleeping car attendants, welche die ausklappbaren Sitze für die Nacht mit ein paar Handgriffen zu Betten umwandelten, in die Gegenwart zurückgeholt wurde. Oder im Nachfolgemodell des von George M. Pullman 1869 in seinem Patent beschriebenen Speisewagens, wo die Reisende aus Europa und Wählerinnen des amtierenden Präsidenten sich am gemeinsamen Tisch zum Verzehr von Burger, Steaks und Hot Dogs wiederfanden. Jenes Präsidenten, der zu Beginn des 21. Jahrhunderts eine Re-Industrialisierung abgehängter Regionen im einst prosperierenden Rostgürtel der USA versprach.
»Dr. Jekyll und Mr. Hyde«?. Robert Jay Liftons Psychohistorie »Ärzte im Dritten Reich« (1986/88)
(2020)
Bereits während des Zweiten Weltkrieges erstellten Psychiater im Auftrag des amerikanischen Nachrichtendienstes OSS Ferndiagnosen zu Adolf Hitlers Persönlichkeit. Mit dem Sieg über Deutschland und der Gefangennahme seiner Führungsriege eröffnete sich Medizinern nach 1945 die für sie faszinierende Möglichkeit, die Initiatoren der Judenverfolgung wie Hermann Göring aus nächster Nähe zu studieren. Im Zentrum diverser Untersuchungen im Zellentrakt des Nürnberger Justizpalasts stand dabei die Frage, ob sich die Verantwortlichen für den Tod von Millionen Menschen durch eine abnorme Psyche auszeichneten.
Vier Dekaden später erschien mit Robert Jay Liftons Monographie »The Nazi Doctors« 1986 eine international vielbeachtete Studie, die die Frage nach den mentalen Dispositionen von Ärzten, die in nationalsozialistischen Vernichtungsstätten Verbrechen begangen hatten, entschieden ins Zentrum rückte. Lifton, 1926 in New York geboren, hatte in den 1950er-Jahren als Nervenarzt für die United States Air Force in Japan und Korea gearbeitet. Seitdem widmete er sich dem Thema Genozid und studierte den Umgang von Überlebenden mit erlittenen Kriegsgräueln. Dieses Mal fokussierte Lifton allerdings auf die Gewalttäter. Dazu nutzte er Methoden der Psychohistorie, deren Möglichkeiten und Grenzen Historiker/innen in der Bundesrepublik seinerzeit kontrovers diskutierten.
›1948‹ is a key concept in Israeli identity discourse. A signifier of the violent clashes that took place at the end of the British Mandate in Palestine (between the fall of 1947 and the spring of 1949), it encompasses both the foundation of a democratic Jewish nation-state and the destruction of numerous Palestinian communities during the Israeli ›War of Independence‹ and thereafter. The Nakba, the Palestinian catastrophe, could not be overlooked by Israel’s ›generation of 1948‹ and those that succeeded it: it was present in the deserted fields and houses now occupied by Israelis, in the names of the streams, hills and roads Israelis now visited during military drills or school field trips, and in the frequent encounters with Arab ›infiltrators‹ who sought to return to their abandoned homes and lands.1 The mass expulsion and the killings of Arab civilians by Jewish forces were regularly discussed and debated by Israeli politicians, intellectuals, journalists and artists in the ensuing decades.2 Yet with few exceptions, Israeli historians and politicians have seemingly effortlessly merged these atrocities with a commonly accepted ›narrative‹ by, for example, attributing them to rogue, marginal, right-wing militias; depicting cases of expulsion as sporadic and spontaneous events; or justifying them as ad hoc measures taken against the initiators of the violence during the war.
Für diese Debatte haben wir vier prominenten Vertreter*innen beider Disziplinen, der Rechts- und der Geschichtswissenschaft, schriftlich Fragen zur Situation, zum Potential und zu den Herausforderungen einer Zeitgeschichte des Rechts gestellt.
Wie verhält sich die Rechtsgeschichte zur »allgemeinen« Geschichtswissenschaft in Deutschland? Woher rührt das ausgeprägte disziplinäre Selbstbewusstsein der juristischen Rechtshistoriker*innen, und sollten Allgemeinhistoriker*innen dem etwas entgegensetzen? Worin sehen Sie die »großen Themen« und methodischen Trends der aktuellen rechtshistorischen Forschung, besonders der Juristischen Zeitgeschichte in der Bundesrepublik? Wieviel Theorie und Methodik braucht die Rechtsgeschichte? Wo sehen Sie Potential für neue Perspektiven, und inwieweit sollte eine zeitgemäße Rechtsgeschichte über den nationalen Rahmen hinausgehen? Welche Chancen, welche Grenzen sehen Sie für die interdisziplinäre Zusammenarbeit von Jurist*innen und Historiker*innen?
It is said that William Brennan, the great US Supreme Court Justice, liked to greet his incoming law clerks with a bracingly simple definition of constitutional doctrine: five votes. ›You can’t do anything around here‹, Brennan would say, wiggling the fingers of his hand, ›without five votes.‹1 While memorable, Brennan’s definition was not entirely original. Seventy-five years before Brennan’s elevation to the high court, the jurist Oliver Wendell Holmes Jr. famously wrote: ›The life of the law has not been logic; it has been experience [...]. The law […] cannot be dealt with as if it contained only the axioms and corollaries of a book of mathematics.‹2 Some years later, Holmes returned to this idea, writing: ›The prophecies of what the courts will do in fact, and nothing more pretentious, are what I mean by the law.‹3 Statements such as Brennan’s and Holmes’ found elaboration in the American jurisprudential movement known as ›legal realism‹. One of its most influential and articulate exponents was the law professor Karl Llewellyn (1893–1962). Trained at Yale Law School, and on the faculty of Columbia, Llewellyn had a foot in the two institutions most prominently associated with the realist movement.
Es gibt zahlreiche Gelegenheiten, um festzustellen, dass auch das eigene Selbst – entgegen jeglicher irrationalen Hoffnung – dem Alterungsprozess nicht entzogen ist. Eine Möglichkeit ist die Aufforderung, gut 25 Jahre nach seinem ersten Erscheinen ein Buch zu thematisieren, dessen Erstauflage in der eigenen akademischen Ausbildung nicht ganz unbedeutend war. Es war 1997, als mit Niklas Luhmanns »Gesellschaft der Gesellschaft« ein in mehrerlei Hinsicht schwergewichtiger Block mitten in die allgemeine Theoriediskussion hineinplumpste. Dass dieses Buch in der Erstausgabe mit schwarzem Einband daherkam, erschien mir damals durchaus folgerichtig und erinnerte an den gleichfarbigen Monolithen aus Stanley Kubricks »2001: A Space Odyssey«. Ähnlich Ehrfurcht gebietend gestaltete sich die Lektüre von Luhmanns Hauptwerk, vor allem dem Novizen in Sachen Systemtheorie, der ich damals war.
Unfreundliche Häme schüttete sich noch Ende des letzten Jahres in der Öffentlichkeit über einem vormals so vielgerühmten Berufsstand aus. Die Ökonomen wurden sehr unverblümt dafür kritisiert, dass sie vor der Wirtschaftskrise ahnungslos und in der Wirtschaftskrise orientierungslos gewesen seien. Lisa Nienhaus, Wirtschaftsredakteurin der „Frankfurter Allgemeinen Zeitung“ (FAZ), bezeichnete sie als kollektive „Blindgänger“. Als „Starökonomen“ wurden plötzlich Wissenschaftler gelobt, die dem Fach zuvor als Außenseiter und Schwarzseher galten, wie der vor der Finanzkrise noch als „Dr. Doom“ verspottete Nouriel Roubini, der sich nun in Medien und Fachorganen zu Wort melden durfte, dabei aber nicht mehr als Vertreter der Zunft galt, sondern als in der Vergangenheit gegen die Wirtschaftswissenschaften angehender Einzelkämpfer. Gleichzeitig erhoben sich wortgewaltige Verfechter der Mainstream-Ökonomie wie der Münchener Wirtschaftswissenschaftler Hans-Werner Sinn: Er habe – ließ er die „FAZ“ und durch sie die Öffentlichkeit wissen – seit längerem auf die Probleme des Finanzmarktes hingewiesen und Veränderungen gefordert, und letztlich sei es das Problem der Journalisten, dass sie lieber über börsliche Höhenflüge als über mahnende wissenschaftliche Expertise berichtet hätten. Die Krise sei also gerade dadurch entstanden, dass die Welt nicht auf die Ökonomen gehört habe.
Selten gerinnt „ein Stück empirisch orientierter, projektiver Gesellschaftstheorie“ (S. 13) aus der Feder eines Soziologen so rasch zum Schlagwort der Feuilletons wie Ulrich Becks „Risikogesellschaft“. Kurz vor der Drucklegung mit einem zweiten Vorwort versehen („Aus gegebenem Anlaß“), offerierte sich der Text selbst als Kommentar zur Reaktorkatastrophe von Tschernobyl; Beck ordnete den Vorfall historisch am Ende einer Kette von „zwei Weltkriege[n], Auschwitz, Nagasaki, dann Harrisburg und Bhopal, nun Tschernobyl“ ein (S. 7). Rhetorisch beginnend mit einem Paukenschlag, bleibt das Zugespitzte, Provokante für seinen Stil bis zur letzten Seite kennzeichnend. Die erste Auflage war schnell verkauft, schon 1987 erschien eine zweite, mittlerweile liegt das Buch in der 19. Auflage vor. Seit 1992 ist es auf Englisch und in vielen weiteren Sprachen auf dem Markt.
Noch immer wird Zeithistorikern gelegentlich nachgesagt, sie hätten ein gestörtes Verhältnis zu den modernen audiovisuellen Medien, und in der Tat hat die Disziplin erst mit einiger Verzögerung auf deren Ausbreitung reagiert. Dies galt lange für die Massenmedien ganz allgemein, deren Quellenwert aus der Perspektive einer klassischen, staatszentrierten Politikgeschichte äußerst begrenzt erschien. Aber auch die Wendung hin zur Gesellschaft, zur Erfahrungs- und Erinnerungsgeschichte hat zunächst überraschenderweise kaum dazu geführt, dass die Präsenz von Medien im Alltag in diesen Ansätzen besondere Berücksichtigung gefunden hätte. Zwar ist diese traditionelle Zurückhaltung – von einigen Residuen abgesehen – inzwischen erodiert: „Mediengeschichte“ hat sich als Subdisziplin innerhalb der Zeitgeschichte etabliert. Aber jenseits eines Verständnisses als Spartengeschichte verbreitet sich erst sehr langsam die Erkenntnis, dass die Geschichte des 20. und 21. Jahrhunderts generell nicht mehr angemessen geschrieben werden kann, ohne die ubiquitäre Verbreitung und Rezeption der Massenmedien zu berücksichtigen. Das gilt keineswegs nur für die sozial- und erfahrungsgeschichtliche Dimension des Mediengebrauchs. Wenn sich, um nur ein Beispiel zu nennen, die Darstellungsseite von Politik bereits seit geraumer Zeit maßgeblich in populären Medien wie dem Fernsehen vollzieht und Repräsentationen und Wahrnehmungen mit dem politischen Prozess rückgekoppelt sind, dann muss auch die Politikgeschichtsschreibung diesem Umstand Rechnung tragen.
Wohl selten hat ein knapper, achtseitiger Text eine profundere Wirkung ausgeübt als Hans Rothfels’ Aufsatz über „Zeitgeschichte als Aufgabe“. Mit ihm verfolgte der Autor einen doppelten Zweck: Einerseits begründete er den Start einer neuen Zeitschrift; andererseits reflektierte er die möglichen wissenschaftlichen Grundlagen einer zeitgemäßen deutschen „Zeitgeschichte“, die es im Schatten des Nationalsozialismus überhaupt erst zu etablieren galt. Beide Ziele sind, vereinfacht gesagt, erreicht worden. Die „Vierteljahrshefte für Zeitgeschichte“ avancierten zur auflagenstärksten geschichtswissenschaftlichen Zeitschrift in Deutschland. Bald schon übten sie beträchtlichen fachlichen Einfluss aus und wurden auch international stark beachtet. Überdies wirkten die Leitmotive, die Rothfels in die wissenschaftliche Diskussion warf, geradezu stilbildend. Über Generationen hinweg prägten sie das Verständnis von Zeitgeschichte, wie sie sich in der Bundesrepublik Deutschland höchst spezifisch herausbildete. Damit erfüllte sich auch der von Rothfels geäußerte Wunsch, die deutsche Forschung in „nachholender“ Weise an internationale Standards heranzuführen, die er während seiner Exiljahre in den USA kennengelernt hatte.
Blick durchs Ökoskop. Rachel Carsons Klassiker und die Anfänge des modernen Umweltbewusstseins
(2012)
Kaum ein anderes amerikanisches Buch hat in aller Welt so hohe Wellen geschlagen wie „Silent Spring“. Einem Tsunami vergleichbar, der sich von seinem unterirdischen Ursprung über lange Perioden und große Entfernungen hinweg ausbreitet, hat Rachel Carsons Buch tradierte Sichtweisen auf die Natur erschüttert, unerhörte Zerstörungen sichtbar gemacht und den Ausblick auf eine gefährdete Welt zurückgelassen. Eine „Flutwelle von Briefen“ fegte unmittelbar nach der Veröffentlichung des ersten Kapitels im „New Yorker“ im Juni 1962 über die USA hinweg. Carson sah in den anhaltenden Reaktionen auf ihr Buch dessen eigentliche Bedeutung. Vieles spricht dafür, dass „Silent Spring“ einer der Auslöser für die ‚ökologische Revolution‘ der 1960er-Jahre war. Woher kam diese Sprengkraft? Und welche Bedeutung hat Carsons Klassiker heute – ein halbes Jahrhundert nach seinem Erscheinen?
Die Computerindustrie entwickelte sich in den USA und der UdSSR sehr unterschiedlich. Während in den Vereinigten Staaten der Konzern IBM nahezu ein Monopol erlangte, herrschte in der Sowjetunion ein Konkurrenzkampf. Mehrere Akteure verfolgten an unterschiedlichen Standorten eigene Entwicklungslinien; ein Austausch fand kaum statt. Als Reaktion auf eine von IBM 1963 vorgestellte neue Modellreihe kam es in der UdSSR zu einer Diskussion über die Computerindustrie, die den hartnäckigen Widerstand lokaler Entscheidungsträger bei der Durchsetzung zentraler Direktiven offenbarte. Es bedurfte mehrerer Machtworte von führenden Vertretern der Rüstungsindustrie, um das IBM System /360 als Vorbild einer eigenen Reihe durchzusetzen. Dabei berief man sich vor allem auf die Erfolge, die beim Nachbau von IBM-Rechnern in der DDR erzielt worden waren. Das Ministerium für Staatssicherheit hatte Entwicklungsdokumente aus dem Westen beschafft, und diese Wirtschaftsspionage trug wesentlich dazu bei, den innersowjetischen Konflikt zu entscheiden. Der technologische Rückstand der UdSSR gegenüber den USA blieb gleichwohl bestehen.
Der Erfolg der inzwischen nicht mehr ganz so neuen Informations- und Kommunikationstechnologien sowie die damit verbundene Vervielfachung von Daten und Informationen bedeutet weiterhin eine Herausforderung für die Wissenschaft. Die Option des synchronen Zugriffs auf eine Vielzahl von Informationen, ihre Rasterung mittels Suchmaschinen und Datenbanken dynamisiert und dezentralisiert herkömmliche Wissensspeicher wie Archive, Bibliotheken oder Enzyklopädien. Dies wirft grundlegende Fragen auf: Wie kann zuverlässiges Wissen im Netz generiert, präsentiert und distribuiert werden? Wer bürgt bei einer Vielzahl dezentraler Informationskanäle für deren Validität und Stabilität?
Beim Umgang von Historikerinnen und Historikern mit dem Netz können wir einen interessanten Wandel beobachten: Grundsatzkritik an der Verwendung des Netzes in geschichtswissenschaftlicher Lehre und Forschung findet sich kaum mehr. Noch vor gut zehn Jahren war das anders. Da waren die Bedenkenträger nicht zu überhören, die das Netz für die (Geistes-)Wissenschaften als unnütz und unnötig einstuften und entschlossen waren, dieses vermeintlich kurze technische Intermezzo auszusitzen – Vertreter vor allem der älteren Generation, die sich schon mit der Einführung des Personal Computers seit den 1980er-Jahren schwertaten. Heute geht es vielmehr um die Frage, in welchen Bereichen und mit welchen Fragestellungen das Netz in den Forschungs- und Lehralltag zu integrieren ist.
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
Ganz gegensätzlich zum teils immer noch lebendigen Vorurteil vom weltfremden Historiker, der lieber in staubigen Archiven wühle als sich im Netz zu tummeln, waren gerade die Geschichtswissenschaften sehr früh dabei, als in den 1990er-Jahren erste Versuche stattfanden, die Potenziale von Netzpublikation und -kommunikation auch für die Geisteswissenschaften fruchtbar zu machen. Viele der damaligen Initiativen haben sich – nicht zuletzt durch das Engagement Einzelner – bis heute gehalten, sich stetig weiterentwickelt und sind inzwischen Plattformen geworden, die wichtige Rollen im Arbeitsalltag der Wissenschaftler spielen, denken wir etwa an „H-Soz-u-Kult“ oder an die „sehepunkte“.
Die Zeit scheint endgültig vorbei zu sein, in der sich Historiker mit großer Skepsis dem Internet näherten und, wenn überhaupt, nur ihre Rezensionen dem World Wide Web anvertrauten. Mittlerweile gehört es fast schon zum guten Ton, eigene Projekte im Netz zu etablieren. Die grundlegende Akzeptanz ist da. Gefordert ist nun eine breitere Reflexion darüber, ob und wie sich Geschichtswissenschaft und Geschichtskultur im digitalen Zeitalter verändern.
The web and tomorrow’s historiography. Since the 1990s the world wide web (or simply, the web) has been an integral and important part of the communicative infrastructure of modern societies. On the one hand the web has developed as a new medium in its own right, in continuation of other media types such as newspapers, film, radio and television. On the other hand, the web has been intimately entangled in the social, cultural and political life taking place outside of the web. For example, within the realm of politics the web has been essential for the extreme left and right since the mid 1990s (as a platform for discussion and mobilisation as well as for the diffusion of political ideas). And in everyday life an important part of modern youth culture has for a number of years been closely connected to such web phenomena as YouTube, Facebook and Twitter.
In der langen Geschichte technomorpher Modellierungen des Politischen markiert „The Nerves of Government“ einen Paradigmenwechsel. Hatte Thomas Hobbes rund 300 Jahre zuvor das moderne politische Denken mit einer geometrisch-mechanischen Staatsphilosophie begründet, so durfte Karl W. Deutschs umfassende Modellstudie als erster ernstzunehmender Versuch gelten, die in den 1940er-Jahren angestoßene informationstechnische Revolution in ein politisches Vokabular zu übersetzen. Tatsächlich konnte (und wollte) das Ensemble von Begrifflichkeiten, das auf diese Weise Einzug in die politische Rationalität des 20. Jahrhunderts hielt, seine Wurzeln im Feld der Nachrichten- und Regelungstechnik nicht verbergen. Vielmehr bestand Deutschs Grundannahme gerade darin, „daß Regierungsapparate und politische Parteien nichts anderes als Netzwerke zur Entscheidung und Steuerung sind, daß sie auf Kommunikationsprozessen beruhen und daß in gewisser Hinsicht ihre Ähnlichkeit mit der Technologie der Nachrichtenübertragung groß genug ist, um unser Interesse zu erregen“ (S. 211).
Der Schlaf scheint auf den ersten Blick eine „anthropologische Konstante“ zu sein. Eine Historisierung der Regeln und Praktiken des Schlafs im 20. Jahrhundert kann jedoch zeigen, wie eng Vorstellungen vom „richtigen“ Schlafen an die Machtstrukturen der Gesellschaft geknüpft waren. Dieser Artikel geht der Frage nach, auf welche Weise Arbeitgeber, Sozialplaner, Ärzte und Psychologen auf den Schlaf und damit auf den Körper, die Arbeitskraft und die Zeit des Individuums zuzugreifen versuchten. Anhand von fachwissenschaftlichen Veröffentlichungen und Diskussionen, aber auch von populären Ratgebertexten wird in einem ersten Schritt untersucht, wie und warum der Rhythmus des Schlafs seit Ende der 1920er-Jahre zu einem stark beachteten Thema wurde. In einem zweiten Schritt geht es um die Veränderungen, die der Zweite Weltkrieg im Umgang mit dem Schlaf bewirkte. In einem dritten Schritt wird der entscheidende Bruch in der Mitte der 1950er-Jahre untersucht, der das schlafende und arbeitende Individuum zum Gegenstand einer modernen Schlafforschung und neuer Schlafregeln machte.
In den 1970er-Jahren lief im westdeutschen Fernsehen eine Serie der Augsburger Puppenkiste, deren Held und Titelgeber der kleine König Kalle Wirsch war. Kalle Wirsch, König der Erdmännchen, war, wie sein Name sagte: ein freundliches kleines Männchen, alles andere als unwirsch. Der Name aber irritierte – wer benutzt schon das Wort „wirsch“? Das Wort gibt es tatsächlich, es ist aber kein Gegenbegriff zu „unwirsch“, sondern eine Verballhornung von „wirr“. Zu „unwirsch“ gibt es keinen Gegenbegriff. Der kleine König Kalle Wirsch mag einem bei „Gleichheit und Ungleichheit“ in den Sinn kommen. Denn viel wird gesprochen von Ungleichheit, und dies vor allem im Zusammenhang mit sozialer Ungleichheit. Aber Gleichheit? Nur ganz wenige Autoren haben über deren Geschichte nachgedacht. Einer davon ist der Zürcher Historiker Jörg Fisch. Er fasst, bezogen auf das späte 19. Jahrhundert, Gleichheit vor allem als einen Anspruch, als eine Forderung. Sie ist also etwas, was (noch) nicht ist. „Gleichheit“ blieb als die bürgerliche Forderung nach rechtlicher und politischer Gleichberechtigung stehen und wurde (jedenfalls in Europa) im späten 19. und im 20. Jahrhundert zumindest teilweise eingelöst. Die Forderung nach sozialer Gleichheit jedoch, die aus revolutionären Bewegungen kam, ließ sich nicht einmal als Anspruch durchhalten, wurde als staatsgefährdend identifiziert und erbittert bekämpft. Soziale Gleichheit erhielt das Stigma des Utopismus und behielt lediglich in der Forderung nach Abbau (und nicht Abschaffung) sozialer Ungleichheit eine gewisse Berechtigung.
Der Homo Sovieticus und der Zerfall des Sowjetimperiums. Jurij Levadas unliebsame Sozialdiagnosen
(2013)
Der Mythos vom „neuen Menschen“ ist keine sowjetische Erfindung, sondern Teil der europäischen Ideengeschichte seit dem 18. Jahrhundert. Er nahm unterschiedliche Formen und Gestalten an, um zahlreichen politischen Ideologien zu überwältigenden Zielen und damit zu gesellschaftlichem Zuspruch zu verhelfen. In keinem anderen Land hatte der Mythos vom „neuen Menschen“ aber einen so starken Einfluss auf soziale Identitäten und politisches Handeln wie in der Sowjetunion. Die in den 1930er-Jahren zementierte Konzeption vom „Homo Sovieticus“ war zentral für die triumphale Selbstdarstellung des ersten sozialistischen Staats. Sie brachte eine historische Mission der Weltbefreiung und -eroberung und damit einen kollektiven Erlösungsglauben eindrucksvoll zur Anschauung. Darin ging sowohl das klassische marxistische Bild vom kämpferischen, siegreichen Proletariat ein als auch die überlieferte Vision von einer besonderen historischen Bestimmung des russischen Volks. Das sich aus den „neuen Sowjetmenschen“ bildende „Sowjetvolk“ werde aller Ausbeutung und Unterdrückung ein Ende bereiten und neben der Freiheit auch den hehren revolutionären Idealen der Gleichheit und Brüderlichkeit den Weg in die Wirklichkeit ebnen.
Vorsorge war immer. Bereits in der Frühgeschichte stoßen wir auf Kulturtechniken, mit denen Menschen Risiken vorbeugen und Gefahren verhüten wollten. Schon das Anlegen von Vorräten, die Präparierung von Landschaften oder die Anrufung von Schutzgöttern waren Konzepte und Praktiken der Vorsorge. In der Moderne jedoch wuchs die Vielfalt an Befürchtungen und Ängsten, die eine nicht minder große Vielfalt an Vorsorgekonzepten und -maßnahmen mit sich brachte. Spürbar wurde dieser Anstieg in einem Boom an Versicherungen, in der Popularisierung medizinischer, sozialreformerischer und pädagogischer Maßnahmen, in der Verbreitung von Diäten, in den Sport- und Turn- oder den Anti-Tabak- und Anti-Alkohol-Bewegungen.
Der Beitrag befasst sich mit dem „Peckham-Experiment“, einem Forschungsprojekt, das in den 1930er- und 1940er-Jahren im „Pioneer Health Centre“ (PHC) durchgeführt wurde, einem Freizeit- und Gesundheitszentrum im Londoner Stadtteil Peckham. Im Fokus der Fallstudie steht die Genese neuen präventionsmedizinischen Wissens und neuer vorsorgebezogener Praktiken. Die beteiligten Experten versuchten, das „natürliche“ Potential von Individuen und die sozialen Beziehungen zwischen Familien zu nutzen, um ein gesundheitsförderliches Verhalten zu stimulieren. Das „Peckham-Experiment“ wird im Kontext der britischen wohlfahrtspolitischen Debatten und der biologisch-medizinischen Theorien seiner Gründungszeit analysiert. Gezeigt wird aber auch, dass der neue, stark auf Selbstverantwortung gerichtete Ansatz des PHC sich zudem aus den spezifischen Herausforderungen der „Laborsituation“ ergab, die im Laufe des Experiments zur Revision interventionistischer Vorannahmen führten. Allerdings waren andere Wissenschaftler skeptisch gegenüber den in Peckham gewonnenen Erkenntnissen. Zudem ließ sich das PHC nicht in den neuen „National Health Service“ integrieren. Beides bewirkte 1950 letztlich die Schließung des Centres.
Der Aufsatz entwirft eine Zeitgeschichte der Vorsorge, die sich für den hygienepolitischen Übergang von Praktiken der Intervention und Krisenbewältigung zu Praktiken der Prävention interessiert. Am Beispiel der Pestvorsorge in der Sowjetunion wird erstens ein Prozess der Institutionalisierung, Professionalisierung und Verwissenschaftlichung dargestellt. Zweitens werden die Eigenheiten des sowjetischen Falls herausgearbeitet. Die dortige Pestbekämpfung war bis in die 1930er-Jahre von Interventionen geprägt, die aus einem Repertoire repressiver, im Kontext der Zwangskollektivierung etablierter Maßnahmen schöpften. Der Umgang mit der Pest war nicht mit Aufklärung verknüpft, sondern mit Geheimhaltung. Die Einrichtung eines Netzwerks wissenschaftlicher Forschungsstätten führte zu einem Wandel im Umgang mit der Seuche. Dies war eingebettet in parallele Diskurse über administrative Grenzen und geographisches Wissen. Der Aufsatz stützt sich auf Quellen aus Staats- und Partei-Archiven in der Russischen Föderation und der Republik Aserbaidschan.
Impfungen sind ein Traum der Moderne: Sie versprechen den Schutz ganzer Gesellschaften. In den beiden deutschen Staaten wurde dieser Schutz mit unterschiedlichen Methoden vorangetrieben – das Mobilisieren von Ängsten, Appelle an die Sorge um das Gemeinwohl oder die Durchsetzung von Impfpflichten sollten die Gesundheit des Einzelnen und den „Herdenschutz“ der Gesellschaft sichern. Der Aufsatz erkundet die deutsch-deutsche Geschichte des Impfens von den 1950er-Jahren bis 1989/90. Im Fokus stehen Aushandlungen von Risiko- und Sicherheitsvorstellungen, Versuche eines „Emotion Management“ sowie Debatten über das Verhältnis zwischen staatlicher Interventionsmacht und staatsbürgerlicher „Mündigkeit“. Anhand der Konflikte zwischen der Bundesrepublik und der DDR wird zudem gezeigt, dass der Wettlauf um die bessere Immunisierung ein Kampf um die bessere soziale Ordnung war. Andererseits wird belegt, dass es auf dem Gebiet der Impfpolitik gerade in den 1980er-Jahren eine wachsende Tendenz zur deutsch-deutschen und internationalen Kooperation gab.
Eine Geschichte der genetischen Beratung in der Bundesrepublik ist noch nicht geschrieben. Dies ist erstaunlich, lassen sich in der Verbindung von Beratungspraxis und Behinderung, Konzepten und Kritik an der Humangenetik doch grundsätzliche Fragen zum Wandel von Normalitätsvorstellungen, Geschlechterrollen und Gesellschaftsbildern verfolgen. Im Mittelpunkt des Aufsatzes steht ein brisantes Thema: Sterilisationsempfehlungen für geistig behinderte Frauen und Mädchen, die in den 1970er- und 1980er-Jahren ausgestellt wurden. Am Beispiel einer Hamburger humangenetischen Beratungsstelle betrachtet der Aufsatz das damalige Verhältnis von Genetik, Behinderung, Geschlecht und Vorsorgekonzepten. Die Kritik an der Sterilisationspraxis bildet einen weiteren Schwerpunkt des Beitrags. In den frühen 1980er-Jahren trugen Gegner und Befürworter geschichtspolitisch aufgeladene Kontroversen aus, die neue Blicke auf Behinderung hervorbrachten, zugleich aber auch Ambivalenzen gesellschaftlicher Liberalisierungsprozesse erkennen lassen.
Wie für viele neue Staaten und »Entwicklungsländer« in der Ära nach dem Zweiten Weltkrieg spielten transnationale Dynamiken des Wissenstransfers auch für das 1948 gegründete Israel eine wichtige Rolle. Eine geradezu staatstragende Funktion kam dabei der entstehenden Raumplanung zu. Die israelischen Planungseliten waren durch ihr Studium und durch Grundannahmen des »Social Engineering« eng mit der deutschen Wissenskultur und speziell mit der Raumordnung verflochten – auch über die Zäsur von 1945 hinweg. Der Aufsatz untersucht die Rezeption der Theorie »zentraler Orte« im Kontext des ersten, meist als »Sharonplan« bezeichneten israelischen Nationalplans von 1951. Die 1933 durch Walter Christaller publizierte Theorie hatte auch einen konzeptionellen Eckpfeiler des »Generalplans Ost« gebildet, den die SS bzw. der »Reichskommissar für die Festigung deutschen Volkstums« (RKF) nach 1939 zur »Germanisierung« der eroberten Ostgebiete entwickelt hatte. Die Ambivalenz der israelischen Rezeptionslinie wird anhand der Biographien dreier Planer geschildert (Eliezer Brutzkus, Artur Glikson, Ariel Kahane).
Stress ist ein ubiquitärer Begriff – seine geschichtswissenschaftliche Erforschung aber hat erst begonnen. Der Aufsatz skizziert programmatisch die Genese und die Funktionen des Stresskonzepts im 20. Jahrhundert. Dabei wird Stress nicht in erster Linie als Syndrom und Krisenphänomen betrachtet, sondern als Deutungs- und Handlungsangebot westlicher Gesellschaften, die sich als instabil, wandelbar, innovativ und dynamisch begreifen. Die performative Kraft des Stresses als Modus gesellschaftlicher Selbstreflexion wird in vier historisch und systematisch aufeinander bezogenen semantischen Feldern untersucht: Stress als Regulations- und Anpassungsmodell, Stress als Prinzip der Wettbewerbsgesellschaft (mit engen Beziehungen zu Arbeit, Leistung und Erfolg), Stress als Zivilisationskritik (mit der stressfreien Gesellschaft als utopischem Gegenbild) sowie Stress als flexible Ökologie von Mensch-Umwelt-Verhältnissen. Dabei handelt es sich weniger um eine chronologische Ordnung als vielmehr um Deutungsvarianten, die in unterschiedlichen Verwendungskontexten aufkamen und sich im heutigen Stressbegriff überlagern.
In der westdeutschen Universitätsmedizin galt Stress zunächst als deskriptive Laborbeobachtung und nur wenig origineller Versuch des Hormonforschers Hans Selye, die Regulationsmechanismen des Körpers mit einem ganzheitlichen Konzept zu beschreiben. Selyes in Kanada entwickelte Ansätze fanden in der Bundesrepublik kaum positive Resonanz; das Stresskonzept schien in den 1950er-Jahren keine Zukunft zu haben. Dies änderte sich in den 1960er-Jahren, als Stress über das Risikofaktoren-Modell mit der Diskussion um Herz- und Kreislauferkrankungen verbunden wurde. Stress wurde nun Leitbegriff und Forschungsressource von Disziplinen wie Sozialmedizin, Psychosomatische Medizin, Arbeitsmedizin und Präventivmedizin. Um 1970 trat zu den Bezugsebenen »Zivilisation« und »Gesellschaft« noch »Umwelt« hinzu. Insbesondere drei Bedrohungsszenarien erwiesen sich als Stimuli der medizinischen Stressforschung: Überbevölkerung und Verstädterung, Verkehr und Lärm sowie der Wandel der Arbeitswelt. Weit über wissenschaftliche Verwendungen hinaus wurde der Stressbegriff populär, weil er zeitdiagnostisches Deutungspotential gewann und sich als eine Verständigungsplattform der Verunsicherten eignete.
Wie reagieren Menschen auf Katastrophen? Wie lassen sich Bevölkerungen in Extremsituationen führen? Mit diesen Fragen beschäftigten sich in den 1950er-, 1960er- und 1970er-Jahren mehrere US-amerikanische, teilweise durch die Armee finanzierte Forschungsgruppen. Sie waren interdisziplinär zusammengesetzt, aber mehrheitlich soziologisch ausgerichtet. Innerhalb wie außerhalb der USA studierten sie das Stressverhalten von Individuen und Gruppen in Tornados, eingeschneiten Autobahnraststätten und »racial riots« sowie ergänzend in Laborsimulationen. Anhand zeitgenössischer Publikationen und interner Akten werden in diesem Aufsatz die Erkenntnisinteressen und Untersuchungsfelder der sozialwissenschaftlichen Katastrophenforschung, ihre Befunde und deren Nutzung dargestellt. Die Tätigkeit der Wissenschaftler/innen stand im Kontext des Kalten Kriegs und eines sich verschiebenden Gefahrensinns. Dabei ließen sich die Forscher/innen keineswegs vollständig politisch vereinnahmen, sondern verfolgten durchaus eigene Interessen und gaben mitunter Antworten, die den Intentionen der Auftraggeber zuwiderliefen.
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
Stress ist als Begriff und Problem weit über die Medizin- und Wissenschaftsgeschichte hinaus relevant; Stressdiskurse können als Sonde für breitere gesellschaftsgeschichtliche Konstellationen dienen. Eine geschichtswissenschaftliche Auseinandersetzung mit Stress muss daher zum einen dem medizinisch-biologischen Konzept nachgehen, zum anderen dessen gesellschaftliche Funktionalität erfassen. Die Zeitgeschichte wird den Fokus besonders auf die sozioökonomischen Prozesse und die soziale Sinngebung richten. Gleichwohl gibt es ein nicht zu vernachlässigendes methodisches Grundproblem: Wie lässt sich eine Beziehung herstellen zwischen den biochemischen und psychologischen Dimensionen, die mit dem Stressbegriff verknüpft sind, sowie den komplexen sozialen Konfigurationen, die dieser Begriff rationalisieren soll? Was sind die Konstituenten und Selbstbeschreibungsmodi einer Gesellschaft, die sich durch Flexibilisierung und Regulierung gleichermaßen auszeichnet? In welchem Verhältnis stehen zudem die jüngere Entwicklung seit den 1970er-Jahren, in der Stress eine hohe Deutungsmacht erhalten hat, und die Überforderungsdiskurse seit dem Ende des 19. Jahrhunderts?
»The Wisdom of the Body«: Das klingt nicht erst heute mehr nach Esoterik als nach dem wichtigen physiologischen Hauptwerk, als das es Walter Bradford Cannon 1932 für ein breites Publikum verfasste. Solche Überraschungen hören nicht beim Titel auf. Gleich der erste Satz der Einleitung lautet zum Beispiel: »Our bodies are made of extraordinarily unstable material.« Und das erste Kapitel trägt den Titel »The Fluid Matrix of the Body«. War Cannon ein postmoderner Theoretiker dynamisch-fluider Körperlichkeit avant la lettre? Soweit wird man nicht gehen können, aber tatsächlich hat das Buch heute in Zeiten von Stress, Resilienz und einem wiedererstarkten Systemdenken in der Biologie an Aktualität und Überzeugungskraft zurückgewonnen. Was Cannon hier auf dem Höhepunkt seiner Karriere vorgelegt hatte, war mehreres in einem: die Summa seiner Forschungen, das Lehrbuch einer neuen integrierten Theorie des Organismus – für die er den Neologismus »Homöostase« prägte –, ein populäres Werk über die Fortschritte physiologischer Forschungen seiner Zeit und schließlich das Plädoyer eines fest in den Naturwissenschaften verankerten Humanisten für eine bessere Weltordnung. Denn auf der Basis seiner Theorie der Homöostase wollte er schließlich auch den Staat reformieren – zu einem perfekten Vorsorgestaat nach biologischem Vorbild, inklusive systematischer Vorratsplanung mitsamt Reservearbeitsplätzen für Krisenzeiten. Mit etwas Zögern, aber dafür umso nachdrücklicher hatte er deshalb dem Buch einen Epilog hinzugefügt: »Relations of Biological and Social Homeostasis«.
»Anyone writing about the history of wellness would have an easy time at the beginning of the endeavor. Regarding the origin there is no doubt.« Am Anfang des Diskurses über Wellness, so war sich der »Wellness-Evangelist« Donald Ardell 1985 sicher, steht eine Person: Halbert L. Dunn, der im Jahr 1959 insgesamt 29 Vorträge zum Thema »High-Level Wellness« in der Unitarian Church in Arlington, Virginia hielt. 1961 erschienen diese Vorträge in Buchform. »Wellness«, bis dahin ein wenig gebräuchliches Wort für das Gegenteil von »Sickness«, wurde infolge dieser Publikation zu einer Antwort auf »Stress«. Dass Dunn die Vorträge in einer Kirche hielt, passte zu seiner epochalen Mission. Der Mensch stehe an einem Scheitelpunkt: Er könne sich für sein kreatives Potential entscheiden oder in den Abgrund des Krieges zurückrutschen.
Seit den 1960er-Jahren ist die Kopplung von Stress und Vorsorge unter dem Stichwort der »Risikofaktoren« zunehmend populär geworden. Wahrscheinlichkeitskalküle, die auf die Steuerung und Verbesserung der kollektiven Gesundheit der Bevölkerung zielen, werden als Grundlage herangezogen, um dem Individuum eine Selbstverantwortlichkeit für seine Risikovorsorge zuzuschreiben. Dieser Ansatz ermöglicht die Übersetzung statistischer Wahrscheinlichkeiten in eine Hermeneutik des Selbst. Im Rahmen der Prävention verschiebt sich der Akzent von der Krankheitsdiagnostik auf die Gesundheitsvorsorge. Durch die Propaganda zur Risikoverhütung – dass der Gesunde pathogene Faktoren vermeiden solle – verschwimmt allerdings die Grenze zwischen Gesundheit und Krankheit. Das gilt auch für das Phänomen Stress. Obschon Stress selbst nicht als Krankheit gilt, wird in ihm doch ein potentieller Verursacher vermutet: eben ein »Risikofaktor«. Und auch wenn er damit als mögliche Ursache für viele Krankheiten verhandelbar wird, gibt es bestimmte pathologische Erscheinungen, mit denen er eine besonders innige Beziehung unterhält – dazu zählt der Herzinfarkt. Dieser wird zum Synonym für die Folgen eines von zu viel Stress bestimmten Lebens. Die Relation von Stress und Herzinfarkt lässt sich nicht nur medizinisch begründen; ihre kulturelle Plausibilität verweist auch auf eine symbolische Dimension. Das Herz als symbolischer Träger menschlicher Aktivität und Emotionalität gerät unter dem Eindruck der modernen Hetze außer Takt.
Wann und wie wandelten sich in der DDR-Gesellschaft langfristig politische Einstellungen und Wertorientierungen, wie sie dann 1989 in der Herbstrevolution sichtbar wurden? Anknüpfend an Konrad H. Jarauschs These von der »Umkehr« als fundamentalem Demokratisierungsprozess im geteilten Nachkriegsdeutschland untersucht der Beitrag die Möglichkeiten und Grenzen der Stellvertreterbefragungen, die das westdeutsche Meinungsforschungsunternehmen Infratest im Auftrag der Bundesregierung von 1968 bis 1989 durchgeführt hat. Befragt wurden westdeutsche Besucher der DDR über die Ansichten eines von ihnen definierten Gesprächspartners im ostdeutschen Staat, den sie besucht und mit dem sie ausführlich gesprochen hatten. Dieser Serie zufolge stand eine breite und wachsende »schweigende Mehrheit« der DDR-Einwohner dem System distanziert gegenüber, war aber weder im westlichen noch im östlichen Sinne besonders ideologisch präformiert. Sie maß die DDR vor allem an ihren praktischen Leistungen im Hinblick auf Lebensstandard und Perspektiven. Das Interesse an Politik sank ab Mitte der 1970er-Jahre, stieg dann aber wieder an und orientierte sich zunehmend an westlichen Politikformen.
Anfang 2014 konnte der rund 50.000 Aufnahmen umfassende Nachlass des Fotografen Wolfgang G. Schröter (1928–2012) zusammen mit zahlreichen Arbeitsabzügen, Belegexemplaren, der Handbibliothek und biographischen Dokumenten von der Deutschen Fotothek für das »Archiv der Fotografen« übernommen werden. Schröter gehörte zu den paradigmatischen Ausnahmefotografen der frühen DDR. Unter Nutzung der Methoden von Wissenschafts- und experimenteller Fotografie entwickelte er eine eigene Bildsprache, die avantgardistische internationale Fotografie-Entwicklungen aufgriff, ohne diese zu imitieren. Schröters frühe farbfotografische Experimente wurden 1977 im Zuge der Nobilitierung der Fotografie als künstlerisches Medium in der Hallenser Ausstellung »Medium Fotografie« gewürdigt. Bis heute werden seine Aufnahmen in zahlreichen Einzel- und Gruppenausstellungen gezeigt.
Kommerzielle Bildanbieter entledigen sich zunehmend ihrer analogen Fotoarchive. Dabei geht es nicht selten um Millionen von Fotografien. Angesichts dieser Entwicklung stellt sich die Frage, wie es bei solchen Anbietern um die Wertschätzung ihres analogen Fotoerbes steht. Die Antwort scheint entsprechend einfach zu sein: Solche Bestände werden gering geschätzt. Die Fotoarchive werden abgegeben oder gar vernichtet, weil sie für ihre Besitzer mehr Verlust als Profit einbringen. In manchen Fällen übernehmen öffentliche Gedächtnisinstitutionen wie Archive, Museen und Bibliotheken die Bestände und widmen sie von Gebrauchs- zu historischen Fotoarchiven um. Dies hat im Zusammenspiel mit der allgemeinen Digitalisierung der Fotografie das Bewusstsein für die Historizität alter Pressefotografien und damit für ihren kulturellen sowie wissenschaftlichen Wert geschärft. Die einst massenhaft für den Verkauf hergestellten Gebrauchsbilder gelten heute als zeithistorische Dokumente. In der medialen Öffentlichkeit wird vollmundig vom »visuellen« oder vom »fotografischen« Gedächtnis eines ganzen Landes geschrieben.
Was vor einigen Jahren ein Schreckensszenario war, ist längst eingetreten. Für den wissenschaftlichen Nachwuchs gilt schon heute: »Quod non est in google, non est in mundo.« Freilich, eine verkürzte Sicht. Der Aufbau elektronischer Findmittel zur Durchforstung von Archiv-, Bibliotheks- und Museumsbeständen hat in den vergangenen Jahren ein starkes wissenschaftliches Interesse gefunden. Die Gesellschaft vernetzte sich, es entstanden viele nützliche Service-Angebote, neue Begehrlichkeiten wurden geweckt. Heute geht es nicht mehr darum, Inhalte nur zu erschließen, sondern darum, sie online zu vermitteln. In sozialen Medien werden diese Inhalte »getaggt«, »geliked«, empfohlen oder gar kommentiert. Die sammelnden Institutionen stehen damit vor einer gewaltigen Herausforderung – technisch, finanziell und vor allem konzeptionell. Mit dem Aufkommen von Bits und Bytes befindet sich die Kulturtechnik des Sammelns und Präsentierens in einem tiefgreifenden Umbruch. Der digitale Wandel impliziert die Frage, ob Gedächtnisinstitutionen künftig noch derselbe Stellenwert zukommen wird, zukommen muss wie heute: Schaffen entmaterialisierte Kulturgüter eine neue Kulturgesellschaft?
Fotografien haben für die historische Forschung zunehmend an Bedeutung gewonnen. Dienten sie vormals zumeist der Textillustration, werden sie inzwischen als eigenständige historische Quellen ernstgenommen. Die einschlägigen Publikationen, die sich entweder theoretisch mit der Visual History auseinandersetzen oder aber an konkreten Beispielen sich bildhafter Quellen annehmen, sind kaum mehr zu überblicken. Eine Gemeinsamkeit ist dabei: Nicht mehr nur der Bildinhalt spielt für die Geschichtswissenschaft eine Rolle; gefragt wird auch nach dem Entstehungskontext, der Überlieferung und der Rezeption der Bilder. Damit gerät zugleich die bisher übliche Aufbewahrungspraxis der Fotografien im Archiv in den Fokus: Die meist thematische Ordnung der Materialien lässt häufig keine Rückschlüsse auf diese neuen Fragen zu.
»What was it that converted capitalism from the cataclysmic failure which it appeared to be in the 1930s into the great engine of prosperity of the post war Western world?« (S. 3) Das ist die Leitfrage von Andrew Shonfields vor 50 Jahren erschienenem Buch über den »modernen Kapitalismus« der 1960er-Jahre. Wie konnte es zu dem »Goldenen Zeitalter« (Eric Hobsbawm), also der fast drei Jahrzehnte andauernden Nachkriegsprosperität kommen, nachdem der Kapitalismus im Zuge der Großen Depression abgewirtschaftet zu haben schien und sich eine breite ordnungspolitische Debatte um alternative Wirtschaftsformen entwickelt hatte?
In seiner Geschichte der jüngsten Vergangenheit Amerikas, die 2011 unter dem Titel »Age of Fracture« erschien, begreift der Historiker Daniel T. Rodgers die wirtschaftlichen Veränderungen, die sich seit den 1970er-Jahren vollzogen, in ideengeschichtlicher Perspektive als »Wiederentdeckung des Marktes«. Paradoxerweise sei die Idee und Rhetorik des Marktes, als eines abstrakten und dekontextualisierten Prinzips, das auf eine Vielzahl menschlicher Lebensbereiche angewendet werden könne, gerade zu dem Zeitpunkt populär geworden, als allenthalben Marktversagen zu beobachten gewesen sei.[1] Die entscheidende Veränderung der letzten Jahrzehnte, die sich im Bereich der akademischen Wirtschaftswissenschaften vollzogen habe, fasst Rodgers als »an effort to turn away from macroeconomics’ aggregate categories and try to rethink economics altogether from microeconomic principles outward«.[2] Mit der Erklärung makroökonomischer Phänomene auf der Basis mikroökonomischen Verhaltens sei zugleich versucht worden, immer weitere Gesellschaftsbereiche über die Prinzipien individueller Nutzenmaximierung zu erklären.
The newly emerging historical scholarship on the era ›after the boom‹, on the marketization of societies in the wake of the neoliberal political reforms, deregulation, and privatization starting in the 1970s, has emphasized this threshold as an epochal break that was driven by large-scale structural shifts in the global economy, in social relations, and in cultural identities. This new accentuation of the economic and social transformation has, for good reason, eclipsed older historical traditions that focused on events, discourses, specific interests, and individual actors. The marketization of social relations is thus often considered to be the result of processes beyond the reach and scope of purposeful actors that promoted specific societal changes. While this historical focus is quite right in denying independent causal status to specific agents and the self-aggrandizement of vain leaders and their intellectual entourage, it tends to obscure the historical genesis of ideas and concepts that later became critical components of political leadership, and the specific constellations of interests, knowledge and actors that did prefigure and originally promote the marketization of economic and political institutions.
Marketization is a broad term with a wide range of meanings. It encompasses measures of deregulation and privatization as well as the perceived increase of an ›economic‹ logic in social relationships. For historical purposes, the term should not be narrowly defined, and nor should the concept of marketization be used in an ahistorical manner detached from contemporary usage. However, there are two questions which the historical analysis of marketization needs to address. First, what is the conceptual understanding of the market mechanism to which the term marketization is linked? Second, what is the relationship between marketization and economic theory?
Theory matters. Most historians would probably agree with this postulate, in the sense that theories from disciplines such as sociology, economics or psychology can sharpen historical analyses of any topic (though many of them may prefer quite pragmatic, common-sense approaches in their own empirical studies). But when it comes to a historical understanding of a phenomenon like marketization, theory does remain an analytical resource – and at the same time turns into a multifaceted object of research. The way we think about markets is highly affected by theorists, and not only by their ideas but also by their effectiveness in making them influential over specific periods of time.
The paper explores representations of economic reform in Czechoslovakia immediately before and after the fall of the centrally planned economy in 1989/90. By what means was the concept of rapid economic transition towards a liberal market setting mediated into the academic and the public sphere? How did it achieve wide public consent? In the first part, the paper analyzes the Czechoslovak academic discussion about perestroika in the late 1980s, where a rapid liberal transition was cast by a distinct group of younger scholars as the only possible way of reforming the socialist economy. Their training was based above all on Paul A. Samuelson’s canonical textbook Economics, which presented this discipline almost as a natural science with universal standards. Immediately after 1989/90, when some of these scholars assumed executive positions within the new Czechoslovak government, what were at first purely economic ways of reasoning merged with certain images of the national past, creating a mixture of liberal economic knowledge and national exceptionalism.
Die gleichberechtigte Einbeziehung von Frauen in Forschung und Lehre steht heute weit oben auf der politischen Agenda bundesdeutscher Wissenschaftspolitik. Primäres Ziel ist es gemäß dem sogenannten »Kaskadenmodell«, den Frauenanteil auf allen Karrierestufen in Forschung und Lehre demjenigen der Studierenden und Promovierenden anzugleichen. Dies sei, so das Bundesministerium für Bildung und Forschung, »nicht nur eine Frage der Gerechtigkeit«. Gemischte Gruppen führten, »wenn sie geeignete Rahmenbedingungen vorfinden«, außerdem »zu besseren Forschungs- und Entwicklungsergebnissen« sowie »zu einer Erweiterung der Forschungsperspektive«. Das gelte auch »für die Berücksichtigung von Geschlechterfragestellungen als Forschungsgegenstand«. Ähnlich beschreibt die Europäische Kommission das Ziel ihrer Gleichstellungspolitik für Wissenschaft und Forschung.
Unternehmensplanspiele entstanden in den USA um 1956 aus militärischen Simulationsprogrammen, Fallstudien an Business Schools sowie Kriegsplanspielen und einer Reihe weiterer Einflussgrößen. Angesiedelt am Schnittpunkt von Unternehmensführung, ökonomischen Paradigmen und Computerisierung, bietet das Feld der Unternehmensplanspiele besonders gute Voraussetzungen, um Transformationen gesellschaftlicher Steuerungslogiken nach dem Ende des Zweiten Weltkriegs nachzuvollziehen. In den »ernsthaften Spielen« wurden Praktiken des Entscheidens sowie die Adaption an ein neues Medium und einen veränderten Rationalitätsbegriff (spielerisch) erprobt. Der Aufsatz nähert sich diesem Feld aus einer medienkulturwissenschaftlichen Perspektive. Der Beitrag fokussiert auf die erste Phase der Verwendung von Unternehmensplanspielen bei der Ausbildung von Führungskräften in der Bundesrepublik seit Beginn der 1960er-Jahre. Näher vorgestellt wird der Einsatz des von IBM entwickelten Planspiels TOPIC 1 bei Hoechst.
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.
Michael Thompsons Buch »Mülltheorie« beginnt mit einem sehr unappetitlichen Rätsel zu »Rotz«. Es endet mit der Zusammenfassung einer im Buch Schritt für Schritt entwickelten Theorie, in der es darum geht, »Monster« (wie den »Rotz«) nicht aus der gesellschaftlichen Betrachtung und der wissenschaftlichen Theorie auszuschließen. Müll sei ein solches Monster, das in einem modernen Wissenschaftsverständnis ignoriert werde, da der Wert und die soziale Funktion von Müll mit »Null« gleichgesetzt werde. So beobachtete es Thompson in den 1960er- und 1970er-Jahren, als sein Buch entstand.
Nachdem das Interesse an Dingen und damit an Materieller Kultur im Forschungsalltag mancher Disziplinen lange Zeit eher gering war, erlebt die Auseinandersetzung mit Dingen seit etlichen Jahren auch in der deutschsprachigen Wissenschaftslandschaft eine Renaissance. Das gilt nicht nur für Fächer, die sich schon seit jeher mit Materieller Kultur beschäftigen – etwa die archäologischen Wissenschaften, die Ethnologie und die Volkskunde/Europäische Ethnologie –, sondern zunehmend auch für solche Wissenschaften, deren genuiner Forschungsgegenstand keine materiellen Hinterlassenschaften sind, wie die Geschichtswissenschaft, die Philosophie, die Germanistik und verschiedene sozialwissenschaftliche Fächer. Zu denjenigen Fächern, die die Dinge für sich entdeckt haben, gehört seit wenigen Jahren auch die Zeitgeschichtsforschung. Auf den ersten Blick mag das zunehmende Interesse verwundern, verfügt die Zeitgeschichte doch über andere Quellenarten (Schriftdokumente, audiovisuelle Quellen, mündliche Zeugnisse), die deutlich mehr Aussagekraft als gegenständliche Objekte zu haben scheinen. Den Dingen wird von der Zeitgeschichtsforschung heute offenbar ein Erkenntniswert zugemessen – befördert unter anderem auch durch die Studien Bruno Latours und seine Akteur-Netzwerk-Theorie (ANT) –, der ihnen zuvor abgesprochen bzw. nicht zuerkannt worden war.
Vertreter_innen der Akteur-Netzwerk-Theorie oder der Cyborg-Anthropologie kritisieren gegenwärtig die Privilegierung des Menschen als autonomem Akteur und handlungsmächtigem Gestalter seiner Umwelt. Dadurch wird die Frage nach der Rolle und Bedeutung von Dingen für gesellschaftliche Dynamiken neu aufgeworfen. Galten sie bisher meist als passive Objekte menschlicher Agency, erscheinen sie nun zunehmend als Koproduzenten von Handlungsmacht. In diesem Sinn spricht Bruno Latour von menschlichen und nicht-menschlichen Aktanten.
Der junge Historiker Lutz Niethammer (geb. 1939) wollte kein »68er« sein. Viele seiner Altersgenossen fanden den Weg in die Außerparlamentarische Opposition, doch Niethammer blieb distanziert – er wollte teilhaben, nicht teilnehmen. Zwar rezipierte er die marxistisch wie psychoanalytisch inspirierten Faschismustheorien, doch blieb es bei einem grundlegenden Wissenschaftsinteresse.2 Während sich viele andere der Studentenbewegung anschlossen und ihr Augenmerk auf den Antiimperialismus und Internationalismus legten, brachte Niethammer die Gefahr von rechts in den Blick. Schon früh wandte er sich gegen den Geschichtsrevisionismus: Seine Kritik an David L. Hoggans Buch »Der erzwungene Krieg« von 1961 bildete den Anfang einer längeren Auseinandersetzung. »Ich glaubte, wir sollten etwas gegen den Aufstieg des Neofaschismus tun«, erklärte Niethammer retrospektiv in seiner fragmentarisch-autobiographischen Essaysammlung »Ego-Histoire?«. Dies erschien ihm »näherliegender« (sic) als der hilflose Antikapitalismus der Linken.
»Alternative Fakten«, »erinnerungskulturelle Wenden«, Konflikte um Museen und Gedenkstätten, historische Sehnsüchte und Ressentiments – es nimmt nicht Wunder, dass der Aufstieg des Populismus1 überall in Europa auch von der Geschichtswissenschaft als Herausforderung verstanden wird. Das gilt in besonderem Maße für Deutschland, wo die politische Ordnung so sehr mit einer spezifischen Geschichtserfahrung und Geschichtsdeutung verbunden ist. Seit den Mobilisierungserfolgen von »Pegida« ab 2014 und der »Alternative für Deutschland« (AfD) ab 2015 steht der liberale Basiskonsens mit seiner um selbstkritische Reflexion und historische Verantwortung modellierten Erinnerungspolitik öffentlich unter Druck wie selten zuvor.
This article evaluates a variety of recent attempts to conceptualize a historyof innovations from the perspective of social history. Special emphasis is given toapproaches arguing for a paradigm shift from innovation systems to innovationcultures, in particular by focussing on users as co-designers of technology. Theconcept of the co-construction of technology has been implemented especially in thethematic field of the integration and disintegration of Europe. The growing circulationof scientific knowledge and technical goods resulted in the “invention of European-ness” in the long 20th century. This article contributes to the discussion by examiningscientifically constructed user projections in the American and German automobileindustries.
Im Vorwort zur deutschsprachigen Ausgabe seines Buches »Exit, Voice, and Loyalty« stellte Albert O. Hirschman, US-amerikanischer Ökonom und Entwicklungstheoretiker, seine Konzepte »Abwanderung« (exit) und »Widerspruch« (voice) in einen doppelten historischen Zusammenhang: zum einen mit »dem Schicksal der Juden, die noch nach 1939 in Deutschland waren«, zum anderen mit seiner eigenen Flucht aus Deutschland in die USA, nach der »Machtergreifung« durch die Nationalsozialisten. 1933, im ersten Jahr seines Studiums, verließ der 1915 geborene Hirschman (damals noch: Otto-Albert Hirschmann) Berlin und flüchtete zunächst nach Paris. 1935/36 verbrachte er ein Jahr an der London School of Economics. Nach Paris zurückgekehrt, kämpfte er 1936 für kurze Zeit im Spanischen Bürgerkrieg gegen die Putschisten unter General Francisco Franco und ging dann nach Triest, wo er zwei Jahre später promoviert wurde. Aufgrund der italienischen Rasse-Gesetze reiste Hirschman 1938 wieder nach Frankreich aus. Zunächst Soldat in der französischen Armee, floh er wegen der Invasion der Wehrmacht 1940 nach Marseille, wo er für den US-Journalisten und Fluchthelfer Varian Fry arbeitete. Ende 1941 emigrierte er in die USA, bevor er 1943 als Soldat der amerikanischen Armee wieder nach Europa zurückkehrte. Nach dem Krieg arbeitete er zunächst als Ökonom im Auftrag der US-Bundesbank wie auch der Weltbank, später als Wissenschaftler an verschiedenen amerikanischen Universitäten. 2012 verstarb er im Alter von 97 Jahren.
»Hitler has won another victory at Bermuda […].« So kommentierte die Zeitung der zionistischen Arbeiterbewegung in den USA, »The Jewish Frontier«, die Bermuda-Konferenz vom April 1943. Was war passiert? Nach der Konferenz von Evian im Juli 1938 (und ihrem ernüchternden Ergebnis) war dies der zweite Versuch, mit einer internationalen Konferenz die Frage der jüdischen Flüchtlinge zu klären. Doch wie bereits 1938 am Genfer See, als sich außer der Dominikanischen Republik alle Teilnehmerstaaten weigerten, jüdische Flüchtlinge aufzunehmen, kam auch auf Bermuda keine Lösung zustande, obwohl an den mörderischen Absichten und Praktiken Nazi-Deutschlands 1943 kein Zweifel mehr bestand. Der World Jewish Congress (WJC) hatte für die Gesandten eine Informationsmappe zusammengestellt, die die nationalsozialistische Vernichtungspolitik darlegte und zum entschlossenen Handeln aufrief. Doch die Gesandten der Vereinigten Staaten und Großbritanniens, die auf der britischen Inselgruppe im Nordatlantik zusammenkamen, um über die Aufnahme europäischer Juden zu verhandeln, begruben die Idee einer groß angelegten Rettungsaktion rasch. Beide Staaten begnügten sich mit Symbolpolitik und kleinteiligen Maßnahmen. Zwar wurde das Intergovernmental Committee on Refugees (ICR) reaktiviert, welches nach der Evian-Konferenz gegründet worden war und sich größtenteils als ineffektiv herausgestellt hatte. Doch blieb das ICR auch für den Rest des Krieges unbedeutend.
»Man erinnert sich nicht, sondern man schreibt das Gedächtnis um, wie man die Geschichte umschreibt. Wie sollte man sich an den Durst erinnern?«, fragt sich der Schriftsteller, Fotograf und Regisseur Chris Marker (1921–2012) in seinem Filmessay »Sans Soleil« (1983). Damit weist er auf die Kluft zwischen Erfahrung und Erinnerung hin, die stets das Ergebnis reflexiver Prozesse ist. Er deutet des Weiteren einen Aspekt an, der für Historiker*innen von beträchtlicher Relevanz ist: den konstruktiven Charakter des Selbstzeugnisses. Nicht erst die historische Erzählung, sondern schon das Elementarteilchen der Geschichtsschreibung, das (Selbst-)Zeugnis, ist seit jeher das Ergebnis eines kontinuierlichen Prozesses der Neu- bzw. Umschreibung. Denn auf der einen Seite unterliegen Zeugnisse selektiven Wahrnehmungs- und Gedächtnismechanismen, auf der anderen ändern sie sich im Laufe der Zeit durch die Interaktion mit neu eingetretenen Erfahrungen und kollektiven Anstößen. Die negative Kehrseite dieser Verformbarkeit kommt bei der Manipulation und Instrumentalisierung von Zeugen durch Politik und Medien ans Licht, worüber Historiker*innen in den letzten Jahrzehnten intensiv reflektiert haben. Jedes (Selbst-)Zeugnis muss daher als eine Momentaufnahme in einem Prozess der Erinnerungsverarbeitung angesehen und entsprechend kritisch im Kontext seiner Entstehung und späteren Rezeption analysiert werden. Ohne Zeugnisse damit dem Bereich des Fiktiven zuzuordnen, bezweckt diese kritische Auseinandersetzung, ihnen die Qualität der Reinheit, Ursprünglichkeit und Beständigkeit, der Unmittelbarkeit des Zugangs zur Vergangenheit und der Individualität abzusprechen und sie in den Horizont sinnbildender Prozesse zurückzuführen.
Die Pyrenäen bilden eine natürliche Grenze zwischen Frankreich und Spanien, zwischen dem europäischen Hauptland und der iberischen Halbinsel. Dort, wo sie nicht in den Himmel ragen, in ihren Tälern und auf ihren Passhöhen sowie an den Meeren, waren die Pyrenäen auch stets eine tierra de paso, eine Transitzone. An ihren östlichen Ausläufern gibt es zwei bedeutende Übergänge. Einer liegt im sanften, flachen Tal von La Jonquera und quert die Landesgrenze bei Le Perthus. Der andere kreuzt an der Küste am Coll dels Belitres zwischen Cerbère (Frankreich) und Portbou (Spanien). Daneben und dazwischen durchziehen kleine Wege die Landschaft, offizielle und inoffizielle, Pfade für Schmuggler, Verfolgte, Fliehende. Jede Gegend und jede Route hat ihre Konjunktur. Die Hoch-Zeit dieser Transitlandschaft, als sich die europäische Kriegs- und Verfolgungsgeschichte des 20. Jahrhunderts an dieser Grenze kristallisierte, war zwischen dem Winter 1938/39, als der spanische Krieg mit dem Sieg Francisco Francos endete, und den Jahren 1940/41, bevor im Sommer 1941 die systematische Vernichtung der europäischen Juden begann.