Wissenschaft
Refine
Year of publication
Document Type
- Journal Article (138) (remove)
Has Fulltext
- yes (138) (remove)
Is part of the Bibliography
- no (138) (remove)
Keywords
- Auftragsforschung (1)
- Behördenforschung (1)
- NS-Aufarbeitung (1)
Noch immer liegen NS- und Genozidforschung weit auseinander – und sind zugleich doch eng miteinander verbunden. Denn zum einen bildet der Holocaust für die Genozidforschung bis heute die Matrix der unterschiedlichsten Typologieversuche. Zum anderen gründet die These von der Singularität des Holocaust notwendig, obgleich meist nur implizit auf dem Vergleich mit anderen Massenmorden. Dennoch arbeiten beide Disziplinen bis heute vielfach nebeneinander her. NS-Forscher ignorieren die Forschungsergebnisse zu den übrigen Völkermorden im 20. Jahrhundert weitgehend und perpetuieren damit die Singularitätsthese durch den eigenen eingeengten, überwiegend nationalgeschichtlich-deutschen Horizont. Die zahlreichen Bücher zu Genoziden basieren hingegen oft auf einem Kenntnisstand des Holocaust, der aus den 1970er-Jahren stammt, und beziehen sich damit sich auf eine gänzlich veraltete Matrix, die wiederum die eigenen Schlussfolgerungen verzerrt.
Anhand der bundesdeutschen Pharmawirtschaft, genauer der Unternehmen Bayer, Hoechst, Merck und Schering, wird gezeigt, dass die Bedeutung von Patentrechten für die Gesundheitsökonomie in der zweiten Hälfte des 20. Jahrhunderts deutlich wuchs: Die Unternehmen erhöhten nicht nur die Anzahl von Patenten, sondern auch die Investitionen in immaterielles Vermögen erheblich. Die Kosten für Forschung und Entwicklung (F&E) überstiegen seit etwa Ende der 1970er-Jahre die Investitionen in Produktionsanlagen. Patente selbst avancierten zum Instrument, um unternehmensseitig den Wettbewerb zu beeinflussen. Das 1968 eingeführte »Stoffpatent« für neue chemische Verbindungen hatte dafür erweiterte Möglichkeiten geschaffen. Patent- und Lizenzabteilungen wurden zu wichtigen Orten unternehmensinterner Entscheidungsfindung. Zudem wurden die Forschungsleistungen hervorgehoben, um den Anstieg der Arzneimittelpreise zu rechtfertigen. Der Aufsatz leistet einen Beitrag zur Beantwortung der Frage, wie und wann die bundesdeutsche Wirtschaft verstärkt zu einer »Intangible Economy« wurde. Er verdeutlicht, wie relevant geistiges Eigentum für die Transformation seit den 1970er-Jahren war – und damit für die Zeitgeschichte des Kapitalismus als Kombination von Vermarktlichung und Verrechtlichung, von globalem Wettbewerb und nationalstaatlicher Regulierung.
Im Frühjahr 2020 tauchten die Begriffe »Postkolonialismus«, »postkoloniale Theorie« und verwandte Kategorien mit ungewohnter Dichte in den deutschen Feuilletons auf, waren Gegenstand von Streitgesprächen im Radio und aufgeregten Twitter-Kommentaren. Zentraler Anlass für die ambivalente Hausse des Postkolonialismus war die Erklärung des Antisemitismusbeauftragten der Bundesregierung, Felix Klein, der Kameruner Historiker Achille Mbembe sei wegen antisemitischer Positionen als Eröffnungsredner der Ruhrtriennale »nicht geeignet«. Daraus entwickelte sich eine heftige und durchaus verwirrende Debatte, in der Klein und gleichgesinnte Mbembe-Kritiker*innen des Rassismus und McCarthyismus gescholten wurden, während andere anhand weniger Passagen aus Mbembes umfangreichem Werk nicht nur darauf insistierten, er sei Antisemit und »Israel-Hasser«, sondern zugleich die »postkoloniale Theorie« anprangerten, als deren wichtiger Vertreter Mbembe gilt. Irritierend daran war nicht allein der Gestus, mit dem beispielsweise so mancher Journalist auftrat, als sei er der erste, der Kritik am Postkolonialismus oder an Mbembe übe. Insgesamt fiel zudem auf, wie sehr die Debatte auf einer bestenfalls oberflächlichen Lektüre relevanter Texte basierte. Dies galt zum Teil auch für jene, die etwa die Antisemitismusvorwürfe gegen Mbembe vehement ablehnten. Die Literatur- und Kulturwissenschaftlerin Aleida Assmann, die in der Öffentlichkeit rasch zu einer der führenden Verteidiger*innen Mbembes aufstieg, gestand zunächst freimütig ein, sie könne seiner Theorie eigentlich gar nicht so richtig folgen.
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
Joseph Weizenbaum (1923–2008), in Berlin geboren, war durch die Nazis gezwungen, mit seiner jüdischen Familie aus Deutschland zu fliehen. Am MIT in Boston wurde er seit den 1960er-Jahren ein renommierter KI-Forscher. Er ist bis heute nicht nur als ein Pionier der Forschung zur Künstlichen Intelligenz anerkannt, sondern vor allem als ein streitbarer Kritiker der Computerkultur. Sein Buch »Computer Power and Human Reason. From Judgement to Calculation« ist ein Klassiker der Technik- und Wissenschaftskritik, ja der Kritik an der technischen und naturwissenschaftlichen Moderne überhaupt. Es ist aber besonders der Titel der deutschen Ausgabe, der mit seiner Dichotomisierung von Macht und Ohnmacht, Computer und Vernunft die These des selbsterklärten »Dissidenten« oder »Ketzers« der Informatik eingängig auf den Punkt bringt. Und das Zitat auf der Umschlagrückseite verortet das Buch auch gleich im Feld der Kritischen Theorie Max Horkheimers, auf den Weizenbaum sich explizit bezieht: »Ich bekämpfe den Imperialismus der instrumentellen Vernunft, nicht die Vernunft an sich.«
Der Aufsatz entwirft eine Zeitgeschichte der Vorsorge, die sich für den hygienepolitischen Übergang von Praktiken der Intervention und Krisenbewältigung zu Praktiken der Prävention interessiert. Am Beispiel der Pestvorsorge in der Sowjetunion wird erstens ein Prozess der Institutionalisierung, Professionalisierung und Verwissenschaftlichung dargestellt. Zweitens werden die Eigenheiten des sowjetischen Falls herausgearbeitet. Die dortige Pestbekämpfung war bis in die 1930er-Jahre von Interventionen geprägt, die aus einem Repertoire repressiver, im Kontext der Zwangskollektivierung etablierter Maßnahmen schöpften. Der Umgang mit der Pest war nicht mit Aufklärung verknüpft, sondern mit Geheimhaltung. Die Einrichtung eines Netzwerks wissenschaftlicher Forschungsstätten führte zu einem Wandel im Umgang mit der Seuche. Dies war eingebettet in parallele Diskurse über administrative Grenzen und geographisches Wissen. Der Aufsatz stützt sich auf Quellen aus Staats- und Partei-Archiven in der Russischen Föderation und der Republik Aserbaidschan.
Der Beitrag befasst sich mit dem „Peckham-Experiment“, einem Forschungsprojekt, das in den 1930er- und 1940er-Jahren im „Pioneer Health Centre“ (PHC) durchgeführt wurde, einem Freizeit- und Gesundheitszentrum im Londoner Stadtteil Peckham. Im Fokus der Fallstudie steht die Genese neuen präventionsmedizinischen Wissens und neuer vorsorgebezogener Praktiken. Die beteiligten Experten versuchten, das „natürliche“ Potential von Individuen und die sozialen Beziehungen zwischen Familien zu nutzen, um ein gesundheitsförderliches Verhalten zu stimulieren. Das „Peckham-Experiment“ wird im Kontext der britischen wohlfahrtspolitischen Debatten und der biologisch-medizinischen Theorien seiner Gründungszeit analysiert. Gezeigt wird aber auch, dass der neue, stark auf Selbstverantwortung gerichtete Ansatz des PHC sich zudem aus den spezifischen Herausforderungen der „Laborsituation“ ergab, die im Laufe des Experiments zur Revision interventionistischer Vorannahmen führten. Allerdings waren andere Wissenschaftler skeptisch gegenüber den in Peckham gewonnenen Erkenntnissen. Zudem ließ sich das PHC nicht in den neuen „National Health Service“ integrieren. Beides bewirkte 1950 letztlich die Schließung des Centres.
Sprachkritik und Autobiographie. Über Victor Klemperers »LTI. Notizbuch eines Philologen« (1947)
(2024)
Victor Klemperers Schrift »LTI. Notizbuch eines Philologen« wurde bereits in der Erstauflage zu 10.000 Exemplaren gedruckt, aber sie wurde nicht gleich zu dem Erfolg, den sich ihr Autor erhofft hatte. An Silvester 1947, nachdem ihm der Verlag das Geschenk eines eigens für ihn gebundenen Exemplars des ansonsten kartonierten Werks zugeschickt hatte, notierte er bedrückt in sein Tagebuch: »In diesem schönen Band […] tritt die Jämmerlichkeit des Papiers u. des Druckes noch krasser hervor. Im übrigen ist es ganz still von der LTI. Wo sind die 10.000 Exemplare? In keiner Buchhandlung, in keiner Redaktion. Keine Zeitung hat davon Notiz genommen.« Heute ist diese früh geäußerte Enttäuschung zu einer Fußnote geworden, denn das Buch gehört längst zu den Klassikern der Sprachkritik, liegt in sechsstelliger Auflagenhöhe und in vielen Übersetzungen vor. Das Nachdenken über die linguistische Korruption der modernen öffentlich-politischen Rede wurde durch wenige Werke so sehr angeregt wie durch dieses. LTI wurde dabei einerseits als »bedeutendes zeithistorisches Dokument« für die Ära des »Dritten Reiches« betrachtet, andererseits als »Wissensspeicher« für die Analyse der Funktionsweise einer Diktatur im Allgemeinen interpretiert. Beide Lesarten finden im Buch ihre Belege. Der ironische Latinismus »LTI« (für »Lingua Tertii Imperii«, »Sprache des Dritten Reiches«) war Kommentar und Deckkürzel zugleich; er persiflierte die nazistische Sucht nach Abkürzungen; und er war auch die »Geheimformel« (S. 20) in Klemperers Tagebuch der Jahre 1933–1945, mit der er seine Sprachbeobachtungen markierte. Ob nun mit dem Akzent auf die Zeugenschaft des Autors oder mit dem Blick auf die analytischen Angebote des Buches: Es ist in keiner dieser Perspektiven eine vergessene Schrift, sondern ein kanonisch gewordenes Werk, das im doppelten Wortsinne Geschichte geschrieben hat.
Stress ist ein ubiquitärer Begriff – seine geschichtswissenschaftliche Erforschung aber hat erst begonnen. Der Aufsatz skizziert programmatisch die Genese und die Funktionen des Stresskonzepts im 20. Jahrhundert. Dabei wird Stress nicht in erster Linie als Syndrom und Krisenphänomen betrachtet, sondern als Deutungs- und Handlungsangebot westlicher Gesellschaften, die sich als instabil, wandelbar, innovativ und dynamisch begreifen. Die performative Kraft des Stresses als Modus gesellschaftlicher Selbstreflexion wird in vier historisch und systematisch aufeinander bezogenen semantischen Feldern untersucht: Stress als Regulations- und Anpassungsmodell, Stress als Prinzip der Wettbewerbsgesellschaft (mit engen Beziehungen zu Arbeit, Leistung und Erfolg), Stress als Zivilisationskritik (mit der stressfreien Gesellschaft als utopischem Gegenbild) sowie Stress als flexible Ökologie von Mensch-Umwelt-Verhältnissen. Dabei handelt es sich weniger um eine chronologische Ordnung als vielmehr um Deutungsvarianten, die in unterschiedlichen Verwendungskontexten aufkamen und sich im heutigen Stressbegriff überlagern.
Wie reagieren Menschen auf Katastrophen? Wie lassen sich Bevölkerungen in Extremsituationen führen? Mit diesen Fragen beschäftigten sich in den 1950er-, 1960er- und 1970er-Jahren mehrere US-amerikanische, teilweise durch die Armee finanzierte Forschungsgruppen. Sie waren interdisziplinär zusammengesetzt, aber mehrheitlich soziologisch ausgerichtet. Innerhalb wie außerhalb der USA studierten sie das Stressverhalten von Individuen und Gruppen in Tornados, eingeschneiten Autobahnraststätten und »racial riots« sowie ergänzend in Laborsimulationen. Anhand zeitgenössischer Publikationen und interner Akten werden in diesem Aufsatz die Erkenntnisinteressen und Untersuchungsfelder der sozialwissenschaftlichen Katastrophenforschung, ihre Befunde und deren Nutzung dargestellt. Die Tätigkeit der Wissenschaftler/innen stand im Kontext des Kalten Kriegs und eines sich verschiebenden Gefahrensinns. Dabei ließen sich die Forscher/innen keineswegs vollständig politisch vereinnahmen, sondern verfolgten durchaus eigene Interessen und gaben mitunter Antworten, die den Intentionen der Auftraggeber zuwiderliefen.
The fiftieth issue
(2021)
At first glance, the seventeenth year of this journal’s publication would not appear to mark any particular anniversary. And yet the present edition is quite special for the editors and the editorial team: it is the 50th issue overall. (There was a double issue in 2007, otherwise there have always been three issues each year.) This milestone is the occasion for a brief review of the original objectives and of developments thus far, as well as a (self-)critical look at what the future may bring. Scholars in the nascent field of the cultural study of periodicals have rightly observed: ›The production of periodicals is often accompanied by reflections on the value, conditions, and promise of producing periodicals.‹
The Language of Eichmann in Jerusalem. Nazi German and Other Forms of German in the 1961 Trial
(2024)
The Eichmann trial granted the German language a degree of audibility unprecedented in the short history of the State of Israel, with the defendant, the judges, prosecutors, and witnesses frequently resorting to speaking in German. Drawing on archival materials, protocols, footage, and press reports, this article shows how the Eichmann trial brought to the surface several historical tensions around the postwar status of the German language. The various forms of German heard in the courtroom challenged notions of German as a Nazi language and contributed to a gradual mitigation of its status as a tainted language. The article concludes by reassessing Hannah Arendt’s 1963 Eichmann in Jerusalem and specifically her postulate that Eichmann’s language faithfully reflected his mindset. It is argued that Arendt’s understanding of Eichmann’s language echoed prewar ideas on German’s distinctive power.
How have Jewish intellectuals reflected on the German language both in relation to and in the aftermath of the ›catastrophe‹? This essay explores one perspective, that of H.G. Adler (Prague, 1910 – London, 1988), a scholar, author, and survivor of the Shoah. Adler’s relationship to and reflections on the German language offer insights into the experience of persecution and survival as well as into the memory and representation of the Holocaust. His vast body of work testifies to both the possibility and the necessity of writing ›after Auschwitz‹, and indeed to the necessity of writing in German after the Holocaust. A survivor of Theresienstadt, Auschwitz, and two satellite camps of Buchenwald (Niederorschel and Langenstein-Zwieberge), Adler went on to write in various forms, from the analytic to the poetic, about National Socialism, antisemitism, and life and death in the concentration and extermination camp system. His scholarly work made an important contribution to establishing the international and interdisciplinary field of Holocaust Studies, and his poetry and novels bear witness to his own personal experiences in the camps, albeit not in a directly autobiographical form.
This article explores the connection between genocide, language and language consciousness by tracing the strange biography of one Yiddish neologism: shabreven. During the Holocaust, the word came to mean both ›looting‹ and ›taking ownerless property‹. It stoked moral and etymological debate among Yiddish speakers in the Warsaw ghetto, while also occupying a prominent position in postwar Polish and Zionist discourses. The term shifted between different semantic, ethical and cultural fields, navigating a delicate balance between various meanings and norms. The discussions around this term help to shed light on key questions: What were the motivations for the study of Holocaust Yiddish neologisms? How did this early postwar Yiddish philological discourse differ from its parallel in German? Shabreven became both a symbol of the genocidal collapse of language and a tool for regaining victim agency in speech.
Wie für viele neue Staaten und »Entwicklungsländer« in der Ära nach dem Zweiten Weltkrieg spielten transnationale Dynamiken des Wissenstransfers auch für das 1948 gegründete Israel eine wichtige Rolle. Eine geradezu staatstragende Funktion kam dabei der entstehenden Raumplanung zu. Die israelischen Planungseliten waren durch ihr Studium und durch Grundannahmen des »Social Engineering« eng mit der deutschen Wissenskultur und speziell mit der Raumordnung verflochten – auch über die Zäsur von 1945 hinweg. Der Aufsatz untersucht die Rezeption der Theorie »zentraler Orte« im Kontext des ersten, meist als »Sharonplan« bezeichneten israelischen Nationalplans von 1951. Die 1933 durch Walter Christaller publizierte Theorie hatte auch einen konzeptionellen Eckpfeiler des »Generalplans Ost« gebildet, den die SS bzw. der »Reichskommissar für die Festigung deutschen Volkstums« (RKF) nach 1939 zur »Germanisierung« der eroberten Ostgebiete entwickelt hatte. Die Ambivalenz der israelischen Rezeptionslinie wird anhand der Biographien dreier Planer geschildert (Eliezer Brutzkus, Artur Glikson, Ariel Kahane).
»[…] wenn ›die Quelle‹ die Reliquie historischen Arbeitens ist – nicht nur Überbleibsel, sondern auch Objekt wissenschaftlicher Verehrung –, dann wäre analog ›das Archiv‹ die Kirche der Geschichtswissenschaft, in der die heiligen Handlungen des Suchens, Findens, Entdeckens und Erforschens vollzogen werden.« Achim Landwehr wirft in seinem geschichtstheoretischen Essay den Historikern ihren »Quellenglauben« vor – diese Kritik ließe sich im digitalen Zeitalter leicht auf die Heilsversprechen der Apostel der »Big Data Revolution« übertragen. Zwar regen sich mittlerweile vermehrt Stimmen, die den »Wahnwitz« der digitalen Utopie in Frage stellen, doch wird der öffentliche Diskurs weiterhin von jener Revolutionsrhetorik dominiert, die standardmäßig als Begleitmusik neuer Technologien ertönt. Statt in der intellektuell wenig fruchtbaren Dichotomie von Gegnern und Befürwortern, »First Movers« und Ignoranten zu verharren, welche die Landschaft der »Digital Humanities« ein wenig überspitzt auch heute noch kennzeichnet, ist das Ziel dieses Beitrages eine praxeologische Reflexion, die den Einfluss von digitalen Infrastrukturen, digitalen Werkzeugen und digitalen »Quellen« auf die Praxis historischen Arbeitens zeigen möchte. Ausgehend von der These, dass ebenjene digitalen Infrastrukturen, Werkzeuge und »Quellen« heute einen zentralen Einfluss darauf haben, wie wir Geschichte denken, erforschen und erzählen, plädiert der Beitrag für ein »Update« der klassischen Hermeneutik in der Geschichtswissenschaft. Die kritische Reflexion über die konstitutive Rolle des Digitalen in der Konstruktion und Vermittlung historischen Wissens ist nicht nur eine Frage epistemologischer Dringlichkeit, sondern zentraler Bestandteil der Selbstverständigung eines Faches, dessen Anspruch als Wissenschaft sich auf die Methoden der Quellenkritik gründet.
Nostalgie wird oft in kulturellen und, mehr noch, popkulturellen Kontexten diskutiert. Gelegentlich – und gerade in den letzten Jahren wieder – findet sich der Begriff jedoch auch in politischen Zusammenhängen. So wird er dazu verwendet, politische Entwicklungen zu erklären: etwa das britische EU-Referendum, die Wahl Donald Trumps zum Präsidenten der USA, das Erstarken der AfD in Deutschland oder den Aufstieg neuer Autoritarismen im östlichen Europa. Viele Beobachter*innen stellen einen in ihren Augen alarmierenden Zusammenhang zwischen Politik und Vergangenheitssehnsucht her. Aus ihrer Sicht resultieren die Effekte einer ungebremsten Globalisierung in einer gefährlichen Rückwärtsgewandtheit. Statt über sozioökonomische Konstellationen und Interessen erklären sie Politik emotional und psychologisch, wobei sie Nostalgie repathologisieren.
Heute gilt es als unbestritten, dass die allgegenwärtigen Geschichtsdarstellungen in den Medien massiv das Geschichtsbewusstsein prägen. Allerdings wurde selten gefragt, welche Konsequenzen dies für die Geschichtswissenschaft hat und wie diese damit umging. Ein früher Beitrag eines Historikers, der die Folgen von Geschichts-Fernsehserien für die Forschung reflektierte, stammt von Martin Broszat, der 1979 auf den damaligen Erfolg der amerikanischen Fernsehserie „Holocaust“ reagierte. Seinen Aufsatz neu zu lesen lohnt in doppelter Hinsicht: Einerseits ist der Text ein frühes selbstkritisches Zeugnis dafür, wie ein renommierter Historiker aus einer medialen Geschichtsdarstellung einen Perspektivwechsel für die Forschung ableitet. Andererseits lässt sich der Artikel als eine trotzige Verteidigungsschrift der Zunft verstehen, die zahlreiche problematische Punkte aufweist, welche die Beziehung zwischen Geschichtswissenschaft und Medien bis heute prägen.
Impfungen sind ein Traum der Moderne: Sie versprechen den Schutz ganzer Gesellschaften. In den beiden deutschen Staaten wurde dieser Schutz mit unterschiedlichen Methoden vorangetrieben – das Mobilisieren von Ängsten, Appelle an die Sorge um das Gemeinwohl oder die Durchsetzung von Impfpflichten sollten die Gesundheit des Einzelnen und den „Herdenschutz“ der Gesellschaft sichern. Der Aufsatz erkundet die deutsch-deutsche Geschichte des Impfens von den 1950er-Jahren bis 1989/90. Im Fokus stehen Aushandlungen von Risiko- und Sicherheitsvorstellungen, Versuche eines „Emotion Management“ sowie Debatten über das Verhältnis zwischen staatlicher Interventionsmacht und staatsbürgerlicher „Mündigkeit“. Anhand der Konflikte zwischen der Bundesrepublik und der DDR wird zudem gezeigt, dass der Wettlauf um die bessere Immunisierung ein Kampf um die bessere soziale Ordnung war. Andererseits wird belegt, dass es auf dem Gebiet der Impfpolitik gerade in den 1980er-Jahren eine wachsende Tendenz zur deutsch-deutschen und internationalen Kooperation gab.
Seit einigen Jahren verdichtet sich auch in Deutschland das Gespräch über Herausforderungen und Perspektiven des digitalen Zeitalters für die Geschichtswissenschaft. Auf jedem Historikertag seit 2010 gab es mehrere Sektionen, die sich unterschiedlichen Facetten des Themas zuwandten. Es entstehen Fachpublikationen, Überblickswerke, Dissertationen und erste Ansätze, das Feld institutionell neu zu gestalten. Die Geschichtswissenschaft bemüht sich, produktiv auf die Veränderungen einzugehen. Punktuell ist es auch bereits zu einem Dialog mit Archiven und der Archivwissenschaft gekommen. So hat der Verband der Historiker und Historikerinnen Deutschlands (VHD) 2015 unter Federführung der Vorsitzenden Eva Schlotheuber und Frank Bösch ein Grundsatzpapier verabschiedet, das sich der Quellenkritik im digitalen Zeitalter annimmt. Die Forderung, Elemente der Digital Humanities in die Historischen Grundwissenschaften zu integrieren, wurde seitdem noch weiter unterstrichen.
In der aktuellen Debatte um Holocaust, Kolonialismus und Erinnerung hat Per Leo jüngst angeregt, dass Historikerinnen und Historiker irritierende Fragen stellen sollten. Diesem, wie ich finde, klugen Vorschlag folgend, möchte ich hier diskutieren, ob und inwieweit die Rede von der Singularität des Holocaust angemessen, sinnvoll, erkenntnisfördernd ist. Wie ist sie (in der Bundesrepublik) entstanden, und worin könnte heute ihre Aussagekraft liegen? Müsste die Perspektive nicht erweitert werden? Solche Fragen führen in das Zentrum einer Debatte, die hierzulande seit der Auseinandersetzung vom Frühjahr 2020 um den afrikanischen postkolonialen Theoretiker Achille Mbembe heftig entbrannt ist, dem der Antisemitismus-Beauftragte der Bundesregierung Felix Klein vorwarf, den Holocaust zu relativieren. Die vor allem in den Feuilletons geführte Debatte verschärfte sich, als der in den USA lehrende Historiker A. Dirk Moses im Mai 2021 mit einem provokanten Essay die deutsche Erinnerungskultur kritisierte: In der Fixierung auf den Holocaust würden die Kolonialverbrechen ausgeblendet. Die Kontroverse um Antisemitismus auf der diesjährigen documenta bildete mit den schrillen Tönen zweifellos den vorläufigen Tiefpunkt dieser Debatte. Nachdenkliche Argumente wie von Micha Brumlik, Sebastian Conrad, Charlotte Wiedemann oder Natan Sznaider scheinen kaum noch Gehör zu finden.
Im April 2008 wurde in Gegenwart von Simone Veil, der früheren Präsidentin des EU-Parlaments, an der Pariser Universität Sciences Po eine neue und ambitionierte elektronische Informationsquelle freigeschaltet: die Enzyklopädie über Massengewalt oder „mass violence“, wie der Titel im Englischen heißt (das die bevorzugte Sprache dieser Website ist). Das Projekt ist also noch jung, und so nimmt es nicht wunder, dass es trotz einer fast vierjährigen Vorlaufphase nicht frei von Startproblemen ist. Sie liegen zum Teil im monumentalen, aber noch unzureichend eingelösten Dokumentationsanspruch der Enzyklopädie, vor allem aber in der unscharfen Bestimmung dessen, was dokumentiert werden soll.
The web and tomorrow’s historiography. Since the 1990s the world wide web (or simply, the web) has been an integral and important part of the communicative infrastructure of modern societies. On the one hand the web has developed as a new medium in its own right, in continuation of other media types such as newspapers, film, radio and television. On the other hand, the web has been intimately entangled in the social, cultural and political life taking place outside of the web. For example, within the realm of politics the web has been essential for the extreme left and right since the mid 1990s (as a platform for discussion and mobilisation as well as for the diffusion of political ideas). And in everyday life an important part of modern youth culture has for a number of years been closely connected to such web phenomena as YouTube, Facebook and Twitter.
In der ersten Hälfte der 1990er-Jahre sahen sich die traditionellen Informationsvermittlungsinstanzen, die Bibliotheken, nicht in der Lage, ihre Mediatorenfunktion in puncto Internet wahrzunehmen. Es blieb in dieser Gründungsepoche der Eigeninitiative selbstloser NetzenthusiastInnen überlassen, für verschiedenste Disziplinen bald so genannte Fachverzeichnisse, Themenkataloge oder Fachportale aufzubauen. Ein Teil von ihnen organisierte sich in der Virtual Library (VL), dem ältesten Web-Suchdienst, ins Leben gerufen durch den WWW-„Erfinder“ Tim Berners-Lee. Sie ist der Versuch, durch eine lose Zusammenarbeit von Experten, die jeweils für ein bestimmtes Schlagwort Indices von Webressourcen erstellen, einen Universalkatalog mit akademischer Ausrichtung zu betreiben. Als Zielgruppen, zu denen sich auch die VL Zeitgeschichte bekennt, sollen vor allem WissenschaftlerInnen, Lehrende und Studierende angesprochen werden. Die VL fordert von ihren RedakteurInnen ein, nur solche Webressourcen aufzunehmen, die bestimmte Qualitätskriterien erfüllen; um in der VL Zeitgeschichte gelistet zu werden, muss daher der „wissenschaftliche Nutzen“ gegeben sein (siehe die Rubrik „Aufnahmekriterien“ der Website).
Das Taschenbuch „Medizin ohne Menschlichkeit“ wurde ein Best- und Longseller. Binnen sechs Wochen nach Erscheinen, im Frühjahr 1960, konnte der Fischer-Verlag bereits 29.000 Exemplare absetzen. 2004 erreichte der Band die 16. Auflage. Ein erstaunlicher Erfolg für die Neuausgabe eines Buches von 1949; eines Buches zudem, das, wie der Untertitel anzeigte, „Dokumente des Nürnberger Ärzteprozesses von 1946/47“ präsentierte. Seither waren immerhin 13 Jahre vergangen. Auch die Herausgeber waren einem breiten Publikum unbekannt: Der Psychoanalytiker und Heidelberger Extraordinarius Alexander Mitscherlich war eben erst dabei, in Frankfurt das spätere Sigmund-Freud-Institut zu begründen. Fred Mielke, in den ersten Nachkriegsjahren Medizinstudent bei Mitscherlich, war bereits im Frühjahr 1959 an Leukämie verstorben.
Was vor einigen Jahren ein Schreckensszenario war, ist längst eingetreten. Für den wissenschaftlichen Nachwuchs gilt schon heute: »Quod non est in google, non est in mundo.« Freilich, eine verkürzte Sicht. Der Aufbau elektronischer Findmittel zur Durchforstung von Archiv-, Bibliotheks- und Museumsbeständen hat in den vergangenen Jahren ein starkes wissenschaftliches Interesse gefunden. Die Gesellschaft vernetzte sich, es entstanden viele nützliche Service-Angebote, neue Begehrlichkeiten wurden geweckt. Heute geht es nicht mehr darum, Inhalte nur zu erschließen, sondern darum, sie online zu vermitteln. In sozialen Medien werden diese Inhalte »getaggt«, »geliked«, empfohlen oder gar kommentiert. Die sammelnden Institutionen stehen damit vor einer gewaltigen Herausforderung – technisch, finanziell und vor allem konzeptionell. Mit dem Aufkommen von Bits und Bytes befindet sich die Kulturtechnik des Sammelns und Präsentierens in einem tiefgreifenden Umbruch. Der digitale Wandel impliziert die Frage, ob Gedächtnisinstitutionen künftig noch derselbe Stellenwert zukommen wird, zukommen muss wie heute: Schaffen entmaterialisierte Kulturgüter eine neue Kulturgesellschaft?
Für diese Debatte haben wir vier prominenten Vertreter*innen beider Disziplinen, der Rechts- und der Geschichtswissenschaft, schriftlich Fragen zur Situation, zum Potential und zu den Herausforderungen einer Zeitgeschichte des Rechts gestellt.
Wie verhält sich die Rechtsgeschichte zur »allgemeinen« Geschichtswissenschaft in Deutschland? Woher rührt das ausgeprägte disziplinäre Selbstbewusstsein der juristischen Rechtshistoriker*innen, und sollten Allgemeinhistoriker*innen dem etwas entgegensetzen? Worin sehen Sie die »großen Themen« und methodischen Trends der aktuellen rechtshistorischen Forschung, besonders der Juristischen Zeitgeschichte in der Bundesrepublik? Wieviel Theorie und Methodik braucht die Rechtsgeschichte? Wo sehen Sie Potential für neue Perspektiven, und inwieweit sollte eine zeitgemäße Rechtsgeschichte über den nationalen Rahmen hinausgehen? Welche Chancen, welche Grenzen sehen Sie für die interdisziplinäre Zusammenarbeit von Jurist*innen und Historiker*innen?
Es gibt zahlreiche Gelegenheiten, um festzustellen, dass auch das eigene Selbst – entgegen jeglicher irrationalen Hoffnung – dem Alterungsprozess nicht entzogen ist. Eine Möglichkeit ist die Aufforderung, gut 25 Jahre nach seinem ersten Erscheinen ein Buch zu thematisieren, dessen Erstauflage in der eigenen akademischen Ausbildung nicht ganz unbedeutend war. Es war 1997, als mit Niklas Luhmanns »Gesellschaft der Gesellschaft« ein in mehrerlei Hinsicht schwergewichtiger Block mitten in die allgemeine Theoriediskussion hineinplumpste. Dass dieses Buch in der Erstausgabe mit schwarzem Einband daherkam, erschien mir damals durchaus folgerichtig und erinnerte an den gleichfarbigen Monolithen aus Stanley Kubricks »2001: A Space Odyssey«. Ähnlich Ehrfurcht gebietend gestaltete sich die Lektüre von Luhmanns Hauptwerk, vor allem dem Novizen in Sachen Systemtheorie, der ich damals war.
Wie verändern sich die Objekte der Geschichtsschreibung, also die Gegenwart und die jüngere Vergangenheit, durch die Medien? Wie verändert sich die Geschichtsschreibung selbst durch die Medien? Was bedeutet die in Forschung und Öffentlichkeit verbreitete Rede von der ‚Mediengesellschaft‘ aus historischer Perspektive eigentlich genau? Der Aufsatz unterscheidet zunächst einige Prozesse der ‚Medialisierung‘, geht damit verbundenen Strukturverschiebungen nach und betrachtet insbesondere Veränderungen von Öffentlichkeiten. Dabei wird dafür plädiert, die Ambivalenz der Entwicklungen anzuerkennen und nicht vorschnell Paradigmenwechsel zu behaupten. Zudem werden einige Leitlinien formuliert, was eine Medialisierung der Zeitgeschichtsschreibung bedeuten könnte. Hier gilt es, neue Wege zu beschreiten und neue Ziele zu setzen, die der Ära der Audiovisualität gerecht werden.
Die zu keinem Zeitpunkt besonders exklusive Position der akademischen Zeitgeschichte in der Öffentlichkeit wird heute mehr denn je herausgefordert von außerakademischen Beiträgen zur Geschichtsschreibung. Das gestiegene wie auch pluralisierte Bedürfnis nach geschichtlicher Einordnung der Gegenwart findet in den populären Geschichtsformaten ganz offensichtlich eine breite Resonanz. Bei dieser Ausweitung spielen fundamentale politische, sozialgeschichtliche und kulturelle Entwicklungen eine Rolle, namentlich die Aufweichung der nationalgeschichtlichen und nationalkulturellen Rahmenbedingungen, unter denen die moderne Geschichtsforschung und Geschichtsschreibung seit dem frühen 19. Jahrhundert entstanden waren. Im frühen 21. Jahrhundert verstehen sich vormals undiskutierte Bezugsrahmen einer solchen Geschichtsschreibung nicht mehr von selbst. Vielmehr muss zunehmend klargestellt werden, wer welche Art der Geschichte für welches Publikum darstellen will.
Zum 50. Heft
(2021)
Der 17. Jahrgang dieser Zeitschrift markiert auf den ersten Blick keinerlei Jubiläum. Trotzdem ist die vorliegende Ausgabe für Herausgeber und Redaktion eine besondere: Es handelt sich um das 50. Heft insgesamt. (2007 gab es ein Doppelheft, sonst immer drei Hefte pro Jahrgang.) Dies ist der Anlass für einen knappen Rückblick auf die anfänglichen Ziele und die bisherigen Entwicklungen, aber auch für einen (selbst-)kritischen Ausblick. Mit Recht hat die erst in den Anfängen befindliche kulturwissenschaftliche Zeitschriftenforschung festgestellt: »Nicht selten geht das Zeitschriftenmachen mit Reflexionen über den Wert, die Bedingungen oder die Versprechen des Zeitschriftenmachens einher.«
»Hitler has won another victory at Bermuda […].« So kommentierte die Zeitung der zionistischen Arbeiterbewegung in den USA, »The Jewish Frontier«, die Bermuda-Konferenz vom April 1943. Was war passiert? Nach der Konferenz von Evian im Juli 1938 (und ihrem ernüchternden Ergebnis) war dies der zweite Versuch, mit einer internationalen Konferenz die Frage der jüdischen Flüchtlinge zu klären. Doch wie bereits 1938 am Genfer See, als sich außer der Dominikanischen Republik alle Teilnehmerstaaten weigerten, jüdische Flüchtlinge aufzunehmen, kam auch auf Bermuda keine Lösung zustande, obwohl an den mörderischen Absichten und Praktiken Nazi-Deutschlands 1943 kein Zweifel mehr bestand. Der World Jewish Congress (WJC) hatte für die Gesandten eine Informationsmappe zusammengestellt, die die nationalsozialistische Vernichtungspolitik darlegte und zum entschlossenen Handeln aufrief. Doch die Gesandten der Vereinigten Staaten und Großbritanniens, die auf der britischen Inselgruppe im Nordatlantik zusammenkamen, um über die Aufnahme europäischer Juden zu verhandeln, begruben die Idee einer groß angelegten Rettungsaktion rasch. Beide Staaten begnügten sich mit Symbolpolitik und kleinteiligen Maßnahmen. Zwar wurde das Intergovernmental Committee on Refugees (ICR) reaktiviert, welches nach der Evian-Konferenz gegründet worden war und sich größtenteils als ineffektiv herausgestellt hatte. Doch blieb das ICR auch für den Rest des Krieges unbedeutend.
In den 1980er-Jahren erweiterte die In-vitro-Fertilisation (IVF) nicht nur die Möglichkeiten der Familienplanung, sondern eröffnete auch neue, rasch expandierende Forschungs- und Geschäftsfelder für Mediziner in der Bundesrepublik. Die Vermarktlichung der menschlichen Reproduktion war Gegenstand eines breiten Aushandlungsprozesses über das technisch Machbare und das ethisch Vertretbare. Der Aufsatz stellt die Reproduktionsmediziner in den Mittelpunkt: Als Anbieter von innovativen Dienstleistungen verfolgten sie neben einem wissenschaftlichen Fortschrittsstreben auch ökonomische Interessen. Über die Medien sowie als Mitglieder von Ethikkommissionen nahmen sie politischen Einfluss. Sie verstärkten die öffentliche Wahrnehmung der Reproduktionsmedizin und waren an der Erstellung von gesetzlichen Richtlinien für ihr Tätigkeitsfeld beteiligt. Die medial geübte Kritik betonte die Gefahren einer technokratisch-politischen Steuerung und mögliche Kontinuitäten zur NS-Zeit. Mit der Verabschiedung des – im internationalen Vergleich restriktiven – Embryonenschutzgesetzes von 1990 kam die Debatte zu einem vorläufigen Ergebnis, war und ist jedoch keineswegs beendet.
Die Computerindustrie entwickelte sich in den USA und der UdSSR sehr unterschiedlich. Während in den Vereinigten Staaten der Konzern IBM nahezu ein Monopol erlangte, herrschte in der Sowjetunion ein Konkurrenzkampf. Mehrere Akteure verfolgten an unterschiedlichen Standorten eigene Entwicklungslinien; ein Austausch fand kaum statt. Als Reaktion auf eine von IBM 1963 vorgestellte neue Modellreihe kam es in der UdSSR zu einer Diskussion über die Computerindustrie, die den hartnäckigen Widerstand lokaler Entscheidungsträger bei der Durchsetzung zentraler Direktiven offenbarte. Es bedurfte mehrerer Machtworte von führenden Vertretern der Rüstungsindustrie, um das IBM System /360 als Vorbild einer eigenen Reihe durchzusetzen. Dabei berief man sich vor allem auf die Erfolge, die beim Nachbau von IBM-Rechnern in der DDR erzielt worden waren. Das Ministerium für Staatssicherheit hatte Entwicklungsdokumente aus dem Westen beschafft, und diese Wirtschaftsspionage trug wesentlich dazu bei, den innersowjetischen Konflikt zu entscheiden. Der technologische Rückstand der UdSSR gegenüber den USA blieb gleichwohl bestehen.
Stress ist als Begriff und Problem weit über die Medizin- und Wissenschaftsgeschichte hinaus relevant; Stressdiskurse können als Sonde für breitere gesellschaftsgeschichtliche Konstellationen dienen. Eine geschichtswissenschaftliche Auseinandersetzung mit Stress muss daher zum einen dem medizinisch-biologischen Konzept nachgehen, zum anderen dessen gesellschaftliche Funktionalität erfassen. Die Zeitgeschichte wird den Fokus besonders auf die sozioökonomischen Prozesse und die soziale Sinngebung richten. Gleichwohl gibt es ein nicht zu vernachlässigendes methodisches Grundproblem: Wie lässt sich eine Beziehung herstellen zwischen den biochemischen und psychologischen Dimensionen, die mit dem Stressbegriff verknüpft sind, sowie den komplexen sozialen Konfigurationen, die dieser Begriff rationalisieren soll? Was sind die Konstituenten und Selbstbeschreibungsmodi einer Gesellschaft, die sich durch Flexibilisierung und Regulierung gleichermaßen auszeichnet? In welchem Verhältnis stehen zudem die jüngere Entwicklung seit den 1970er-Jahren, in der Stress eine hohe Deutungsmacht erhalten hat, und die Überforderungsdiskurse seit dem Ende des 19. Jahrhunderts?
»Dr. Jekyll und Mr. Hyde«?. Robert Jay Liftons Psychohistorie »Ärzte im Dritten Reich« (1986/88)
(2020)
Bereits während des Zweiten Weltkrieges erstellten Psychiater im Auftrag des amerikanischen Nachrichtendienstes OSS Ferndiagnosen zu Adolf Hitlers Persönlichkeit. Mit dem Sieg über Deutschland und der Gefangennahme seiner Führungsriege eröffnete sich Medizinern nach 1945 die für sie faszinierende Möglichkeit, die Initiatoren der Judenverfolgung wie Hermann Göring aus nächster Nähe zu studieren. Im Zentrum diverser Untersuchungen im Zellentrakt des Nürnberger Justizpalasts stand dabei die Frage, ob sich die Verantwortlichen für den Tod von Millionen Menschen durch eine abnorme Psyche auszeichneten.
Vier Dekaden später erschien mit Robert Jay Liftons Monographie »The Nazi Doctors« 1986 eine international vielbeachtete Studie, die die Frage nach den mentalen Dispositionen von Ärzten, die in nationalsozialistischen Vernichtungsstätten Verbrechen begangen hatten, entschieden ins Zentrum rückte. Lifton, 1926 in New York geboren, hatte in den 1950er-Jahren als Nervenarzt für die United States Air Force in Japan und Korea gearbeitet. Seitdem widmete er sich dem Thema Genozid und studierte den Umgang von Überlebenden mit erlittenen Kriegsgräueln. Dieses Mal fokussierte Lifton allerdings auf die Gewalttäter. Dazu nutzte er Methoden der Psychohistorie, deren Möglichkeiten und Grenzen Historiker/innen in der Bundesrepublik seinerzeit kontrovers diskutierten.
Der junge Historiker Lutz Niethammer (geb. 1939) wollte kein »68er« sein. Viele seiner Altersgenossen fanden den Weg in die Außerparlamentarische Opposition, doch Niethammer blieb distanziert – er wollte teilhaben, nicht teilnehmen. Zwar rezipierte er die marxistisch wie psychoanalytisch inspirierten Faschismustheorien, doch blieb es bei einem grundlegenden Wissenschaftsinteresse.2 Während sich viele andere der Studentenbewegung anschlossen und ihr Augenmerk auf den Antiimperialismus und Internationalismus legten, brachte Niethammer die Gefahr von rechts in den Blick. Schon früh wandte er sich gegen den Geschichtsrevisionismus: Seine Kritik an David L. Hoggans Buch »Der erzwungene Krieg« von 1961 bildete den Anfang einer längeren Auseinandersetzung. »Ich glaubte, wir sollten etwas gegen den Aufstieg des Neofaschismus tun«, erklärte Niethammer retrospektiv in seiner fragmentarisch-autobiographischen Essaysammlung »Ego-Histoire?«. Dies erschien ihm »näherliegender« (sic) als der hilflose Antikapitalismus der Linken.
Für den vierten Band der „Gesellschaftsgeschichte“ von Hans-Ulrich Wehler möchte ich drei Lesarten vorschlagen. Die erste sieht den Band einfach als eine Gesamtdarstellung der deutschen Geschichte unter vielen. Bei dieser Lesart stechen die Vorzüge des gesellschaftsgeschichtlichen Ansatzes hervor. Wehler belässt es nicht bei kursorischen Bemerkungen zur Sozial- und Wirtschaftsgeschichte, sondern er behandelt die konjunkturelle Dynamik der Wirtschaft und das soziale Profil der verschiedenen Erwerbs- und Besitzklassen in eigenem Recht und mit großer Präzision. Andererseits zeigt gerade der Abschnitt zum Kaiserreich im Ersten Weltkrieg, dass der Erfolg des Paradigmas der Gesellschaftsgeschichte den Autor Hans-Ulrich Wehler eingeholt hat. Denn eine vergleichbar gegliederte Darstellung der sozialhistorischen Ursachen für die zur Revolution von 1918 führende Legitimationskrise des wilhelminischen Systems hat unlängst Roger Chickering vorgelegt.
»In den Musennestern, wohnt die süße Krankheit Gestern« – so schreibt Uwe Tellkamp im pathossatten Roman »Der Turm«, dem literarischen Abgesang auf die DDR. Er schildert darin ein Refugiumsbürgertum, das sich gegen die Zumutungen der DDR in den Villen der Dresdner Elbhänge eingenistet hat – Zumutungen, die nun offenbar mit der DDR nicht untergegangen sind, denn seit einiger Zeit gehört Tellkamp selbst zu einem rechtsintellektuellen Milieu ostdeutscher Neodissidenten, die sich von einem wie auch immer gearteten Mainstream ausgegrenzt fühlen. Sie erinnern an die DDR, beklagen ihr geistiges Exil, und einige von ihnen tragen zur Normalisierung der extremen Rechten in Ostdeutschland bei.
Unternehmensplanspiele entstanden in den USA um 1956 aus militärischen Simulationsprogrammen, Fallstudien an Business Schools sowie Kriegsplanspielen und einer Reihe weiterer Einflussgrößen. Angesiedelt am Schnittpunkt von Unternehmensführung, ökonomischen Paradigmen und Computerisierung, bietet das Feld der Unternehmensplanspiele besonders gute Voraussetzungen, um Transformationen gesellschaftlicher Steuerungslogiken nach dem Ende des Zweiten Weltkriegs nachzuvollziehen. In den »ernsthaften Spielen« wurden Praktiken des Entscheidens sowie die Adaption an ein neues Medium und einen veränderten Rationalitätsbegriff (spielerisch) erprobt. Der Aufsatz nähert sich diesem Feld aus einer medienkulturwissenschaftlichen Perspektive. Der Beitrag fokussiert auf die erste Phase der Verwendung von Unternehmensplanspielen bei der Ausbildung von Führungskräften in der Bundesrepublik seit Beginn der 1960er-Jahre. Näher vorgestellt wird der Einsatz des von IBM entwickelten Planspiels TOPIC 1 bei Hoechst.
In den ersten Wochen der Kanzlerschaft Hitlers begann der Dresdner Romanist Victor Klemperer in seinem Tagebuch öffentliche Sprachereignisse und eigene Spracherlebnisse festzuhalten, die anzeigen, wie schnell und konsequent sich die Nazifizierung der deutschen Gesellschaft vollzog. Radikal erfolgte die sprachliche »Annullierung einer Welt«, deren Grundbegriffe kurz zuvor noch Geltung gehabt hatten. Der aus seinem Amt verjagte Gelehrte hielt beinahe täglich Beobachtungen über die Art und Weise fest, wie die staatliche Propaganda den Alltag durchsetzte: In allen Schichten und Lebensbereichen sprachen die Menschen nun »nazistisch«, grüßten anders, unterhielten sich anders, schimpften anders – und schrieben auch eine andere Wissenschaftsprosa, wie Klemperer teils ungläubig, teils verzweifelt an den Veröffentlichungen in seinem Fach konstatieren musste. Seine Notizen zur »LTI« (»Lingua Tertii Imperii«, »Sprache des Dritten Reiches«) führte er bis Mai 1945 fort (und später auch darüber hinaus). In einem Eintrag vom April 1937 hielt Klemperer das methodologische Credo der von ihm geplanten Sprachstudie fest, wenn er mit Blick auf den öffentlich zelebrierten Bekenntnisrausch der NS-Paraden, der Parteifahnen, Lieder und Schlagworte, das lateinische Sprichwort über Wein und Wahrheit zum Motto seiner Sprachkritik abwandelte: »In lingua veritas«. Diese Sentenz bündelte die Überzeugung Klemperers, der seine Sprachbeobachtungen zeitgleich auch in einem Brief an seinen Schwager Martin Sußmann erläuterte, der sich mit seiner Familie ins schwedische Exil retten konnte: »Die Arbeit bekommt eine psychologische und eine damit zusammenhängende historische Seite. […] Es ist nämlich nur zum kleiner[e]n und oberflächlichen Teile wahr, dass die Sprache dem Menschen zum Verbergen seiner Gedanken gegeben ist, vielmehr: sie verrät ihn.«
„Anarchie der Zellen“.
Geschichte und Medien der Krebsaufklärung in der ersten Hälfte des 20. Jahrhunderts
Am Beispiel des Films „Krebs“ (1930) wird die historische Bedeutung und Funktion von Filmen im Rahmen der Gesundheitsaufklärung analysiert. Seit der Wende zum 20. Jahrhundert und verstärkt durch den Ersten Weltkrieg etablierten sich in verschiedenen Ländern Kampagnen zu medizinischen und hygienischen Themen. Neben Plakaten und Ausstellungen erschienen Filme als ein ideales Medium der Wissensvermittlung. Die Filme verknüpften Inszenierungen von Wissenschaft mit gesellschaftspolitischen Visionen und Aufforderungen für das individuelle Verhalten. Ein zentraler Akteur war dabei – vor und nach 1945 – das Hygiene-Museum in Dresden, das unter anderem den Film „Krebs“ produzierte. Die Argumentationsstrategien dieses Films werden hier näher untersucht, um damit einen Einblick in die Entstehung der Wissensgesellschaft im 20. Jahrhundert zu geben. Der Aufsatz verbindet medizin-, medien- und museumsgeschichtliche Zugänge mit Fragen der Körpergeschichte und des social engineering.
Wohl selten hat ein knapper, achtseitiger Text eine profundere Wirkung ausgeübt als Hans Rothfels’ Aufsatz über „Zeitgeschichte als Aufgabe“. Mit ihm verfolgte der Autor einen doppelten Zweck: Einerseits begründete er den Start einer neuen Zeitschrift; andererseits reflektierte er die möglichen wissenschaftlichen Grundlagen einer zeitgemäßen deutschen „Zeitgeschichte“, die es im Schatten des Nationalsozialismus überhaupt erst zu etablieren galt. Beide Ziele sind, vereinfacht gesagt, erreicht worden. Die „Vierteljahrshefte für Zeitgeschichte“ avancierten zur auflagenstärksten geschichtswissenschaftlichen Zeitschrift in Deutschland. Bald schon übten sie beträchtlichen fachlichen Einfluss aus und wurden auch international stark beachtet. Überdies wirkten die Leitmotive, die Rothfels in die wissenschaftliche Diskussion warf, geradezu stilbildend. Über Generationen hinweg prägten sie das Verständnis von Zeitgeschichte, wie sie sich in der Bundesrepublik Deutschland höchst spezifisch herausbildete. Damit erfüllte sich auch der von Rothfels geäußerte Wunsch, die deutsche Forschung in „nachholender“ Weise an internationale Standards heranzuführen, die er während seiner Exiljahre in den USA kennengelernt hatte.
Seit einigen Jahren lässt sich in der Historiographie ein gesteigertes Interesse an der Geschichte von Luft- und Raumfahrt beobachten, das sich auch in Museumsaktivitäten und Ausstellungsprojekten niederschlägt. Zugleich erlebt die Beschäftigung mit dem Thema „Imperium“ einen Aufschwung, insbesondere das Interesse an den USA als imperialer Macht. Die folgende Besprechung der Dauerausstellung des National Air and Space Museum (NASM) bringt beide Untersuchungsfelder zusammen und legt die Untersuchungskategorie „Imperium“ an die Musealisierung von Luft- und Raumfahrt an. Dabei werden zunächst die Sammelschwerpunkte des Museums sowie die Charakteristika der Präsentation betrachtet; in einem zweiten Schritt werden verschiedene Themenfelder der Ausstellung diskutiert, bevor abschließend die Bedeutung des NASM als imperial museum ausgelotet wird, in dem sich der amerikanische Aufstieg zur Weltmacht widerspiegelt.
Tom Scott-Smith is Associate Professor of Refugee Studies and Forced Migration, Fellow of St. Cross College Oxford, and Course Director for the MSc in Refugee and Forced Migration Studies. Previously, he worked as a development practitioner concerned with the education sector in the Middle East and Sub-Saharan Africa. The following interview discusses arguments and questions arising from his newest book (2020), historical and currents trends of hunger relief, important players, institutions and gender relations in the humanitarian sector – and more. It was conducted by Heike Wieters (Historical European Studies, Humboldt-Universität zu Berlin) and Tatjana Tönsmeyer (Contemporary History, Bergische Universität Wuppertal) in a back-and-forth conversation via E-Mail.
Since the late 1950s, nutrition experts have debated whether foods enriched with micronutrients such as protein could alleviate world hunger. Industrial production of such ›wonder foods‹ began in the 1960s, making the food industry an actor in international food aid. Following a brief review of the history of scientific nutrition research, the article analyzes the first boom of fortified foods between the 1950s and the 1970s. With particular reference to the NGO CARE and the Institute of Nutrition of Central America and Panama (INCAP) with its product Incaparina, it shows how the conflict-ridden cooperation between humanitarian actors, governments, business and science developed. In addition to looking at contemporary debates about prices, quality controls and marketing strategies, consumer perspectives must be considered in order to understand the success or failure of new products. After a temporary slump in euphoria from the 1970s onwards, ›wonder foods‹ have experienced a revival since the 1990s – mainly because the networks between governments, nutrition experts, international organizations and the food industry were further cultivated and greater consideration was given to the needs of consumers.
Seit den späten 1950er-Jahren diskutierten ErnährungsexpertInnen, ob mit Mikronährstoffen wie Protein angereicherte Nahrungsmittel den Hunger auf der Welt lindern könnten. Die industrielle Produktion solcher »Wonder Foods« begann in den 1960er-Jahren. Damit wurde die Lebensmittelindustrie zu einem Akteur in der internationalen Nahrungsmittelhilfe. Nach einem kurzen Rückblick auf die Geschichte wissenschaftlicher Ernährungsforschung analysiert der Aufsatz den ersten Boom angereicherter Nahrungsmittel zwischen den 1950er- und den 1970er-Jahren. Am Beispiel der NGO CARE und des zentralamerikanischen Ernährungsinstituts INCAP mit seinem Produkt »Incaparina« wird gezeigt, wie sich die konfliktreiche Kooperation zwischen humanitären Akteuren, Regierungen, Wirtschaft und Wissenschaft entwickelte. Neben dem Blick auf zeitgenössische Debatten über Preise, Qualitätskontrollen und Marketingstrategien müssen insbesondere KonsumentInnenperspektiven einbezogen werden, um Erfolg oder Scheitern neuer Produkte zu verstehen. Nach einem temporären Einbruch der Euphorie ab den 1970er-Jahren erlebten »Wonder Foods« seit den 1990er-Jahren ein Revival – vor allem deshalb, weil die Netzwerke zwischen Regierungen, ErnährungsexpertInnen, internationalen Organisationen und Lebensmittelindustrie weiter gepflegt wurden und die Bedürfnisse von KonsumentInnen mehr Berücksichtigung fanden.