Wissenschaft
Refine
Year of publication
Document Type
- Journal Article (141)
- Online Publication (66)
- Part of a Book (13)
- Book (4)
Language
- German (224) (remove)
Keywords
- Historiker (2)
- Auftragsforschung (1)
- Behördenforschung (1)
- Deutschland (1)
- Deutschland (DDR) (1)
- Dossier (1)
- Geschichte (1)
- Geschichte 1930 - 1949 (1)
- Geschichte 1949-2014 (1)
- Geschichte 1969-1975 (1)
Taylors Name steht heute – mit dem Begriff „Taylorismus“ – für Arbeitszerlegung und Dequalifizierung. In seinem vielfach nachgedruckten Hauptwerk „The Principles of Scientific Management“ fasste der amerikanische Ingenieur und Rationalisierungsberater Frederick Winslow Taylor (1856–1915) vorhandene heterogene Rationalisierungsvorschläge und -maßnahmen sowie eigene Überlegungen zu einer plakativen Lehre zusammen. An ihr entzündeten sich in den Jahren vor und nach dem Ersten Weltkrieg heftige Auseinandersetzungen um die Organisation der Fabrik und die Gestaltung industrieller Arbeit.
In Auseinandersetzung mit Jörn Rüsens „vier Typen des historischen Erzählens“ (traditionales, exemplarisches, kritisches und genetisches Erzählen) wird ein fünfter Idealtypus zu begründen versucht, der sich aus gesellschaftlichen und kulturellen Veränderungen sowie der Emergenz digitaler Medien ergibt. Das „situative Erzählen“ als neuer Modus der historischen Sinnbildung antwortet zum einen auf Formen der Identitätskonstruktion innerhalb einer „flüchtigen Moderne“, deren Kennzeichen die Absage an „große Erzählungen“ und die Auflösung stabiler Identitäten sind. Zum anderen wird diese Erzähl- und Sinnbildungspraxis durch hypertextuelle Kulturtechniken codiert, ausgestaltet und prämiert. Der Beitrag nennt einige historiographische Ansätze des „situativen Erzählens“ und fragt nach den Konsequenzen für die Geschichtswissenschaft.
Wie stellen sich aktuelle Tendenzen in der Zeitgeschichtsschreibung dar – im Vergleich mit dem auffällig gewachsenen Interesse literarischer Autoren für zeitgeschichtliche Themen? Welche Konvergenzen sind zu verzeichnen, und welche textsortenbedingten Differenzen bleiben? Sind die zeitgeschichtlichen Erzählmuster in diesem Umfeld vorwiegend konstant, oder gibt es strukturelle Veränderungen? Worauf lassen sich diese eventuell zurückführen?
»Staat« und »Wissenschaft«, die beiden Zentralkategorien des Titels dieses Aufsatzes, scheinen auf den ersten Blick eindeutig. Sie sind es jedoch keineswegs. Bevor auf die Kaiser-Wilhelm-Gesellschaft (KWG) und ihre Geschichte während des »Dritten Reiches« eingegangen werden kann, soll deshalb zunächst in groben Zügen geklärt werden, was die Begriffe »Staat« und »Wissenschaft« während der NS-Zeit bedeuteten.
Quelle: http://www.boehlau-verlag.com/978-3-412-20647-5.html
Das Buch beschreibt die Entwicklung einer "sozialistischen Wissenschaft" an den Hochschulen der DDR am Beispiel der Humboldt-Universität zu Berlin. Die so genannte 3. Hochschulreform 1968/69 stellte dabei einen markanten Einschnitt dar, in deren Folge sich die zentralen Strukturen und Verfahrensweisen herausbildeten, die das Wissenschaftssystem der DDR bis 1989/90 prägten. Die Entwicklung war gekennzeichnet durch Ambivalenzen zwischen den Erfordernissen einer Modernisierung und einer gleichzeitigen Ideologisierung der Universität. Diese ergaben sich aus den politischen Zielvorstellungen der SED an die Institution Universität, aus den Herausforderungen, die sich dem Bildungssystem jeder modernen Industriegesellschaft seit den sechziger Jahren des 20. Jahrhunderts stellten, und aus der institutionellen Eigenlogik des spezifischen Raumes der Universität.
Noch immer wird Zeithistorikern gelegentlich nachgesagt, sie hätten ein gestörtes Verhältnis zu den modernen audiovisuellen Medien, und in der Tat hat die Disziplin erst mit einiger Verzögerung auf deren Ausbreitung reagiert. Dies galt lange für die Massenmedien ganz allgemein, deren Quellenwert aus der Perspektive einer klassischen, staatszentrierten Politikgeschichte äußerst begrenzt erschien. Aber auch die Wendung hin zur Gesellschaft, zur Erfahrungs- und Erinnerungsgeschichte hat zunächst überraschenderweise kaum dazu geführt, dass die Präsenz von Medien im Alltag in diesen Ansätzen besondere Berücksichtigung gefunden hätte. Zwar ist diese traditionelle Zurückhaltung – von einigen Residuen abgesehen – inzwischen erodiert: „Mediengeschichte“ hat sich als Subdisziplin innerhalb der Zeitgeschichte etabliert. Aber jenseits eines Verständnisses als Spartengeschichte verbreitet sich erst sehr langsam die Erkenntnis, dass die Geschichte des 20. und 21. Jahrhunderts generell nicht mehr angemessen geschrieben werden kann, ohne die ubiquitäre Verbreitung und Rezeption der Massenmedien zu berücksichtigen. Das gilt keineswegs nur für die sozial- und erfahrungsgeschichtliche Dimension des Mediengebrauchs. Wenn sich, um nur ein Beispiel zu nennen, die Darstellungsseite von Politik bereits seit geraumer Zeit maßgeblich in populären Medien wie dem Fernsehen vollzieht und Repräsentationen und Wahrnehmungen mit dem politischen Prozess rückgekoppelt sind, dann muss auch die Politikgeschichtsschreibung diesem Umstand Rechnung tragen.
Wohl selten hat ein knapper, achtseitiger Text eine profundere Wirkung ausgeübt als Hans Rothfels’ Aufsatz über „Zeitgeschichte als Aufgabe“. Mit ihm verfolgte der Autor einen doppelten Zweck: Einerseits begründete er den Start einer neuen Zeitschrift; andererseits reflektierte er die möglichen wissenschaftlichen Grundlagen einer zeitgemäßen deutschen „Zeitgeschichte“, die es im Schatten des Nationalsozialismus überhaupt erst zu etablieren galt. Beide Ziele sind, vereinfacht gesagt, erreicht worden. Die „Vierteljahrshefte für Zeitgeschichte“ avancierten zur auflagenstärksten geschichtswissenschaftlichen Zeitschrift in Deutschland. Bald schon übten sie beträchtlichen fachlichen Einfluss aus und wurden auch international stark beachtet. Überdies wirkten die Leitmotive, die Rothfels in die wissenschaftliche Diskussion warf, geradezu stilbildend. Über Generationen hinweg prägten sie das Verständnis von Zeitgeschichte, wie sie sich in der Bundesrepublik Deutschland höchst spezifisch herausbildete. Damit erfüllte sich auch der von Rothfels geäußerte Wunsch, die deutsche Forschung in „nachholender“ Weise an internationale Standards heranzuführen, die er während seiner Exiljahre in den USA kennengelernt hatte.
In der langen Geschichte technomorpher Modellierungen des Politischen markiert „The Nerves of Government“ einen Paradigmenwechsel. Hatte Thomas Hobbes rund 300 Jahre zuvor das moderne politische Denken mit einer geometrisch-mechanischen Staatsphilosophie begründet, so durfte Karl W. Deutschs umfassende Modellstudie als erster ernstzunehmender Versuch gelten, die in den 1940er-Jahren angestoßene informationstechnische Revolution in ein politisches Vokabular zu übersetzen. Tatsächlich konnte (und wollte) das Ensemble von Begrifflichkeiten, das auf diese Weise Einzug in die politische Rationalität des 20. Jahrhunderts hielt, seine Wurzeln im Feld der Nachrichten- und Regelungstechnik nicht verbergen. Vielmehr bestand Deutschs Grundannahme gerade darin, „daß Regierungsapparate und politische Parteien nichts anderes als Netzwerke zur Entscheidung und Steuerung sind, daß sie auf Kommunikationsprozessen beruhen und daß in gewisser Hinsicht ihre Ähnlichkeit mit der Technologie der Nachrichtenübertragung groß genug ist, um unser Interesse zu erregen“ (S. 211).
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
Die Zeit scheint endgültig vorbei zu sein, in der sich Historiker mit großer Skepsis dem Internet näherten und, wenn überhaupt, nur ihre Rezensionen dem World Wide Web anvertrauten. Mittlerweile gehört es fast schon zum guten Ton, eigene Projekte im Netz zu etablieren. Die grundlegende Akzeptanz ist da. Gefordert ist nun eine breitere Reflexion darüber, ob und wie sich Geschichtswissenschaft und Geschichtskultur im digitalen Zeitalter verändern.
Beim Umgang von Historikerinnen und Historikern mit dem Netz können wir einen interessanten Wandel beobachten: Grundsatzkritik an der Verwendung des Netzes in geschichtswissenschaftlicher Lehre und Forschung findet sich kaum mehr. Noch vor gut zehn Jahren war das anders. Da waren die Bedenkenträger nicht zu überhören, die das Netz für die (Geistes-)Wissenschaften als unnütz und unnötig einstuften und entschlossen waren, dieses vermeintlich kurze technische Intermezzo auszusitzen – Vertreter vor allem der älteren Generation, die sich schon mit der Einführung des Personal Computers seit den 1980er-Jahren schwertaten. Heute geht es vielmehr um die Frage, in welchen Bereichen und mit welchen Fragestellungen das Netz in den Forschungs- und Lehralltag zu integrieren ist.
Ganz gegensätzlich zum teils immer noch lebendigen Vorurteil vom weltfremden Historiker, der lieber in staubigen Archiven wühle als sich im Netz zu tummeln, waren gerade die Geschichtswissenschaften sehr früh dabei, als in den 1990er-Jahren erste Versuche stattfanden, die Potenziale von Netzpublikation und -kommunikation auch für die Geisteswissenschaften fruchtbar zu machen. Viele der damaligen Initiativen haben sich – nicht zuletzt durch das Engagement Einzelner – bis heute gehalten, sich stetig weiterentwickelt und sind inzwischen Plattformen geworden, die wichtige Rollen im Arbeitsalltag der Wissenschaftler spielen, denken wir etwa an „H-Soz-u-Kult“ oder an die „sehepunkte“.
Der Erfolg der inzwischen nicht mehr ganz so neuen Informations- und Kommunikationstechnologien sowie die damit verbundene Vervielfachung von Daten und Informationen bedeutet weiterhin eine Herausforderung für die Wissenschaft. Die Option des synchronen Zugriffs auf eine Vielzahl von Informationen, ihre Rasterung mittels Suchmaschinen und Datenbanken dynamisiert und dezentralisiert herkömmliche Wissensspeicher wie Archive, Bibliotheken oder Enzyklopädien. Dies wirft grundlegende Fragen auf: Wie kann zuverlässiges Wissen im Netz generiert, präsentiert und distribuiert werden? Wer bürgt bei einer Vielzahl dezentraler Informationskanäle für deren Validität und Stabilität?
Die Computerindustrie entwickelte sich in den USA und der UdSSR sehr unterschiedlich. Während in den Vereinigten Staaten der Konzern IBM nahezu ein Monopol erlangte, herrschte in der Sowjetunion ein Konkurrenzkampf. Mehrere Akteure verfolgten an unterschiedlichen Standorten eigene Entwicklungslinien; ein Austausch fand kaum statt. Als Reaktion auf eine von IBM 1963 vorgestellte neue Modellreihe kam es in der UdSSR zu einer Diskussion über die Computerindustrie, die den hartnäckigen Widerstand lokaler Entscheidungsträger bei der Durchsetzung zentraler Direktiven offenbarte. Es bedurfte mehrerer Machtworte von führenden Vertretern der Rüstungsindustrie, um das IBM System /360 als Vorbild einer eigenen Reihe durchzusetzen. Dabei berief man sich vor allem auf die Erfolge, die beim Nachbau von IBM-Rechnern in der DDR erzielt worden waren. Das Ministerium für Staatssicherheit hatte Entwicklungsdokumente aus dem Westen beschafft, und diese Wirtschaftsspionage trug wesentlich dazu bei, den innersowjetischen Konflikt zu entscheiden. Der technologische Rückstand der UdSSR gegenüber den USA blieb gleichwohl bestehen.
Blick durchs Ökoskop. Rachel Carsons Klassiker und die Anfänge des modernen Umweltbewusstseins
(2012)
Kaum ein anderes amerikanisches Buch hat in aller Welt so hohe Wellen geschlagen wie „Silent Spring“. Einem Tsunami vergleichbar, der sich von seinem unterirdischen Ursprung über lange Perioden und große Entfernungen hinweg ausbreitet, hat Rachel Carsons Buch tradierte Sichtweisen auf die Natur erschüttert, unerhörte Zerstörungen sichtbar gemacht und den Ausblick auf eine gefährdete Welt zurückgelassen. Eine „Flutwelle von Briefen“ fegte unmittelbar nach der Veröffentlichung des ersten Kapitels im „New Yorker“ im Juni 1962 über die USA hinweg. Carson sah in den anhaltenden Reaktionen auf ihr Buch dessen eigentliche Bedeutung. Vieles spricht dafür, dass „Silent Spring“ einer der Auslöser für die ‚ökologische Revolution‘ der 1960er-Jahre war. Woher kam diese Sprengkraft? Und welche Bedeutung hat Carsons Klassiker heute – ein halbes Jahrhundert nach seinem Erscheinen?
Der Schlaf scheint auf den ersten Blick eine „anthropologische Konstante“ zu sein. Eine Historisierung der Regeln und Praktiken des Schlafs im 20. Jahrhundert kann jedoch zeigen, wie eng Vorstellungen vom „richtigen“ Schlafen an die Machtstrukturen der Gesellschaft geknüpft waren. Dieser Artikel geht der Frage nach, auf welche Weise Arbeitgeber, Sozialplaner, Ärzte und Psychologen auf den Schlaf und damit auf den Körper, die Arbeitskraft und die Zeit des Individuums zuzugreifen versuchten. Anhand von fachwissenschaftlichen Veröffentlichungen und Diskussionen, aber auch von populären Ratgebertexten wird in einem ersten Schritt untersucht, wie und warum der Rhythmus des Schlafs seit Ende der 1920er-Jahre zu einem stark beachteten Thema wurde. In einem zweiten Schritt geht es um die Veränderungen, die der Zweite Weltkrieg im Umgang mit dem Schlaf bewirkte. In einem dritten Schritt wird der entscheidende Bruch in der Mitte der 1950er-Jahre untersucht, der das schlafende und arbeitende Individuum zum Gegenstand einer modernen Schlafforschung und neuer Schlafregeln machte.
Impfungen sind ein Traum der Moderne: Sie versprechen den Schutz ganzer Gesellschaften. In den beiden deutschen Staaten wurde dieser Schutz mit unterschiedlichen Methoden vorangetrieben – das Mobilisieren von Ängsten, Appelle an die Sorge um das Gemeinwohl oder die Durchsetzung von Impfpflichten sollten die Gesundheit des Einzelnen und den „Herdenschutz“ der Gesellschaft sichern. Der Aufsatz erkundet die deutsch-deutsche Geschichte des Impfens von den 1950er-Jahren bis 1989/90. Im Fokus stehen Aushandlungen von Risiko- und Sicherheitsvorstellungen, Versuche eines „Emotion Management“ sowie Debatten über das Verhältnis zwischen staatlicher Interventionsmacht und staatsbürgerlicher „Mündigkeit“. Anhand der Konflikte zwischen der Bundesrepublik und der DDR wird zudem gezeigt, dass der Wettlauf um die bessere Immunisierung ein Kampf um die bessere soziale Ordnung war. Andererseits wird belegt, dass es auf dem Gebiet der Impfpolitik gerade in den 1980er-Jahren eine wachsende Tendenz zur deutsch-deutschen und internationalen Kooperation gab.
Eine Geschichte der genetischen Beratung in der Bundesrepublik ist noch nicht geschrieben. Dies ist erstaunlich, lassen sich in der Verbindung von Beratungspraxis und Behinderung, Konzepten und Kritik an der Humangenetik doch grundsätzliche Fragen zum Wandel von Normalitätsvorstellungen, Geschlechterrollen und Gesellschaftsbildern verfolgen. Im Mittelpunkt des Aufsatzes steht ein brisantes Thema: Sterilisationsempfehlungen für geistig behinderte Frauen und Mädchen, die in den 1970er- und 1980er-Jahren ausgestellt wurden. Am Beispiel einer Hamburger humangenetischen Beratungsstelle betrachtet der Aufsatz das damalige Verhältnis von Genetik, Behinderung, Geschlecht und Vorsorgekonzepten. Die Kritik an der Sterilisationspraxis bildet einen weiteren Schwerpunkt des Beitrags. In den frühen 1980er-Jahren trugen Gegner und Befürworter geschichtspolitisch aufgeladene Kontroversen aus, die neue Blicke auf Behinderung hervorbrachten, zugleich aber auch Ambivalenzen gesellschaftlicher Liberalisierungsprozesse erkennen lassen.
Der Aufsatz entwirft eine Zeitgeschichte der Vorsorge, die sich für den hygienepolitischen Übergang von Praktiken der Intervention und Krisenbewältigung zu Praktiken der Prävention interessiert. Am Beispiel der Pestvorsorge in der Sowjetunion wird erstens ein Prozess der Institutionalisierung, Professionalisierung und Verwissenschaftlichung dargestellt. Zweitens werden die Eigenheiten des sowjetischen Falls herausgearbeitet. Die dortige Pestbekämpfung war bis in die 1930er-Jahre von Interventionen geprägt, die aus einem Repertoire repressiver, im Kontext der Zwangskollektivierung etablierter Maßnahmen schöpften. Der Umgang mit der Pest war nicht mit Aufklärung verknüpft, sondern mit Geheimhaltung. Die Einrichtung eines Netzwerks wissenschaftlicher Forschungsstätten führte zu einem Wandel im Umgang mit der Seuche. Dies war eingebettet in parallele Diskurse über administrative Grenzen und geographisches Wissen. Der Aufsatz stützt sich auf Quellen aus Staats- und Partei-Archiven in der Russischen Föderation und der Republik Aserbaidschan.
In den 1970er-Jahren lief im westdeutschen Fernsehen eine Serie der Augsburger Puppenkiste, deren Held und Titelgeber der kleine König Kalle Wirsch war. Kalle Wirsch, König der Erdmännchen, war, wie sein Name sagte: ein freundliches kleines Männchen, alles andere als unwirsch. Der Name aber irritierte – wer benutzt schon das Wort „wirsch“? Das Wort gibt es tatsächlich, es ist aber kein Gegenbegriff zu „unwirsch“, sondern eine Verballhornung von „wirr“. Zu „unwirsch“ gibt es keinen Gegenbegriff. Der kleine König Kalle Wirsch mag einem bei „Gleichheit und Ungleichheit“ in den Sinn kommen. Denn viel wird gesprochen von Ungleichheit, und dies vor allem im Zusammenhang mit sozialer Ungleichheit. Aber Gleichheit? Nur ganz wenige Autoren haben über deren Geschichte nachgedacht. Einer davon ist der Zürcher Historiker Jörg Fisch. Er fasst, bezogen auf das späte 19. Jahrhundert, Gleichheit vor allem als einen Anspruch, als eine Forderung. Sie ist also etwas, was (noch) nicht ist. „Gleichheit“ blieb als die bürgerliche Forderung nach rechtlicher und politischer Gleichberechtigung stehen und wurde (jedenfalls in Europa) im späten 19. und im 20. Jahrhundert zumindest teilweise eingelöst. Die Forderung nach sozialer Gleichheit jedoch, die aus revolutionären Bewegungen kam, ließ sich nicht einmal als Anspruch durchhalten, wurde als staatsgefährdend identifiziert und erbittert bekämpft. Soziale Gleichheit erhielt das Stigma des Utopismus und behielt lediglich in der Forderung nach Abbau (und nicht Abschaffung) sozialer Ungleichheit eine gewisse Berechtigung.
Der Homo Sovieticus und der Zerfall des Sowjetimperiums. Jurij Levadas unliebsame Sozialdiagnosen
(2013)
Der Mythos vom „neuen Menschen“ ist keine sowjetische Erfindung, sondern Teil der europäischen Ideengeschichte seit dem 18. Jahrhundert. Er nahm unterschiedliche Formen und Gestalten an, um zahlreichen politischen Ideologien zu überwältigenden Zielen und damit zu gesellschaftlichem Zuspruch zu verhelfen. In keinem anderen Land hatte der Mythos vom „neuen Menschen“ aber einen so starken Einfluss auf soziale Identitäten und politisches Handeln wie in der Sowjetunion. Die in den 1930er-Jahren zementierte Konzeption vom „Homo Sovieticus“ war zentral für die triumphale Selbstdarstellung des ersten sozialistischen Staats. Sie brachte eine historische Mission der Weltbefreiung und -eroberung und damit einen kollektiven Erlösungsglauben eindrucksvoll zur Anschauung. Darin ging sowohl das klassische marxistische Bild vom kämpferischen, siegreichen Proletariat ein als auch die überlieferte Vision von einer besonderen historischen Bestimmung des russischen Volks. Das sich aus den „neuen Sowjetmenschen“ bildende „Sowjetvolk“ werde aller Ausbeutung und Unterdrückung ein Ende bereiten und neben der Freiheit auch den hehren revolutionären Idealen der Gleichheit und Brüderlichkeit den Weg in die Wirklichkeit ebnen.
Der Beitrag befasst sich mit dem „Peckham-Experiment“, einem Forschungsprojekt, das in den 1930er- und 1940er-Jahren im „Pioneer Health Centre“ (PHC) durchgeführt wurde, einem Freizeit- und Gesundheitszentrum im Londoner Stadtteil Peckham. Im Fokus der Fallstudie steht die Genese neuen präventionsmedizinischen Wissens und neuer vorsorgebezogener Praktiken. Die beteiligten Experten versuchten, das „natürliche“ Potential von Individuen und die sozialen Beziehungen zwischen Familien zu nutzen, um ein gesundheitsförderliches Verhalten zu stimulieren. Das „Peckham-Experiment“ wird im Kontext der britischen wohlfahrtspolitischen Debatten und der biologisch-medizinischen Theorien seiner Gründungszeit analysiert. Gezeigt wird aber auch, dass der neue, stark auf Selbstverantwortung gerichtete Ansatz des PHC sich zudem aus den spezifischen Herausforderungen der „Laborsituation“ ergab, die im Laufe des Experiments zur Revision interventionistischer Vorannahmen führten. Allerdings waren andere Wissenschaftler skeptisch gegenüber den in Peckham gewonnenen Erkenntnissen. Zudem ließ sich das PHC nicht in den neuen „National Health Service“ integrieren. Beides bewirkte 1950 letztlich die Schließung des Centres.
Vorsorge war immer. Bereits in der Frühgeschichte stoßen wir auf Kulturtechniken, mit denen Menschen Risiken vorbeugen und Gefahren verhüten wollten. Schon das Anlegen von Vorräten, die Präparierung von Landschaften oder die Anrufung von Schutzgöttern waren Konzepte und Praktiken der Vorsorge. In der Moderne jedoch wuchs die Vielfalt an Befürchtungen und Ängsten, die eine nicht minder große Vielfalt an Vorsorgekonzepten und -maßnahmen mit sich brachte. Spürbar wurde dieser Anstieg in einem Boom an Versicherungen, in der Popularisierung medizinischer, sozialreformerischer und pädagogischer Maßnahmen, in der Verbreitung von Diäten, in den Sport- und Turn- oder den Anti-Tabak- und Anti-Alkohol-Bewegungen.
Wie für viele neue Staaten und »Entwicklungsländer« in der Ära nach dem Zweiten Weltkrieg spielten transnationale Dynamiken des Wissenstransfers auch für das 1948 gegründete Israel eine wichtige Rolle. Eine geradezu staatstragende Funktion kam dabei der entstehenden Raumplanung zu. Die israelischen Planungseliten waren durch ihr Studium und durch Grundannahmen des »Social Engineering« eng mit der deutschen Wissenskultur und speziell mit der Raumordnung verflochten – auch über die Zäsur von 1945 hinweg. Der Aufsatz untersucht die Rezeption der Theorie »zentraler Orte« im Kontext des ersten, meist als »Sharonplan« bezeichneten israelischen Nationalplans von 1951. Die 1933 durch Walter Christaller publizierte Theorie hatte auch einen konzeptionellen Eckpfeiler des »Generalplans Ost« gebildet, den die SS bzw. der »Reichskommissar für die Festigung deutschen Volkstums« (RKF) nach 1939 zur »Germanisierung« der eroberten Ostgebiete entwickelt hatte. Die Ambivalenz der israelischen Rezeptionslinie wird anhand der Biographien dreier Planer geschildert (Eliezer Brutzkus, Artur Glikson, Ariel Kahane).
In den Kultur- und Sozialwissenschaften sind die letzten dreißig Jahre von einem signifikanten Boom zur materiellen Kultur geprägt, der ein immer breiter werdendes Spektrum an Fächern ergreift. Material Culture Studies sind in aller Munde. Damit einhergehend nimmt die Flut der Publikationen zu materieller Kultur zu, und zwar nicht nur in den Fächern Volks- und Völkerkunde sowie Archäologie, die auf die besondere Bedeutung der materiellen Dinge schon in der Periode der Entstehung der Fächer verweisen können. Heute sind auch Soziologen, Religionswissenschaftler, Historiker, Pädagogen und Philosophen dringend daran interessiert, über die Relevanz der Sachen nachzudenken. Der wissenschaftsgeschichtliche Vorsprung der zuerst genannten Fächer bedeutet in keinem Fall, dass deren Vertreter sich nun zurücklehnen und aus dem Fundus ihrer Fächer schöpfen könnten. Die Einsicht in die fächerübergreifende Relevanz dieses Forschungsfeldes paart sich mit dem Eingeständnis, dass keine einzelne Disziplin den Schlüssel zu seiner Bearbeitung in der Hand hält. Mit einigem Recht können die Material Culture Studies heute als ein „postdisziplinäres Feld“ gelten.
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
Stress ist als Begriff und Problem weit über die Medizin- und Wissenschaftsgeschichte hinaus relevant; Stressdiskurse können als Sonde für breitere gesellschaftsgeschichtliche Konstellationen dienen. Eine geschichtswissenschaftliche Auseinandersetzung mit Stress muss daher zum einen dem medizinisch-biologischen Konzept nachgehen, zum anderen dessen gesellschaftliche Funktionalität erfassen. Die Zeitgeschichte wird den Fokus besonders auf die sozioökonomischen Prozesse und die soziale Sinngebung richten. Gleichwohl gibt es ein nicht zu vernachlässigendes methodisches Grundproblem: Wie lässt sich eine Beziehung herstellen zwischen den biochemischen und psychologischen Dimensionen, die mit dem Stressbegriff verknüpft sind, sowie den komplexen sozialen Konfigurationen, die dieser Begriff rationalisieren soll? Was sind die Konstituenten und Selbstbeschreibungsmodi einer Gesellschaft, die sich durch Flexibilisierung und Regulierung gleichermaßen auszeichnet? In welchem Verhältnis stehen zudem die jüngere Entwicklung seit den 1970er-Jahren, in der Stress eine hohe Deutungsmacht erhalten hat, und die Überforderungsdiskurse seit dem Ende des 19. Jahrhunderts?
Seit den 1960er-Jahren ist die Kopplung von Stress und Vorsorge unter dem Stichwort der »Risikofaktoren« zunehmend populär geworden. Wahrscheinlichkeitskalküle, die auf die Steuerung und Verbesserung der kollektiven Gesundheit der Bevölkerung zielen, werden als Grundlage herangezogen, um dem Individuum eine Selbstverantwortlichkeit für seine Risikovorsorge zuzuschreiben. Dieser Ansatz ermöglicht die Übersetzung statistischer Wahrscheinlichkeiten in eine Hermeneutik des Selbst. Im Rahmen der Prävention verschiebt sich der Akzent von der Krankheitsdiagnostik auf die Gesundheitsvorsorge. Durch die Propaganda zur Risikoverhütung – dass der Gesunde pathogene Faktoren vermeiden solle – verschwimmt allerdings die Grenze zwischen Gesundheit und Krankheit. Das gilt auch für das Phänomen Stress. Obschon Stress selbst nicht als Krankheit gilt, wird in ihm doch ein potentieller Verursacher vermutet: eben ein »Risikofaktor«. Und auch wenn er damit als mögliche Ursache für viele Krankheiten verhandelbar wird, gibt es bestimmte pathologische Erscheinungen, mit denen er eine besonders innige Beziehung unterhält – dazu zählt der Herzinfarkt. Dieser wird zum Synonym für die Folgen eines von zu viel Stress bestimmten Lebens. Die Relation von Stress und Herzinfarkt lässt sich nicht nur medizinisch begründen; ihre kulturelle Plausibilität verweist auch auf eine symbolische Dimension. Das Herz als symbolischer Träger menschlicher Aktivität und Emotionalität gerät unter dem Eindruck der modernen Hetze außer Takt.
»Anyone writing about the history of wellness would have an easy time at the beginning of the endeavor. Regarding the origin there is no doubt.« Am Anfang des Diskurses über Wellness, so war sich der »Wellness-Evangelist« Donald Ardell 1985 sicher, steht eine Person: Halbert L. Dunn, der im Jahr 1959 insgesamt 29 Vorträge zum Thema »High-Level Wellness« in der Unitarian Church in Arlington, Virginia hielt. 1961 erschienen diese Vorträge in Buchform. »Wellness«, bis dahin ein wenig gebräuchliches Wort für das Gegenteil von »Sickness«, wurde infolge dieser Publikation zu einer Antwort auf »Stress«. Dass Dunn die Vorträge in einer Kirche hielt, passte zu seiner epochalen Mission. Der Mensch stehe an einem Scheitelpunkt: Er könne sich für sein kreatives Potential entscheiden oder in den Abgrund des Krieges zurückrutschen.
»The Wisdom of the Body«: Das klingt nicht erst heute mehr nach Esoterik als nach dem wichtigen physiologischen Hauptwerk, als das es Walter Bradford Cannon 1932 für ein breites Publikum verfasste. Solche Überraschungen hören nicht beim Titel auf. Gleich der erste Satz der Einleitung lautet zum Beispiel: »Our bodies are made of extraordinarily unstable material.« Und das erste Kapitel trägt den Titel »The Fluid Matrix of the Body«. War Cannon ein postmoderner Theoretiker dynamisch-fluider Körperlichkeit avant la lettre? Soweit wird man nicht gehen können, aber tatsächlich hat das Buch heute in Zeiten von Stress, Resilienz und einem wiedererstarkten Systemdenken in der Biologie an Aktualität und Überzeugungskraft zurückgewonnen. Was Cannon hier auf dem Höhepunkt seiner Karriere vorgelegt hatte, war mehreres in einem: die Summa seiner Forschungen, das Lehrbuch einer neuen integrierten Theorie des Organismus – für die er den Neologismus »Homöostase« prägte –, ein populäres Werk über die Fortschritte physiologischer Forschungen seiner Zeit und schließlich das Plädoyer eines fest in den Naturwissenschaften verankerten Humanisten für eine bessere Weltordnung. Denn auf der Basis seiner Theorie der Homöostase wollte er schließlich auch den Staat reformieren – zu einem perfekten Vorsorgestaat nach biologischem Vorbild, inklusive systematischer Vorratsplanung mitsamt Reservearbeitsplätzen für Krisenzeiten. Mit etwas Zögern, aber dafür umso nachdrücklicher hatte er deshalb dem Buch einen Epilog hinzugefügt: »Relations of Biological and Social Homeostasis«.
Was vor einigen Jahren ein Schreckensszenario war, ist längst eingetreten. Für den wissenschaftlichen Nachwuchs gilt schon heute: »Quod non est in google, non est in mundo.« Freilich, eine verkürzte Sicht. Der Aufbau elektronischer Findmittel zur Durchforstung von Archiv-, Bibliotheks- und Museumsbeständen hat in den vergangenen Jahren ein starkes wissenschaftliches Interesse gefunden. Die Gesellschaft vernetzte sich, es entstanden viele nützliche Service-Angebote, neue Begehrlichkeiten wurden geweckt. Heute geht es nicht mehr darum, Inhalte nur zu erschließen, sondern darum, sie online zu vermitteln. In sozialen Medien werden diese Inhalte »getaggt«, »geliked«, empfohlen oder gar kommentiert. Die sammelnden Institutionen stehen damit vor einer gewaltigen Herausforderung – technisch, finanziell und vor allem konzeptionell. Mit dem Aufkommen von Bits und Bytes befindet sich die Kulturtechnik des Sammelns und Präsentierens in einem tiefgreifenden Umbruch. Der digitale Wandel impliziert die Frage, ob Gedächtnisinstitutionen künftig noch derselbe Stellenwert zukommen wird, zukommen muss wie heute: Schaffen entmaterialisierte Kulturgüter eine neue Kulturgesellschaft?
Fotografien haben für die historische Forschung zunehmend an Bedeutung gewonnen. Dienten sie vormals zumeist der Textillustration, werden sie inzwischen als eigenständige historische Quellen ernstgenommen. Die einschlägigen Publikationen, die sich entweder theoretisch mit der Visual History auseinandersetzen oder aber an konkreten Beispielen sich bildhafter Quellen annehmen, sind kaum mehr zu überblicken. Eine Gemeinsamkeit ist dabei: Nicht mehr nur der Bildinhalt spielt für die Geschichtswissenschaft eine Rolle; gefragt wird auch nach dem Entstehungskontext, der Überlieferung und der Rezeption der Bilder. Damit gerät zugleich die bisher übliche Aufbewahrungspraxis der Fotografien im Archiv in den Fokus: Die meist thematische Ordnung der Materialien lässt häufig keine Rückschlüsse auf diese neuen Fragen zu.
In seiner Geschichte der jüngsten Vergangenheit Amerikas, die 2011 unter dem Titel »Age of Fracture« erschien, begreift der Historiker Daniel T. Rodgers die wirtschaftlichen Veränderungen, die sich seit den 1970er-Jahren vollzogen, in ideengeschichtlicher Perspektive als »Wiederentdeckung des Marktes«. Paradoxerweise sei die Idee und Rhetorik des Marktes, als eines abstrakten und dekontextualisierten Prinzips, das auf eine Vielzahl menschlicher Lebensbereiche angewendet werden könne, gerade zu dem Zeitpunkt populär geworden, als allenthalben Marktversagen zu beobachten gewesen sei.[1] Die entscheidende Veränderung der letzten Jahrzehnte, die sich im Bereich der akademischen Wirtschaftswissenschaften vollzogen habe, fasst Rodgers als »an effort to turn away from macroeconomics’ aggregate categories and try to rethink economics altogether from microeconomic principles outward«.[2] Mit der Erklärung makroökonomischer Phänomene auf der Basis mikroökonomischen Verhaltens sei zugleich versucht worden, immer weitere Gesellschaftsbereiche über die Prinzipien individueller Nutzenmaximierung zu erklären.
»What was it that converted capitalism from the cataclysmic failure which it appeared to be in the 1930s into the great engine of prosperity of the post war Western world?« (S. 3) Das ist die Leitfrage von Andrew Shonfields vor 50 Jahren erschienenem Buch über den »modernen Kapitalismus« der 1960er-Jahre. Wie konnte es zu dem »Goldenen Zeitalter« (Eric Hobsbawm), also der fast drei Jahrzehnte andauernden Nachkriegsprosperität kommen, nachdem der Kapitalismus im Zuge der Großen Depression abgewirtschaftet zu haben schien und sich eine breite ordnungspolitische Debatte um alternative Wirtschaftsformen entwickelt hatte?
Stress ist ein ubiquitärer Begriff – seine geschichtswissenschaftliche Erforschung aber hat erst begonnen. Der Aufsatz skizziert programmatisch die Genese und die Funktionen des Stresskonzepts im 20. Jahrhundert. Dabei wird Stress nicht in erster Linie als Syndrom und Krisenphänomen betrachtet, sondern als Deutungs- und Handlungsangebot westlicher Gesellschaften, die sich als instabil, wandelbar, innovativ und dynamisch begreifen. Die performative Kraft des Stresses als Modus gesellschaftlicher Selbstreflexion wird in vier historisch und systematisch aufeinander bezogenen semantischen Feldern untersucht: Stress als Regulations- und Anpassungsmodell, Stress als Prinzip der Wettbewerbsgesellschaft (mit engen Beziehungen zu Arbeit, Leistung und Erfolg), Stress als Zivilisationskritik (mit der stressfreien Gesellschaft als utopischem Gegenbild) sowie Stress als flexible Ökologie von Mensch-Umwelt-Verhältnissen. Dabei handelt es sich weniger um eine chronologische Ordnung als vielmehr um Deutungsvarianten, die in unterschiedlichen Verwendungskontexten aufkamen und sich im heutigen Stressbegriff überlagern.
In der westdeutschen Universitätsmedizin galt Stress zunächst als deskriptive Laborbeobachtung und nur wenig origineller Versuch des Hormonforschers Hans Selye, die Regulationsmechanismen des Körpers mit einem ganzheitlichen Konzept zu beschreiben. Selyes in Kanada entwickelte Ansätze fanden in der Bundesrepublik kaum positive Resonanz; das Stresskonzept schien in den 1950er-Jahren keine Zukunft zu haben. Dies änderte sich in den 1960er-Jahren, als Stress über das Risikofaktoren-Modell mit der Diskussion um Herz- und Kreislauferkrankungen verbunden wurde. Stress wurde nun Leitbegriff und Forschungsressource von Disziplinen wie Sozialmedizin, Psychosomatische Medizin, Arbeitsmedizin und Präventivmedizin. Um 1970 trat zu den Bezugsebenen »Zivilisation« und »Gesellschaft« noch »Umwelt« hinzu. Insbesondere drei Bedrohungsszenarien erwiesen sich als Stimuli der medizinischen Stressforschung: Überbevölkerung und Verstädterung, Verkehr und Lärm sowie der Wandel der Arbeitswelt. Weit über wissenschaftliche Verwendungen hinaus wurde der Stressbegriff populär, weil er zeitdiagnostisches Deutungspotential gewann und sich als eine Verständigungsplattform der Verunsicherten eignete.
Wie reagieren Menschen auf Katastrophen? Wie lassen sich Bevölkerungen in Extremsituationen führen? Mit diesen Fragen beschäftigten sich in den 1950er-, 1960er- und 1970er-Jahren mehrere US-amerikanische, teilweise durch die Armee finanzierte Forschungsgruppen. Sie waren interdisziplinär zusammengesetzt, aber mehrheitlich soziologisch ausgerichtet. Innerhalb wie außerhalb der USA studierten sie das Stressverhalten von Individuen und Gruppen in Tornados, eingeschneiten Autobahnraststätten und »racial riots« sowie ergänzend in Laborsimulationen. Anhand zeitgenössischer Publikationen und interner Akten werden in diesem Aufsatz die Erkenntnisinteressen und Untersuchungsfelder der sozialwissenschaftlichen Katastrophenforschung, ihre Befunde und deren Nutzung dargestellt. Die Tätigkeit der Wissenschaftler/innen stand im Kontext des Kalten Kriegs und eines sich verschiebenden Gefahrensinns. Dabei ließen sich die Forscher/innen keineswegs vollständig politisch vereinnahmen, sondern verfolgten durchaus eigene Interessen und gaben mitunter Antworten, die den Intentionen der Auftraggeber zuwiderliefen.
Wann und wie wandelten sich in der DDR-Gesellschaft langfristig politische Einstellungen und Wertorientierungen, wie sie dann 1989 in der Herbstrevolution sichtbar wurden? Anknüpfend an Konrad H. Jarauschs These von der »Umkehr« als fundamentalem Demokratisierungsprozess im geteilten Nachkriegsdeutschland untersucht der Beitrag die Möglichkeiten und Grenzen der Stellvertreterbefragungen, die das westdeutsche Meinungsforschungsunternehmen Infratest im Auftrag der Bundesregierung von 1968 bis 1989 durchgeführt hat. Befragt wurden westdeutsche Besucher der DDR über die Ansichten eines von ihnen definierten Gesprächspartners im ostdeutschen Staat, den sie besucht und mit dem sie ausführlich gesprochen hatten. Dieser Serie zufolge stand eine breite und wachsende »schweigende Mehrheit« der DDR-Einwohner dem System distanziert gegenüber, war aber weder im westlichen noch im östlichen Sinne besonders ideologisch präformiert. Sie maß die DDR vor allem an ihren praktischen Leistungen im Hinblick auf Lebensstandard und Perspektiven. Das Interesse an Politik sank ab Mitte der 1970er-Jahre, stieg dann aber wieder an und orientierte sich zunehmend an westlichen Politikformen.
Kommerzielle Bildanbieter entledigen sich zunehmend ihrer analogen Fotoarchive. Dabei geht es nicht selten um Millionen von Fotografien. Angesichts dieser Entwicklung stellt sich die Frage, wie es bei solchen Anbietern um die Wertschätzung ihres analogen Fotoerbes steht. Die Antwort scheint entsprechend einfach zu sein: Solche Bestände werden gering geschätzt. Die Fotoarchive werden abgegeben oder gar vernichtet, weil sie für ihre Besitzer mehr Verlust als Profit einbringen. In manchen Fällen übernehmen öffentliche Gedächtnisinstitutionen wie Archive, Museen und Bibliotheken die Bestände und widmen sie von Gebrauchs- zu historischen Fotoarchiven um. Dies hat im Zusammenspiel mit der allgemeinen Digitalisierung der Fotografie das Bewusstsein für die Historizität alter Pressefotografien und damit für ihren kulturellen sowie wissenschaftlichen Wert geschärft. Die einst massenhaft für den Verkauf hergestellten Gebrauchsbilder gelten heute als zeithistorische Dokumente. In der medialen Öffentlichkeit wird vollmundig vom »visuellen« oder vom »fotografischen« Gedächtnis eines ganzen Landes geschrieben.
Anfang 2014 konnte der rund 50.000 Aufnahmen umfassende Nachlass des Fotografen Wolfgang G. Schröter (1928–2012) zusammen mit zahlreichen Arbeitsabzügen, Belegexemplaren, der Handbibliothek und biographischen Dokumenten von der Deutschen Fotothek für das »Archiv der Fotografen« übernommen werden. Schröter gehörte zu den paradigmatischen Ausnahmefotografen der frühen DDR. Unter Nutzung der Methoden von Wissenschafts- und experimenteller Fotografie entwickelte er eine eigene Bildsprache, die avantgardistische internationale Fotografie-Entwicklungen aufgriff, ohne diese zu imitieren. Schröters frühe farbfotografische Experimente wurden 1977 im Zuge der Nobilitierung der Fotografie als künstlerisches Medium in der Hallenser Ausstellung »Medium Fotografie« gewürdigt. Bis heute werden seine Aufnahmen in zahlreichen Einzel- und Gruppenausstellungen gezeigt.
Die gleichberechtigte Einbeziehung von Frauen in Forschung und Lehre steht heute weit oben auf der politischen Agenda bundesdeutscher Wissenschaftspolitik. Primäres Ziel ist es gemäß dem sogenannten »Kaskadenmodell«, den Frauenanteil auf allen Karrierestufen in Forschung und Lehre demjenigen der Studierenden und Promovierenden anzugleichen. Dies sei, so das Bundesministerium für Bildung und Forschung, »nicht nur eine Frage der Gerechtigkeit«. Gemischte Gruppen führten, »wenn sie geeignete Rahmenbedingungen vorfinden«, außerdem »zu besseren Forschungs- und Entwicklungsergebnissen« sowie »zu einer Erweiterung der Forschungsperspektive«. Das gelte auch »für die Berücksichtigung von Geschlechterfragestellungen als Forschungsgegenstand«. Ähnlich beschreibt die Europäische Kommission das Ziel ihrer Gleichstellungspolitik für Wissenschaft und Forschung.
Unternehmensplanspiele entstanden in den USA um 1956 aus militärischen Simulationsprogrammen, Fallstudien an Business Schools sowie Kriegsplanspielen und einer Reihe weiterer Einflussgrößen. Angesiedelt am Schnittpunkt von Unternehmensführung, ökonomischen Paradigmen und Computerisierung, bietet das Feld der Unternehmensplanspiele besonders gute Voraussetzungen, um Transformationen gesellschaftlicher Steuerungslogiken nach dem Ende des Zweiten Weltkriegs nachzuvollziehen. In den »ernsthaften Spielen« wurden Praktiken des Entscheidens sowie die Adaption an ein neues Medium und einen veränderten Rationalitätsbegriff (spielerisch) erprobt. Der Aufsatz nähert sich diesem Feld aus einer medienkulturwissenschaftlichen Perspektive. Der Beitrag fokussiert auf die erste Phase der Verwendung von Unternehmensplanspielen bei der Ausbildung von Führungskräften in der Bundesrepublik seit Beginn der 1960er-Jahre. Näher vorgestellt wird der Einsatz des von IBM entwickelten Planspiels TOPIC 1 bei Hoechst.
Vertreter_innen der Akteur-Netzwerk-Theorie oder der Cyborg-Anthropologie kritisieren gegenwärtig die Privilegierung des Menschen als autonomem Akteur und handlungsmächtigem Gestalter seiner Umwelt. Dadurch wird die Frage nach der Rolle und Bedeutung von Dingen für gesellschaftliche Dynamiken neu aufgeworfen. Galten sie bisher meist als passive Objekte menschlicher Agency, erscheinen sie nun zunehmend als Koproduzenten von Handlungsmacht. In diesem Sinn spricht Bruno Latour von menschlichen und nicht-menschlichen Aktanten.
Nachdem das Interesse an Dingen und damit an Materieller Kultur im Forschungsalltag mancher Disziplinen lange Zeit eher gering war, erlebt die Auseinandersetzung mit Dingen seit etlichen Jahren auch in der deutschsprachigen Wissenschaftslandschaft eine Renaissance. Das gilt nicht nur für Fächer, die sich schon seit jeher mit Materieller Kultur beschäftigen – etwa die archäologischen Wissenschaften, die Ethnologie und die Volkskunde/Europäische Ethnologie –, sondern zunehmend auch für solche Wissenschaften, deren genuiner Forschungsgegenstand keine materiellen Hinterlassenschaften sind, wie die Geschichtswissenschaft, die Philosophie, die Germanistik und verschiedene sozialwissenschaftliche Fächer. Zu denjenigen Fächern, die die Dinge für sich entdeckt haben, gehört seit wenigen Jahren auch die Zeitgeschichtsforschung. Auf den ersten Blick mag das zunehmende Interesse verwundern, verfügt die Zeitgeschichte doch über andere Quellenarten (Schriftdokumente, audiovisuelle Quellen, mündliche Zeugnisse), die deutlich mehr Aussagekraft als gegenständliche Objekte zu haben scheinen. Den Dingen wird von der Zeitgeschichtsforschung heute offenbar ein Erkenntniswert zugemessen – befördert unter anderem auch durch die Studien Bruno Latours und seine Akteur-Netzwerk-Theorie (ANT) –, der ihnen zuvor abgesprochen bzw. nicht zuerkannt worden war.
Michael Thompsons Buch »Mülltheorie« beginnt mit einem sehr unappetitlichen Rätsel zu »Rotz«. Es endet mit der Zusammenfassung einer im Buch Schritt für Schritt entwickelten Theorie, in der es darum geht, »Monster« (wie den »Rotz«) nicht aus der gesellschaftlichen Betrachtung und der wissenschaftlichen Theorie auszuschließen. Müll sei ein solches Monster, das in einem modernen Wissenschaftsverständnis ignoriert werde, da der Wert und die soziale Funktion von Müll mit »Null« gleichgesetzt werde. So beobachtete es Thompson in den 1960er- und 1970er-Jahren, als sein Buch entstand.
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.
Seit anderthalb Jahrzehnten widmet sich die Geschichtswissenschaft verstärkt dem Thema „Bild“. Dabei wurden zahlreiche, im Zuge des pictorial bzw. iconic turn in der Kunst- und der Kulturwissenschaft entwickelte Bildtheorien in den geschichtswissenschaftlichen Methodenapparat integriert. Einer der unter HistorikerInnen umstrittensten Ansätze ist die von dem Berliner Kunsthistoriker Horst Bredekamp entwickelte Bildakttheorie, die Bilder nicht nur als Ausdruck und Widerschein historischer Vorgänge, sondern als autonome, wirkmächtige Akteure begreift, die historische Prozesse auszulösen in der Lage sind. Philipp Molderings sprach mit Horst Bredekamp über die veränderte Bedeutung von Bildern in der Geschichtswissenschaft, die Skepsis von HistorikerInnen gegenüber der Bildakttheorie und über die Notwendigkeit, verstärkt die historische Eigendimension der Bilder zu erforschen.
Ist eine Geschichte ohne Dinge vorstellbar? Wohl kaum, denn auch der reine Gedanke benötigt Dinge, will er auf Dauer festgehalten werden. Ist eine Geschichtsschreibung ohne Dinge vorstellbar? Sehr wohl, wenn wir die in Bibliotheken und auf Festplatten angesammelte Geschichtsschreibung Revue passieren lassen. Dieses Dilemma der Diskrepanz zwischen der realen Welt, ihrer Wahrnehmung und der intellektuellen Reflexion betrifft zwar nicht allein die dingliche Dimension historischer Lebenswelten, doch stellt sich die Frage nach der Einbeziehung der materiellen Kultur in die historische Forschung aus mehreren Gründen besonders deutlich.
Am Anfang des 20. Jahrhunderts stand Mathematikern, Naturwissenschaftlern und Ingenieuren eine Reihe von mathematischen Methoden (numerischen und graphischen Verfahren) sowie technischen Hilfsmitteln (Instrumente, Apparate, Maschinen, Tafelwerke) zur Verfügung, um exakte Lösungen bzw. Näherungslösungen für mathematische Probleme »ausrechnen« zu können, die im Zusammenhang mit ihrer wissenschaftlichen oder praktischen Arbeit auftraten. Ein genauerer Blick zeigt, dass um 1900 ein ganzer »Apparate- und Methoden-Zoo« zur Verfügung stand, dessen Klassifizierung – um im Bild zu bleiben – einen sehr kundigen »Apparate- und Methoden-Zoologen« erforderte, um die »Morphologie« und »Anatomie« der Apparate und deren »Physiologie« (in Bezug auf die informationsverarbeitenden Funktionen) zu überblicken. So gab es z. B. weit verbreitete Apparate und Methoden wie Rechenschieber und Planimeter, mechanische Rechenmaschinen, Multiplikations- und Logarithmentafeln oder das Runge-Kutta-Verfahren zur numerischen Lösung gewöhnlicher Differentialgleichungen, aber auch nur in Einzelexemplaren existierende Geräte, wie die im 19. Jahrhundert verschiedentlich entwickelten Gleichungswaagen.
Wer sich mit der Geschichte der Wissenschaftspopularisierung auseinandersetzt, kommt an der Zäsur 1800 nicht vorbei. Zwar existieren bereits seit der Antike Formen populärwissenschaftlicher Literatur, die im Zuge der wissenschaftlichen Revolution im 16. und 17. Jahrhundert eine Ausdifferenzierung erfahren, doch beginnt der eigentliche Aufstieg im frühen 19. Jahrhundert, als die Wissenschaftspopularisierung ihre Präsentationsformen einem breiten Publikum anpasst (vgl. Schwarz 1999, 89f.). In dieser Zeit wird es nicht nur üblich, von populärer Sprache und populären Vorträgen zu sprechen. 1805 erscheint auch die erste deutschsprachige Theorie der Popularität (Greiling 1805). Der Text stellt eine Art didaktischer Unterweisung in Hinsicht auf Anordnung, Sprache und Verständlichkeit vorgetragener Sachverhalte dar. Während Popularität hier auf das Predigen und die Volksaufklärung bezogen bleibt, rückt sie bis zur Mitte des 19. Jahrhunderts unaufhaltsam in die Nähe der (Natur-)Wissenschaft. Der Ausdruck „populär“3 etabliert sich als geläufige Bezeichnung für „gemeinfassliche“
naturkundliche Buch- und Zeitschriftenliteratur. In Wörterbüchern und Lexika, Vereinsnamen und Publikationstiteln setzt sich in der zweiten Hälfte des 19. Jahrhunderts schließlich die Wortverbindung „populärwissenschaftlich“ durch.4 Sie eignet sich sowohl für die literarische Selbstbezeichnung als auch zur Markierung bestimmter Schriften, thematischer Genres und Darstellungsformen, welche dem Anspruch folgen, naturkundliche und technische Wissensbestände an ein breites Publikum zu vermitteln.
Mit dem Ende des Ersten Weltkrieges war der Abschied von einem bedingungslosen Fortschrittsglauben gekommen. Die Erfahrungen des Stellungskrieges und der Materialschlacht munitionierten die Fortschrittskritik. Die universitäre Etablierung des Fachs Volkskunde im Jahr 1919 war seit den letzten beiden Jahrzehnten des 19. Jahrhunderts durch wissenschaftliche Zeitschriften, Kongresse und museale Sammlungen vorbereitet und von der »Suche nach dem Elementaren in der Kultur« begleitet worden. Die Hinwendung zu den Dingen, vor allem zu Arbeits- und Hausgerät aus europäischen Reliktgebieten, spielte in diesem Prozess eine wichtige Rolle. Die Frage nach ihrer Bedeutung und Sinnaufladung verdichtete sich mit der Disziplinierung, auch wenn die Erforschung der materiellen Kultur nicht der einzige Gegenstand des Faches war, das sich aus den Philologien herausbildete. Geht man davon aus, dass das 19. Jahrhundert das »Saeculum der Dinge« ist, weil die industrielle Massenproduktion die Verfügbarkeit sowie den Verbrauch der Dinge seit der zweiten Hälfte des 19. Jahrhunderts immens steigerte, dann führt der Weg zu der intensivierten Aufmerksamkeit für die Dinge des Alltags in Kunst, Literatur und Wissenschaft in die ersten Jahrzehnte des 20. Jahrhunderts.
Ambivalente Metaphorik. Ein kritischer Rückblick auf Zygmunt Baumans "Dialektik der Ordnung" (1989)
(2017)
Lange vor Baumans »Dialektik der Ordnung« war mir ein Text von Yvonne Hirdman in die Hände gefallen, als ich mich für ein Forschungsprojekt zum »social engineering« in die Forschungsliteratur zur schwedischen Geschichte und Gesellschaftspolitik einzulesen begann. Hirdman, Historikerin, hatte 1989 ein schlankes Buch mit dem aus dem Deutschen abgeleiteten Titel »Att lägga livet tillrätta« publiziert, »Das Leben zurechtlegen«.[1] Die Studie war im Rahmen einer Enquête entstanden, mit deren Hilfe der schwedische Staat sein eigenes Funktionieren untersuchte. Hirdman, die zehn Jahre zuvor eine Geschichte der Sozialdemokratie unter dem selbstsicheren Titel »Wir bauen das Land« verfasst hatte, hielt nun derselben sozialdemokratisch dominierten Gesellschaftspolitik vor, die Menschen systematisch übermächtigt zu haben.
»Kern/Schumann I und II« sind wichtige Quellen für den Wandel der Arbeitswelt, allerdings können die Studien aufgrund ihres spezifischen Untersuchungsdesigns nur auf bestimmte geschichtswissenschaftliche Fragen Antworten geben: Sie konzentrierten sich auf Erwerbsarbeit und besonders auf die industrielle Stammbelegschaft. Begrenzt erkennbar sind deshalb Erfahrungen von Migranten und Frauen sowie unterschiedliche Beschäftigungsarten und -bereiche. Hierzu versprechen andere SOFI-Studien mehr Auskunft.[52] Die Vorstellung von »Kern/Schumann I und II« in diesem Beitrag ist verbunden mit einem Plädoyer, die große Vielfalt der SOFI-Studien für Zwecke der Geschichtswissenschaft zu nutzen.
Das seit 2015 laufende Dissertationsprojekt „Zur visuellen Produktion von ‚Flucht‘ und ‚Asyl‘ in Pressefotografien der Bundesrepublik“ beschäftigt sich im ausgeführten Zusammenhang mit Pressefotografien, die in Debatten um „Flucht“ und „Asyl“ seit den 1950er Jahren bis Mitte der 1990er Jahre in der Bundesrepublik in fünf überregionalen Tages- und Wochenzeitungen veröffentlicht wurden („Frankfurter Allgemeine Zeitung“, „Stern“, „Spiegel“, „Süddeutsche Zeitung“, „Die Welt“ – zudem partiell die „Zeit“ und die „tageszeitung“). Der Korpus besteht aus 1800 veröffentlichten Fotografien, den dazugehörigen Zeitungsartikeln und Bildunterschriften.
In meinem Forschungsprojekt geht es um Plakate als eine spezielle Form der Gebrauchsgrafik. Gegenübergestellt und gleichzeitig miteinander in Beziehung gebracht werden „okzidentale“ und „orientalische“ Plakate, vornehmlich Werbeplakate, die auf der „westlichen“ Seite orientalistische Motive und auf der „orientalischen“ Seite okzidentalistische Formsprache und Informationsgehalte verwenden. Der Untersuchungszeitraum ist die zweite Hälfte des 20. Jahrhunderts ab 1945 bis zum September 2001, also bis zu der Zeit, bevor der sunnitisch geprägte Fundamentalismus für die Kunst relevant wurde. Dabei werden die künstlerischen Verbindungen und Wege von Motiven zwischen West und Ost verfolgt und somit die komplexen Beziehungen zwischen der Plakatproduktion zweier sich selbst jeweils als „anders“ wahrnehmender Kulturen untersucht. Es geht nicht nur um Unterschiede, sondern gleichermaßen um Gemeinsamkeiten, Übernahmen, Verwandlungen, wechselseitige Stereotypisierungen und um möglicherweise parallele Entwicklungen, also um transkulturelle Prozesse, die an konkreten und in den jeweiligen Gesellschaften sichtbaren Kunstprodukten ablesbar sind.
Die Leibniz-Gemeinschaft gehört seit 1995 neben der Max-Planck-Gesellschaft, der Fraunhofer-Gesellschaft und der Helmholtz-Gemeinschaft zu den vier großen außeruniversitären Wissenschaftsorganisationen in Deutschland. Sie ist ein Zusammenschluss rechtlich selbstständiger Forschungseinrichtungen, deren thematische Bandbreite alle wissenschaftlichen Disziplinen umfasst. Als eingetragener Verein verfolgt die Leibniz-Gemeinschaft ausschließlich gemeinnützige Zwecke.
Abgebildet wird hier nicht nur die Historie seit der offiziellen Gründung der Gemeinschaft, sondern auch deren lange Vorgeschichte. Denn die hier untersuchten Prozesse auf dem Weg der Entwicklung einer staatlichen Forschungsförderung reichen bis in die frühe Nachkriegszeit zurück. Gleichfalls zäsurbildend wirkte schließlich die deutsche Wiedervereinigung, die zu weitreichenden Transformationen der außeruniversitären Wissenschaftslandschaft führte und maßgeblich die heutige Gestalt der Leibniz-Gemeinschaft prägt.
Dieser Beitrag geht der Frage nach, wie Migration durch Statistik sozial relevant wird. Welche Kategorien kommen dabei zum Einsatz? Zuerst wird die historische und wissenssoziologische Perspektive erläutert. Im zweiten und dritten Teil werden historische Umbrüche in der Kategorisierung von Migration am Beispiel der amtlichen Statistik im Deutschen Kaiserreich und in der Bundesrepublik Deutschland skizziert. Der Fokus verschob sich von Migration als Ein- und Ausreisebewegung zu Migration als Alteritätszuschreibung (gestützt auf die Kategorie »Migrationshintergrund« ab 2005). Vor diesem Hintergrund wird im letzten Teil gezeigt, wie sich vergangene und aktuelle Kategorisierungen von Geflüchteten mit der Migrations- und Integrationssemantik verbanden bzw. verbinden. Über die Rekonstruktion der semantischen Brüche und Kontinuitäten hinaus dient die historische Kontextualisierung dem Ziel, heute gängige Kategorien für Migration und Flucht besser reflektieren zu können, die in der Wissenschaft, Politik und Verwaltung verwendet werden.
Hoffnung auf Erfolg. Akteurszentrierte Handlungskonzepte in der Migrations- und Flüchtlingsforschung
(2018)
Die Herausforderung besteht somit in einer reflektierten Verbindung von historischer Wissens- und Migrationsforschung.[37] Darin könnte die Chance liegen, die oftmals eindimensionale Wahrnehmung von Migrant/innen als Opfer restriktiver Grenzregime aufzubrechen, denn sie blockiert tendenziell eher Erkenntnismöglichkeiten, als dass sie neue eröffnet. Wenn ein Konzept wie Eigen-Sinn dazu beitragen würde, die verengten Perspektiven auf Migrationsregime zu erweitern, wäre das nur zu begrüßen. Allerdings spricht die bisherige Inanspruchnahme des Begriffes dafür, doch eher auf andere handlungstheoretische Konzepte wie die Analyse von individuellen und kollektiven Handlungsspielräumen zurückzugreifen oder einer an die Arbeiten von de Certeau angelehnten und auf globale Migrationsbewegungen zugeschriebenen »Rhetorik des Wanderns« zu folgen. Eines zeichnet sich indes jetzt schon ab: Ohne eine stärkere und theoretisch durchdachte Berücksichtigung akteurszentrierter Konzepte wird die Migrationsforschung zentrale Aspekte ihres Gegenstandes weiterhin nur oberflächlich erfassen können.
Die Pyrenäen bilden eine natürliche Grenze zwischen Frankreich und Spanien, zwischen dem europäischen Hauptland und der iberischen Halbinsel. Dort, wo sie nicht in den Himmel ragen, in ihren Tälern und auf ihren Passhöhen sowie an den Meeren, waren die Pyrenäen auch stets eine tierra de paso, eine Transitzone. An ihren östlichen Ausläufern gibt es zwei bedeutende Übergänge. Einer liegt im sanften, flachen Tal von La Jonquera und quert die Landesgrenze bei Le Perthus. Der andere kreuzt an der Küste am Coll dels Belitres zwischen Cerbère (Frankreich) und Portbou (Spanien). Daneben und dazwischen durchziehen kleine Wege die Landschaft, offizielle und inoffizielle, Pfade für Schmuggler, Verfolgte, Fliehende. Jede Gegend und jede Route hat ihre Konjunktur. Die Hoch-Zeit dieser Transitlandschaft, als sich die europäische Kriegs- und Verfolgungsgeschichte des 20. Jahrhunderts an dieser Grenze kristallisierte, war zwischen dem Winter 1938/39, als der spanische Krieg mit dem Sieg Francisco Francos endete, und den Jahren 1940/41, bevor im Sommer 1941 die systematische Vernichtung der europäischen Juden begann.
Im Vorwort zur deutschsprachigen Ausgabe seines Buches »Exit, Voice, and Loyalty« stellte Albert O. Hirschman, US-amerikanischer Ökonom und Entwicklungstheoretiker, seine Konzepte »Abwanderung« (exit) und »Widerspruch« (voice) in einen doppelten historischen Zusammenhang: zum einen mit »dem Schicksal der Juden, die noch nach 1939 in Deutschland waren«, zum anderen mit seiner eigenen Flucht aus Deutschland in die USA, nach der »Machtergreifung« durch die Nationalsozialisten. 1933, im ersten Jahr seines Studiums, verließ der 1915 geborene Hirschman (damals noch: Otto-Albert Hirschmann) Berlin und flüchtete zunächst nach Paris. 1935/36 verbrachte er ein Jahr an der London School of Economics. Nach Paris zurückgekehrt, kämpfte er 1936 für kurze Zeit im Spanischen Bürgerkrieg gegen die Putschisten unter General Francisco Franco und ging dann nach Triest, wo er zwei Jahre später promoviert wurde. Aufgrund der italienischen Rasse-Gesetze reiste Hirschman 1938 wieder nach Frankreich aus. Zunächst Soldat in der französischen Armee, floh er wegen der Invasion der Wehrmacht 1940 nach Marseille, wo er für den US-Journalisten und Fluchthelfer Varian Fry arbeitete. Ende 1941 emigrierte er in die USA, bevor er 1943 als Soldat der amerikanischen Armee wieder nach Europa zurückkehrte. Nach dem Krieg arbeitete er zunächst als Ökonom im Auftrag der US-Bundesbank wie auch der Weltbank, später als Wissenschaftler an verschiedenen amerikanischen Universitäten. 2012 verstarb er im Alter von 97 Jahren.
»Man erinnert sich nicht, sondern man schreibt das Gedächtnis um, wie man die Geschichte umschreibt. Wie sollte man sich an den Durst erinnern?«, fragt sich der Schriftsteller, Fotograf und Regisseur Chris Marker (1921–2012) in seinem Filmessay »Sans Soleil« (1983). Damit weist er auf die Kluft zwischen Erfahrung und Erinnerung hin, die stets das Ergebnis reflexiver Prozesse ist. Er deutet des Weiteren einen Aspekt an, der für Historiker*innen von beträchtlicher Relevanz ist: den konstruktiven Charakter des Selbstzeugnisses. Nicht erst die historische Erzählung, sondern schon das Elementarteilchen der Geschichtsschreibung, das (Selbst-)Zeugnis, ist seit jeher das Ergebnis eines kontinuierlichen Prozesses der Neu- bzw. Umschreibung. Denn auf der einen Seite unterliegen Zeugnisse selektiven Wahrnehmungs- und Gedächtnismechanismen, auf der anderen ändern sie sich im Laufe der Zeit durch die Interaktion mit neu eingetretenen Erfahrungen und kollektiven Anstößen. Die negative Kehrseite dieser Verformbarkeit kommt bei der Manipulation und Instrumentalisierung von Zeugen durch Politik und Medien ans Licht, worüber Historiker*innen in den letzten Jahrzehnten intensiv reflektiert haben. Jedes (Selbst-)Zeugnis muss daher als eine Momentaufnahme in einem Prozess der Erinnerungsverarbeitung angesehen und entsprechend kritisch im Kontext seiner Entstehung und späteren Rezeption analysiert werden. Ohne Zeugnisse damit dem Bereich des Fiktiven zuzuordnen, bezweckt diese kritische Auseinandersetzung, ihnen die Qualität der Reinheit, Ursprünglichkeit und Beständigkeit, der Unmittelbarkeit des Zugangs zur Vergangenheit und der Individualität abzusprechen und sie in den Horizont sinnbildender Prozesse zurückzuführen.
»Hitler has won another victory at Bermuda […].« So kommentierte die Zeitung der zionistischen Arbeiterbewegung in den USA, »The Jewish Frontier«, die Bermuda-Konferenz vom April 1943. Was war passiert? Nach der Konferenz von Evian im Juli 1938 (und ihrem ernüchternden Ergebnis) war dies der zweite Versuch, mit einer internationalen Konferenz die Frage der jüdischen Flüchtlinge zu klären. Doch wie bereits 1938 am Genfer See, als sich außer der Dominikanischen Republik alle Teilnehmerstaaten weigerten, jüdische Flüchtlinge aufzunehmen, kam auch auf Bermuda keine Lösung zustande, obwohl an den mörderischen Absichten und Praktiken Nazi-Deutschlands 1943 kein Zweifel mehr bestand. Der World Jewish Congress (WJC) hatte für die Gesandten eine Informationsmappe zusammengestellt, die die nationalsozialistische Vernichtungspolitik darlegte und zum entschlossenen Handeln aufrief. Doch die Gesandten der Vereinigten Staaten und Großbritanniens, die auf der britischen Inselgruppe im Nordatlantik zusammenkamen, um über die Aufnahme europäischer Juden zu verhandeln, begruben die Idee einer groß angelegten Rettungsaktion rasch. Beide Staaten begnügten sich mit Symbolpolitik und kleinteiligen Maßnahmen. Zwar wurde das Intergovernmental Committee on Refugees (ICR) reaktiviert, welches nach der Evian-Konferenz gegründet worden war und sich größtenteils als ineffektiv herausgestellt hatte. Doch blieb das ICR auch für den Rest des Krieges unbedeutend.
Zwei Pressefotografien zeigen Menschen unterschiedlicher Migrantengruppen: eine türkische „Gastarbeiterfamilie“ und sogenannte Aussiedlerkinder. Beide Bilder stehen in einem engeren inneren Zusammenhang, als man auf den ersten Blick vermuten würde. Im Juli 1973, vier Monate vor Verkündung des „Anwerbestopps“ von Arbeitskräften aus Südeuropa, titelt „Der Spiegel“: „Gettos in Deutschland. Eine Million Türken“. Auf dem Cover des Nachrichtenmagazins ist eine achtköpfige, vermutlich türkische Familie abgebildet: fünf Kinder, Mutter, Vater und ein weiterer männlicher Verwandter oder Freund der Familie. Das zweite Bild zeigt ein modernes Sprachlabor im Durchgangswohnheim Unna-Massen im Jahr 1971: An Arbeitsplätzen, die mit Trennwänden voneinander abgeschirmt sind, sitzen „Aussiedlerkinder“ und erhalten über Kopfhörer Deutschunterricht.
Ausgehend von der These, dass die Internationalen Organisationen im Zeitalter der Dekolonisation nach 1945 auf die Erfindung einer neuen Bildsprache angewiesen waren, die uns bis heute zutiefst vertraut ist und inzwischen selbstverständlich anmutet, fragt das Projekt nach Akteuren, Politik und Praxis des Fotojournalismus im Mid-Century. Die Geschichte der Internationalen Organisationen ohne ihr Bildprogramm erklären zu wollen, läuft daher zumindest für die nach unserem heutigen Verständnis naiv-optimistischen 1950er Jahre ins Leere: Bilder waren die Sprache, welche weltweit verstanden werden konnte, und sie waren – vieles weist darauf hin – anders als die „Weltsprachen“ Englisch oder Französisch zumindest zeitgenössisch als herrschaftsfreie Ausdrucksformen weitgehend akzeptiert.
Das seit April 2017 laufende Dissertationsprojekt untersucht den sich wandelnden Medieneinsatz und Stellenwert von Visualisierungen in lokalen Stadtplanungsdebatten der Berliner Öffentlichkeit im Laufe des 20. Jahrhunderts. In der sozial- und medienhistoriografischen Arbeit werden anhand ausgewählter Beispiele der Berliner Bebauungsgeschichte aus verschiedenen Zeitphasen (zwischen1910 und 1990) schlaglichtartig zeitgenössische Schnittpunkte zwischen Stadtplanung, Gesellschaft, Öffentlichkeit sowie Medientechnologie und -einsatz erforscht. Um die historischen Prozesse von Mediatisierung und Medienwandel einzuordnen, sollen die Erkenntnisse zu Nutzung und Stellenwert von visuellen Medien aus den Fallbeispielen in Form einer diachronen Vergleichsgeschichte systematisch kontextualisiert werden.
1917 veröffentlichte das US-amerikanische Magazin „Vanity Fair“ einen Artikel mit der Überschrift „Moving Pictures for Golfers“. Das war nichts Ungewöhnliches, denn Sport war eines der Themen, die das zumeist weiße, urbane, gebildete Publikum dieses Lifestyle-Magazins ansprach. Außergewöhnlich waren die beiden Bilderserien, die den Artikel illustrierten – bestehend aus je 22 individuellen Fotos zeigten sie zwei Golfer beim Abschlag des Balls. Die bloße Anzahl unterschiedlicher Bilder athletischer Körper in diesem Zeitraum ist ein Indikator für ihre Relevanz. Und jenseits dieser quantitativen Beobachtung waren große mediale Räume von diesen Darstellungen besetzt, von Zeitungen, Zeitschriften und Büchern, über Werbeposter, Sammelkarten und Kunst bis hin zu Lehrfilmen, Wochenschauen und Spielfilmen. Das Projekt widmet sich diesen Quellen als eine ausdrücklich transnational ausgerichtete Kulturgeschichte der USA.
»Alternative Fakten«, »erinnerungskulturelle Wenden«, Konflikte um Museen und Gedenkstätten, historische Sehnsüchte und Ressentiments – es nimmt nicht Wunder, dass der Aufstieg des Populismus1 überall in Europa auch von der Geschichtswissenschaft als Herausforderung verstanden wird. Das gilt in besonderem Maße für Deutschland, wo die politische Ordnung so sehr mit einer spezifischen Geschichtserfahrung und Geschichtsdeutung verbunden ist. Seit den Mobilisierungserfolgen von »Pegida« ab 2014 und der »Alternative für Deutschland« (AfD) ab 2015 steht der liberale Basiskonsens mit seiner um selbstkritische Reflexion und historische Verantwortung modellierten Erinnerungspolitik öffentlich unter Druck wie selten zuvor.
Der junge Historiker Lutz Niethammer (geb. 1939) wollte kein »68er« sein. Viele seiner Altersgenossen fanden den Weg in die Außerparlamentarische Opposition, doch Niethammer blieb distanziert – er wollte teilhaben, nicht teilnehmen. Zwar rezipierte er die marxistisch wie psychoanalytisch inspirierten Faschismustheorien, doch blieb es bei einem grundlegenden Wissenschaftsinteresse.2 Während sich viele andere der Studentenbewegung anschlossen und ihr Augenmerk auf den Antiimperialismus und Internationalismus legten, brachte Niethammer die Gefahr von rechts in den Blick. Schon früh wandte er sich gegen den Geschichtsrevisionismus: Seine Kritik an David L. Hoggans Buch »Der erzwungene Krieg« von 1961 bildete den Anfang einer längeren Auseinandersetzung. »Ich glaubte, wir sollten etwas gegen den Aufstieg des Neofaschismus tun«, erklärte Niethammer retrospektiv in seiner fragmentarisch-autobiographischen Essaysammlung »Ego-Histoire?«. Dies erschien ihm »näherliegender« (sic) als der hilflose Antikapitalismus der Linken.
Für diese Debatte haben wir vier prominenten Vertreter*innen beider Disziplinen, der Rechts- und der Geschichtswissenschaft, schriftlich Fragen zur Situation, zum Potential und zu den Herausforderungen einer Zeitgeschichte des Rechts gestellt.
Wie verhält sich die Rechtsgeschichte zur »allgemeinen« Geschichtswissenschaft in Deutschland? Woher rührt das ausgeprägte disziplinäre Selbstbewusstsein der juristischen Rechtshistoriker*innen, und sollten Allgemeinhistoriker*innen dem etwas entgegensetzen? Worin sehen Sie die »großen Themen« und methodischen Trends der aktuellen rechtshistorischen Forschung, besonders der Juristischen Zeitgeschichte in der Bundesrepublik? Wieviel Theorie und Methodik braucht die Rechtsgeschichte? Wo sehen Sie Potential für neue Perspektiven, und inwieweit sollte eine zeitgemäße Rechtsgeschichte über den nationalen Rahmen hinausgehen? Welche Chancen, welche Grenzen sehen Sie für die interdisziplinäre Zusammenarbeit von Jurist*innen und Historiker*innen?
Es gibt zahlreiche Gelegenheiten, um festzustellen, dass auch das eigene Selbst – entgegen jeglicher irrationalen Hoffnung – dem Alterungsprozess nicht entzogen ist. Eine Möglichkeit ist die Aufforderung, gut 25 Jahre nach seinem ersten Erscheinen ein Buch zu thematisieren, dessen Erstauflage in der eigenen akademischen Ausbildung nicht ganz unbedeutend war. Es war 1997, als mit Niklas Luhmanns »Gesellschaft der Gesellschaft« ein in mehrerlei Hinsicht schwergewichtiger Block mitten in die allgemeine Theoriediskussion hineinplumpste. Dass dieses Buch in der Erstausgabe mit schwarzem Einband daherkam, erschien mir damals durchaus folgerichtig und erinnerte an den gleichfarbigen Monolithen aus Stanley Kubricks »2001: A Space Odyssey«. Ähnlich Ehrfurcht gebietend gestaltete sich die Lektüre von Luhmanns Hauptwerk, vor allem dem Novizen in Sachen Systemtheorie, der ich damals war.
Die Wasserkraft ist umstritten. Aktuelle Proteste zeigen das Konfliktpotential von geplanten wie von bereits gebauten Wasserkraftwerken. Die Bauten bedeuten empfindliche Eingriffe in Landschaften und Lebensweisen. Entsprechend haben Konflikte zwischen Wasserkraftunternehmen und ihren Unterstützern auf der einen und betroffenen Anrainern und Natur- und Heimatschützern auf der anderen Seite eine lange Geschichte. Mein Dissertationsprojekt rückt die 1950er-Jahre in den Mittelpunkt. In diesem Jahrzehnt trafen drei Entwicklungen zusammen: Einerseits boomte der Bau von Staudämmen und Wasserkraftwerken in ganz Europa mit dem wirtschaftlichen Aufschwung und der zunehmenden Verfügbarkeit von Ressourcen nach dem Zweiten Weltkrieg, noch bevor die Energiegewinnung aus Öl und später die Atomenergie den europäischen Elektrizitätsmarkt und die imaginierten Technikzukünfte dominieren sollten. Andererseits kam in diesem Jahrzehnt auch erstmals ein durchsetzungsfähiger Protest gegen den Bau von Wasserkraftwerken auf. In diesem Spannungsfeld schließlich ließen Wasserkraftunternehmen unzählige Filme produzieren.
Wer zu ergründen sucht, welche diskursiven Vorbedingungen die heutige Unterrepräsentanz von Frauen in der Wissenschaft hat, wage einen Blick in die lange und verschlungene Geschichte der Verbindung von Genus und Genie. Dieser Blick offenbart, welche Begründungsfiguren seit der Antike dazu führten, dass schöpferische Geistigkeit und Weiblichsein lange Zeit als prinzipiell unvereinbar galten und teilweise bis heute gelten. Als Teil einer kritischen Geisteswissenschaftsgeschichte sucht dieser Essay die Hintergrundfolien für einen Ausschluss von Frauen aus der als überzeitlich imaginierten ‚Geniegemeinde‘ zu skizzieren. Zielpunkt ist zu klären, welche Stränge der Geschichte ihrer Nichtintegration in dieselbe auch heute noch spürbare Auswirkungen auf die Stellung von Frauen in der intellektuellen Sphäre und akademischen Arena, der Alma Mater, haben (Scheint das Geschlecht in der heutigen Wissenschaft doch immer noch einen Unterschied zu machen.) Frauen konnten seit den Nullerjahren des 20. Jahrhunderts zwar an der wissenschaftlichen Gemeinschaft partizipieren, universitäre Laufbahnen blieben jedoch noch jahrzehntelang eine Ausnahme. Und nicht zuletzt spiegeln sich einige der diskursiven Gesetzmäßigkeiten früherer Genievorstellungen in rhetorischen Aufwertungsmechanismen im Rahmen aktueller Exzellenzrhetoriken wider.
Als Studentinnen an der Universität Hamburg für das erste Seminar zu einem frauengeschichtlichen Thema stritten, das dann 1976 als zweisemestrige Übung zum Thema „Frauen im Nationalsozialismus“ stattfand, gab es fast keine historischen Darstellungen und Quelleneditionen zum Thema. Die Dozentin, die sie für das Vorhaben gewinnen konnten, war Hochschulassistentin in Mittelalterlicher Geschichte, dennoch waren der Enthusiasmus und die Hoffnungen groß, trotz des massiven Widerstands von Seiten männlicher Professoren. Zu diesem Zeitpunkt gab es am Historischen Seminar der Universität erst eine Professorin. Die Studentinnen – zu denen auch ich gehörte – hofften, dass der verschwindend niedrige Frauenanteil an den C2, C3 und C4 Professuren schnell ansteigen und sich damit auch die Inhalte von Forschung und Lehre im Fach Geschichte grundlegend ändern würden. [...] Vierzig Jahre später sind solche Geschichten und Zahlen Vergangenheit. Heute – so ist immer wieder zu hören – seien wir auf einem guten Weg zur Gleichberechtigung von Frauen in der Geschichtswissenschaft, und auch die Frauen- und Geschlechtergeschichte sei doch allgemein anerkannt. Dafür würde schon die Gender-Mainstream-Politik mit Maßnahmen wie dem Mentoring-Programm für Nachwuchswissenschaftlerinnen und dem Professorinnen-Förderprogramm des Bundesforschungsministeriums sorgen. Diese Annahme trifft nur bedingt zu, wie der jüngste Report zum „Personal an Hochschulen“ des Statistischen Bundesamtes zeigt.
„Mikätzchen“ schnurrten in den sechziger Jahren hundertfach durch die Klassenzimmer Nordrhein-Westfalens. Diese eilig zu Volksschullehrerinnen vorbereiteten Hausfrauen waren in den achtziger Jahren allerdings längst in Vergessenheit geraten, als ihre mittlerweile wesentlich besser qualifizierten Nachfolgerinnen als unbarmherzige „Doppelverdienerinnen“ durch Presse und Politik spukten. Was hatte sich innerhalb von nur zwei Dekaden verändert? Was war gleichgeblieben? Dass insbesondere Frauen betroffen vom Arbeitsplatzabbau sind, ist nicht überraschend. Aber wie verhielt es sich in einem akademischen Beruf, in dem die Beschäftigten ihre Stellen auf Lebenszeit innehatten? Welche Inklusions- und Exklusionsprozesse können in dem mittlerweile gemeinhin als „Frauenberuf“ etikettierten Lehrberuf rekonstruiert werden?
Wer die lange Geschichte der „Wende“ und den Zusammenhang von Lebenswelt und Systemwechsel erforschen will, sieht sich mit einer Zweiteilung der Quellenüberlieferung konfrontiert. Während für die Phase bis 1989 und auch die Epochenzäsur 1989/90 häufig klassische Archivakten bereitstehen, ist die Überlieferung für die Zeit danach überwiegend von den Forschungsdaten der Sozialwissenschaften geprägt. Es ist also interdisziplinäres Arbeiten gefragt. Dabei geht es nicht nur um die geschichtswissenschaftliche Nutzung und Interpretation „fachfremder“ Quellen oder den Rückgriff auf Methoden anderer Disziplinen, sondern auch um die Weiterentwicklung von Methoden gemeinsam mit Wissenschaftler*innen anderer Fachrichtungen. Drei Szenarien seien hier skizziert.
Die Redaktion lud Doktorandinnen des Zentrums für Zeithistorische Forschung (Potsdam) dazu ein, über ihre Erfahrungen im Wissenschaftsbetrieb zu sprechen. Anna Junge, Anna Katharina Laschke, Caroline Peters, Florentine Schmidtmann und Henrike Voigtländer erklärten sich dazu bereit und verabredeten sich zu einem Gespräch. Ihre Diskussion fassten sie für Zeitgeschichte|online zusammen.
Nach dem Ende der DDR in Ostdeutschland und im gegenwärtigen Großbritannien zeigt sich ein ähnliches Phänomen: In nicht geringem Umfang wurde das Eigentum an Häusern und Wohnungen vom Grundeigentum getrennt. Anders formuliert: Jemand war zwar Haus- oder Wohnungseigentümer*in, aber besaß nicht den Boden, auf dem das Haus stand. Manchmal wussten die Haus- oder Wohnungseigentümer*innen nicht einmal, wem das dazugehörige Grundstück gehört. Daraus entstanden Abhängigkeiten, Ungleichheiten und Konflikte. Wie aber konnte die privateigentumsfördernde britische Politik, vor allem unter Margaret Thatcher, und die privateigentumsstörende DDR-Politik zu ähnlichen Effekten führen? Und macht ein solcher, eher unkonventioneller Vergleich überhaupt Sinn?
Seit einigen Jahren verdichtet sich auch in Deutschland das Gespräch über Herausforderungen und Perspektiven des digitalen Zeitalters für die Geschichtswissenschaft. Auf jedem Historikertag seit 2010 gab es mehrere Sektionen, die sich unterschiedlichen Facetten des Themas zuwandten. Es entstehen Fachpublikationen, Überblickswerke, Dissertationen und erste Ansätze, das Feld institutionell neu zu gestalten. Die Geschichtswissenschaft bemüht sich, produktiv auf die Veränderungen einzugehen. Punktuell ist es auch bereits zu einem Dialog mit Archiven und der Archivwissenschaft gekommen. So hat der Verband der Historiker und Historikerinnen Deutschlands (VHD) 2015 unter Federführung der Vorsitzenden Eva Schlotheuber und Frank Bösch ein Grundsatzpapier verabschiedet, das sich der Quellenkritik im digitalen Zeitalter annimmt. Die Forderung, Elemente der Digital Humanities in die Historischen Grundwissenschaften zu integrieren, wurde seitdem noch weiter unterstrichen.
In den 1980er-Jahren erweiterte die In-vitro-Fertilisation (IVF) nicht nur die Möglichkeiten der Familienplanung, sondern eröffnete auch neue, rasch expandierende Forschungs- und Geschäftsfelder für Mediziner in der Bundesrepublik. Die Vermarktlichung der menschlichen Reproduktion war Gegenstand eines breiten Aushandlungsprozesses über das technisch Machbare und das ethisch Vertretbare. Der Aufsatz stellt die Reproduktionsmediziner in den Mittelpunkt: Als Anbieter von innovativen Dienstleistungen verfolgten sie neben einem wissenschaftlichen Fortschrittsstreben auch ökonomische Interessen. Über die Medien sowie als Mitglieder von Ethikkommissionen nahmen sie politischen Einfluss. Sie verstärkten die öffentliche Wahrnehmung der Reproduktionsmedizin und waren an der Erstellung von gesetzlichen Richtlinien für ihr Tätigkeitsfeld beteiligt. Die medial geübte Kritik betonte die Gefahren einer technokratisch-politischen Steuerung und mögliche Kontinuitäten zur NS-Zeit. Mit der Verabschiedung des – im internationalen Vergleich restriktiven – Embryonenschutzgesetzes von 1990 kam die Debatte zu einem vorläufigen Ergebnis, war und ist jedoch keineswegs beendet.
Ein Gespenst geht um in der Geschichtswissenschaft: das Gespenst der Quantifizierung. Ringsum wird geklagt, dass Drittmittelbilanzen und Bibliometrie, Evaluierungen und Rankings immer wichtiger werden. Dies gehört zu einer allgemeinen Entwicklung nicht nur in der Geschichtswissenschaft, die Universitäten und außeruniversitäre Forschungsinstitute gleichermaßen betrifft. In Deutschland wird sie besonders mit Bologna-Reformen und Exzellenz-Initiative in Verbindung gebracht, wenngleich die Anfänge dieses Prozesses weiter zurückreichen. Die Geschichtswissenschaft, so scheint es, wurde also bereits mehr oder weniger sanft über die Türschwelle jener von Steffen Mau so bezeichneten »Bewertungsgesellschaft« geschubst, »die alles und jeden einer Bewertung mittels quantitativer Daten unterzieht und damit zugleich neue Wertigkeitsordnungen etabliert«
Richard Horton, ein britischer Arzt und Chefredakteur der einflussreichen medizinischen Fachzeitschrift »The Lancet«, löste Ende 2012 mit einer Serie von Twitter-Nachrichten eine hitzige Debatte aus. Polemisch zugespitzt kritisierte Horton den schädlichen Einfluss der Ökonomie auf das öffentliche Gesundheitswesen. In zehn Thesen beklagte er, dass die Wirtschaftswissenschaften keine Vorstellung von moralischem Handeln hätten und einem falschen Menschenbild folgten. Die Marktideologie lasse sich nicht vereinbaren mit den Werten, auf denen sozialstaatliche Gesundheitssysteme begründet seien. Auch wenn die Gesundheitsökonomie das Gegenteil behaupte – Gesundheit sei kein ökonomisches Gut. Horton folgerte: »Economics […] may just be the biggest fraud ever perpetrated on the world.«
Anhand der bundesdeutschen Pharmawirtschaft, genauer der Unternehmen Bayer, Hoechst, Merck und Schering, wird gezeigt, dass die Bedeutung von Patentrechten für die Gesundheitsökonomie in der zweiten Hälfte des 20. Jahrhunderts deutlich wuchs: Die Unternehmen erhöhten nicht nur die Anzahl von Patenten, sondern auch die Investitionen in immaterielles Vermögen erheblich. Die Kosten für Forschung und Entwicklung (F&E) überstiegen seit etwa Ende der 1970er-Jahre die Investitionen in Produktionsanlagen. Patente selbst avancierten zum Instrument, um unternehmensseitig den Wettbewerb zu beeinflussen. Das 1968 eingeführte »Stoffpatent« für neue chemische Verbindungen hatte dafür erweiterte Möglichkeiten geschaffen. Patent- und Lizenzabteilungen wurden zu wichtigen Orten unternehmensinterner Entscheidungsfindung. Zudem wurden die Forschungsleistungen hervorgehoben, um den Anstieg der Arzneimittelpreise zu rechtfertigen. Der Aufsatz leistet einen Beitrag zur Beantwortung der Frage, wie und wann die bundesdeutsche Wirtschaft verstärkt zu einer »Intangible Economy« wurde. Er verdeutlicht, wie relevant geistiges Eigentum für die Transformation seit den 1970er-Jahren war – und damit für die Zeitgeschichte des Kapitalismus als Kombination von Vermarktlichung und Verrechtlichung, von globalem Wettbewerb und nationalstaatlicher Regulierung.
Keine Stunde Null. Sozialwissenschaftliche Expertise und die amerikanischen Lehren des Luftkrieges
(2020)
Alle Kriegsparteien bombardierten im Zweiten Weltkrieg Ziele, die lange Zeit als zivil gegolten hatten. Diese sogenannten strategischen Bombardierungen wurden im Auftrag der US-Regierung ab dem Kriegsende mit einem Stab von über 1.000 Mitarbeitern in Deutschland und Japan aufwendig evaluiert (United States Strategic Bombing Survey, USSBS). Mithilfe ambitionierter Sozialwissenschaftler gelang es der jungen US Air Force, den strategischen Luftkrieg als militärisch und psychologisch entscheidend darzustellen, und so taten sich für die Luftkriegsexperten auch nach 1945 attraktive neue Beschäftigungsfelder auf. Die Wissenschaftler argumentierten, sie seien in der Lage, methodisch abgesichert einen schnellen und vermeintlich »sauberen« Krieg aus der Luft zu planen. Der Aufsatz stellt die bisher kaum erforschten Logiken und Folgen dieser Kooperation sowie die behaupteten Lehren des Weltkrieges für den Korea- und den Vietnamkrieg dar. Damit hinterfragt er das gängige Verständnis einer radikalen Zäsur, die der erste Einsatz der Atombombe mit sich gebracht habe, und plädiert für einen neuen Blick auf die Militär-, Gewalt- und Wissensgeschichte des »Kalten Krieges«.
»[…] wenn ›die Quelle‹ die Reliquie historischen Arbeitens ist – nicht nur Überbleibsel, sondern auch Objekt wissenschaftlicher Verehrung –, dann wäre analog ›das Archiv‹ die Kirche der Geschichtswissenschaft, in der die heiligen Handlungen des Suchens, Findens, Entdeckens und Erforschens vollzogen werden.« Achim Landwehr wirft in seinem geschichtstheoretischen Essay den Historikern ihren »Quellenglauben« vor – diese Kritik ließe sich im digitalen Zeitalter leicht auf die Heilsversprechen der Apostel der »Big Data Revolution« übertragen. Zwar regen sich mittlerweile vermehrt Stimmen, die den »Wahnwitz« der digitalen Utopie in Frage stellen, doch wird der öffentliche Diskurs weiterhin von jener Revolutionsrhetorik dominiert, die standardmäßig als Begleitmusik neuer Technologien ertönt. Statt in der intellektuell wenig fruchtbaren Dichotomie von Gegnern und Befürwortern, »First Movers« und Ignoranten zu verharren, welche die Landschaft der »Digital Humanities« ein wenig überspitzt auch heute noch kennzeichnet, ist das Ziel dieses Beitrages eine praxeologische Reflexion, die den Einfluss von digitalen Infrastrukturen, digitalen Werkzeugen und digitalen »Quellen« auf die Praxis historischen Arbeitens zeigen möchte. Ausgehend von der These, dass ebenjene digitalen Infrastrukturen, Werkzeuge und »Quellen« heute einen zentralen Einfluss darauf haben, wie wir Geschichte denken, erforschen und erzählen, plädiert der Beitrag für ein »Update« der klassischen Hermeneutik in der Geschichtswissenschaft. Die kritische Reflexion über die konstitutive Rolle des Digitalen in der Konstruktion und Vermittlung historischen Wissens ist nicht nur eine Frage epistemologischer Dringlichkeit, sondern zentraler Bestandteil der Selbstverständigung eines Faches, dessen Anspruch als Wissenschaft sich auf die Methoden der Quellenkritik gründet.
Für dieses Buch muss man sich etwas Zeit nehmen. Ich hatte die gut 700 Seiten umfassende amerikanische Originalausgabe von »Mechanization Takes Command« (den Titel kürzte Giedion in seinen Notizen mit dem Akronym »M.T.C.« ab) im Sommer 2017 im Amtrak California Zephyr auf meiner Reise von Greenriver, UT, nach Chicago, IL, im Gepäck. Diese Reise bot aktualisiertes Anschauungsmaterial zu Giedions Sondierungen der US-amerikanischen Industrialisierungsgeschichte. Sie folgte jener Eisenbahnlinie, welche Kalifornien (wo die Frontier-Gesellschaft Amerikas im ausgehenden 19. Jahrhundert an ihr Ende gelangte) mit Chicago verbindet (der nach dem großen Brand von 1871 zur Industriemetropole avancierten Stadt am Lake Michigan). Dazwischen öffnete sich der Midwest, dessen verrostete und verlassene industrielle Infrastruktur (Bahnhöfe, Fabriken, Brücken, Städte) durch das Zugfenster ins Blickfeld geriet und somit den Endpunkt der von Giedion dokumentierten Entwicklungen brutal vor Augen führte. Die heruntergewirtschafteten Landschaften des Midwest und Giedions Streifzüge in ihre Industrialisierung während des 19. Jahrhunderts flossen ineinander über. Etwa dann, wenn der Zug stillstand und mein Blick bei den Getreide-Elevatoren hängen blieb, wo sich die Eisenbahnlinien kreuzen und der Personenzug den unendlich langen Güterwagen, die von Diesellokomotiven angetrieben werden, den Vortritt lassen musste. Oder wenn ich beim mäandrierenden Durchblättern des Buches und dem Blick aus dem Zugfenster den Faden verlor und eindöste – und dann beim Eindunkeln jäh von den sleeping car attendants, welche die ausklappbaren Sitze für die Nacht mit ein paar Handgriffen zu Betten umwandelten, in die Gegenwart zurückgeholt wurde. Oder im Nachfolgemodell des von George M. Pullman 1869 in seinem Patent beschriebenen Speisewagens, wo die Reisende aus Europa und Wählerinnen des amtierenden Präsidenten sich am gemeinsamen Tisch zum Verzehr von Burger, Steaks und Hot Dogs wiederfanden. Jenes Präsidenten, der zu Beginn des 21. Jahrhunderts eine Re-Industrialisierung abgehängter Regionen im einst prosperierenden Rostgürtel der USA versprach.