Wissenschaft
Refine
Year of publication
Document Type
- Journal Article (124) (remove)
Language
- German (124) (remove)
Is part of the Bibliography
- no (124) (remove)
Keywords
- Auftragsforschung (1)
- Behördenforschung (1)
- NS-Aufarbeitung (1)
Richard Horton, ein britischer Arzt und Chefredakteur der einflussreichen medizinischen Fachzeitschrift »The Lancet«, löste Ende 2012 mit einer Serie von Twitter-Nachrichten eine hitzige Debatte aus. Polemisch zugespitzt kritisierte Horton den schädlichen Einfluss der Ökonomie auf das öffentliche Gesundheitswesen. In zehn Thesen beklagte er, dass die Wirtschaftswissenschaften keine Vorstellung von moralischem Handeln hätten und einem falschen Menschenbild folgten. Die Marktideologie lasse sich nicht vereinbaren mit den Werten, auf denen sozialstaatliche Gesundheitssysteme begründet seien. Auch wenn die Gesundheitsökonomie das Gegenteil behaupte – Gesundheit sei kein ökonomisches Gut. Horton folgerte: »Economics […] may just be the biggest fraud ever perpetrated on the world.«
Vorsorge war immer. Bereits in der Frühgeschichte stoßen wir auf Kulturtechniken, mit denen Menschen Risiken vorbeugen und Gefahren verhüten wollten. Schon das Anlegen von Vorräten, die Präparierung von Landschaften oder die Anrufung von Schutzgöttern waren Konzepte und Praktiken der Vorsorge. In der Moderne jedoch wuchs die Vielfalt an Befürchtungen und Ängsten, die eine nicht minder große Vielfalt an Vorsorgekonzepten und -maßnahmen mit sich brachte. Spürbar wurde dieser Anstieg in einem Boom an Versicherungen, in der Popularisierung medizinischer, sozialreformerischer und pädagogischer Maßnahmen, in der Verbreitung von Diäten, in den Sport- und Turn- oder den Anti-Tabak- und Anti-Alkohol-Bewegungen.
Die gleichberechtigte Einbeziehung von Frauen in Forschung und Lehre steht heute weit oben auf der politischen Agenda bundesdeutscher Wissenschaftspolitik. Primäres Ziel ist es gemäß dem sogenannten »Kaskadenmodell«, den Frauenanteil auf allen Karrierestufen in Forschung und Lehre demjenigen der Studierenden und Promovierenden anzugleichen. Dies sei, so das Bundesministerium für Bildung und Forschung, »nicht nur eine Frage der Gerechtigkeit«. Gemischte Gruppen führten, »wenn sie geeignete Rahmenbedingungen vorfinden«, außerdem »zu besseren Forschungs- und Entwicklungsergebnissen« sowie »zu einer Erweiterung der Forschungsperspektive«. Das gelte auch »für die Berücksichtigung von Geschlechterfragestellungen als Forschungsgegenstand«. Ähnlich beschreibt die Europäische Kommission das Ziel ihrer Gleichstellungspolitik für Wissenschaft und Forschung.
In den 1970er-Jahren lief im westdeutschen Fernsehen eine Serie der Augsburger Puppenkiste, deren Held und Titelgeber der kleine König Kalle Wirsch war. Kalle Wirsch, König der Erdmännchen, war, wie sein Name sagte: ein freundliches kleines Männchen, alles andere als unwirsch. Der Name aber irritierte – wer benutzt schon das Wort „wirsch“? Das Wort gibt es tatsächlich, es ist aber kein Gegenbegriff zu „unwirsch“, sondern eine Verballhornung von „wirr“. Zu „unwirsch“ gibt es keinen Gegenbegriff. Der kleine König Kalle Wirsch mag einem bei „Gleichheit und Ungleichheit“ in den Sinn kommen. Denn viel wird gesprochen von Ungleichheit, und dies vor allem im Zusammenhang mit sozialer Ungleichheit. Aber Gleichheit? Nur ganz wenige Autoren haben über deren Geschichte nachgedacht. Einer davon ist der Zürcher Historiker Jörg Fisch. Er fasst, bezogen auf das späte 19. Jahrhundert, Gleichheit vor allem als einen Anspruch, als eine Forderung. Sie ist also etwas, was (noch) nicht ist. „Gleichheit“ blieb als die bürgerliche Forderung nach rechtlicher und politischer Gleichberechtigung stehen und wurde (jedenfalls in Europa) im späten 19. und im 20. Jahrhundert zumindest teilweise eingelöst. Die Forderung nach sozialer Gleichheit jedoch, die aus revolutionären Bewegungen kam, ließ sich nicht einmal als Anspruch durchhalten, wurde als staatsgefährdend identifiziert und erbittert bekämpft. Soziale Gleichheit erhielt das Stigma des Utopismus und behielt lediglich in der Forderung nach Abbau (und nicht Abschaffung) sozialer Ungleichheit eine gewisse Berechtigung.
»What was it that converted capitalism from the cataclysmic failure which it appeared to be in the 1930s into the great engine of prosperity of the post war Western world?« (S. 3) Das ist die Leitfrage von Andrew Shonfields vor 50 Jahren erschienenem Buch über den »modernen Kapitalismus« der 1960er-Jahre. Wie konnte es zu dem »Goldenen Zeitalter« (Eric Hobsbawm), also der fast drei Jahrzehnte andauernden Nachkriegsprosperität kommen, nachdem der Kapitalismus im Zuge der Großen Depression abgewirtschaftet zu haben schien und sich eine breite ordnungspolitische Debatte um alternative Wirtschaftsformen entwickelt hatte?
Hoffnung auf Erfolg. Akteurszentrierte Handlungskonzepte in der Migrations- und Flüchtlingsforschung
(2018)
Die Herausforderung besteht somit in einer reflektierten Verbindung von historischer Wissens- und Migrationsforschung.[37] Darin könnte die Chance liegen, die oftmals eindimensionale Wahrnehmung von Migrant/innen als Opfer restriktiver Grenzregime aufzubrechen, denn sie blockiert tendenziell eher Erkenntnismöglichkeiten, als dass sie neue eröffnet. Wenn ein Konzept wie Eigen-Sinn dazu beitragen würde, die verengten Perspektiven auf Migrationsregime zu erweitern, wäre das nur zu begrüßen. Allerdings spricht die bisherige Inanspruchnahme des Begriffes dafür, doch eher auf andere handlungstheoretische Konzepte wie die Analyse von individuellen und kollektiven Handlungsspielräumen zurückzugreifen oder einer an die Arbeiten von de Certeau angelehnten und auf globale Migrationsbewegungen zugeschriebenen »Rhetorik des Wanderns« zu folgen. Eines zeichnet sich indes jetzt schon ab: Ohne eine stärkere und theoretisch durchdachte Berücksichtigung akteurszentrierter Konzepte wird die Migrationsforschung zentrale Aspekte ihres Gegenstandes weiterhin nur oberflächlich erfassen können.
This article evaluates a variety of recent attempts to conceptualize a historyof innovations from the perspective of social history. Special emphasis is given toapproaches arguing for a paradigm shift from innovation systems to innovationcultures, in particular by focussing on users as co-designers of technology. Theconcept of the co-construction of technology has been implemented especially in thethematic field of the integration and disintegration of Europe. The growing circulationof scientific knowledge and technical goods resulted in the “invention of European-ness” in the long 20th century. This article contributes to the discussion by examiningscientifically constructed user projections in the American and German automobileindustries.
Mit dem vorliegenden Essay möchte ich in erster Linie vorstellen, was eine intersektionale Disability History leisten kann, welche neuen Fragen sie generiert und welche (inter-)disziplinären Anschlussmöglichkeiten sie bietet. Dazu ist es zunächst notwendig, einen Blick auf die Genese der Forschungslandschaft zur Geschichte und Gegenwart von Behinderung zu werfen, da bereits seit einigen Jahrzehnten insbesondere das Verhältnis der Ungleichheitskategorien Behinderung und Gender beschrieben und untersucht wird. Anschließend wird der Einfluss der Intersektionalitätsforschung auf die Disability History vorgestellt, um zu diskutieren, welchen analytischen und theoretischen Mehrwert eine dezidiert intersektionale Herangehensweise an die (Zeit-)Geschichte von Behinderung bieten kann. Am Ende des Beitrags wird eine Auseinandersetzung mit den normativen Implikationen stehen, die sowohl die Intersektionalitätsforschung als auch die Disability History kontinuierlich begleiten. Eine intersektional angelegte Erforschung von Behinderung kann – so mein Argument – erstens zur Reflexion normativer Zwischentöne beitragen und zweitens das methodische Instrumentarium der historischen Ungleichheitsforschung insgesamt bereichern.
Es steht Wehler drauf, und es ist Wehler drin. Das Konzept der vorhergehenden Bände wird beibehalten, wenngleich mit der bereits des Öfteren kritisierten Verschiebung zugunsten des Primats der Politik in einigen Kapiteln. Im Vorwort verteidigt der Autor erneut seinen Ansatz: Gegenüber den eingeforderten Konzessionen an eine neue Kulturgeschichte weist er zum Beispiel darauf hin, dass eine Analyse struktureller Faktoren notwendig sei, bevor an eine mentalitätsgeschichtliche Auswertung gedacht werden könne. Das ist nachzuvollziehen, und Wehlers „Deutsche Gesellschaftsgeschichte“ liefert diese Strukturanalyse gesellschaftlicher Existenzbedingungen. Die Bevölkerungsentwicklung, die wirtschaftlichen Rahmenbedingungen, die Schichtung und die kulturellen Institutionen ebenso wie das politische System bilden die Grundlagen gesellschaftlichen Zusammenlebens. Der Vorteil und die Tragfähigkeit dieses Ansatzes kommen an vielen Stellen zum Ausdruck und geraten zum analytischen Vorzug dieses Werkes gegenüber anders konzipierten Handbüchern. Mentalitätsgeschichte zu schreiben böte sich auf dieser Grundlage an, erforderte aber zweifellos einen eigenen Band und ist zudem nicht Wehlers Sache.
Keine Stunde Null. Sozialwissenschaftliche Expertise und die amerikanischen Lehren des Luftkrieges
(2020)
Alle Kriegsparteien bombardierten im Zweiten Weltkrieg Ziele, die lange Zeit als zivil gegolten hatten. Diese sogenannten strategischen Bombardierungen wurden im Auftrag der US-Regierung ab dem Kriegsende mit einem Stab von über 1.000 Mitarbeitern in Deutschland und Japan aufwendig evaluiert (United States Strategic Bombing Survey, USSBS). Mithilfe ambitionierter Sozialwissenschaftler gelang es der jungen US Air Force, den strategischen Luftkrieg als militärisch und psychologisch entscheidend darzustellen, und so taten sich für die Luftkriegsexperten auch nach 1945 attraktive neue Beschäftigungsfelder auf. Die Wissenschaftler argumentierten, sie seien in der Lage, methodisch abgesichert einen schnellen und vermeintlich »sauberen« Krieg aus der Luft zu planen. Der Aufsatz stellt die bisher kaum erforschten Logiken und Folgen dieser Kooperation sowie die behaupteten Lehren des Weltkrieges für den Korea- und den Vietnamkrieg dar. Damit hinterfragt er das gängige Verständnis einer radikalen Zäsur, die der erste Einsatz der Atombombe mit sich gebracht habe, und plädiert für einen neuen Blick auf die Militär-, Gewalt- und Wissensgeschichte des »Kalten Krieges«.
Unfreundliche Häme schüttete sich noch Ende des letzten Jahres in der Öffentlichkeit über einem vormals so vielgerühmten Berufsstand aus. Die Ökonomen wurden sehr unverblümt dafür kritisiert, dass sie vor der Wirtschaftskrise ahnungslos und in der Wirtschaftskrise orientierungslos gewesen seien. Lisa Nienhaus, Wirtschaftsredakteurin der „Frankfurter Allgemeinen Zeitung“ (FAZ), bezeichnete sie als kollektive „Blindgänger“. Als „Starökonomen“ wurden plötzlich Wissenschaftler gelobt, die dem Fach zuvor als Außenseiter und Schwarzseher galten, wie der vor der Finanzkrise noch als „Dr. Doom“ verspottete Nouriel Roubini, der sich nun in Medien und Fachorganen zu Wort melden durfte, dabei aber nicht mehr als Vertreter der Zunft galt, sondern als in der Vergangenheit gegen die Wirtschaftswissenschaften angehender Einzelkämpfer. Gleichzeitig erhoben sich wortgewaltige Verfechter der Mainstream-Ökonomie wie der Münchener Wirtschaftswissenschaftler Hans-Werner Sinn: Er habe – ließ er die „FAZ“ und durch sie die Öffentlichkeit wissen – seit längerem auf die Probleme des Finanzmarktes hingewiesen und Veränderungen gefordert, und letztlich sei es das Problem der Journalisten, dass sie lieber über börsliche Höhenflüge als über mahnende wissenschaftliche Expertise berichtet hätten. Die Krise sei also gerade dadurch entstanden, dass die Welt nicht auf die Ökonomen gehört habe.
Kommerzielle Bildanbieter entledigen sich zunehmend ihrer analogen Fotoarchive. Dabei geht es nicht selten um Millionen von Fotografien. Angesichts dieser Entwicklung stellt sich die Frage, wie es bei solchen Anbietern um die Wertschätzung ihres analogen Fotoerbes steht. Die Antwort scheint entsprechend einfach zu sein: Solche Bestände werden gering geschätzt. Die Fotoarchive werden abgegeben oder gar vernichtet, weil sie für ihre Besitzer mehr Verlust als Profit einbringen. In manchen Fällen übernehmen öffentliche Gedächtnisinstitutionen wie Archive, Museen und Bibliotheken die Bestände und widmen sie von Gebrauchs- zu historischen Fotoarchiven um. Dies hat im Zusammenspiel mit der allgemeinen Digitalisierung der Fotografie das Bewusstsein für die Historizität alter Pressefotografien und damit für ihren kulturellen sowie wissenschaftlichen Wert geschärft. Die einst massenhaft für den Verkauf hergestellten Gebrauchsbilder gelten heute als zeithistorische Dokumente. In der medialen Öffentlichkeit wird vollmundig vom »visuellen« oder vom »fotografischen« Gedächtnis eines ganzen Landes geschrieben.
Taylors Name steht heute – mit dem Begriff „Taylorismus“ – für Arbeitszerlegung und Dequalifizierung. In seinem vielfach nachgedruckten Hauptwerk „The Principles of Scientific Management“ fasste der amerikanische Ingenieur und Rationalisierungsberater Frederick Winslow Taylor (1856–1915) vorhandene heterogene Rationalisierungsvorschläge und -maßnahmen sowie eigene Überlegungen zu einer plakativen Lehre zusammen. An ihr entzündeten sich in den Jahren vor und nach dem Ersten Weltkrieg heftige Auseinandersetzungen um die Organisation der Fabrik und die Gestaltung industrieller Arbeit.
Ganz im Freud’schen Sinne war die deutsche Sprache für Theodor W. Adorno das von Anfang an Vertraute, das vor dem Hintergrund des Nationalsozialismus, der Erfahrung von Verfolgung und Exil sowie dem Wissen um die Vernichtung der europäischen Jüdinnen und Juden jedoch zum Unvertrauten wurde. Gerade deshalb, so könnte man meinen, hielt Adorno beharrlich am Ideal eigener, »authentischer« Sprachverwendung als Muttersprachler fest, als sei seine Sprache ein autonomer Bereich. Zugleich richtete sich seine Sprachkritik aber gleichsam »objektiv« auf den mit formelhafter Sprachverwendung einhergehenden gesellschaftlichen Erfahrungsverlust. Unter dieser spannungsreichen Doppelperspektive reflektierte Adorno sein Verhältnis zur deutschen Sprache und die Funktion von Sprache als Medium des Denkens in einer Vielzahl von Texten. Während in einigen davon das Deutsche als Muttersprache vor allem ein identitätsstiftendes Moment bedeutet und als biographische Klammer nach der Zäsur von Exil und Holocaust eine Verbindung zur Kindheit herstellt, steht einem solchen emphatischen Verständnis des Deutschen die Analyse entleerter, formelhafter Sprachverwendung in unterschiedlichen Bereichen der Gesellschaft gegenüber. So deutet sich an, dass der Remigrant Adorno in der verwalteten Welt nach dem »Zivilisationsbruch« (Dan Diner) in der deutschen Sprache sprachmächtig agieren konnte, während er zugleich einen allgemeinen Erfahrungsverlust konstatierte. Der Spannung, ja dem Changieren Adornos zwischen radikaler Sprachkritik einerseits und Idealisierung der deutschen Muttersprache andererseits möchte ich hier in fünf Schritten nachgehen.
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.
Am 1. Oktober 1973 nahmen die Hochschulen (seit 1985 Universitäten) der Bundeswehr in Hamburg und München ihren Lehrbetrieb auf. Hervorgegangen aus jahrelangen Diskussionen über Bildung und Ausbildung in der Bundeswehr, sollten sie allen Offizieren ein vollwertiges wissenschaftliches Studium bieten, um sie für ihre militärischen Führungsaufgaben sowie für den zivilen Arbeitsmarkt nach ihrer Dienstzeit zu qualifizieren. Neben der Attraktivität der soldatischen Laufbahn kamen zwei weitere Argumente hinzu: zum einen die militärische Effektivität unter den Vorzeichen der wissenschaftlich-technischen Systemkonkurrenz im Kalten Krieg, zum anderen die integrative Funktion akademischer Bildung für Soldaten als »Staatsbürger in Uniform«. Erst das Ineinandergreifen dieser drei Argumentationsstränge ermöglichte die Gründung der Hochschulen, gegen die Kritik von konservativen Militärs und aus der Studentenbewegung. Der Aufsatz ordnet die verschiedenen Motivationen für die Akademisierung der Offizierslaufbahn seit den frühen 1960er-Jahren historisch ein und erklärt die Spannungen der Gründungsgeschichte im Kontext der allgemeinen Hochschulexpansion.
In der westdeutschen Universitätsmedizin galt Stress zunächst als deskriptive Laborbeobachtung und nur wenig origineller Versuch des Hormonforschers Hans Selye, die Regulationsmechanismen des Körpers mit einem ganzheitlichen Konzept zu beschreiben. Selyes in Kanada entwickelte Ansätze fanden in der Bundesrepublik kaum positive Resonanz; das Stresskonzept schien in den 1950er-Jahren keine Zukunft zu haben. Dies änderte sich in den 1960er-Jahren, als Stress über das Risikofaktoren-Modell mit der Diskussion um Herz- und Kreislauferkrankungen verbunden wurde. Stress wurde nun Leitbegriff und Forschungsressource von Disziplinen wie Sozialmedizin, Psychosomatische Medizin, Arbeitsmedizin und Präventivmedizin. Um 1970 trat zu den Bezugsebenen »Zivilisation« und »Gesellschaft« noch »Umwelt« hinzu. Insbesondere drei Bedrohungsszenarien erwiesen sich als Stimuli der medizinischen Stressforschung: Überbevölkerung und Verstädterung, Verkehr und Lärm sowie der Wandel der Arbeitswelt. Weit über wissenschaftliche Verwendungen hinaus wurde der Stressbegriff populär, weil er zeitdiagnostisches Deutungspotential gewann und sich als eine Verständigungsplattform der Verunsicherten eignete.
Nachdem das Interesse an Dingen und damit an Materieller Kultur im Forschungsalltag mancher Disziplinen lange Zeit eher gering war, erlebt die Auseinandersetzung mit Dingen seit etlichen Jahren auch in der deutschsprachigen Wissenschaftslandschaft eine Renaissance. Das gilt nicht nur für Fächer, die sich schon seit jeher mit Materieller Kultur beschäftigen – etwa die archäologischen Wissenschaften, die Ethnologie und die Volkskunde/Europäische Ethnologie –, sondern zunehmend auch für solche Wissenschaften, deren genuiner Forschungsgegenstand keine materiellen Hinterlassenschaften sind, wie die Geschichtswissenschaft, die Philosophie, die Germanistik und verschiedene sozialwissenschaftliche Fächer. Zu denjenigen Fächern, die die Dinge für sich entdeckt haben, gehört seit wenigen Jahren auch die Zeitgeschichtsforschung. Auf den ersten Blick mag das zunehmende Interesse verwundern, verfügt die Zeitgeschichte doch über andere Quellenarten (Schriftdokumente, audiovisuelle Quellen, mündliche Zeugnisse), die deutlich mehr Aussagekraft als gegenständliche Objekte zu haben scheinen. Den Dingen wird von der Zeitgeschichtsforschung heute offenbar ein Erkenntniswert zugemessen – befördert unter anderem auch durch die Studien Bruno Latours und seine Akteur-Netzwerk-Theorie (ANT) –, der ihnen zuvor abgesprochen bzw. nicht zuerkannt worden war.
Für dieses Buch muss man sich etwas Zeit nehmen. Ich hatte die gut 700 Seiten umfassende amerikanische Originalausgabe von »Mechanization Takes Command« (den Titel kürzte Giedion in seinen Notizen mit dem Akronym »M.T.C.« ab) im Sommer 2017 im Amtrak California Zephyr auf meiner Reise von Greenriver, UT, nach Chicago, IL, im Gepäck. Diese Reise bot aktualisiertes Anschauungsmaterial zu Giedions Sondierungen der US-amerikanischen Industrialisierungsgeschichte. Sie folgte jener Eisenbahnlinie, welche Kalifornien (wo die Frontier-Gesellschaft Amerikas im ausgehenden 19. Jahrhundert an ihr Ende gelangte) mit Chicago verbindet (der nach dem großen Brand von 1871 zur Industriemetropole avancierten Stadt am Lake Michigan). Dazwischen öffnete sich der Midwest, dessen verrostete und verlassene industrielle Infrastruktur (Bahnhöfe, Fabriken, Brücken, Städte) durch das Zugfenster ins Blickfeld geriet und somit den Endpunkt der von Giedion dokumentierten Entwicklungen brutal vor Augen führte. Die heruntergewirtschafteten Landschaften des Midwest und Giedions Streifzüge in ihre Industrialisierung während des 19. Jahrhunderts flossen ineinander über. Etwa dann, wenn der Zug stillstand und mein Blick bei den Getreide-Elevatoren hängen blieb, wo sich die Eisenbahnlinien kreuzen und der Personenzug den unendlich langen Güterwagen, die von Diesellokomotiven angetrieben werden, den Vortritt lassen musste. Oder wenn ich beim mäandrierenden Durchblättern des Buches und dem Blick aus dem Zugfenster den Faden verlor und eindöste – und dann beim Eindunkeln jäh von den sleeping car attendants, welche die ausklappbaren Sitze für die Nacht mit ein paar Handgriffen zu Betten umwandelten, in die Gegenwart zurückgeholt wurde. Oder im Nachfolgemodell des von George M. Pullman 1869 in seinem Patent beschriebenen Speisewagens, wo die Reisende aus Europa und Wählerinnen des amtierenden Präsidenten sich am gemeinsamen Tisch zum Verzehr von Burger, Steaks und Hot Dogs wiederfanden. Jenes Präsidenten, der zu Beginn des 21. Jahrhunderts eine Re-Industrialisierung abgehängter Regionen im einst prosperierenden Rostgürtel der USA versprach.
Dieser Beitrag geht der Frage nach, wie Migration durch Statistik sozial relevant wird. Welche Kategorien kommen dabei zum Einsatz? Zuerst wird die historische und wissenssoziologische Perspektive erläutert. Im zweiten und dritten Teil werden historische Umbrüche in der Kategorisierung von Migration am Beispiel der amtlichen Statistik im Deutschen Kaiserreich und in der Bundesrepublik Deutschland skizziert. Der Fokus verschob sich von Migration als Ein- und Ausreisebewegung zu Migration als Alteritätszuschreibung (gestützt auf die Kategorie »Migrationshintergrund« ab 2005). Vor diesem Hintergrund wird im letzten Teil gezeigt, wie sich vergangene und aktuelle Kategorisierungen von Geflüchteten mit der Migrations- und Integrationssemantik verbanden bzw. verbinden. Über die Rekonstruktion der semantischen Brüche und Kontinuitäten hinaus dient die historische Kontextualisierung dem Ziel, heute gängige Kategorien für Migration und Flucht besser reflektieren zu können, die in der Wissenschaft, Politik und Verwaltung verwendet werden.
Die Pyrenäen bilden eine natürliche Grenze zwischen Frankreich und Spanien, zwischen dem europäischen Hauptland und der iberischen Halbinsel. Dort, wo sie nicht in den Himmel ragen, in ihren Tälern und auf ihren Passhöhen sowie an den Meeren, waren die Pyrenäen auch stets eine tierra de paso, eine Transitzone. An ihren östlichen Ausläufern gibt es zwei bedeutende Übergänge. Einer liegt im sanften, flachen Tal von La Jonquera und quert die Landesgrenze bei Le Perthus. Der andere kreuzt an der Küste am Coll dels Belitres zwischen Cerbère (Frankreich) und Portbou (Spanien). Daneben und dazwischen durchziehen kleine Wege die Landschaft, offizielle und inoffizielle, Pfade für Schmuggler, Verfolgte, Fliehende. Jede Gegend und jede Route hat ihre Konjunktur. Die Hoch-Zeit dieser Transitlandschaft, als sich die europäische Kriegs- und Verfolgungsgeschichte des 20. Jahrhunderts an dieser Grenze kristallisierte, war zwischen dem Winter 1938/39, als der spanische Krieg mit dem Sieg Francisco Francos endete, und den Jahren 1940/41, bevor im Sommer 1941 die systematische Vernichtung der europäischen Juden begann.
Seit den Anschlägen vom 11. September 2001 ist auch in Deutschland ein steigendes öffentliches und wissenschaftliches Interesse an kriegerischen Konflikten zu beobachten. War dieses Forschungsfeld lange vor allem Zeithistorikern und -historikerinnen vorbehalten, so interessieren sich zunehmend auch die Politik- und Sozialwissenschaften für das Gebiet, was sich an einer Fülle von Publikationen und Konferenzen zeigt. Besonders mit dem Erscheinen von Herfried Münklers Buch „Die neuen Kriege“ (2002) ist eine lebhafte Diskussion entbrannt. Münkler konstatiert in seinem Werk die Entstehung einer neuen Form von Kriegen: Die Kriegsakteure hielten sich nicht mehr an Regeln; die Unterscheidung zwischen Kombattanten und Nichtkombattanten sei aufgehoben; und die Kriege hätten in erster Linie einen ökonomischen Hintergrund. Ob man nun von „neuen“, „asymmetrischen“, „kleinen“ oder „low-intensity-Kriegen“ sprechen will: Die AKUF distanziert sich von der Vorannahme, die aktuellen Konflikte seien eine gänzlich neue Entwicklung.
Noch immer liegen NS- und Genozidforschung weit auseinander – und sind zugleich doch eng miteinander verbunden. Denn zum einen bildet der Holocaust für die Genozidforschung bis heute die Matrix der unterschiedlichsten Typologieversuche. Zum anderen gründet die These von der Singularität des Holocaust notwendig, obgleich meist nur implizit auf dem Vergleich mit anderen Massenmorden. Dennoch arbeiten beide Disziplinen bis heute vielfach nebeneinander her. NS-Forscher ignorieren die Forschungsergebnisse zu den übrigen Völkermorden im 20. Jahrhundert weitgehend und perpetuieren damit die Singularitätsthese durch den eigenen eingeengten, überwiegend nationalgeschichtlich-deutschen Horizont. Die zahlreichen Bücher zu Genoziden basieren hingegen oft auf einem Kenntnisstand des Holocaust, der aus den 1970er-Jahren stammt, und beziehen sich damit sich auf eine gänzlich veraltete Matrix, die wiederum die eigenen Schlussfolgerungen verzerrt.
Anhand der bundesdeutschen Pharmawirtschaft, genauer der Unternehmen Bayer, Hoechst, Merck und Schering, wird gezeigt, dass die Bedeutung von Patentrechten für die Gesundheitsökonomie in der zweiten Hälfte des 20. Jahrhunderts deutlich wuchs: Die Unternehmen erhöhten nicht nur die Anzahl von Patenten, sondern auch die Investitionen in immaterielles Vermögen erheblich. Die Kosten für Forschung und Entwicklung (F&E) überstiegen seit etwa Ende der 1970er-Jahre die Investitionen in Produktionsanlagen. Patente selbst avancierten zum Instrument, um unternehmensseitig den Wettbewerb zu beeinflussen. Das 1968 eingeführte »Stoffpatent« für neue chemische Verbindungen hatte dafür erweiterte Möglichkeiten geschaffen. Patent- und Lizenzabteilungen wurden zu wichtigen Orten unternehmensinterner Entscheidungsfindung. Zudem wurden die Forschungsleistungen hervorgehoben, um den Anstieg der Arzneimittelpreise zu rechtfertigen. Der Aufsatz leistet einen Beitrag zur Beantwortung der Frage, wie und wann die bundesdeutsche Wirtschaft verstärkt zu einer »Intangible Economy« wurde. Er verdeutlicht, wie relevant geistiges Eigentum für die Transformation seit den 1970er-Jahren war – und damit für die Zeitgeschichte des Kapitalismus als Kombination von Vermarktlichung und Verrechtlichung, von globalem Wettbewerb und nationalstaatlicher Regulierung.
Im Frühjahr 2020 tauchten die Begriffe »Postkolonialismus«, »postkoloniale Theorie« und verwandte Kategorien mit ungewohnter Dichte in den deutschen Feuilletons auf, waren Gegenstand von Streitgesprächen im Radio und aufgeregten Twitter-Kommentaren. Zentraler Anlass für die ambivalente Hausse des Postkolonialismus war die Erklärung des Antisemitismusbeauftragten der Bundesregierung, Felix Klein, der Kameruner Historiker Achille Mbembe sei wegen antisemitischer Positionen als Eröffnungsredner der Ruhrtriennale »nicht geeignet«. Daraus entwickelte sich eine heftige und durchaus verwirrende Debatte, in der Klein und gleichgesinnte Mbembe-Kritiker*innen des Rassismus und McCarthyismus gescholten wurden, während andere anhand weniger Passagen aus Mbembes umfangreichem Werk nicht nur darauf insistierten, er sei Antisemit und »Israel-Hasser«, sondern zugleich die »postkoloniale Theorie« anprangerten, als deren wichtiger Vertreter Mbembe gilt. Irritierend daran war nicht allein der Gestus, mit dem beispielsweise so mancher Journalist auftrat, als sei er der erste, der Kritik am Postkolonialismus oder an Mbembe übe. Insgesamt fiel zudem auf, wie sehr die Debatte auf einer bestenfalls oberflächlichen Lektüre relevanter Texte basierte. Dies galt zum Teil auch für jene, die etwa die Antisemitismusvorwürfe gegen Mbembe vehement ablehnten. Die Literatur- und Kulturwissenschaftlerin Aleida Assmann, die in der Öffentlichkeit rasch zu einer der führenden Verteidiger*innen Mbembes aufstieg, gestand zunächst freimütig ein, sie könne seiner Theorie eigentlich gar nicht so richtig folgen.
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
Joseph Weizenbaum (1923–2008), in Berlin geboren, war durch die Nazis gezwungen, mit seiner jüdischen Familie aus Deutschland zu fliehen. Am MIT in Boston wurde er seit den 1960er-Jahren ein renommierter KI-Forscher. Er ist bis heute nicht nur als ein Pionier der Forschung zur Künstlichen Intelligenz anerkannt, sondern vor allem als ein streitbarer Kritiker der Computerkultur. Sein Buch »Computer Power and Human Reason. From Judgement to Calculation« ist ein Klassiker der Technik- und Wissenschaftskritik, ja der Kritik an der technischen und naturwissenschaftlichen Moderne überhaupt. Es ist aber besonders der Titel der deutschen Ausgabe, der mit seiner Dichotomisierung von Macht und Ohnmacht, Computer und Vernunft die These des selbsterklärten »Dissidenten« oder »Ketzers« der Informatik eingängig auf den Punkt bringt. Und das Zitat auf der Umschlagrückseite verortet das Buch auch gleich im Feld der Kritischen Theorie Max Horkheimers, auf den Weizenbaum sich explizit bezieht: »Ich bekämpfe den Imperialismus der instrumentellen Vernunft, nicht die Vernunft an sich.«
Der Aufsatz entwirft eine Zeitgeschichte der Vorsorge, die sich für den hygienepolitischen Übergang von Praktiken der Intervention und Krisenbewältigung zu Praktiken der Prävention interessiert. Am Beispiel der Pestvorsorge in der Sowjetunion wird erstens ein Prozess der Institutionalisierung, Professionalisierung und Verwissenschaftlichung dargestellt. Zweitens werden die Eigenheiten des sowjetischen Falls herausgearbeitet. Die dortige Pestbekämpfung war bis in die 1930er-Jahre von Interventionen geprägt, die aus einem Repertoire repressiver, im Kontext der Zwangskollektivierung etablierter Maßnahmen schöpften. Der Umgang mit der Pest war nicht mit Aufklärung verknüpft, sondern mit Geheimhaltung. Die Einrichtung eines Netzwerks wissenschaftlicher Forschungsstätten führte zu einem Wandel im Umgang mit der Seuche. Dies war eingebettet in parallele Diskurse über administrative Grenzen und geographisches Wissen. Der Aufsatz stützt sich auf Quellen aus Staats- und Partei-Archiven in der Russischen Föderation und der Republik Aserbaidschan.
Der Beitrag befasst sich mit dem „Peckham-Experiment“, einem Forschungsprojekt, das in den 1930er- und 1940er-Jahren im „Pioneer Health Centre“ (PHC) durchgeführt wurde, einem Freizeit- und Gesundheitszentrum im Londoner Stadtteil Peckham. Im Fokus der Fallstudie steht die Genese neuen präventionsmedizinischen Wissens und neuer vorsorgebezogener Praktiken. Die beteiligten Experten versuchten, das „natürliche“ Potential von Individuen und die sozialen Beziehungen zwischen Familien zu nutzen, um ein gesundheitsförderliches Verhalten zu stimulieren. Das „Peckham-Experiment“ wird im Kontext der britischen wohlfahrtspolitischen Debatten und der biologisch-medizinischen Theorien seiner Gründungszeit analysiert. Gezeigt wird aber auch, dass der neue, stark auf Selbstverantwortung gerichtete Ansatz des PHC sich zudem aus den spezifischen Herausforderungen der „Laborsituation“ ergab, die im Laufe des Experiments zur Revision interventionistischer Vorannahmen führten. Allerdings waren andere Wissenschaftler skeptisch gegenüber den in Peckham gewonnenen Erkenntnissen. Zudem ließ sich das PHC nicht in den neuen „National Health Service“ integrieren. Beides bewirkte 1950 letztlich die Schließung des Centres.
Sprachkritik und Autobiographie. Über Victor Klemperers »LTI. Notizbuch eines Philologen« (1947)
(2024)
Victor Klemperers Schrift »LTI. Notizbuch eines Philologen« wurde bereits in der Erstauflage zu 10.000 Exemplaren gedruckt, aber sie wurde nicht gleich zu dem Erfolg, den sich ihr Autor erhofft hatte. An Silvester 1947, nachdem ihm der Verlag das Geschenk eines eigens für ihn gebundenen Exemplars des ansonsten kartonierten Werks zugeschickt hatte, notierte er bedrückt in sein Tagebuch: »In diesem schönen Band […] tritt die Jämmerlichkeit des Papiers u. des Druckes noch krasser hervor. Im übrigen ist es ganz still von der LTI. Wo sind die 10.000 Exemplare? In keiner Buchhandlung, in keiner Redaktion. Keine Zeitung hat davon Notiz genommen.« Heute ist diese früh geäußerte Enttäuschung zu einer Fußnote geworden, denn das Buch gehört längst zu den Klassikern der Sprachkritik, liegt in sechsstelliger Auflagenhöhe und in vielen Übersetzungen vor. Das Nachdenken über die linguistische Korruption der modernen öffentlich-politischen Rede wurde durch wenige Werke so sehr angeregt wie durch dieses. LTI wurde dabei einerseits als »bedeutendes zeithistorisches Dokument« für die Ära des »Dritten Reiches« betrachtet, andererseits als »Wissensspeicher« für die Analyse der Funktionsweise einer Diktatur im Allgemeinen interpretiert. Beide Lesarten finden im Buch ihre Belege. Der ironische Latinismus »LTI« (für »Lingua Tertii Imperii«, »Sprache des Dritten Reiches«) war Kommentar und Deckkürzel zugleich; er persiflierte die nazistische Sucht nach Abkürzungen; und er war auch die »Geheimformel« (S. 20) in Klemperers Tagebuch der Jahre 1933–1945, mit der er seine Sprachbeobachtungen markierte. Ob nun mit dem Akzent auf die Zeugenschaft des Autors oder mit dem Blick auf die analytischen Angebote des Buches: Es ist in keiner dieser Perspektiven eine vergessene Schrift, sondern ein kanonisch gewordenes Werk, das im doppelten Wortsinne Geschichte geschrieben hat.
Mit dem Ende des Ersten Weltkrieges war der Abschied von einem bedingungslosen Fortschrittsglauben gekommen. Die Erfahrungen des Stellungskrieges und der Materialschlacht munitionierten die Fortschrittskritik. Die universitäre Etablierung des Fachs Volkskunde im Jahr 1919 war seit den letzten beiden Jahrzehnten des 19. Jahrhunderts durch wissenschaftliche Zeitschriften, Kongresse und museale Sammlungen vorbereitet und von der »Suche nach dem Elementaren in der Kultur« begleitet worden. Die Hinwendung zu den Dingen, vor allem zu Arbeits- und Hausgerät aus europäischen Reliktgebieten, spielte in diesem Prozess eine wichtige Rolle. Die Frage nach ihrer Bedeutung und Sinnaufladung verdichtete sich mit der Disziplinierung, auch wenn die Erforschung der materiellen Kultur nicht der einzige Gegenstand des Faches war, das sich aus den Philologien herausbildete. Geht man davon aus, dass das 19. Jahrhundert das »Saeculum der Dinge« ist, weil die industrielle Massenproduktion die Verfügbarkeit sowie den Verbrauch der Dinge seit der zweiten Hälfte des 19. Jahrhunderts immens steigerte, dann führt der Weg zu der intensivierten Aufmerksamkeit für die Dinge des Alltags in Kunst, Literatur und Wissenschaft in die ersten Jahrzehnte des 20. Jahrhunderts.
Stress ist ein ubiquitärer Begriff – seine geschichtswissenschaftliche Erforschung aber hat erst begonnen. Der Aufsatz skizziert programmatisch die Genese und die Funktionen des Stresskonzepts im 20. Jahrhundert. Dabei wird Stress nicht in erster Linie als Syndrom und Krisenphänomen betrachtet, sondern als Deutungs- und Handlungsangebot westlicher Gesellschaften, die sich als instabil, wandelbar, innovativ und dynamisch begreifen. Die performative Kraft des Stresses als Modus gesellschaftlicher Selbstreflexion wird in vier historisch und systematisch aufeinander bezogenen semantischen Feldern untersucht: Stress als Regulations- und Anpassungsmodell, Stress als Prinzip der Wettbewerbsgesellschaft (mit engen Beziehungen zu Arbeit, Leistung und Erfolg), Stress als Zivilisationskritik (mit der stressfreien Gesellschaft als utopischem Gegenbild) sowie Stress als flexible Ökologie von Mensch-Umwelt-Verhältnissen. Dabei handelt es sich weniger um eine chronologische Ordnung als vielmehr um Deutungsvarianten, die in unterschiedlichen Verwendungskontexten aufkamen und sich im heutigen Stressbegriff überlagern.
Wie reagieren Menschen auf Katastrophen? Wie lassen sich Bevölkerungen in Extremsituationen führen? Mit diesen Fragen beschäftigten sich in den 1950er-, 1960er- und 1970er-Jahren mehrere US-amerikanische, teilweise durch die Armee finanzierte Forschungsgruppen. Sie waren interdisziplinär zusammengesetzt, aber mehrheitlich soziologisch ausgerichtet. Innerhalb wie außerhalb der USA studierten sie das Stressverhalten von Individuen und Gruppen in Tornados, eingeschneiten Autobahnraststätten und »racial riots« sowie ergänzend in Laborsimulationen. Anhand zeitgenössischer Publikationen und interner Akten werden in diesem Aufsatz die Erkenntnisinteressen und Untersuchungsfelder der sozialwissenschaftlichen Katastrophenforschung, ihre Befunde und deren Nutzung dargestellt. Die Tätigkeit der Wissenschaftler/innen stand im Kontext des Kalten Kriegs und eines sich verschiebenden Gefahrensinns. Dabei ließen sich die Forscher/innen keineswegs vollständig politisch vereinnahmen, sondern verfolgten durchaus eigene Interessen und gaben mitunter Antworten, die den Intentionen der Auftraggeber zuwiderliefen.
Wie für viele neue Staaten und »Entwicklungsländer« in der Ära nach dem Zweiten Weltkrieg spielten transnationale Dynamiken des Wissenstransfers auch für das 1948 gegründete Israel eine wichtige Rolle. Eine geradezu staatstragende Funktion kam dabei der entstehenden Raumplanung zu. Die israelischen Planungseliten waren durch ihr Studium und durch Grundannahmen des »Social Engineering« eng mit der deutschen Wissenskultur und speziell mit der Raumordnung verflochten – auch über die Zäsur von 1945 hinweg. Der Aufsatz untersucht die Rezeption der Theorie »zentraler Orte« im Kontext des ersten, meist als »Sharonplan« bezeichneten israelischen Nationalplans von 1951. Die 1933 durch Walter Christaller publizierte Theorie hatte auch einen konzeptionellen Eckpfeiler des »Generalplans Ost« gebildet, den die SS bzw. der »Reichskommissar für die Festigung deutschen Volkstums« (RKF) nach 1939 zur »Germanisierung« der eroberten Ostgebiete entwickelt hatte. Die Ambivalenz der israelischen Rezeptionslinie wird anhand der Biographien dreier Planer geschildert (Eliezer Brutzkus, Artur Glikson, Ariel Kahane).
»[…] wenn ›die Quelle‹ die Reliquie historischen Arbeitens ist – nicht nur Überbleibsel, sondern auch Objekt wissenschaftlicher Verehrung –, dann wäre analog ›das Archiv‹ die Kirche der Geschichtswissenschaft, in der die heiligen Handlungen des Suchens, Findens, Entdeckens und Erforschens vollzogen werden.« Achim Landwehr wirft in seinem geschichtstheoretischen Essay den Historikern ihren »Quellenglauben« vor – diese Kritik ließe sich im digitalen Zeitalter leicht auf die Heilsversprechen der Apostel der »Big Data Revolution« übertragen. Zwar regen sich mittlerweile vermehrt Stimmen, die den »Wahnwitz« der digitalen Utopie in Frage stellen, doch wird der öffentliche Diskurs weiterhin von jener Revolutionsrhetorik dominiert, die standardmäßig als Begleitmusik neuer Technologien ertönt. Statt in der intellektuell wenig fruchtbaren Dichotomie von Gegnern und Befürwortern, »First Movers« und Ignoranten zu verharren, welche die Landschaft der »Digital Humanities« ein wenig überspitzt auch heute noch kennzeichnet, ist das Ziel dieses Beitrages eine praxeologische Reflexion, die den Einfluss von digitalen Infrastrukturen, digitalen Werkzeugen und digitalen »Quellen« auf die Praxis historischen Arbeitens zeigen möchte. Ausgehend von der These, dass ebenjene digitalen Infrastrukturen, Werkzeuge und »Quellen« heute einen zentralen Einfluss darauf haben, wie wir Geschichte denken, erforschen und erzählen, plädiert der Beitrag für ein »Update« der klassischen Hermeneutik in der Geschichtswissenschaft. Die kritische Reflexion über die konstitutive Rolle des Digitalen in der Konstruktion und Vermittlung historischen Wissens ist nicht nur eine Frage epistemologischer Dringlichkeit, sondern zentraler Bestandteil der Selbstverständigung eines Faches, dessen Anspruch als Wissenschaft sich auf die Methoden der Quellenkritik gründet.
Nostalgie wird oft in kulturellen und, mehr noch, popkulturellen Kontexten diskutiert. Gelegentlich – und gerade in den letzten Jahren wieder – findet sich der Begriff jedoch auch in politischen Zusammenhängen. So wird er dazu verwendet, politische Entwicklungen zu erklären: etwa das britische EU-Referendum, die Wahl Donald Trumps zum Präsidenten der USA, das Erstarken der AfD in Deutschland oder den Aufstieg neuer Autoritarismen im östlichen Europa. Viele Beobachter*innen stellen einen in ihren Augen alarmierenden Zusammenhang zwischen Politik und Vergangenheitssehnsucht her. Aus ihrer Sicht resultieren die Effekte einer ungebremsten Globalisierung in einer gefährlichen Rückwärtsgewandtheit. Statt über sozioökonomische Konstellationen und Interessen erklären sie Politik emotional und psychologisch, wobei sie Nostalgie repathologisieren.
Heute gilt es als unbestritten, dass die allgegenwärtigen Geschichtsdarstellungen in den Medien massiv das Geschichtsbewusstsein prägen. Allerdings wurde selten gefragt, welche Konsequenzen dies für die Geschichtswissenschaft hat und wie diese damit umging. Ein früher Beitrag eines Historikers, der die Folgen von Geschichts-Fernsehserien für die Forschung reflektierte, stammt von Martin Broszat, der 1979 auf den damaligen Erfolg der amerikanischen Fernsehserie „Holocaust“ reagierte. Seinen Aufsatz neu zu lesen lohnt in doppelter Hinsicht: Einerseits ist der Text ein frühes selbstkritisches Zeugnis dafür, wie ein renommierter Historiker aus einer medialen Geschichtsdarstellung einen Perspektivwechsel für die Forschung ableitet. Andererseits lässt sich der Artikel als eine trotzige Verteidigungsschrift der Zunft verstehen, die zahlreiche problematische Punkte aufweist, welche die Beziehung zwischen Geschichtswissenschaft und Medien bis heute prägen.
Impfungen sind ein Traum der Moderne: Sie versprechen den Schutz ganzer Gesellschaften. In den beiden deutschen Staaten wurde dieser Schutz mit unterschiedlichen Methoden vorangetrieben – das Mobilisieren von Ängsten, Appelle an die Sorge um das Gemeinwohl oder die Durchsetzung von Impfpflichten sollten die Gesundheit des Einzelnen und den „Herdenschutz“ der Gesellschaft sichern. Der Aufsatz erkundet die deutsch-deutsche Geschichte des Impfens von den 1950er-Jahren bis 1989/90. Im Fokus stehen Aushandlungen von Risiko- und Sicherheitsvorstellungen, Versuche eines „Emotion Management“ sowie Debatten über das Verhältnis zwischen staatlicher Interventionsmacht und staatsbürgerlicher „Mündigkeit“. Anhand der Konflikte zwischen der Bundesrepublik und der DDR wird zudem gezeigt, dass der Wettlauf um die bessere Immunisierung ein Kampf um die bessere soziale Ordnung war. Andererseits wird belegt, dass es auf dem Gebiet der Impfpolitik gerade in den 1980er-Jahren eine wachsende Tendenz zur deutsch-deutschen und internationalen Kooperation gab.
Seit einigen Jahren verdichtet sich auch in Deutschland das Gespräch über Herausforderungen und Perspektiven des digitalen Zeitalters für die Geschichtswissenschaft. Auf jedem Historikertag seit 2010 gab es mehrere Sektionen, die sich unterschiedlichen Facetten des Themas zuwandten. Es entstehen Fachpublikationen, Überblickswerke, Dissertationen und erste Ansätze, das Feld institutionell neu zu gestalten. Die Geschichtswissenschaft bemüht sich, produktiv auf die Veränderungen einzugehen. Punktuell ist es auch bereits zu einem Dialog mit Archiven und der Archivwissenschaft gekommen. So hat der Verband der Historiker und Historikerinnen Deutschlands (VHD) 2015 unter Federführung der Vorsitzenden Eva Schlotheuber und Frank Bösch ein Grundsatzpapier verabschiedet, das sich der Quellenkritik im digitalen Zeitalter annimmt. Die Forderung, Elemente der Digital Humanities in die Historischen Grundwissenschaften zu integrieren, wurde seitdem noch weiter unterstrichen.
In der aktuellen Debatte um Holocaust, Kolonialismus und Erinnerung hat Per Leo jüngst angeregt, dass Historikerinnen und Historiker irritierende Fragen stellen sollten. Diesem, wie ich finde, klugen Vorschlag folgend, möchte ich hier diskutieren, ob und inwieweit die Rede von der Singularität des Holocaust angemessen, sinnvoll, erkenntnisfördernd ist. Wie ist sie (in der Bundesrepublik) entstanden, und worin könnte heute ihre Aussagekraft liegen? Müsste die Perspektive nicht erweitert werden? Solche Fragen führen in das Zentrum einer Debatte, die hierzulande seit der Auseinandersetzung vom Frühjahr 2020 um den afrikanischen postkolonialen Theoretiker Achille Mbembe heftig entbrannt ist, dem der Antisemitismus-Beauftragte der Bundesregierung Felix Klein vorwarf, den Holocaust zu relativieren. Die vor allem in den Feuilletons geführte Debatte verschärfte sich, als der in den USA lehrende Historiker A. Dirk Moses im Mai 2021 mit einem provokanten Essay die deutsche Erinnerungskultur kritisierte: In der Fixierung auf den Holocaust würden die Kolonialverbrechen ausgeblendet. Die Kontroverse um Antisemitismus auf der diesjährigen documenta bildete mit den schrillen Tönen zweifellos den vorläufigen Tiefpunkt dieser Debatte. Nachdenkliche Argumente wie von Micha Brumlik, Sebastian Conrad, Charlotte Wiedemann oder Natan Sznaider scheinen kaum noch Gehör zu finden.
Im April 2008 wurde in Gegenwart von Simone Veil, der früheren Präsidentin des EU-Parlaments, an der Pariser Universität Sciences Po eine neue und ambitionierte elektronische Informationsquelle freigeschaltet: die Enzyklopädie über Massengewalt oder „mass violence“, wie der Titel im Englischen heißt (das die bevorzugte Sprache dieser Website ist). Das Projekt ist also noch jung, und so nimmt es nicht wunder, dass es trotz einer fast vierjährigen Vorlaufphase nicht frei von Startproblemen ist. Sie liegen zum Teil im monumentalen, aber noch unzureichend eingelösten Dokumentationsanspruch der Enzyklopädie, vor allem aber in der unscharfen Bestimmung dessen, was dokumentiert werden soll.
In der ersten Hälfte der 1990er-Jahre sahen sich die traditionellen Informationsvermittlungsinstanzen, die Bibliotheken, nicht in der Lage, ihre Mediatorenfunktion in puncto Internet wahrzunehmen. Es blieb in dieser Gründungsepoche der Eigeninitiative selbstloser NetzenthusiastInnen überlassen, für verschiedenste Disziplinen bald so genannte Fachverzeichnisse, Themenkataloge oder Fachportale aufzubauen. Ein Teil von ihnen organisierte sich in der Virtual Library (VL), dem ältesten Web-Suchdienst, ins Leben gerufen durch den WWW-„Erfinder“ Tim Berners-Lee. Sie ist der Versuch, durch eine lose Zusammenarbeit von Experten, die jeweils für ein bestimmtes Schlagwort Indices von Webressourcen erstellen, einen Universalkatalog mit akademischer Ausrichtung zu betreiben. Als Zielgruppen, zu denen sich auch die VL Zeitgeschichte bekennt, sollen vor allem WissenschaftlerInnen, Lehrende und Studierende angesprochen werden. Die VL fordert von ihren RedakteurInnen ein, nur solche Webressourcen aufzunehmen, die bestimmte Qualitätskriterien erfüllen; um in der VL Zeitgeschichte gelistet zu werden, muss daher der „wissenschaftliche Nutzen“ gegeben sein (siehe die Rubrik „Aufnahmekriterien“ der Website).
Das Taschenbuch „Medizin ohne Menschlichkeit“ wurde ein Best- und Longseller. Binnen sechs Wochen nach Erscheinen, im Frühjahr 1960, konnte der Fischer-Verlag bereits 29.000 Exemplare absetzen. 2004 erreichte der Band die 16. Auflage. Ein erstaunlicher Erfolg für die Neuausgabe eines Buches von 1949; eines Buches zudem, das, wie der Untertitel anzeigte, „Dokumente des Nürnberger Ärzteprozesses von 1946/47“ präsentierte. Seither waren immerhin 13 Jahre vergangen. Auch die Herausgeber waren einem breiten Publikum unbekannt: Der Psychoanalytiker und Heidelberger Extraordinarius Alexander Mitscherlich war eben erst dabei, in Frankfurt das spätere Sigmund-Freud-Institut zu begründen. Fred Mielke, in den ersten Nachkriegsjahren Medizinstudent bei Mitscherlich, war bereits im Frühjahr 1959 an Leukämie verstorben.
Was vor einigen Jahren ein Schreckensszenario war, ist längst eingetreten. Für den wissenschaftlichen Nachwuchs gilt schon heute: »Quod non est in google, non est in mundo.« Freilich, eine verkürzte Sicht. Der Aufbau elektronischer Findmittel zur Durchforstung von Archiv-, Bibliotheks- und Museumsbeständen hat in den vergangenen Jahren ein starkes wissenschaftliches Interesse gefunden. Die Gesellschaft vernetzte sich, es entstanden viele nützliche Service-Angebote, neue Begehrlichkeiten wurden geweckt. Heute geht es nicht mehr darum, Inhalte nur zu erschließen, sondern darum, sie online zu vermitteln. In sozialen Medien werden diese Inhalte »getaggt«, »geliked«, empfohlen oder gar kommentiert. Die sammelnden Institutionen stehen damit vor einer gewaltigen Herausforderung – technisch, finanziell und vor allem konzeptionell. Mit dem Aufkommen von Bits und Bytes befindet sich die Kulturtechnik des Sammelns und Präsentierens in einem tiefgreifenden Umbruch. Der digitale Wandel impliziert die Frage, ob Gedächtnisinstitutionen künftig noch derselbe Stellenwert zukommen wird, zukommen muss wie heute: Schaffen entmaterialisierte Kulturgüter eine neue Kulturgesellschaft?
Für diese Debatte haben wir vier prominenten Vertreter*innen beider Disziplinen, der Rechts- und der Geschichtswissenschaft, schriftlich Fragen zur Situation, zum Potential und zu den Herausforderungen einer Zeitgeschichte des Rechts gestellt.
Wie verhält sich die Rechtsgeschichte zur »allgemeinen« Geschichtswissenschaft in Deutschland? Woher rührt das ausgeprägte disziplinäre Selbstbewusstsein der juristischen Rechtshistoriker*innen, und sollten Allgemeinhistoriker*innen dem etwas entgegensetzen? Worin sehen Sie die »großen Themen« und methodischen Trends der aktuellen rechtshistorischen Forschung, besonders der Juristischen Zeitgeschichte in der Bundesrepublik? Wieviel Theorie und Methodik braucht die Rechtsgeschichte? Wo sehen Sie Potential für neue Perspektiven, und inwieweit sollte eine zeitgemäße Rechtsgeschichte über den nationalen Rahmen hinausgehen? Welche Chancen, welche Grenzen sehen Sie für die interdisziplinäre Zusammenarbeit von Jurist*innen und Historiker*innen?
Es gibt zahlreiche Gelegenheiten, um festzustellen, dass auch das eigene Selbst – entgegen jeglicher irrationalen Hoffnung – dem Alterungsprozess nicht entzogen ist. Eine Möglichkeit ist die Aufforderung, gut 25 Jahre nach seinem ersten Erscheinen ein Buch zu thematisieren, dessen Erstauflage in der eigenen akademischen Ausbildung nicht ganz unbedeutend war. Es war 1997, als mit Niklas Luhmanns »Gesellschaft der Gesellschaft« ein in mehrerlei Hinsicht schwergewichtiger Block mitten in die allgemeine Theoriediskussion hineinplumpste. Dass dieses Buch in der Erstausgabe mit schwarzem Einband daherkam, erschien mir damals durchaus folgerichtig und erinnerte an den gleichfarbigen Monolithen aus Stanley Kubricks »2001: A Space Odyssey«. Ähnlich Ehrfurcht gebietend gestaltete sich die Lektüre von Luhmanns Hauptwerk, vor allem dem Novizen in Sachen Systemtheorie, der ich damals war.
Wie verändern sich die Objekte der Geschichtsschreibung, also die Gegenwart und die jüngere Vergangenheit, durch die Medien? Wie verändert sich die Geschichtsschreibung selbst durch die Medien? Was bedeutet die in Forschung und Öffentlichkeit verbreitete Rede von der ‚Mediengesellschaft‘ aus historischer Perspektive eigentlich genau? Der Aufsatz unterscheidet zunächst einige Prozesse der ‚Medialisierung‘, geht damit verbundenen Strukturverschiebungen nach und betrachtet insbesondere Veränderungen von Öffentlichkeiten. Dabei wird dafür plädiert, die Ambivalenz der Entwicklungen anzuerkennen und nicht vorschnell Paradigmenwechsel zu behaupten. Zudem werden einige Leitlinien formuliert, was eine Medialisierung der Zeitgeschichtsschreibung bedeuten könnte. Hier gilt es, neue Wege zu beschreiten und neue Ziele zu setzen, die der Ära der Audiovisualität gerecht werden.
Die zu keinem Zeitpunkt besonders exklusive Position der akademischen Zeitgeschichte in der Öffentlichkeit wird heute mehr denn je herausgefordert von außerakademischen Beiträgen zur Geschichtsschreibung. Das gestiegene wie auch pluralisierte Bedürfnis nach geschichtlicher Einordnung der Gegenwart findet in den populären Geschichtsformaten ganz offensichtlich eine breite Resonanz. Bei dieser Ausweitung spielen fundamentale politische, sozialgeschichtliche und kulturelle Entwicklungen eine Rolle, namentlich die Aufweichung der nationalgeschichtlichen und nationalkulturellen Rahmenbedingungen, unter denen die moderne Geschichtsforschung und Geschichtsschreibung seit dem frühen 19. Jahrhundert entstanden waren. Im frühen 21. Jahrhundert verstehen sich vormals undiskutierte Bezugsrahmen einer solchen Geschichtsschreibung nicht mehr von selbst. Vielmehr muss zunehmend klargestellt werden, wer welche Art der Geschichte für welches Publikum darstellen will.