Wissenschaft
Refine
Year of publication
Document Type
- Journal Article (137) (remove)
Language
- German (137) (remove)
Keywords
- Auftragsforschung (1)
- Behördenforschung (1)
- NS-Aufarbeitung (1)
Die Pyrenäen bilden eine natürliche Grenze zwischen Frankreich und Spanien, zwischen dem europäischen Hauptland und der iberischen Halbinsel. Dort, wo sie nicht in den Himmel ragen, in ihren Tälern und auf ihren Passhöhen sowie an den Meeren, waren die Pyrenäen auch stets eine tierra de paso, eine Transitzone. An ihren östlichen Ausläufern gibt es zwei bedeutende Übergänge. Einer liegt im sanften, flachen Tal von La Jonquera und quert die Landesgrenze bei Le Perthus. Der andere kreuzt an der Küste am Coll dels Belitres zwischen Cerbère (Frankreich) und Portbou (Spanien). Daneben und dazwischen durchziehen kleine Wege die Landschaft, offizielle und inoffizielle, Pfade für Schmuggler, Verfolgte, Fliehende. Jede Gegend und jede Route hat ihre Konjunktur. Die Hoch-Zeit dieser Transitlandschaft, als sich die europäische Kriegs- und Verfolgungsgeschichte des 20. Jahrhunderts an dieser Grenze kristallisierte, war zwischen dem Winter 1938/39, als der spanische Krieg mit dem Sieg Francisco Francos endete, und den Jahren 1940/41, bevor im Sommer 1941 die systematische Vernichtung der europäischen Juden begann.
Seit den Anschlägen vom 11. September 2001 ist auch in Deutschland ein steigendes öffentliches und wissenschaftliches Interesse an kriegerischen Konflikten zu beobachten. War dieses Forschungsfeld lange vor allem Zeithistorikern und -historikerinnen vorbehalten, so interessieren sich zunehmend auch die Politik- und Sozialwissenschaften für das Gebiet, was sich an einer Fülle von Publikationen und Konferenzen zeigt. Besonders mit dem Erscheinen von Herfried Münklers Buch „Die neuen Kriege“ (2002) ist eine lebhafte Diskussion entbrannt. Münkler konstatiert in seinem Werk die Entstehung einer neuen Form von Kriegen: Die Kriegsakteure hielten sich nicht mehr an Regeln; die Unterscheidung zwischen Kombattanten und Nichtkombattanten sei aufgehoben; und die Kriege hätten in erster Linie einen ökonomischen Hintergrund. Ob man nun von „neuen“, „asymmetrischen“, „kleinen“ oder „low-intensity-Kriegen“ sprechen will: Die AKUF distanziert sich von der Vorannahme, die aktuellen Konflikte seien eine gänzlich neue Entwicklung.
Neuzeitliche Kunstwörter entbehren häufig der Anschaulichkeit und semantischen Eindeutigkeit. Was genau unter gegenwartsbezogenen Kreuz- und Kofferwörtern wie »Bionik«, »Glokalisierung« oder »Stagflation« zu verstehen ist, bleibt im allgemeinen Sprachgebrauch diffus, und nicht anders ergeht es fachsprachlichen Neologismen wie »Demokratur« oder »autolitär« in der Zeitgeschichte. Diese Feststellung gilt in noch höherem Maße für Wortschöpfungen an der Schwelle zur Moderne, die erst nach Auswanderung aus ihrem Fachkontext sprachliche Popularität gewannen, während ihre Ursprungsverwendung sich wieder verlor: Mit Monomanie, Neurasthenie und auch Nostalgie werden in der Medizin pathologische Phänomene im Grenzbereich von Gesundheit und Krankheit bezeichnet, die erst durch die Sprachschöpfung als Krankheit konstituiert wurden und heute als »vergängliche Krankheitskonzepte« gelten, stattdessen aber zeitweilig oder dauerhaft Eingang in die Alltagssprache fanden.
Noch immer liegen NS- und Genozidforschung weit auseinander – und sind zugleich doch eng miteinander verbunden. Denn zum einen bildet der Holocaust für die Genozidforschung bis heute die Matrix der unterschiedlichsten Typologieversuche. Zum anderen gründet die These von der Singularität des Holocaust notwendig, obgleich meist nur implizit auf dem Vergleich mit anderen Massenmorden. Dennoch arbeiten beide Disziplinen bis heute vielfach nebeneinander her. NS-Forscher ignorieren die Forschungsergebnisse zu den übrigen Völkermorden im 20. Jahrhundert weitgehend und perpetuieren damit die Singularitätsthese durch den eigenen eingeengten, überwiegend nationalgeschichtlich-deutschen Horizont. Die zahlreichen Bücher zu Genoziden basieren hingegen oft auf einem Kenntnisstand des Holocaust, der aus den 1970er-Jahren stammt, und beziehen sich damit sich auf eine gänzlich veraltete Matrix, die wiederum die eigenen Schlussfolgerungen verzerrt.
Anhand der bundesdeutschen Pharmawirtschaft, genauer der Unternehmen Bayer, Hoechst, Merck und Schering, wird gezeigt, dass die Bedeutung von Patentrechten für die Gesundheitsökonomie in der zweiten Hälfte des 20. Jahrhunderts deutlich wuchs: Die Unternehmen erhöhten nicht nur die Anzahl von Patenten, sondern auch die Investitionen in immaterielles Vermögen erheblich. Die Kosten für Forschung und Entwicklung (F&E) überstiegen seit etwa Ende der 1970er-Jahre die Investitionen in Produktionsanlagen. Patente selbst avancierten zum Instrument, um unternehmensseitig den Wettbewerb zu beeinflussen. Das 1968 eingeführte »Stoffpatent« für neue chemische Verbindungen hatte dafür erweiterte Möglichkeiten geschaffen. Patent- und Lizenzabteilungen wurden zu wichtigen Orten unternehmensinterner Entscheidungsfindung. Zudem wurden die Forschungsleistungen hervorgehoben, um den Anstieg der Arzneimittelpreise zu rechtfertigen. Der Aufsatz leistet einen Beitrag zur Beantwortung der Frage, wie und wann die bundesdeutsche Wirtschaft verstärkt zu einer »Intangible Economy« wurde. Er verdeutlicht, wie relevant geistiges Eigentum für die Transformation seit den 1970er-Jahren war – und damit für die Zeitgeschichte des Kapitalismus als Kombination von Vermarktlichung und Verrechtlichung, von globalem Wettbewerb und nationalstaatlicher Regulierung.
Im Frühjahr 2020 tauchten die Begriffe »Postkolonialismus«, »postkoloniale Theorie« und verwandte Kategorien mit ungewohnter Dichte in den deutschen Feuilletons auf, waren Gegenstand von Streitgesprächen im Radio und aufgeregten Twitter-Kommentaren. Zentraler Anlass für die ambivalente Hausse des Postkolonialismus war die Erklärung des Antisemitismusbeauftragten der Bundesregierung, Felix Klein, der Kameruner Historiker Achille Mbembe sei wegen antisemitischer Positionen als Eröffnungsredner der Ruhrtriennale »nicht geeignet«. Daraus entwickelte sich eine heftige und durchaus verwirrende Debatte, in der Klein und gleichgesinnte Mbembe-Kritiker*innen des Rassismus und McCarthyismus gescholten wurden, während andere anhand weniger Passagen aus Mbembes umfangreichem Werk nicht nur darauf insistierten, er sei Antisemit und »Israel-Hasser«, sondern zugleich die »postkoloniale Theorie« anprangerten, als deren wichtiger Vertreter Mbembe gilt. Irritierend daran war nicht allein der Gestus, mit dem beispielsweise so mancher Journalist auftrat, als sei er der erste, der Kritik am Postkolonialismus oder an Mbembe übe. Insgesamt fiel zudem auf, wie sehr die Debatte auf einer bestenfalls oberflächlichen Lektüre relevanter Texte basierte. Dies galt zum Teil auch für jene, die etwa die Antisemitismusvorwürfe gegen Mbembe vehement ablehnten. Die Literatur- und Kulturwissenschaftlerin Aleida Assmann, die in der Öffentlichkeit rasch zu einer der führenden Verteidiger*innen Mbembes aufstieg, gestand zunächst freimütig ein, sie könne seiner Theorie eigentlich gar nicht so richtig folgen.
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
Joseph Weizenbaum (1923–2008), in Berlin geboren, war durch die Nazis gezwungen, mit seiner jüdischen Familie aus Deutschland zu fliehen. Am MIT in Boston wurde er seit den 1960er-Jahren ein renommierter KI-Forscher. Er ist bis heute nicht nur als ein Pionier der Forschung zur Künstlichen Intelligenz anerkannt, sondern vor allem als ein streitbarer Kritiker der Computerkultur. Sein Buch »Computer Power and Human Reason. From Judgement to Calculation« ist ein Klassiker der Technik- und Wissenschaftskritik, ja der Kritik an der technischen und naturwissenschaftlichen Moderne überhaupt. Es ist aber besonders der Titel der deutschen Ausgabe, der mit seiner Dichotomisierung von Macht und Ohnmacht, Computer und Vernunft die These des selbsterklärten »Dissidenten« oder »Ketzers« der Informatik eingängig auf den Punkt bringt. Und das Zitat auf der Umschlagrückseite verortet das Buch auch gleich im Feld der Kritischen Theorie Max Horkheimers, auf den Weizenbaum sich explizit bezieht: »Ich bekämpfe den Imperialismus der instrumentellen Vernunft, nicht die Vernunft an sich.«
Der Aufsatz entwirft eine Zeitgeschichte der Vorsorge, die sich für den hygienepolitischen Übergang von Praktiken der Intervention und Krisenbewältigung zu Praktiken der Prävention interessiert. Am Beispiel der Pestvorsorge in der Sowjetunion wird erstens ein Prozess der Institutionalisierung, Professionalisierung und Verwissenschaftlichung dargestellt. Zweitens werden die Eigenheiten des sowjetischen Falls herausgearbeitet. Die dortige Pestbekämpfung war bis in die 1930er-Jahre von Interventionen geprägt, die aus einem Repertoire repressiver, im Kontext der Zwangskollektivierung etablierter Maßnahmen schöpften. Der Umgang mit der Pest war nicht mit Aufklärung verknüpft, sondern mit Geheimhaltung. Die Einrichtung eines Netzwerks wissenschaftlicher Forschungsstätten führte zu einem Wandel im Umgang mit der Seuche. Dies war eingebettet in parallele Diskurse über administrative Grenzen und geographisches Wissen. Der Aufsatz stützt sich auf Quellen aus Staats- und Partei-Archiven in der Russischen Föderation und der Republik Aserbaidschan.
Der Beitrag befasst sich mit dem „Peckham-Experiment“, einem Forschungsprojekt, das in den 1930er- und 1940er-Jahren im „Pioneer Health Centre“ (PHC) durchgeführt wurde, einem Freizeit- und Gesundheitszentrum im Londoner Stadtteil Peckham. Im Fokus der Fallstudie steht die Genese neuen präventionsmedizinischen Wissens und neuer vorsorgebezogener Praktiken. Die beteiligten Experten versuchten, das „natürliche“ Potential von Individuen und die sozialen Beziehungen zwischen Familien zu nutzen, um ein gesundheitsförderliches Verhalten zu stimulieren. Das „Peckham-Experiment“ wird im Kontext der britischen wohlfahrtspolitischen Debatten und der biologisch-medizinischen Theorien seiner Gründungszeit analysiert. Gezeigt wird aber auch, dass der neue, stark auf Selbstverantwortung gerichtete Ansatz des PHC sich zudem aus den spezifischen Herausforderungen der „Laborsituation“ ergab, die im Laufe des Experiments zur Revision interventionistischer Vorannahmen führten. Allerdings waren andere Wissenschaftler skeptisch gegenüber den in Peckham gewonnenen Erkenntnissen. Zudem ließ sich das PHC nicht in den neuen „National Health Service“ integrieren. Beides bewirkte 1950 letztlich die Schließung des Centres.
Mit dem Ende des Ersten Weltkrieges war der Abschied von einem bedingungslosen Fortschrittsglauben gekommen. Die Erfahrungen des Stellungskrieges und der Materialschlacht munitionierten die Fortschrittskritik. Die universitäre Etablierung des Fachs Volkskunde im Jahr 1919 war seit den letzten beiden Jahrzehnten des 19. Jahrhunderts durch wissenschaftliche Zeitschriften, Kongresse und museale Sammlungen vorbereitet und von der »Suche nach dem Elementaren in der Kultur« begleitet worden. Die Hinwendung zu den Dingen, vor allem zu Arbeits- und Hausgerät aus europäischen Reliktgebieten, spielte in diesem Prozess eine wichtige Rolle. Die Frage nach ihrer Bedeutung und Sinnaufladung verdichtete sich mit der Disziplinierung, auch wenn die Erforschung der materiellen Kultur nicht der einzige Gegenstand des Faches war, das sich aus den Philologien herausbildete. Geht man davon aus, dass das 19. Jahrhundert das »Saeculum der Dinge« ist, weil die industrielle Massenproduktion die Verfügbarkeit sowie den Verbrauch der Dinge seit der zweiten Hälfte des 19. Jahrhunderts immens steigerte, dann führt der Weg zu der intensivierten Aufmerksamkeit für die Dinge des Alltags in Kunst, Literatur und Wissenschaft in die ersten Jahrzehnte des 20. Jahrhunderts.
Stress ist ein ubiquitärer Begriff – seine geschichtswissenschaftliche Erforschung aber hat erst begonnen. Der Aufsatz skizziert programmatisch die Genese und die Funktionen des Stresskonzepts im 20. Jahrhundert. Dabei wird Stress nicht in erster Linie als Syndrom und Krisenphänomen betrachtet, sondern als Deutungs- und Handlungsangebot westlicher Gesellschaften, die sich als instabil, wandelbar, innovativ und dynamisch begreifen. Die performative Kraft des Stresses als Modus gesellschaftlicher Selbstreflexion wird in vier historisch und systematisch aufeinander bezogenen semantischen Feldern untersucht: Stress als Regulations- und Anpassungsmodell, Stress als Prinzip der Wettbewerbsgesellschaft (mit engen Beziehungen zu Arbeit, Leistung und Erfolg), Stress als Zivilisationskritik (mit der stressfreien Gesellschaft als utopischem Gegenbild) sowie Stress als flexible Ökologie von Mensch-Umwelt-Verhältnissen. Dabei handelt es sich weniger um eine chronologische Ordnung als vielmehr um Deutungsvarianten, die in unterschiedlichen Verwendungskontexten aufkamen und sich im heutigen Stressbegriff überlagern.
Wie reagieren Menschen auf Katastrophen? Wie lassen sich Bevölkerungen in Extremsituationen führen? Mit diesen Fragen beschäftigten sich in den 1950er-, 1960er- und 1970er-Jahren mehrere US-amerikanische, teilweise durch die Armee finanzierte Forschungsgruppen. Sie waren interdisziplinär zusammengesetzt, aber mehrheitlich soziologisch ausgerichtet. Innerhalb wie außerhalb der USA studierten sie das Stressverhalten von Individuen und Gruppen in Tornados, eingeschneiten Autobahnraststätten und »racial riots« sowie ergänzend in Laborsimulationen. Anhand zeitgenössischer Publikationen und interner Akten werden in diesem Aufsatz die Erkenntnisinteressen und Untersuchungsfelder der sozialwissenschaftlichen Katastrophenforschung, ihre Befunde und deren Nutzung dargestellt. Die Tätigkeit der Wissenschaftler/innen stand im Kontext des Kalten Kriegs und eines sich verschiebenden Gefahrensinns. Dabei ließen sich die Forscher/innen keineswegs vollständig politisch vereinnahmen, sondern verfolgten durchaus eigene Interessen und gaben mitunter Antworten, die den Intentionen der Auftraggeber zuwiderliefen.
Wie für viele neue Staaten und »Entwicklungsländer« in der Ära nach dem Zweiten Weltkrieg spielten transnationale Dynamiken des Wissenstransfers auch für das 1948 gegründete Israel eine wichtige Rolle. Eine geradezu staatstragende Funktion kam dabei der entstehenden Raumplanung zu. Die israelischen Planungseliten waren durch ihr Studium und durch Grundannahmen des »Social Engineering« eng mit der deutschen Wissenskultur und speziell mit der Raumordnung verflochten – auch über die Zäsur von 1945 hinweg. Der Aufsatz untersucht die Rezeption der Theorie »zentraler Orte« im Kontext des ersten, meist als »Sharonplan« bezeichneten israelischen Nationalplans von 1951. Die 1933 durch Walter Christaller publizierte Theorie hatte auch einen konzeptionellen Eckpfeiler des »Generalplans Ost« gebildet, den die SS bzw. der »Reichskommissar für die Festigung deutschen Volkstums« (RKF) nach 1939 zur »Germanisierung« der eroberten Ostgebiete entwickelt hatte. Die Ambivalenz der israelischen Rezeptionslinie wird anhand der Biographien dreier Planer geschildert (Eliezer Brutzkus, Artur Glikson, Ariel Kahane).
»[…] wenn ›die Quelle‹ die Reliquie historischen Arbeitens ist – nicht nur Überbleibsel, sondern auch Objekt wissenschaftlicher Verehrung –, dann wäre analog ›das Archiv‹ die Kirche der Geschichtswissenschaft, in der die heiligen Handlungen des Suchens, Findens, Entdeckens und Erforschens vollzogen werden.« Achim Landwehr wirft in seinem geschichtstheoretischen Essay den Historikern ihren »Quellenglauben« vor – diese Kritik ließe sich im digitalen Zeitalter leicht auf die Heilsversprechen der Apostel der »Big Data Revolution« übertragen. Zwar regen sich mittlerweile vermehrt Stimmen, die den »Wahnwitz« der digitalen Utopie in Frage stellen, doch wird der öffentliche Diskurs weiterhin von jener Revolutionsrhetorik dominiert, die standardmäßig als Begleitmusik neuer Technologien ertönt. Statt in der intellektuell wenig fruchtbaren Dichotomie von Gegnern und Befürwortern, »First Movers« und Ignoranten zu verharren, welche die Landschaft der »Digital Humanities« ein wenig überspitzt auch heute noch kennzeichnet, ist das Ziel dieses Beitrages eine praxeologische Reflexion, die den Einfluss von digitalen Infrastrukturen, digitalen Werkzeugen und digitalen »Quellen« auf die Praxis historischen Arbeitens zeigen möchte. Ausgehend von der These, dass ebenjene digitalen Infrastrukturen, Werkzeuge und »Quellen« heute einen zentralen Einfluss darauf haben, wie wir Geschichte denken, erforschen und erzählen, plädiert der Beitrag für ein »Update« der klassischen Hermeneutik in der Geschichtswissenschaft. Die kritische Reflexion über die konstitutive Rolle des Digitalen in der Konstruktion und Vermittlung historischen Wissens ist nicht nur eine Frage epistemologischer Dringlichkeit, sondern zentraler Bestandteil der Selbstverständigung eines Faches, dessen Anspruch als Wissenschaft sich auf die Methoden der Quellenkritik gründet.
Vergangenes Hören und Sehen. Zeitgeschichte und ihre Herausforderung durch die audiovisuellen Medien
(2004)
Anknüpfend an Hans Rothfels` klassische Definition der Zeitgeschichte als ,Epoche der Mitlebenden und ihre wissenschaftliche Behandlung" wird das Verhältnis der auf analogen Aufzeichnungsverfahren basierenden audiovisuellen Medien zur heutigen Zeitgeschichtsforschung diskutiert. Die Durchsetzung des sozialen Gebrauchs dieser Medien ist Teil des Übergangs zur Konsumgesellschaft im 20. Jahrhundert. Zu fragen ist: Wie verändert sich die Kategorie der ,Mitlebenden", wenn sie als Menschen zu denken sind, deren Realitätsbezüge und Erinnerungen in hohem Ausmaß durch den alltäglichen Gebrauch von audiovisuellen Medien bestimmt sind? Die Ausbreitung dieser Medien beendete die Hegemonie der schriftlichen Kommunikation, die auch der akademischen Disziplin ,Zeitgeschichte' zu Grunde lag. Um ihre gesellschaftliche Kompetenz zu bewahren, muss Zeitgeschichte die audiovisuellen Medien daher umfassend in ihre Praxis integrieren - von der Forschung über die öffentliche Kommunikation bis hin zur Lehre.
Nostalgie wird oft in kulturellen und, mehr noch, popkulturellen Kontexten diskutiert. Gelegentlich – und gerade in den letzten Jahren wieder – findet sich der Begriff jedoch auch in politischen Zusammenhängen. So wird er dazu verwendet, politische Entwicklungen zu erklären: etwa das britische EU-Referendum, die Wahl Donald Trumps zum Präsidenten der USA, das Erstarken der AfD in Deutschland oder den Aufstieg neuer Autoritarismen im östlichen Europa. Viele Beobachter*innen stellen einen in ihren Augen alarmierenden Zusammenhang zwischen Politik und Vergangenheitssehnsucht her. Aus ihrer Sicht resultieren die Effekte einer ungebremsten Globalisierung in einer gefährlichen Rückwärtsgewandtheit. Statt über sozioökonomische Konstellationen und Interessen erklären sie Politik emotional und psychologisch, wobei sie Nostalgie repathologisieren.
Der Erfolg der inzwischen nicht mehr ganz so neuen Informations- und Kommunikationstechnologien sowie die damit verbundene Vervielfachung von Daten und Informationen bedeutet weiterhin eine Herausforderung für die Wissenschaft. Die Option des synchronen Zugriffs auf eine Vielzahl von Informationen, ihre Rasterung mittels Suchmaschinen und Datenbanken dynamisiert und dezentralisiert herkömmliche Wissensspeicher wie Archive, Bibliotheken oder Enzyklopädien. Dies wirft grundlegende Fragen auf: Wie kann zuverlässiges Wissen im Netz generiert, präsentiert und distribuiert werden? Wer bürgt bei einer Vielzahl dezentraler Informationskanäle für deren Validität und Stabilität?