Wissenschaft
Filtern
Erscheinungsjahr
Dokumenttyp
- Wissenschaftlicher Artikel (Zeitschrift) (138) (entfernen)
Volltext vorhanden
- ja (138) (entfernen)
Gehört zur Bibliographie
- nein (138) (entfernen)
Schlagworte
- Auftragsforschung (1)
- Behördenforschung (1)
- NS-Aufarbeitung (1)
Noch immer liegen NS- und Genozidforschung weit auseinander – und sind zugleich doch eng miteinander verbunden. Denn zum einen bildet der Holocaust für die Genozidforschung bis heute die Matrix der unterschiedlichsten Typologieversuche. Zum anderen gründet die These von der Singularität des Holocaust notwendig, obgleich meist nur implizit auf dem Vergleich mit anderen Massenmorden. Dennoch arbeiten beide Disziplinen bis heute vielfach nebeneinander her. NS-Forscher ignorieren die Forschungsergebnisse zu den übrigen Völkermorden im 20. Jahrhundert weitgehend und perpetuieren damit die Singularitätsthese durch den eigenen eingeengten, überwiegend nationalgeschichtlich-deutschen Horizont. Die zahlreichen Bücher zu Genoziden basieren hingegen oft auf einem Kenntnisstand des Holocaust, der aus den 1970er-Jahren stammt, und beziehen sich damit sich auf eine gänzlich veraltete Matrix, die wiederum die eigenen Schlussfolgerungen verzerrt.
Anhand der bundesdeutschen Pharmawirtschaft, genauer der Unternehmen Bayer, Hoechst, Merck und Schering, wird gezeigt, dass die Bedeutung von Patentrechten für die Gesundheitsökonomie in der zweiten Hälfte des 20. Jahrhunderts deutlich wuchs: Die Unternehmen erhöhten nicht nur die Anzahl von Patenten, sondern auch die Investitionen in immaterielles Vermögen erheblich. Die Kosten für Forschung und Entwicklung (F&E) überstiegen seit etwa Ende der 1970er-Jahre die Investitionen in Produktionsanlagen. Patente selbst avancierten zum Instrument, um unternehmensseitig den Wettbewerb zu beeinflussen. Das 1968 eingeführte »Stoffpatent« für neue chemische Verbindungen hatte dafür erweiterte Möglichkeiten geschaffen. Patent- und Lizenzabteilungen wurden zu wichtigen Orten unternehmensinterner Entscheidungsfindung. Zudem wurden die Forschungsleistungen hervorgehoben, um den Anstieg der Arzneimittelpreise zu rechtfertigen. Der Aufsatz leistet einen Beitrag zur Beantwortung der Frage, wie und wann die bundesdeutsche Wirtschaft verstärkt zu einer »Intangible Economy« wurde. Er verdeutlicht, wie relevant geistiges Eigentum für die Transformation seit den 1970er-Jahren war – und damit für die Zeitgeschichte des Kapitalismus als Kombination von Vermarktlichung und Verrechtlichung, von globalem Wettbewerb und nationalstaatlicher Regulierung.
Im Frühjahr 2020 tauchten die Begriffe »Postkolonialismus«, »postkoloniale Theorie« und verwandte Kategorien mit ungewohnter Dichte in den deutschen Feuilletons auf, waren Gegenstand von Streitgesprächen im Radio und aufgeregten Twitter-Kommentaren. Zentraler Anlass für die ambivalente Hausse des Postkolonialismus war die Erklärung des Antisemitismusbeauftragten der Bundesregierung, Felix Klein, der Kameruner Historiker Achille Mbembe sei wegen antisemitischer Positionen als Eröffnungsredner der Ruhrtriennale »nicht geeignet«. Daraus entwickelte sich eine heftige und durchaus verwirrende Debatte, in der Klein und gleichgesinnte Mbembe-Kritiker*innen des Rassismus und McCarthyismus gescholten wurden, während andere anhand weniger Passagen aus Mbembes umfangreichem Werk nicht nur darauf insistierten, er sei Antisemit und »Israel-Hasser«, sondern zugleich die »postkoloniale Theorie« anprangerten, als deren wichtiger Vertreter Mbembe gilt. Irritierend daran war nicht allein der Gestus, mit dem beispielsweise so mancher Journalist auftrat, als sei er der erste, der Kritik am Postkolonialismus oder an Mbembe übe. Insgesamt fiel zudem auf, wie sehr die Debatte auf einer bestenfalls oberflächlichen Lektüre relevanter Texte basierte. Dies galt zum Teil auch für jene, die etwa die Antisemitismusvorwürfe gegen Mbembe vehement ablehnten. Die Literatur- und Kulturwissenschaftlerin Aleida Assmann, die in der Öffentlichkeit rasch zu einer der führenden Verteidiger*innen Mbembes aufstieg, gestand zunächst freimütig ein, sie könne seiner Theorie eigentlich gar nicht so richtig folgen.
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
Joseph Weizenbaum (1923–2008), in Berlin geboren, war durch die Nazis gezwungen, mit seiner jüdischen Familie aus Deutschland zu fliehen. Am MIT in Boston wurde er seit den 1960er-Jahren ein renommierter KI-Forscher. Er ist bis heute nicht nur als ein Pionier der Forschung zur Künstlichen Intelligenz anerkannt, sondern vor allem als ein streitbarer Kritiker der Computerkultur. Sein Buch »Computer Power and Human Reason. From Judgement to Calculation« ist ein Klassiker der Technik- und Wissenschaftskritik, ja der Kritik an der technischen und naturwissenschaftlichen Moderne überhaupt. Es ist aber besonders der Titel der deutschen Ausgabe, der mit seiner Dichotomisierung von Macht und Ohnmacht, Computer und Vernunft die These des selbsterklärten »Dissidenten« oder »Ketzers« der Informatik eingängig auf den Punkt bringt. Und das Zitat auf der Umschlagrückseite verortet das Buch auch gleich im Feld der Kritischen Theorie Max Horkheimers, auf den Weizenbaum sich explizit bezieht: »Ich bekämpfe den Imperialismus der instrumentellen Vernunft, nicht die Vernunft an sich.«
Der Aufsatz entwirft eine Zeitgeschichte der Vorsorge, die sich für den hygienepolitischen Übergang von Praktiken der Intervention und Krisenbewältigung zu Praktiken der Prävention interessiert. Am Beispiel der Pestvorsorge in der Sowjetunion wird erstens ein Prozess der Institutionalisierung, Professionalisierung und Verwissenschaftlichung dargestellt. Zweitens werden die Eigenheiten des sowjetischen Falls herausgearbeitet. Die dortige Pestbekämpfung war bis in die 1930er-Jahre von Interventionen geprägt, die aus einem Repertoire repressiver, im Kontext der Zwangskollektivierung etablierter Maßnahmen schöpften. Der Umgang mit der Pest war nicht mit Aufklärung verknüpft, sondern mit Geheimhaltung. Die Einrichtung eines Netzwerks wissenschaftlicher Forschungsstätten führte zu einem Wandel im Umgang mit der Seuche. Dies war eingebettet in parallele Diskurse über administrative Grenzen und geographisches Wissen. Der Aufsatz stützt sich auf Quellen aus Staats- und Partei-Archiven in der Russischen Föderation und der Republik Aserbaidschan.
Der Beitrag befasst sich mit dem „Peckham-Experiment“, einem Forschungsprojekt, das in den 1930er- und 1940er-Jahren im „Pioneer Health Centre“ (PHC) durchgeführt wurde, einem Freizeit- und Gesundheitszentrum im Londoner Stadtteil Peckham. Im Fokus der Fallstudie steht die Genese neuen präventionsmedizinischen Wissens und neuer vorsorgebezogener Praktiken. Die beteiligten Experten versuchten, das „natürliche“ Potential von Individuen und die sozialen Beziehungen zwischen Familien zu nutzen, um ein gesundheitsförderliches Verhalten zu stimulieren. Das „Peckham-Experiment“ wird im Kontext der britischen wohlfahrtspolitischen Debatten und der biologisch-medizinischen Theorien seiner Gründungszeit analysiert. Gezeigt wird aber auch, dass der neue, stark auf Selbstverantwortung gerichtete Ansatz des PHC sich zudem aus den spezifischen Herausforderungen der „Laborsituation“ ergab, die im Laufe des Experiments zur Revision interventionistischer Vorannahmen führten. Allerdings waren andere Wissenschaftler skeptisch gegenüber den in Peckham gewonnenen Erkenntnissen. Zudem ließ sich das PHC nicht in den neuen „National Health Service“ integrieren. Beides bewirkte 1950 letztlich die Schließung des Centres.
Sprachkritik und Autobiographie. Über Victor Klemperers »LTI. Notizbuch eines Philologen« (1947)
(2024)
Victor Klemperers Schrift »LTI. Notizbuch eines Philologen« wurde bereits in der Erstauflage zu 10.000 Exemplaren gedruckt, aber sie wurde nicht gleich zu dem Erfolg, den sich ihr Autor erhofft hatte. An Silvester 1947, nachdem ihm der Verlag das Geschenk eines eigens für ihn gebundenen Exemplars des ansonsten kartonierten Werks zugeschickt hatte, notierte er bedrückt in sein Tagebuch: »In diesem schönen Band […] tritt die Jämmerlichkeit des Papiers u. des Druckes noch krasser hervor. Im übrigen ist es ganz still von der LTI. Wo sind die 10.000 Exemplare? In keiner Buchhandlung, in keiner Redaktion. Keine Zeitung hat davon Notiz genommen.« Heute ist diese früh geäußerte Enttäuschung zu einer Fußnote geworden, denn das Buch gehört längst zu den Klassikern der Sprachkritik, liegt in sechsstelliger Auflagenhöhe und in vielen Übersetzungen vor. Das Nachdenken über die linguistische Korruption der modernen öffentlich-politischen Rede wurde durch wenige Werke so sehr angeregt wie durch dieses. LTI wurde dabei einerseits als »bedeutendes zeithistorisches Dokument« für die Ära des »Dritten Reiches« betrachtet, andererseits als »Wissensspeicher« für die Analyse der Funktionsweise einer Diktatur im Allgemeinen interpretiert. Beide Lesarten finden im Buch ihre Belege. Der ironische Latinismus »LTI« (für »Lingua Tertii Imperii«, »Sprache des Dritten Reiches«) war Kommentar und Deckkürzel zugleich; er persiflierte die nazistische Sucht nach Abkürzungen; und er war auch die »Geheimformel« (S. 20) in Klemperers Tagebuch der Jahre 1933–1945, mit der er seine Sprachbeobachtungen markierte. Ob nun mit dem Akzent auf die Zeugenschaft des Autors oder mit dem Blick auf die analytischen Angebote des Buches: Es ist in keiner dieser Perspektiven eine vergessene Schrift, sondern ein kanonisch gewordenes Werk, das im doppelten Wortsinne Geschichte geschrieben hat.