Historische Semantik
Refine
Year of publication
Document Type
- Journal Article (37)
- Online Publication (19)
Has Fulltext
- yes (56) (remove)
Mit Christian Geulens „Plädoyer für eine Geschichte der Grundbegriffe des 20. Jahrhunderts“ möchten wir eine Diskussion eröffnen zu den möglichen Konturen einer Historischen Semantik des vergangenen Jahrhunderts sowie zum Verhältnis von Zeitgeschichte und Begriffsgeschichte. Als Beitrag zur Historisierung und epochalen Charakterisierung der „Hochmoderne“ skizziert Geulen das Programm einer begriffsgeschichtlichen Grundlagenforschung, die zugleich als Vorstoß zur wissenschaftsgeschichtlichen Erschließung der eigenen Disziplin zu verstehen ist. Nach dem editorischen Abschluss der lexikalischen Großforschungsprojekte der „Geschichtlichen Grundbegriffe“ (1972–1992), des „Handbuchs politisch-sozialer Grundbegriffe in Frankreich 1680–1820“ (1985–2000), des „Historischen Wörterbuchs der Philosophie“ (1971–2007) und der „Ästhetischen Grundbegriffe“ (2000–2005) beginnt soeben erst eine Rückschau auf die begriffsgeschichtliche Fundierung der deutschsprachigen Geisteswissenschaften im letzten Drittel des 20. Jahrhunderts.
Die Welt hat sich im 20. Jahrhundert gründlicher und vor allem anders verändert, als es den Erfahrungen und wissenschaftlichen Deutungsmustern vor 50, teils noch vor 30 Jahren vorstellbar schien. Die „Geschichtlichen Grundbegriffe“ sollten die Heraufkunft der Gegenwart erklären, sie sollten die Gegenwart in ihrer politisch-sozialen Leitsemantik entschlüsseln. Diese Brücke in die unmittelbare Gegenwart, von der die Generation der Herausgeber des Lexikons ausgehen konnte, bleibt inzwischen in der Luft hängen. Wer versucht, Reinhart Kosellecks Begriffsgeschichte und die „Grundbegriffe“ Studierenden in den ersten Semestern zu erklären, der weiß, wovon die Rede ist: Die moderne Welt, in die das Lexikon hineinführen wollte, ist weit entfernte Vorgeschichte.
Christian Geulen geht es darum, neue begriffsgeschichtliche Impulse in die Diskussion zu schleusen und nichts Geringeres als eine „Geschichte der Grundbegriffe des 20. Jahrhunderts“ zu lancieren. Konkret soll der semantische Wandel untersucht werden, den die politisch-soziale Sprache seit dem späten 19. Jahrhundert erfahren hat. Die Suche nach der Herkunft unserer Gegenwart würde sich dann, vereinfacht gesagt, auf die in den „Geschichtlichen Grundbegriffen“ ignorierte Zeitspanne von etwa 1900 bis 2000 erstrecken. Als distinktives Merkmal hierfür wird ein Wechsel des Primats im Verhältnis von Erfahrungsraum und Erwartungshorizont angenommen. Hatte seit der Sattelzeit die Erwartung zunehmend den Erfahrungsraum aufgerissen und die Führung übernommen, zeichnet sich nach Geulen in der Gegenwart eine Verkehrung ab, indem die Erwartung gleichsam von der Erfahrung dirigiert wird.
Als Francis Fukuyamas Essay „The End of History?“ im Sommer 1989 in der Zeitschrift „The National Interest“ erschien, brach ein Sturm der Empörung los. Die Vorstellung von einem „Ende der Geschichte“ hatte zwar gerade Konjunktur; so kamen in der Bundesrepublik 1989 gleich zwei Bücher heraus, die dieses Thema kritisch beleuchteten. Meist gründete das Interesse an einem „Ende der Geschichte“ allerdings auf einer postmodernen Position. Vilém Flusser oder Jean Baudrillard etwa behandelten unter diesem Schlagwort den Verlust von Sinn- und Wirklichkeitsbezügen in der multimedialen Kommunikationsgesellschaft. Fukuyama hingegen knüpfte an eine andere Tradition mit politisch konservativem Hintergrund an, wie sie beispielsweise von Arnold Gehlen, Ernst Jünger und Hendrik de Man vertreten worden war. Vor allem berief er sich auf den russisch-französischen Philosophen Alexandre Kojève, der Hegels „Phänomenologie des Geistes“ als Setzung eines Endpunkts der Geschichte gedeutet und später die amerikanische Lebensart als die Lebensform des Menschen nach dem Ende der Geschichte bezeichnet hatte.
Noch immer liegen NS- und Genozidforschung weit auseinander – und sind zugleich doch eng miteinander verbunden. Denn zum einen bildet der Holocaust für die Genozidforschung bis heute die Matrix der unterschiedlichsten Typologieversuche. Zum anderen gründet die These von der Singularität des Holocaust notwendig, obgleich meist nur implizit auf dem Vergleich mit anderen Massenmorden. Dennoch arbeiten beide Disziplinen bis heute vielfach nebeneinander her. NS-Forscher ignorieren die Forschungsergebnisse zu den übrigen Völkermorden im 20. Jahrhundert weitgehend und perpetuieren damit die Singularitätsthese durch den eigenen eingeengten, überwiegend nationalgeschichtlich-deutschen Horizont. Die zahlreichen Bücher zu Genoziden basieren hingegen oft auf einem Kenntnisstand des Holocaust, der aus den 1970er-Jahren stammt, und beziehen sich damit sich auf eine gänzlich veraltete Matrix, die wiederum die eigenen Schlussfolgerungen verzerrt.