Kultur
Refine
Year of publication
Document Type
- Journal Article (198) (remove)
Language
- German (198) (remove)
Is part of the Bibliography
- no (198) (remove)
Diesen Spielfilm umgab nicht nur hierzulande lange ein hartnäckiges Missverständnis. Er feiere, so hieß es, eine glitzernde Scheinwelt, in der narzisstische Mitmacher konsumierten statt kritisierten. Er repräsentiere den neukonservativen Wertehimme der „Lord-Extra-Generation angepaßter Jungen und Mädchen“.1 Andere sahen eher Resignation und Flucht vor bedrückenden Gegenwartsproblemen. 1978, auf dem Höhepunkt der so genannten Disco-Welle, waren sich westdeutsche Beobachter aber darin einig, das massenhafte Tanzen zu elektronisch reproduzierter Musik als Anpassung und Entpolitisierung der jungen Generation deuten zu dürfen. Auch nachdem die Welle und die mit ihr verbundene Kulturkritik abgeflaut waren, blieb „Saturday Night Fever“ als belangloses „Sozialaufsteigerfilmchen“ gespeichert. Poststrukturalistisch gewendet lässt sich der Streifen als Auftakt zu einer Reihe international erfolgreicher Tanzfilme wie „Fame“ (1980), „Flashdance“ (1983) oder „Footlose“ (1984) verstehen, die in den neoliberalen 1980er-Jahren dem Publikum ein unternehmerisches Verhältnis zum eigenen Körper nahebrachten.
Radiophone Stimminszenierungen im Nationalsozialismus. Eine medienwissenschaftliche Perspektive
(2011)
Walter Benjamin zufolge hat das mediale Zeitalter der technischen Reproduzierbarkeit von Stimmen und Klängen die Tradierung des Wissens aus ihrem Jahrtausende alten Kreislauf mündlicher Erzählung gelöst, die „Geschichten dem Gedächtnis nachhaltiger anempfiehlt“, als es deren mediale Wiedergabe vermag. Je fesselnder die Erzählsituation von Geschichten ist, „desto größer wird ihre Anwartschaft auf einen Platz im Gedächtnis des Hörenden, desto vollkommener bilden sie sich seiner eigenen Erfahrung an, desto lieber wird er sie schließlich eines näheren oder ferneren Tages weitererzählen. Dieser Assimilationsprozeß“, so fährt Benjamin fort, „bedarf eines Zustandes der Entspannung, der seltener und seltener wird. Wenn der Schlaf der Höhepunkt der körperlichen Entspannung ist, so die Langeweile der geistigen. Die Langeweile ist der Traumvogel, der das Ei der Erfahrung ausbrütet. Das Rascheln im Blätterwalde vertreibt ihn. Seine Nester – die Tätigkeiten, die sich innig mit der Langeweile verbinden – sind in den Städten schon ausgestorben, verfallen auch auf dem Lande. Damit verliert sich die Gabe des Lauschens, und es verschwindet die Gemeinschaft der Lauschenden. Geschichten erzählen, ist ja immer die Kunst, sie weiter zu erzählen, und die verliert sich, wenn die Geschichten nicht mehr behalten werden.“
Als Thomas Morus 1516 seine Geschichte jener fernen Insel veröffentlichte, deren soziale Ordnung das exakte Gegenteil seiner englischen Heimat darstellte, prägte er mit dem Namen dieser Insel – Utopia – einen der einflussreichsten Begriffe der Neuzeit: ein griechisches Kunstwort, das wörtlich ‚Nicht-Ort‘ bedeutet und seitdem immer dort gebraucht wird, wo eine ideale Welt in möglichst radikaler Differenz zur erfahrbaren Wirklichkeit beschrieben wird. Ob auch Morus die von ihm beschriebene Insel als ein Ideal ansah oder sie nur zum Zwecke der Verfremdung seiner Gesellschaftskritik entwarf, ist umstritten. Seitdem aber und bis heute hat der Begriff der Utopie fast ausschließlich die Bedeutung eines so idealen wie irrealen Gesellschaftszustands, dessen konkrete Merkmale natürlich von der jeweiligen Entstehungszeit der Utopie geprägt sind.
Kaum einer hat nachdrücklicher, vollmundiger und mit größerem Anspruch gegen die Katastrophe des Zeitalters der Weltkriege angeschrieben als Hans-Ulrich Wehler, der sich - paradoxerweise - bislang aber weitgehend aus der Historiographie dieser deutschen Krisenperiode herausgehalten hat. Der vierte Band seiner „Deutschen Gesellschaftsgeschichte“ ist deshalb Prüfstein für Wehlers vorangegangene Arbeiten über das lange 19. Jahrhundert. Hier muss sich bewähren, was in jenen angelegt ist.
Am 26. Juli 2010 verkündete das „Rote-Khmer-Tribunal“ in Phnom Penh ein Aufsehen erregendes Urteil: Kaing Guek Eav, der ehemalige Direktor von Tuol Sleng, des zentralen Gefängnisses der kambodschanischen Staatssicherheit, wurde wegen „Crimes Against Humanity“ zu einer Haftstrafe von 35 Jahren verurteilt. Diese Strafe wurde in Anrechnung der bislang verbüßten Untersuchungshaft und wegen ursprünglich illegaler Inhaftierung auf 19 Jahre reduziert. Unter dem Eindruck heftiger Proteste von Seiten überlebender Opfer des Terrorregimes der Roten Khmer und ihrer Hinterbliebenen legte die Staatsanwaltschaft Mitte August Berufung gegen das Urteil ein. Sie forderte eine weitaus höhere Strafe, die angemessen die Schwere der Taten des inzwischen 67-jährigen Kaing Guek Eav – wegen seiner geringen Körpergröße auch Duch (Khmer: „der Kleine“) genannt – zu berücksichtigen habe. Inzwischen haben auch die Verhandlungen gegen vier weitere noch lebende Hauptverantwortliche der vom kommunistischen Regime der Roten Khmer in den Jahren 1975 bis 1978 verübten Verbrechen begonnen. Mit einer Verspätung von drei Jahrzehnten erfährt der kambodschanische „Autogenozid“ nun eine juristische Aufarbeitung.
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.
„There is no reason for any individual to have a computer in his home.“ Diese Einschätzung Kenneth H. Olsens, seinerzeit Präsident der Digital Equipment Corporation (lange eine der führenden amerikanischen Computerfirmen), stammt aus dem Jahr 1977. Die gesellschaftliche Vorstellung von Computern war damals eng mit Großrechnern verknüpft, die lediglich durch Spezialisten bedient werden konnten. Dieses Paradigma stellten Spielekonsolen wie „Pong“ von Atari allerdings bereits 1975 in Frage. Andere Branchengrößen wie IBM hatten weiterhin Bedenken, ob die Leistung der Großrechner auf einem Schreibtisch Platz finden könne. Unternehmen wie Commodore oder Apple bewiesen ab 1977, dass dies möglich war, indem sie kompakte, sofort nach dem Kauf verwendbare Rechner auf den Markt brachten und sich somit an die Spitze der Computerhersteller katapultierten. Sie setzten damit eine Entwicklung in Gang, die sich zu Beginn der 1980er-Jahre beschleunigte: IBM definierte mit dem „IBM PC 5150“ ab 1981 einen Standard im Bereich der Heimcomputer. Sony und Philips brachten die Digitalisierung im Audiobereich voran und legten die technischen Spezifikationen für die Compact Disc fest.
Man muss dabei gewesen sein. Wer heute »Dr. Strangelove« einem Publikum von unter Dreißigjährigen zeigt, einer Altersgruppe also, die den Kalten Krieg bestenfalls vom Hörensagen kennt, wird vermutlich gelangweilte oder verständnislose Kommentare hören. Oder die Frage, was es denn um Himmels willen zu lachen geben soll in dieser »schwarzen Satire« über die atomare Vernichtung der Welt, die seit ihrer Uraufführung am 29. Januar 1964 hartnäckig als eine der besten Komödien aller Zeiten gehandelt wird und dem virtuosen, gleich in drei Rollen auftretenden Hauptdarsteller Peter Sellers einen Logenplatz in der cineastischen Ruhmeshalle gesichert hat.
Während des Kalten Krieges wurde in Millionen Wohnzimmern, Kasernen und Schulen gespielt: Klassische Unterhaltungsspiele wie Memory bzw. Merk-Fix, aber auch Spiele wie Fulda Gap oder Klassenkampf, die die Systemkonfrontation als Auseinandersetzung zwischen Gut und Böse erleb- und simulierbar machten. Der Aufsatz betrachtet eine in der zeithistorischen Forschung und in den Cold War Studies bislang vernachlässigte Quellengattung, die gerade in den 1970er- und 1980er-Jahren für die populärkulturelle Vermittlung von Grundcharakteristika des Ost-West-Konflikts sehr bedeutsam war. Untersucht wird, wie sich Brett- und Computerspiele in die Wettkampflogik des Kalten Krieges einschrieben, inwiefern sie für die Systemkonfrontation auf beiden Seiten sinnbildend waren, nationale Spezifika aufwiesen oder aber als Foren der Gesellschaftskritik dienten. Deutlich wird auch, wo für die jeweiligen Obrigkeiten die Grenzen des »Spielbaren« lagen. Den eigenen Untergang als Handlungsmöglichkeit oder Dystopie zu erproben, erschien vielfach als moralisch und politisch bedenklich, weil die in Spielen entwickelten Szenarien womöglich den Blick auf die Realität verändern und Kritik verstärken konnten. Andererseits konnten die Spiele aber auch die Veralltäglichung des Kalten Krieges unterstützen: Sie bereiteten Wissen über militärische Sachverhalte auf und trugen zur Gewöhnung an das atomare Drohpotential bei.
Der Religionsgeschichte ist vielfach vorgeworfen worden, die entscheidenden methodischen ‚turns‘ und ‚shifts‘ der allgemeinen Geschichtswissenschaft erst mit erheblicher zeitlicher Verzögerung vollzogen zu haben. In der Tat, zu lange wurde die Geschichte von Religionen und Konfessionen lediglich als eine Geschichte von Kirchen und Verbänden beschrieben: Ereignisse und Institutionen rangierten weit vor Praktiken und Mentalitäten. Dies gilt insbesondere für die Zeitgeschichte: Während die Erforschung der religiösen Formationen des Mittelalters und der Frühen Neuzeit schon längst mit neueren kulturgeschichtlichen Ansätzen operierte, galt es bezogen auf das 19. und 20. Jahrhundert noch immer als innovativ, den Anschluss an die Sozialgeschichte zu vollziehen und hinter den Kirchen und Verbänden das konfessionelle „Milieu“ und Formen kollektiver „Frömmigkeit“ zu entdecken. Nach dem Abschmelzen fester, homogener Konfessionsmilieus spätestens seit den 1960er-Jahren stellt sich nicht nur empirisch die Frage: „Was kommt nach dem Milieu?“ Auch methodisch ist zu überlegen: Was kommt nach der Milieuforschung?