regional übergreifend
In seiner Geschichte der jüngsten Vergangenheit Amerikas, die 2011 unter dem Titel »Age of Fracture« erschien, begreift der Historiker Daniel T. Rodgers die wirtschaftlichen Veränderungen, die sich seit den 1970er-Jahren vollzogen, in ideengeschichtlicher Perspektive als »Wiederentdeckung des Marktes«. Paradoxerweise sei die Idee und Rhetorik des Marktes, als eines abstrakten und dekontextualisierten Prinzips, das auf eine Vielzahl menschlicher Lebensbereiche angewendet werden könne, gerade zu dem Zeitpunkt populär geworden, als allenthalben Marktversagen zu beobachten gewesen sei.[1] Die entscheidende Veränderung der letzten Jahrzehnte, die sich im Bereich der akademischen Wirtschaftswissenschaften vollzogen habe, fasst Rodgers als »an effort to turn away from macroeconomics’ aggregate categories and try to rethink economics altogether from microeconomic principles outward«.[2] Mit der Erklärung makroökonomischer Phänomene auf der Basis mikroökonomischen Verhaltens sei zugleich versucht worden, immer weitere Gesellschaftsbereiche über die Prinzipien individueller Nutzenmaximierung zu erklären.
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.
„There is no reason for any individual to have a computer in his home.“ Diese Einschätzung Kenneth H. Olsens, seinerzeit Präsident der Digital Equipment Corporation (lange eine der führenden amerikanischen Computerfirmen), stammt aus dem Jahr 1977. Die gesellschaftliche Vorstellung von Computern war damals eng mit Großrechnern verknüpft, die lediglich durch Spezialisten bedient werden konnten. Dieses Paradigma stellten Spielekonsolen wie „Pong“ von Atari allerdings bereits 1975 in Frage. Andere Branchengrößen wie IBM hatten weiterhin Bedenken, ob die Leistung der Großrechner auf einem Schreibtisch Platz finden könne. Unternehmen wie Commodore oder Apple bewiesen ab 1977, dass dies möglich war, indem sie kompakte, sofort nach dem Kauf verwendbare Rechner auf den Markt brachten und sich somit an die Spitze der Computerhersteller katapultierten. Sie setzten damit eine Entwicklung in Gang, die sich zu Beginn der 1980er-Jahre beschleunigte: IBM definierte mit dem „IBM PC 5150“ ab 1981 einen Standard im Bereich der Heimcomputer. Sony und Philips brachten die Digitalisierung im Audiobereich voran und legten die technischen Spezifikationen für die Compact Disc fest.
Man muss dabei gewesen sein. Wer heute »Dr. Strangelove« einem Publikum von unter Dreißigjährigen zeigt, einer Altersgruppe also, die den Kalten Krieg bestenfalls vom Hörensagen kennt, wird vermutlich gelangweilte oder verständnislose Kommentare hören. Oder die Frage, was es denn um Himmels willen zu lachen geben soll in dieser »schwarzen Satire« über die atomare Vernichtung der Welt, die seit ihrer Uraufführung am 29. Januar 1964 hartnäckig als eine der besten Komödien aller Zeiten gehandelt wird und dem virtuosen, gleich in drei Rollen auftretenden Hauptdarsteller Peter Sellers einen Logenplatz in der cineastischen Ruhmeshalle gesichert hat.
Während des Kalten Krieges wurde in Millionen Wohnzimmern, Kasernen und Schulen gespielt: Klassische Unterhaltungsspiele wie Memory bzw. Merk-Fix, aber auch Spiele wie Fulda Gap oder Klassenkampf, die die Systemkonfrontation als Auseinandersetzung zwischen Gut und Böse erleb- und simulierbar machten. Der Aufsatz betrachtet eine in der zeithistorischen Forschung und in den Cold War Studies bislang vernachlässigte Quellengattung, die gerade in den 1970er- und 1980er-Jahren für die populärkulturelle Vermittlung von Grundcharakteristika des Ost-West-Konflikts sehr bedeutsam war. Untersucht wird, wie sich Brett- und Computerspiele in die Wettkampflogik des Kalten Krieges einschrieben, inwiefern sie für die Systemkonfrontation auf beiden Seiten sinnbildend waren, nationale Spezifika aufwiesen oder aber als Foren der Gesellschaftskritik dienten. Deutlich wird auch, wo für die jeweiligen Obrigkeiten die Grenzen des »Spielbaren« lagen. Den eigenen Untergang als Handlungsmöglichkeit oder Dystopie zu erproben, erschien vielfach als moralisch und politisch bedenklich, weil die in Spielen entwickelten Szenarien womöglich den Blick auf die Realität verändern und Kritik verstärken konnten. Andererseits konnten die Spiele aber auch die Veralltäglichung des Kalten Krieges unterstützen: Sie bereiteten Wissen über militärische Sachverhalte auf und trugen zur Gewöhnung an das atomare Drohpotential bei.
Der Religionsgeschichte ist vielfach vorgeworfen worden, die entscheidenden methodischen ‚turns‘ und ‚shifts‘ der allgemeinen Geschichtswissenschaft erst mit erheblicher zeitlicher Verzögerung vollzogen zu haben. In der Tat, zu lange wurde die Geschichte von Religionen und Konfessionen lediglich als eine Geschichte von Kirchen und Verbänden beschrieben: Ereignisse und Institutionen rangierten weit vor Praktiken und Mentalitäten. Dies gilt insbesondere für die Zeitgeschichte: Während die Erforschung der religiösen Formationen des Mittelalters und der Frühen Neuzeit schon längst mit neueren kulturgeschichtlichen Ansätzen operierte, galt es bezogen auf das 19. und 20. Jahrhundert noch immer als innovativ, den Anschluss an die Sozialgeschichte zu vollziehen und hinter den Kirchen und Verbänden das konfessionelle „Milieu“ und Formen kollektiver „Frömmigkeit“ zu entdecken. Nach dem Abschmelzen fester, homogener Konfessionsmilieus spätestens seit den 1960er-Jahren stellt sich nicht nur empirisch die Frage: „Was kommt nach dem Milieu?“ Auch methodisch ist zu überlegen: Was kommt nach der Milieuforschung?
Gut zwanzig Jahre nach seinem Tod hat Michel Foucault (1926-1984) in der Geschichtswissenschaft Klassikerstatus erreicht. Neben Max Weber, Pierre Bourdieu und anderen wird sein Name gern genannt, wenn es darum geht, Methodenreflektiertheit und Innovation zu demonstrieren. Dies gilt insbesondere im Bereich der Forschungen zur Frühen Neuzeit, da Foucault hier mit seinen eigenen Arbeiten zur Geschichte der Rationalisierung und Sozialkontrolle Standards gesetzt hat. Aber auch im Hinblick auf die Zeitgeschichte finden die Arbeiten Foucaults - etwa in der Historischen Anthropologie oder der Geschlechtergeschichte - weite Beachtung.
Die „Réflexions sur la violence“ von Georges Sorel (1847-1922) gelten bis heute als eine wichtige Inspirationsquelle linker wie rechter Gewaltlegitimation. Ihr Autor, ein französischer Straßen- und Brückenbauingenieur, der nach 25 Berufsjahren 1892 sein Amt aufgab, um sich fortan gelehrten Studien zu widmen (ein geerbtes Familienvermögen machte dies möglich), durchlief selbst den intellektuellen Parcours vom linken zum rechten Rand des europäischen politischen Spektrums und wieder zurück. Sorels Interessen reichten von der frühen Kirchengeschichte bis hin zu Philosophie, Psychologie und Soziologie; vor allem aber richteten sie sich auf die klassischen Schriften des Marxismus, denen er ausführliche Analysen widmete. Er kommentierte das politische Zeitgeschehen in seinem Heimatland, verfolgte die Revisionismusdebatte der deutschen Sozialdemokratie mit großem Interesse und stand mit Benedetto Croce, Vilfredo Pareto und anderen italienischen Denkern in engem Kontakt.
„Wir schreiben das Jahr 50 vor Christus. Ganz Gallien ist von den Römern besetzt... Ganz Gallien? Nein! Ein von unbeugsamen Galliern bevölkertes Dorf hört nicht auf, den Eindringlingen Widerstand zu leisten...“ Mit dieser mittlerweile fast legendären Eröffnung startete vor 50 Jahren eine der meist gelesenen Comicserien in Europa. Asterix, eine Geschichtsgroteske über den gleichnamigen gallischen Antihelden, wurde von Albert Uderzo und René Goscinny erschaffen. Im französischen Jugendmagazin „Pilote“ erschien erstmals im Herbst 1959 ein Abenteuer der kampflustigen Gallier. Bereits zwei Jahre später war die Serie so populär, dass ein erstes Comicalbum „Astérix le Gaulois“ produziert wurde. Es folgten weitere 33 Alben, die mehr als 310 Millionen Mal in über 100 Sprachen und Dialekten verkauft wurden, acht abendfüllende Zeichentrickfilme und drei Realverfilmungen. Asterix wurde zu einem westeuropäischen Comicphänomen.
Bis Ende 2015 werden 50 Prozent aller Chinesen über einen Internetzugang verfügen. Die Möglichkeiten für eine größer werdende Anzahl von Chinesen, online zu kommunizieren und zu konsumieren, hat eine Reihe von Wissenschaftlerinnen und Wissenschaftlern dazu inspiriert, sich mit Themen wie Zensur, Überwachung und Nutzung von sozialen Medien zu beschäftigen. Ein Großteil dieser Forschung baut auf der Prämisse einer antagonistischen Beziehung zwischen Staat und Gesellschaft auf. Allerdings weiß man bisher nur wenig darüber, welche Auswirkungen die staatlich geförderten und internetbasierten Kommunikationskanäle zwischen Regierungsbeamten und chinesischen Bürgern auf die Transformation der autoritären Einparteienherrschaft in China haben. Der vorliegende Artikel beschäftigt sich mit dieser Frage, indem er Chinas E-Government-Strategie einerseits zu globalen Entwicklungen in Beziehung setzt, andererseits im Kontext der sich verändernden Anreize untersucht, die politische Reformen in China in den vergangenen zwei Jahrzehnten ermöglicht haben. Es wird gezeigt, dass die Bemühungen der chinesischen Einparteienregierung, die Interaktion zwischen Staat und Gesellschaft zu digitalisieren, großes Potenzial dafür birgt, das Wesen des chinesischen Staates zu verändern. Allerdings stellen diese Veränderungen keinen Paradigmenwechsel dahingehend dar, wie China regiert wird. Der wichtigste Aspekt dieser Veränderungen ist, dass sie die Möglichkeit bieten, das oftmals als „Diktatoren-Dilemma“ bezeichnete Problem zu lösen: Menschen in nichtdemokratischen Regierungssystemen haben Angst davor, den Herrschenden gegenüber ihre Meinung auszudrücken, und entziehen so dem Staat eine wichtige Informationsgrundlage. Es wird gezeigt, dass die Entwicklung hochintegrierter E-Government-Plattformen, wie sie sich die Technokraten der Kommunistischen Partei Chinas vorstellen, bestehender institutioneller Logik folgt und dringende Probleme zu lösen vermag. So wird die Chance darauf erhöht, dass diese Plattformen nachhaltig eingeführt werden.