Wissen
Refine
Year of publication
Document Type
- Journal Article (76)
- Online Publication (9)
- Part of a Book (2)
- Book (1)
Has Fulltext
- yes (88) (remove)
Keywords
- Begriffe (2)
- Deutschland (Bundesrepublik) (1)
- Deutschland (DDR) (1)
- Forschungsfelder (1)
- Geschichte 1980-1989 (1)
- Hacker (1)
In den ersten Wochen der Kanzlerschaft Hitlers begann der Dresdner Romanist Victor Klemperer in seinem Tagebuch öffentliche Sprachereignisse und eigene Spracherlebnisse festzuhalten, die anzeigen, wie schnell und konsequent sich die Nazifizierung der deutschen Gesellschaft vollzog. Radikal erfolgte die sprachliche »Annullierung einer Welt«, deren Grundbegriffe kurz zuvor noch Geltung gehabt hatten. Der aus seinem Amt verjagte Gelehrte hielt beinahe täglich Beobachtungen über die Art und Weise fest, wie die staatliche Propaganda den Alltag durchsetzte: In allen Schichten und Lebensbereichen sprachen die Menschen nun »nazistisch«, grüßten anders, unterhielten sich anders, schimpften anders – und schrieben auch eine andere Wissenschaftsprosa, wie Klemperer teils ungläubig, teils verzweifelt an den Veröffentlichungen in seinem Fach konstatieren musste. Seine Notizen zur »LTI« (»Lingua Tertii Imperii«, »Sprache des Dritten Reiches«) führte er bis Mai 1945 fort (und später auch darüber hinaus). In einem Eintrag vom April 1937 hielt Klemperer das methodologische Credo der von ihm geplanten Sprachstudie fest, wenn er mit Blick auf den öffentlich zelebrierten Bekenntnisrausch der NS-Paraden, der Parteifahnen, Lieder und Schlagworte, das lateinische Sprichwort über Wein und Wahrheit zum Motto seiner Sprachkritik abwandelte: »In lingua veritas«. Diese Sentenz bündelte die Überzeugung Klemperers, der seine Sprachbeobachtungen zeitgleich auch in einem Brief an seinen Schwager Martin Sußmann erläuterte, der sich mit seiner Familie ins schwedische Exil retten konnte: »Die Arbeit bekommt eine psychologische und eine damit zusammenhängende historische Seite. […] Es ist nämlich nur zum kleiner[e]n und oberflächlichen Teile wahr, dass die Sprache dem Menschen zum Verbergen seiner Gedanken gegeben ist, vielmehr: sie verrät ihn.«
Anhand der bundesdeutschen Pharmawirtschaft, genauer der Unternehmen Bayer, Hoechst, Merck und Schering, wird gezeigt, dass die Bedeutung von Patentrechten für die Gesundheitsökonomie in der zweiten Hälfte des 20. Jahrhunderts deutlich wuchs: Die Unternehmen erhöhten nicht nur die Anzahl von Patenten, sondern auch die Investitionen in immaterielles Vermögen erheblich. Die Kosten für Forschung und Entwicklung (F&E) überstiegen seit etwa Ende der 1970er-Jahre die Investitionen in Produktionsanlagen. Patente selbst avancierten zum Instrument, um unternehmensseitig den Wettbewerb zu beeinflussen. Das 1968 eingeführte »Stoffpatent« für neue chemische Verbindungen hatte dafür erweiterte Möglichkeiten geschaffen. Patent- und Lizenzabteilungen wurden zu wichtigen Orten unternehmensinterner Entscheidungsfindung. Zudem wurden die Forschungsleistungen hervorgehoben, um den Anstieg der Arzneimittelpreise zu rechtfertigen. Der Aufsatz leistet einen Beitrag zur Beantwortung der Frage, wie und wann die bundesdeutsche Wirtschaft verstärkt zu einer »Intangible Economy« wurde. Er verdeutlicht, wie relevant geistiges Eigentum für die Transformation seit den 1970er-Jahren war – und damit für die Zeitgeschichte des Kapitalismus als Kombination von Vermarktlichung und Verrechtlichung, von globalem Wettbewerb und nationalstaatlicher Regulierung.
Since the late 1950s, nutrition experts have debated whether foods enriched with micronutrients such as protein could alleviate world hunger. Industrial production of such ›wonder foods‹ began in the 1960s, making the food industry an actor in international food aid. Following a brief review of the history of scientific nutrition research, the article analyzes the first boom of fortified foods between the 1950s and the 1970s. With particular reference to the NGO CARE and the Institute of Nutrition of Central America and Panama (INCAP) with its product Incaparina, it shows how the conflict-ridden cooperation between humanitarian actors, governments, business and science developed. In addition to looking at contemporary debates about prices, quality controls and marketing strategies, consumer perspectives must be considered in order to understand the success or failure of new products. After a temporary slump in euphoria from the 1970s onwards, ›wonder foods‹ have experienced a revival since the 1990s – mainly because the networks between governments, nutrition experts, international organizations and the food industry were further cultivated and greater consideration was given to the needs of consumers.
Seit den späten 1950er-Jahren diskutierten ErnährungsexpertInnen, ob mit Mikronährstoffen wie Protein angereicherte Nahrungsmittel den Hunger auf der Welt lindern könnten. Die industrielle Produktion solcher »Wonder Foods« begann in den 1960er-Jahren. Damit wurde die Lebensmittelindustrie zu einem Akteur in der internationalen Nahrungsmittelhilfe. Nach einem kurzen Rückblick auf die Geschichte wissenschaftlicher Ernährungsforschung analysiert der Aufsatz den ersten Boom angereicherter Nahrungsmittel zwischen den 1950er- und den 1970er-Jahren. Am Beispiel der NGO CARE und des zentralamerikanischen Ernährungsinstituts INCAP mit seinem Produkt »Incaparina« wird gezeigt, wie sich die konfliktreiche Kooperation zwischen humanitären Akteuren, Regierungen, Wirtschaft und Wissenschaft entwickelte. Neben dem Blick auf zeitgenössische Debatten über Preise, Qualitätskontrollen und Marketingstrategien müssen insbesondere KonsumentInnenperspektiven einbezogen werden, um Erfolg oder Scheitern neuer Produkte zu verstehen. Nach einem temporären Einbruch der Euphorie ab den 1970er-Jahren erlebten »Wonder Foods« seit den 1990er-Jahren ein Revival – vor allem deshalb, weil die Netzwerke zwischen Regierungen, ErnährungsexpertInnen, internationalen Organisationen und Lebensmittelindustrie weiter gepflegt wurden und die Bedürfnisse von KonsumentInnen mehr Berücksichtigung fanden.
Seit einigen Jahren verdichtet sich auch in Deutschland das Gespräch über Herausforderungen und Perspektiven des digitalen Zeitalters für die Geschichtswissenschaft. Auf jedem Historikertag seit 2010 gab es mehrere Sektionen, die sich unterschiedlichen Facetten des Themas zuwandten. Es entstehen Fachpublikationen, Überblickswerke, Dissertationen und erste Ansätze, das Feld institutionell neu zu gestalten. Die Geschichtswissenschaft bemüht sich, produktiv auf die Veränderungen einzugehen. Punktuell ist es auch bereits zu einem Dialog mit Archiven und der Archivwissenschaft gekommen. So hat der Verband der Historiker und Historikerinnen Deutschlands (VHD) 2015 unter Federführung der Vorsitzenden Eva Schlotheuber und Frank Bösch ein Grundsatzpapier verabschiedet, das sich der Quellenkritik im digitalen Zeitalter annimmt. Die Forderung, Elemente der Digital Humanities in die Historischen Grundwissenschaften zu integrieren, wurde seitdem noch weiter unterstrichen.
Die folgende Skizze verzichtet ganz auf normative Stellungnahmen. Wie man „gute“ Zeitgeschichte schreiben und welche Aufgaben sie haben sollte – solche Proklamationen sind eine allzu verbreitete Übung von Historikern, zumal sie ohne die Anstrengung empirischer Forschung von der Hand gehen. Stattdessen soll hier gefragt werden, inwieweit wir es uns überhaupt erlauben können, Diagnosen über Wandel und Kontinuität in der Zeitgeschichtsschreibung aufzustellen und daran Empfehlungen zu knüpfen, solange wir nicht auf empirisch gesichertem Grund stehen. Wohlgemerkt, es geht um Anfragen, nicht um Resultate oder Lösungen. Sind die oft behaupteten Tendenzen – zunehmende Marktabhängigkeit, Emotionalisierung, Internationalisierung, mangelnde Selbstreflexion der Zeitgeschichte, teleologische und gegenwartslegitimatorische Geschichtsschreibung à la Treitschke – typisch für die Zeitgeschichte? Vorausgesetzt, die Elemente des Merkmalskatalogs treffen überhaupt zu: Was davon betrifft die Zeitgeschichte, was die gesamte Geschichtsschreibung?
Geographische Informationssysteme (GIS) wurden bereits seit den 1960er-Jahren mit der beginnenden Computerisierung der Geographie entwickelt. Ihr Konzept folgt der Idee, Daten bzw. Informationen in ihren Raumbezügen zu organisieren und analysierbar zu machen. Mit der Weiterentwicklung und wachsenden Leistungsfähigkeit digitaler Infrastrukturen sind inzwischen komplexe Datenmodelle, flexiblere Datenformate, neue Formen der Visualisierung sowie umfassende geostatistische Analysen möglich geworden. Zudem sind kartographische Visualisierungen nicht mehr nur statisch, sondern in einem GIS können überdies Veränderungen der Daten im Zeitverlauf dargestellt und untersucht werden. Der Einsatz von GIS ist aus Forschung, Wirtschaft, Verwaltung und medialer Kommunikation kaum noch wegzudenken. Die Produkte der Arbeit mit GIS umgeben uns vielerorts, oft ohne dass wir uns der dahinterliegenden Architekturen und Annahmen bewusst sind. Aktuelle Debatten über die Sammlung zeit- und geocodierter Daten, etwa über Mobiltelefone, um Personengruppen – Konsument*innen, Migrant*innen, Geflüchtete, Bürger*innen – retrospektiv, in Echtzeit oder mit prädiktiven Modellen auf der Grundlage biometrischer und/oder sozialer Daten zu tracken, haben mit Recht Fragen zum Datenschutz und zu ethischen Implikationen dieser Technologien aufgeworfen. Anwendungen GIS-basierter Technologien, etwa bei der Bekämpfung der Covid-19-Pandemie, dem Tracking von Verbreitungs- und Infektionswegen, der Entwicklung von Krisenreaktionsstrategien oder der medialen Kommunikation der Situation scheinen uns zugleich die beträchtlichen Potentiale der raum-/zeitsensiblen Datenanalyse – in Echtzeit – zu vermitteln. Deutlich wird, dass die ethischen, methodischen und epistemologischen Effekte der Verbreitung digitaler Werkzeuge zur Durchdringung wachsender und zunehmend komplexer Datenbestände einer mehrdimensionalen Reflexion bedürfen, die augenblicklich nur mühsam mit der Expansion der technischen Möglichkeiten Schritt hält.
Die Restitution von Wohneigentum stellte ein großes Konfliktfeld im deutschen Einigungsprozess dar, das zugleich durch eine lange Vorgeschichte geprägt war. Eigentumsideen und -notationsformen aus dem 19. Jahrhundert sowie Praktiken aus der DDR spielten nach 1990 in die Entscheidungen der Ämter zur Regelung offener Vermögensfragen hinein; sie prägten Erfahrungen und Bewertungen des 1990 eingeführten Prinzips »Rückgabe vor Entschädigung«. Das zugrundeliegende Vermögensgesetz wurde in den 1990er-Jahren modifiziert und berücksichtigte vermehrt DDR-Praktiken. Trotzdem dominieren in den öffentlichen Darstellungen Verlusterzählungen, vor allem aufgrund der langen Zeit der Unsicherheit bis zur endgültigen Entscheidung. Das für den ersten Teil des Aufsatzes gewählte Beispiel Kleinmachnow, das unmittelbar an das frühere West-Berlin angrenzte, stand in den 1990er-Jahren besonders im Medieninteresse. Unklar blieb aber, welche Aussagekraft es für Ostdeutschland hat. Im zweiten Teil wird deshalb nach dem Typischen dieses Falles gefragt. Zugleich wird dafür auf die besonderen Quellen der Transformationsgeschichte eingegangen: Die Sozialwissenschaften produzierten seit 1990 eine Vielzahl qualitativer und quantitativer Daten, die nun auch der Geschichtswissenschaft als Quellen zur Verfügung stehen. Vor einer Sekundäranalyse müssen sie aber wissensgeschichtlich eingeordnet werden: Die Sozialwissenschaften beobachteten den Transformationsprozess nicht nur, sondern gestalteten ihn mit. Vorgeschlagen wird hier ein integratives Verfahren, um quantitative und qualitative Ergebnisse für die Geschichtswissenschaft zu verbinden und somit zu einem besseren Verständnis der komplexen Transformationsgeschichte zu gelangen.
»Kern/Schumann I und II« sind wichtige Quellen für den Wandel der Arbeitswelt, allerdings können die Studien aufgrund ihres spezifischen Untersuchungsdesigns nur auf bestimmte geschichtswissenschaftliche Fragen Antworten geben: Sie konzentrierten sich auf Erwerbsarbeit und besonders auf die industrielle Stammbelegschaft. Begrenzt erkennbar sind deshalb Erfahrungen von Migranten und Frauen sowie unterschiedliche Beschäftigungsarten und -bereiche. Hierzu versprechen andere SOFI-Studien mehr Auskunft.[52] Die Vorstellung von »Kern/Schumann I und II« in diesem Beitrag ist verbunden mit einem Plädoyer, die große Vielfalt der SOFI-Studien für Zwecke der Geschichtswissenschaft zu nutzen.
The web and tomorrow’s historiography. Since the 1990s the world wide web (or simply, the web) has been an integral and important part of the communicative infrastructure of modern societies. On the one hand the web has developed as a new medium in its own right, in continuation of other media types such as newspapers, film, radio and television. On the other hand, the web has been intimately entangled in the social, cultural and political life taking place outside of the web. For example, within the realm of politics the web has been essential for the extreme left and right since the mid 1990s (as a platform for discussion and mobilisation as well as for the diffusion of political ideas). And in everyday life an important part of modern youth culture has for a number of years been closely connected to such web phenomena as YouTube, Facebook and Twitter.
In der ersten Hälfte der 1990er-Jahre sahen sich die traditionellen Informationsvermittlungsinstanzen, die Bibliotheken, nicht in der Lage, ihre Mediatorenfunktion in puncto Internet wahrzunehmen. Es blieb in dieser Gründungsepoche der Eigeninitiative selbstloser NetzenthusiastInnen überlassen, für verschiedenste Disziplinen bald so genannte Fachverzeichnisse, Themenkataloge oder Fachportale aufzubauen. Ein Teil von ihnen organisierte sich in der Virtual Library (VL), dem ältesten Web-Suchdienst, ins Leben gerufen durch den WWW-„Erfinder“ Tim Berners-Lee. Sie ist der Versuch, durch eine lose Zusammenarbeit von Experten, die jeweils für ein bestimmtes Schlagwort Indices von Webressourcen erstellen, einen Universalkatalog mit akademischer Ausrichtung zu betreiben. Als Zielgruppen, zu denen sich auch die VL Zeitgeschichte bekennt, sollen vor allem WissenschaftlerInnen, Lehrende und Studierende angesprochen werden. Die VL fordert von ihren RedakteurInnen ein, nur solche Webressourcen aufzunehmen, die bestimmte Qualitätskriterien erfüllen; um in der VL Zeitgeschichte gelistet zu werden, muss daher der „wissenschaftliche Nutzen“ gegeben sein (siehe die Rubrik „Aufnahmekriterien“ der Website).
Few of Hannah Arendt’s declarations have had as enduringly a controversial legacy as the one she gave in her famous 1964 West German television conversation with Günter Gaus, proclaiming uncompromised loyalty to her first language – German – despite Hitler. The statement was misconstrued as a privileging of the language of the perpetrators and expressing a bias against Eastern European Jews. In conversation with the recent ›Taytsh turn‹ (Saul Zaritt) in Yiddish Studies, this article focuses instead on two Yiddish newspaper articles published by Arendt in 1942 and 1944 and explores what I call a ›Taytsh move‹ in Arendtʼs language politics. Taytsh, an alternative name for the Yiddish language meaning, literally, German, foregrounds (Jewish) cultures’ inherent translational mode and interconnectivity with the world that makes and sustains these cultures. Arendt reactivated the inherent unbordered nature of languages – with an awareness of the dangers of monolingualism; for the sake of overcoming reductive constructions of Jewishness and modern identity; against the atomizing forces of fascism.
I first came across Harlan Lane’s work towards the end of my PhD, which I was undertaking at University College London, UK. My dissertation was on the construction of ›difference‹ in the British Empire, particularly the differences ascribed to race and gender. Using nineteenth-century medical missionaries as a way in, I had started to think about differences evoked by health, disability, and the body. In particular, I noted the way in which missionaries used the language of disability as a discourse of racialisation. The African and Indian colonial subjects they encountered were described throughout missionary literature as ›deaf to the Word‹, ›blind to the light‹ and ›too lame‹ to walk alone. I have two d/Deaf cousins, one of whom is the sign language sociolinguist Nick Palfreyman, and around about this time Nick had started to familiarise me with some of the issues surrounding Deaf politics. Becoming interested and wanting to know more, I began to learn British Sign Language (BSL) and contemplate the connections between the historical work I was doing and contemporary struggles of Deaf politics and disability politics (I was particularly interested in DPAC – Disabled People Against Cuts – given the contemporary climate of austerity in the UK). As I did so I became acquainted with the work of Harlan Lane. Here, although acutely aware of my own positionality as a white, British, hearing woman, I have taken up the challenge set by the editors of this special issue to re-read his work twelve years on from my initial encounter with it, using the insights into postcolonial study I have gained through my historical work.
Keine Stunde Null. Sozialwissenschaftliche Expertise und die amerikanischen Lehren des Luftkrieges
(2020)
Alle Kriegsparteien bombardierten im Zweiten Weltkrieg Ziele, die lange Zeit als zivil gegolten hatten. Diese sogenannten strategischen Bombardierungen wurden im Auftrag der US-Regierung ab dem Kriegsende mit einem Stab von über 1.000 Mitarbeitern in Deutschland und Japan aufwendig evaluiert (United States Strategic Bombing Survey, USSBS). Mithilfe ambitionierter Sozialwissenschaftler gelang es der jungen US Air Force, den strategischen Luftkrieg als militärisch und psychologisch entscheidend darzustellen, und so taten sich für die Luftkriegsexperten auch nach 1945 attraktive neue Beschäftigungsfelder auf. Die Wissenschaftler argumentierten, sie seien in der Lage, methodisch abgesichert einen schnellen und vermeintlich »sauberen« Krieg aus der Luft zu planen. Der Aufsatz stellt die bisher kaum erforschten Logiken und Folgen dieser Kooperation sowie die behaupteten Lehren des Weltkrieges für den Korea- und den Vietnamkrieg dar. Damit hinterfragt er das gängige Verständnis einer radikalen Zäsur, die der erste Einsatz der Atombombe mit sich gebracht habe, und plädiert für einen neuen Blick auf die Militär-, Gewalt- und Wissensgeschichte des »Kalten Krieges«.
Der Computer und die mit ihm verbundenen Informations- und Kommunikationstechnologien sind spätestens mit dem Aufkommen der Mikroelektronik Anfang der 1970er-Jahre zu entscheidenden Faktoren der Entwicklung moderner Industriegesellschaften geworden. Im Verlauf der 1980er-Jahre diffundierten Computer und neue Medien in nahezu alle Bereiche der Gesellschaft – angefangen von der Arbeit über die Formen der sozialen Kommunikation, die politische Kultur, die Bildung, den Konsum und die Freizeit bis hinein in die individuellen Lebensstile. Der „Informationsgesellschaft“ (ein Begriff, der nicht zufällig ab etwa 1980 populär wurde) hat die zeithistorische Forschung bislang eher wenig Aufmerksamkeit geschenkt. Mit Blick auf die wichtigsten Phasen und Zäsuren diskutiert der Aufsatz mögliche Perspektiven einer Zeitgeschichte der Informationsgesellschaft. Plädiert wird dabei für eine integrierende gesellschaftsgeschichtliche Analyse des mit dem Computer verbundenen Wandels sowie der wirtschaftlichen, sozialen und kulturellen Kontexte.
Der koloniale Blick auf Osteuropa. Der Auftritt von Harald Welzer als Symptom deutscher Schieflagen
(2024)
Am 8. Mai 2022 war in der Talkshow von Anne Will der Krieg Russlands gegen die Ukraine Thema. Die Gäste waren der Generalsekretär der SPD Kevin Kühnert, der ehemalige CDU-Politiker Ruprecht Polenz, der Botschafter der Ukraine in Deutschland Andrij Melnyk, die Fraktionsvorsitzende der Grünen Britta Haßelmann sowie der Soziologe/Sozialpsychologe Harald Welzer. Jede Einladungsliste einer Talkshow folgt einer bestimmten Logik: Es sollen konträre Positionen aufeinandertreffen und Repräsentant:innen aus Medien, Gesellschaft und Politik und (manchmal) der Wissenschaft vertreten sein. Auf den ersten Blick könnte man also sagen, dass diese Runde durchaus gut gewählt war mit Stimmen bei denen es absehbar war, dass die Debatte kontrovers werden würde. Tatsächlich aber war die Rollenzuweisung Welzers von vorneherein problematisch: Er ist zwar zweifelsohne ein ausgewiesener Wissenschaftler, der mit "Opa war kein Nazi" auch für die Geschichtswissenschaft ein wichtiges Buch vorgelegt hatte, Osteuropa-Expertise besitzt Welzer hingegen nicht.
Extravagante Danksagungen in literarischen und wissenschaftlichen Büchern werden regelmäßig in den Massenmedien und auf Social Media zur Unterhaltung verbreitet und debattiert. Auch am Beispiel von in Danksagungen nicht erwähnten Mitarbeiter:innen und Ghostwritern werden verschiedene Auslegungen guter wissenschaftlicher Praxis und redlichen Schreibens diskutiert. Für Danksagungen interessieren sich jedoch nicht nur die Massenmedien, sondern erst recht die Wissenschaftler:innen selbst. Zwar sind akademische Danksagungen von der geistes- und geschichtswissenschaftlichen Forschung bisher kaum systematisch untersucht worden. Gleichwohl stellen sie einen von Fachkolleg:innen aufmerksam rezipierten Paratext dar, der ebenfalls der Unterhaltung dienen kann, durch den sie sich aber auch ein Bild vom jeweiligen Autor bzw. von der Autorin verschaffen. Anhand von Danksagungen wird überprüft, in welchen fachlichen Schulen sich die Autor:innen verorten, für welche Unterstützung sie sich bei wem bedanken, welche privaten Ansichten und Angelegenheiten sie preisgeben und inwiefern sie fachliche Konventionen einhalten. Umgekehrt ist dieser prüfende Blick der Kolleg:innen den Verfasser:innen von Danksagungen bekannt. Über die Geste hinaus bieten Danksagungen den Autor:innen daher die Möglichkeit, sich den Kolleg:innen als Wissenschaftler:in und (Privat-)Person zu präsentieren.
Für dieses Buch muss man sich etwas Zeit nehmen. Ich hatte die gut 700 Seiten umfassende amerikanische Originalausgabe von »Mechanization Takes Command« (den Titel kürzte Giedion in seinen Notizen mit dem Akronym »M.T.C.« ab) im Sommer 2017 im Amtrak California Zephyr auf meiner Reise von Greenriver, UT, nach Chicago, IL, im Gepäck. Diese Reise bot aktualisiertes Anschauungsmaterial zu Giedions Sondierungen der US-amerikanischen Industrialisierungsgeschichte. Sie folgte jener Eisenbahnlinie, welche Kalifornien (wo die Frontier-Gesellschaft Amerikas im ausgehenden 19. Jahrhundert an ihr Ende gelangte) mit Chicago verbindet (der nach dem großen Brand von 1871 zur Industriemetropole avancierten Stadt am Lake Michigan). Dazwischen öffnete sich der Midwest, dessen verrostete und verlassene industrielle Infrastruktur (Bahnhöfe, Fabriken, Brücken, Städte) durch das Zugfenster ins Blickfeld geriet und somit den Endpunkt der von Giedion dokumentierten Entwicklungen brutal vor Augen führte. Die heruntergewirtschafteten Landschaften des Midwest und Giedions Streifzüge in ihre Industrialisierung während des 19. Jahrhunderts flossen ineinander über. Etwa dann, wenn der Zug stillstand und mein Blick bei den Getreide-Elevatoren hängen blieb, wo sich die Eisenbahnlinien kreuzen und der Personenzug den unendlich langen Güterwagen, die von Diesellokomotiven angetrieben werden, den Vortritt lassen musste. Oder wenn ich beim mäandrierenden Durchblättern des Buches und dem Blick aus dem Zugfenster den Faden verlor und eindöste – und dann beim Eindunkeln jäh von den sleeping car attendants, welche die ausklappbaren Sitze für die Nacht mit ein paar Handgriffen zu Betten umwandelten, in die Gegenwart zurückgeholt wurde. Oder im Nachfolgemodell des von George M. Pullman 1869 in seinem Patent beschriebenen Speisewagens, wo die Reisende aus Europa und Wählerinnen des amtierenden Präsidenten sich am gemeinsamen Tisch zum Verzehr von Burger, Steaks und Hot Dogs wiederfanden. Jenes Präsidenten, der zu Beginn des 21. Jahrhunderts eine Re-Industrialisierung abgehängter Regionen im einst prosperierenden Rostgürtel der USA versprach.
Menschen schreiben, Menschen notieren. Papierne (heute auch digitale) Gedächtnisstützen halten fest, was sich im Kopf der oder des Schreibenden abspielt, um es für kurze oder längere Zeit zu sichern und zu übertragen. Termine, Kontakte und Adressen werden besonders oft verschriftlicht, da es sich um Informationen handelt, die präzise wiedergegeben werden müssen. Jeder einzelne Datensatz (eine Adresse, Telefonnummer, Ort und Zeit eines Treffens, Kontakte zu einer bestimmten Person) ist in sich eher trocken und schwer zu merken, die Verschriftlichung verwaltet also und assistiert unserer Erinnerung. An der Schnittstelle zwischen Alltagslogistik, Sozialleben und Erinnerung sind Adressbücher Hilfsmittel und Kulturtechnik zugleich. Das Adressbuch als Gegenstand dient im Sinne Bruno Latours der Delegation, da sein*e Benutzer*in Informationen auslagern kann. Dadurch werden Adressbücher fester Bestandteil von Netzwerken, welche ohne diese Niederschrift nicht aufrechtzuerhalten wären. Das lässt sich am Beispiel europäischer Netzwerke in London während des Zweiten Weltkrieges darlegen: anhand eines edierten »Who’s Who« und des persönlichen Adressbuches des Juristen René Cassin.
Für ein Schreibprojekt, das vor nur gut elf Jahren ins Leben gerufen wurde, ist die Bilanz nicht schlecht: Die Wikipedia vereint heute 20 Millionen Artikel in über 280 Sprachversionen und wird von einer halben Milliarde Einzelnutzer im Monat konsultiert. Allein in der deutschsprachigen Variante sind pro Stunde anderthalb Millionen Seitenaufrufe zu verzeichnen. Die schiere Quantität dieser Nachfrage zeigt also, dass es offenbar einen enormen gesellschaftlichen Bedarf für einen freien Zugang zu strukturierten Informationen gibt. In diesem Zusammenhang wird häufig übersehen, dass es nicht allein die digitale Form ist, welche die Online-Enzyklopädie von ihren historischen Vorläufern in der Nachfolge Diderots unterscheidet. Die freie MediaWiki-Software wurde entlang einer Leitidee entwickelt, die den Grundgedanken des Zusammenwirkens vieler Beteiligter von der Open-Software-Bewegung auf die Vision einer globalen und zugangsoffenen Diskursgemeinschaft überträgt.