Technik
Refine
Year of publication
Document Type
- Journal Article (51)
- Part of a Book (26)
- Online Publication (10)
- Book (4)
Keywords
- Deutschland (Bundesrepublik) (3)
- Computer (2)
- Deutschland (DDR) (2)
- Computerunterstütztes Verfahren (1)
- Datenverarbeitung (1)
- Geschichte 1955-1990 (1)
- Geschichte 1957-1993 (1)
- Geschichte 1980-1989 (1)
- Hacker (1)
- Informationsgesellschaft (1)
Inwiefern können Bilder aus polizeilichen Überwachungskameras als „Quellen“ zeithistorischer Forschung verstanden und genutzt werden? Und was steht einem solchen Verständnis entgegen? Einerseits liegt mit den Bildern aus Überwachungskameras, als Instrumenten der Beobachtung und der Dokumentation des Miteinanders im öffentlichen Raum, ein materialreicher Fundus aktueller Daten und Aussagen der Gesellschaft vor. Andererseits ist dieses Archiv unserer Gegenwart für Sozialwissenschaftler und Historiker weitgehend unzugänglich, da die Aufnahmen aus Gründen des Daten- und Persönlichkeitsschutzes strengen Regeln unterliegen. Sofern es sich um Kameras im öffentlichen Raum handelt, sind die Bilder für andere als polizeiliche Zwecke nicht verwertbar (oder nur in stark eingeschränkter Weise). Kurz und überspitzend formuliert: Die Gesellschaft bildet sich in all ihren Äußerungen ab, nur um die meisten dieser Bilder sofort und ungesehen wegzusperren – ein Umstand, der im Übrigen in auffälligem Kontrast zu unserer sonstigen visuellen Kultur steht, die darauf angelegt ist, Bilder, auch privat hergestellte, möglichst breit zirkulieren zu lassen. Im Folgenden soll die Geschichte polizeilicher Videoüberwachung in Großbritannien skizziert werden, verbunden mit einigen allgemeineren Thesen zu Überwachungsbildern am Ende des Beitrags.
Seit dem Ende der 1960er-Jahre lieferte der für seine Sofortbildkameras und -filme bekannte US-amerikanische Fotografiehersteller Polaroid Apparate nach Südafrika, die zur effizienten Erstellung von Ausweisdokumenten für die schwarze Bevölkerung dienen konnten. Besonders in der Firmenzentrale in Massachusetts löste dies den Protest schwarzer Mitarbeiter/innen aus (Polaroid Revolutionary Workers Movement, PRWM). Die Fallstudie untersucht einige Pamphlete und Flugblätter, die sich elaborierter Manipulationen von Fotografien und einer aufrüttelnden Bildsprache bedienten. Die Bewegung setzte das Medium Fotografie gegen den Sofortbildhersteller ein, um diesen mit seinen eigenen Waffen zu schlagen. Der Streit um den US-amerikanischen Handel mit Südafrika gelangte bis ins Repräsentantenhaus. Die Darstellung der Bild- und Konfliktgeschichte ermöglicht es zugleich, einen breiteren Blick auf die Genese und die konkrete historische Situation der ausweisbasierten Kontrollmechanismen im Apartheidstaat Südafrika zu richten. Der tatsächliche Einsatz der Polaroid-Technik für Überwachungszwecke lässt sich nicht eindeutig ermitteln, und der Protest hatte insofern Erfolg, als das Unternehmen seine Lieferungen nach Südafrika Ende der 1970er-Jahre stoppte.
‘Silenced Power’. Warfare Technology and the Changing Role of Sounds in Twentieth-Century Europe
(2011)
How did the technological ability to manipulate the sounds of weapons affect warfare in Europe during the twentieth century? The article first observes the role of warfare sounds in Europe prior to the First World War. The focus here is on the connection between the large-scale use of artillery and rapid-fire technologies and the development of sonic perceptions of ‘sounded power’ during the late nineteenth century. The second part discusses the introduction of ‘soundless weapons’ during the First World War. The horror of ‘silenced power’ as a force undermining the long-term tradition of ‘sounded power’ on the battlefield is exemplified by the case of gas warfare in the First World War and its long-term influence in Germany during the Weimar Republic and National Socialism. The paper points to existing gaps in research regarding the role of sound and silence on the battlefield, and further argues that although the notion of ‘silenced power’ was more prevalent in the first half of the twentieth century its potential horror could not be ignored after 1945.
Die geschichts- und politikwissenschaftliche wie auch die soziologische Diskussion zur typologischen Bestimmung des SED-Regimes hat dessen diktatorischen Charakter deutlicher und zugleich differenzierter hervortreten lassen. Eher am Rande wurde dabei nach technokratischen Komponenten im sozialistischen Herrschaftssystem gefragt, wenngleich die einschlägige Literatur eine ganze Reihe von Hinweisen auf ein Technokratieproblem in der DDR enthält. Im allgemeinen scheint Technokratie aber als ein peripheres Phänomen wahrgenommen worden zu sein. Indes spricht manches für die Relevanz technokratischer Einflüsse in der Geschichte der DDR. Im Aufstieg und Niedergang der Macht- und Funktionseliten sind technokratische Szenarien zu erkennen, deren zentraler Bezugspunkt in der Zentralverwaltungswirtschaft lag. Doch strahlten die Wirkungen technokratischen Handelns offenbar weit in andere Bereiche des täglichen Lebens aus. Um zu erfahren, auf welche Weise und warum sich technokratische Potentiale anreicherten und wie sie wirkten, ist es nötig, die historischen Bedingungen für Technokratie in der DDR zu bestimmen. Das setzt voraus, die technokratischen Spielräume der SED-Diktatur auszuleuchten, den Umgang der Macht- und Funktionseliten mit technokratischen Konzepten und Praktiken aus den Quellen zu rekonstruieren und den spezifischen Phänotyp des Technokraten in der Gesellschaft der DDR zu lokalisieren.
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
Computerliebe. Die Anfänge der elektronischen Partnervermittlung in den USA und in Westeuropa
(2020)
Lange vor der Ära des Online-Datings begannen Heiratsagenturen und Partnerschaftsvermittlungen in den USA und in Europa den Computer einzusetzen, um die Märkte der »einsamen Herzen« zu erobern. Der Beitrag untersucht die Geschichte dieser elektronischen Kontaktvermittlung zwischen den 1950er- und den 1980er-Jahren. Wie änderten sich Vorstellungen von Liebe, Partnerschaft und Ehe im Zeitalter der »technokratischen Hochmoderne«? Und welche Rolle spielte der Computer dabei als »Elektronen-Amor« und »Matchmaking Machine«? Schon kurz nach dem Zweiten Weltkrieg avancierte der Rechner zum »wissenschaftlichen« Werkzeug einer Optimierung des Privaten. Dabei reflektierte die Geschichte der elektronischen Partnervermittlung – von der »Eheanbahnung« bis zum »Single-Dating« – einen tiefgreifenden soziokulturellen Wandel. Allerdings gab es zugleich eine erstaunliche Persistenz tradierter Werte und Muster des Kennenlernens. So eröffnete das Computer-Dating einerseits gerade für Frauen neue Wege der Partnerwahl. Andererseits (re)produzierte es soziale, ökonomische, religiöse und kulturelle Trennlinien der Gesellschaft. Die »Algorithmen der Liebe« suchten vornehmlich nach Übereinstimmungen; sie schrieben dabei konventionelle Geschlechterbilder und soziale Rollenzuweisungen fort.
Informations- und Kommunikationstechnologien durchdringen gegenwärtig alle Lebensbereiche. Dabei haben sich mit dem Anbruch des digitalen Zeitalters auch die Vorstellungen von Öffentlichkeit, Privatsphäre und Partizipation stark gewandelt. Techniken des „e-Governments“ steuern politische und soziale Prozesse. Computer regulieren den globalen Finanzmarktkapitalismus, berechnen (und manipulieren) Wahlergebnisse, lenken globale Kommunikationsströme, optimieren industrielle Produktions- und logistische Vertriebsprozesse und speichern überdies das Wissen von Verkehrsbetrieben, Krankenhäusern, Polizeibehörden und Geheimdiensten. Mit dieser Form der „Verdatung der Welt“ sind in den letzten Dekaden neue Wissensräume entstanden. Computer, Suchmaschinen und Datenbanken ordnen unsere moderne Welt.[1] Sie regeln den öffentlichen Raum und stecken zugleich die Sphäre des Privaten ab.
Die Automatisierung der industriellen Produktion hat innerhalb der Geschichtswissenschaften bislang erstaunlich wenig Aufmerksamkeit gefunden. An einem Fallbeispiel, der Halle 54 bei Volkswagen in Wolfsburg, widmet sich der Aufsatz den Grenzen der (Voll-)Automatisierung, wie sie in den 1980er-Jahren sichtbar wurden. Die Halle 54, eröffnet 1983, wurde zeitgenössisch als »Modell des technischen Fortschritts« bezeichnet. Hier hatte VW in einem weltweit beachteten Versuch die komplizierte Endmontage zu 25 Prozent automatisiert. Die anfangs gefeierten Roboter erwiesen sich jedoch schnell als fehlerhaft. Der Beitrag analysiert insbesondere das Mensch-Maschine-Verhältnis und dessen damalige Bewertung. Das Fallbeispiel verdeutlicht zum einen die aufgeregten Diskurse der 1980er-Jahre um eine scheinbare Wiederentdeckung menschlicher Überlegenheit gegenüber der Maschine; zum anderen zeigt es die Grenzen der Vollautomatisierung in der Endmontage, die bis heute als zu schwierig für Roboter gilt. Gleichwohl führten diese Erfahrungen nicht zu einer prinzipiellen Abkehr von der Automatisierung, sondern vielmehr zu einer »angepassten Automatisierung«.
»If you can’t beat ’em, join ’em«. Computerschach und der Wandel der Mensch-Maschinen-Verhältnisse
(2018)
Die Computerindustrie entwickelte sich in den USA und der UdSSR sehr unterschiedlich. Während in den Vereinigten Staaten der Konzern IBM nahezu ein Monopol erlangte, herrschte in der Sowjetunion ein Konkurrenzkampf. Mehrere Akteure verfolgten an unterschiedlichen Standorten eigene Entwicklungslinien; ein Austausch fand kaum statt. Als Reaktion auf eine von IBM 1963 vorgestellte neue Modellreihe kam es in der UdSSR zu einer Diskussion über die Computerindustrie, die den hartnäckigen Widerstand lokaler Entscheidungsträger bei der Durchsetzung zentraler Direktiven offenbarte. Es bedurfte mehrerer Machtworte von führenden Vertretern der Rüstungsindustrie, um das IBM System /360 als Vorbild einer eigenen Reihe durchzusetzen. Dabei berief man sich vor allem auf die Erfolge, die beim Nachbau von IBM-Rechnern in der DDR erzielt worden waren. Das Ministerium für Staatssicherheit hatte Entwicklungsdokumente aus dem Westen beschafft, und diese Wirtschaftsspionage trug wesentlich dazu bei, den innersowjetischen Konflikt zu entscheiden. Der technologische Rückstand der UdSSR gegenüber den USA blieb gleichwohl bestehen.
Technikgeschichte
(2018)
In den vergangenen Jahren hat sich die deutschsprachige Technikgeschichte inhaltlich und konzeptionell selbstbewusst präsentiert und ihre Position als eine eigenständige Disziplin des historischen Fächerkanons bekräftigt. Eike-Christian Heine und Christian Zumbrägel stellen zentrale Perspektiven, Begriffe und Theorien vor, die die Technikgeschichte im Laufe des 20. Jahrhunderts prägten, und benennen technikhistorische Themen, die aus zeitgeschichtlicher Perspektive besonders zukunftsträchtig erscheinen.
Am Anfang des 20. Jahrhunderts stand Mathematikern, Naturwissenschaftlern und Ingenieuren eine Reihe von mathematischen Methoden (numerischen und graphischen Verfahren) sowie technischen Hilfsmitteln (Instrumente, Apparate, Maschinen, Tafelwerke) zur Verfügung, um exakte Lösungen bzw. Näherungslösungen für mathematische Probleme »ausrechnen« zu können, die im Zusammenhang mit ihrer wissenschaftlichen oder praktischen Arbeit auftraten. Ein genauerer Blick zeigt, dass um 1900 ein ganzer »Apparate- und Methoden-Zoo« zur Verfügung stand, dessen Klassifizierung – um im Bild zu bleiben – einen sehr kundigen »Apparate- und Methoden-Zoologen« erforderte, um die »Morphologie« und »Anatomie« der Apparate und deren »Physiologie« (in Bezug auf die informationsverarbeitenden Funktionen) zu überblicken. So gab es z. B. weit verbreitete Apparate und Methoden wie Rechenschieber und Planimeter, mechanische Rechenmaschinen, Multiplikations- und Logarithmentafeln oder das Runge-Kutta-Verfahren zur numerischen Lösung gewöhnlicher Differentialgleichungen, aber auch nur in Einzelexemplaren existierende Geräte, wie die im 19. Jahrhundert verschiedentlich entwickelten Gleichungswaagen.
Der Aufsatz leistet anhand des deutschen Beispiels einen Beitrag zur historischen Analyse von Ordnungsmodellen des 20. Jahrhunderts. Dem Schlagwort „Fordismus“ sollen mit Blick auf den Produktionsbereich schärfere Konturen gegeben werden. Zugleich wird der Akzent jedoch darauf gelegt, den Fordismus als Herrschaftstechnik in einem breiteren Sinne zu verstehen. Zunächst geht es um die Anfänge von Taylorismus und Fordismus sowie die Auswirkungen auf die Zusammensetzung der betroffenen Belegschaften, sodann um die Verbindungen des Fordismus mit unterschiedlichen politischen Systemen. Fordistische Elemente finden sich sowohl in demokratischen als auch in diktatorischen Kontexten. Diskutiert wird deshalb, wie fordistische, auf Rationalisierung und Effizienzsteigerung ausgerichtete Arbeitszusammenhänge die Macht- und Herrschaftsverhältnisse beeinflussten und welche Widerstandsformen sich entwickelten. Ein Ausblick richtet sich auf den so genannten Postfordismus, die „neuen Produktionskonzepte“ und die Frage nach der Zukunft des Fordismus.
Beim Umgang von Historikerinnen und Historikern mit dem Netz können wir einen interessanten Wandel beobachten: Grundsatzkritik an der Verwendung des Netzes in geschichtswissenschaftlicher Lehre und Forschung findet sich kaum mehr. Noch vor gut zehn Jahren war das anders. Da waren die Bedenkenträger nicht zu überhören, die das Netz für die (Geistes-)Wissenschaften als unnütz und unnötig einstuften und entschlossen waren, dieses vermeintlich kurze technische Intermezzo auszusitzen – Vertreter vor allem der älteren Generation, die sich schon mit der Einführung des Personal Computers seit den 1980er-Jahren schwertaten. Heute geht es vielmehr um die Frage, in welchen Bereichen und mit welchen Fragestellungen das Netz in den Forschungs- und Lehralltag zu integrieren ist.
Die Entwicklung der digitalen Telefonie (1960–1985). Die Kosten soziotechnischer Flexibilisierungen
(2017)
Westliche Wachstumgsgesellschaften haben im letzten Drittel des 20. Jahrhunderts einen tiefgreifenden Wandel erfahren. Die Veränderungen waren so grundlegend, dass es fast ununmgänglich wurde, dafür eine eigenständige kollektive Umbruchsymbolik zu entwickeln: Ein paar wenige Jahreszahlen und Ereignisse – 1968, 1973/74, 1989/90 – wurden so arrangiert, dass sie das Wichtigste benennbar machten. Der Erinnerungshaushalt konnte damit insofern besser verwaltet werden, als die historische Erzählung ganz selbstverständlich auf bekannte und allen verfügbare Meilensteine zurückgreifen vermochte. Dieselben Meilensteine stabilisieren auch heute noch den Umgang mit unserer Vergangenheit – bis zu dem Masse, in welchem sie gerade den gesellschaftlichen Wandel nicht mehr erklären können, weil die großen Ereignisse fälschlicherweise zu Gründen der gesellschaftlichen Entwicklung gerechnet werden, obwohl sie als Ereignisse vielmehr Effekte des zu erklärenden Wandels gewesen sind.
„We do not reward failure“. Brett- und Videospiele zum Kalten Krieg in Ost und West (1977–2017)
(2017)
Wie Brett- und Computerspiele für eine geschichtswissenschaftliche Perspektive fruchtbar gemacht werden können, erkundeten wir im Sommersemester 2017 mit Augsburger Studierenden. Thematisch nahm das Projektseminar bewusst den Kalten Krieg und die Systemkonfrontation als Anker, da die Auseinandersetzung der Supermächte bis in die jüngste Gegenwart ein beliebtes Motiv in Spielen darstellt. Bereits zeitgenössisch hatte der Kalte Krieg auch den Bereich der Populärkultur durchdrungen, wie die neuere Forschung klar zeigt.[5] Im Seminar untersuchten wir Spiele aus dem Osten ebenso wie aus dem Westen, Brettspiele ebenso wie Computerspiele, zeitgenössische Spiele aus der Zeit der Blockkonfrontation ebenso wie nach dem politischen Wandel 1989/1991 publizierte, um ein möglichst breites Spektrum abzudecken.
„There is no reason for any individual to have a computer in his home.“ Diese Einschätzung Kenneth H. Olsens, seinerzeit Präsident der Digital Equipment Corporation (lange eine der führenden amerikanischen Computerfirmen), stammt aus dem Jahr 1977. Die gesellschaftliche Vorstellung von Computern war damals eng mit Großrechnern verknüpft, die lediglich durch Spezialisten bedient werden konnten. Dieses Paradigma stellten Spielekonsolen wie „Pong“ von Atari allerdings bereits 1975 in Frage. Andere Branchengrößen wie IBM hatten weiterhin Bedenken, ob die Leistung der Großrechner auf einem Schreibtisch Platz finden könne. Unternehmen wie Commodore oder Apple bewiesen ab 1977, dass dies möglich war, indem sie kompakte, sofort nach dem Kauf verwendbare Rechner auf den Markt brachten und sich somit an die Spitze der Computerhersteller katapultierten. Sie setzten damit eine Entwicklung in Gang, die sich zu Beginn der 1980er-Jahre beschleunigte: IBM definierte mit dem „IBM PC 5150“ ab 1981 einen Standard im Bereich der Heimcomputer. Sony und Philips brachten die Digitalisierung im Audiobereich voran und legten die technischen Spezifikationen für die Compact Disc fest.
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.
Seit den 1980er Jahren beschäftigen Prognosen zum anthropogenen Klimawandel Wissenschaft, Politik und Öffentlichkeit gleichermaßen. Von der übertriebenen Gelassenheit der Klimaskeptiker bis zur Hysterie der Alarmisten basieren die Expertisen dabei auf den Prognosen computerbasierter Modelle zur Berechnung zukünftiger Szenarien. Die Heterogenität der Expertisen spiegelt sich in den kontroversen Diskussionen zum Klimawandel wider und kumuliert meist in der Rede von der Unsicherheit der Prognosen.