Technik
Refine
Year of publication
Document Type
- Journal Article (43) (remove)
Is part of the Bibliography
- no (43) (remove)
„Die Seele im technischen Zeitalter“ war Arnold Gehlens meistverkauftes Buch. Von 1957 bis zu Gehlens Todesjahr 1976 erschienen 15 Auflagen mit insgesamt 106.000 Exemplaren. Die Abhandlung wird seitdem nicht nur zu den „Klassikern der Technikphilosophie“ gezählt, sondern gar zu den „Büchern, die das Jahrhundert bewegten“. Der Verkaufserfolg war dabei sicher auch der Tatsache geschuldet, dass das Buch nach einer ersten und kürzeren, 1949 unter dem späteren Untertitel „Sozialpsychologische Probleme in der industriellen Gesellschaft“ erschienenen Fassung 1957 mit klangvollerem Obertitel und zusätzlichen Kapiteln in „rowohlts deutsche enzyklopädie“ aufgenommen wurde. Diese von Ernesto Grassi herausgegebene Reihe, in der unter anderem Hans Sedlmayrs „Revolution der modernen Kunst“, Ortega y Gassets „Aufstand der Massen“ und Margret Boveris „Verrat im 20. Jahrhundert“ erschienen waren, war eines der einflussreichsten Publikationsforen der 1950er-Jahre, so dass sich für diese Zeit von einer der späteren „Suhrkamp-Kultur“ vergleichbaren „rde-Kultur“ sprechen lässt.
Taylors Name steht heute – mit dem Begriff „Taylorismus“ – für Arbeitszerlegung und Dequalifizierung. In seinem vielfach nachgedruckten Hauptwerk „The Principles of Scientific Management“ fasste der amerikanische Ingenieur und Rationalisierungsberater Frederick Winslow Taylor (1856–1915) vorhandene heterogene Rationalisierungsvorschläge und -maßnahmen sowie eigene Überlegungen zu einer plakativen Lehre zusammen. An ihr entzündeten sich in den Jahren vor und nach dem Ersten Weltkrieg heftige Auseinandersetzungen um die Organisation der Fabrik und die Gestaltung industrieller Arbeit.
Welchen Einfluss hatte die Dieselmotortechnologie auf die öffentliche Perzeption von Dieselfahrzeugen und damit auch auf ihre Absatzentwicklung in Deutschland und in den USA im Zeitraum von 1976 bis 1985? Dieser zentralen Frage geht folgender Beitrag nach und legt dar, dass Konsumenten ihre Kaufentscheidung für einen Diesel und gegen einen Benzin-Pkw nicht allein an rational-ökonomischen Gründen ausrichten, wie dies gängige Erklärungsmodelle betonen. Als alternatives Modell bieten sich so genannte Rationalitätsfiktionen an, die Konsumenten bei ihrer Kaufentscheidung als Rationalisierungsstrategie dienen. Anhand der drei Fallbeispiele Volkswagen Golf Diesel, Mercedes-Benz Diesel und Oldsmobile respektive GeneralMotors Diesel wird analysiert, wie die technischen Eigenschaften der Dieselautos mit ihrer Wahrnehmung korrelierten und wie sich dies in der Absatzentwicklung in beiden Ländern niederschlug. Entscheidend ist, dass sich in den USA bereits während der für die Marktdurchdringung wichtigen Phase um das Jahr 1981 eine überwiegend negative Sichtweise durchsetzte, die bis heute im Kern ihre Gültigkeit behielt. Seitdem gelten Diesel zum Beispiel als unzuverlässig und lahm. Diese dominierende, kulturspezifisch negative Wahrnehmung ließ das Interesse der Konsumenten an Dieselautos abflauen und verhinderte einen erneuten Dieselboom. In Deutschland bewahrten die Diesel demgegenüber ihre positiven Attribute wie Langlebigkeit und Zuverlässigkeit. Dort unterlagen der Kauf und der Besitz eines Diesels infolgedessen keinem sozialen Rechtfertigungsdruck, was maßgeblich zum Absatzboom Anfang der 1980er Jahre beigetragen hat.
Von Amerika nach Japan – und zurück. Die historischen Wurzeln und Transformationen des Toyotismus
(2010)
Dieser Artikel zeichnet aus wirtschaftshistorischer Perspektive nach, unter welchen Bedingungen sich das Produktionsmodell des Toyotismus in Japan herausgebildet hat. Gezeigt wird, dass der Toyotismus ursprünglich aus einer Hybridisierung des Ford-Systems hervorgegangen ist: Er beruht auf einer Mischung aus japanischen Innovationen, fordistischen bzw. tayloristischen Elementen und heterodoxen Managementlehren aus den USA. Es wird erklärt, was sich hinter den toyotistischen Managementkonzepten kanban, Just-in-time, kaizen etc. verbirgt und wie diese bei Toyota seit den 1950er-Jahren zur Anwendung gelangten. Für die Zeit ab 1980 wird analysiert, wie sich der frühere Wissenstransfer umkehrte: Nun waren es Amerikaner, die von Japan zu lernen versuchten und dortige Konzepte unter dem Schlagwort „Lean Production“ übernahmen. Ob der Toyotismus damit ein internationales Referenzmodell der Produktions- und Arbeitsorganisation darstellt, ist allerdings noch offen.
Inwiefern können Bilder aus polizeilichen Überwachungskameras als „Quellen“ zeithistorischer Forschung verstanden und genutzt werden? Und was steht einem solchen Verständnis entgegen? Einerseits liegt mit den Bildern aus Überwachungskameras, als Instrumenten der Beobachtung und der Dokumentation des Miteinanders im öffentlichen Raum, ein materialreicher Fundus aktueller Daten und Aussagen der Gesellschaft vor. Andererseits ist dieses Archiv unserer Gegenwart für Sozialwissenschaftler und Historiker weitgehend unzugänglich, da die Aufnahmen aus Gründen des Daten- und Persönlichkeitsschutzes strengen Regeln unterliegen. Sofern es sich um Kameras im öffentlichen Raum handelt, sind die Bilder für andere als polizeiliche Zwecke nicht verwertbar (oder nur in stark eingeschränkter Weise). Kurz und überspitzend formuliert: Die Gesellschaft bildet sich in all ihren Äußerungen ab, nur um die meisten dieser Bilder sofort und ungesehen wegzusperren – ein Umstand, der im Übrigen in auffälligem Kontrast zu unserer sonstigen visuellen Kultur steht, die darauf angelegt ist, Bilder, auch privat hergestellte, möglichst breit zirkulieren zu lassen. Im Folgenden soll die Geschichte polizeilicher Videoüberwachung in Großbritannien skizziert werden, verbunden mit einigen allgemeineren Thesen zu Überwachungsbildern am Ende des Beitrags.
‘Silenced Power’. Warfare Technology and the Changing Role of Sounds in Twentieth-Century Europe
(2011)
How did the technological ability to manipulate the sounds of weapons affect warfare in Europe during the twentieth century? The article first observes the role of warfare sounds in Europe prior to the First World War. The focus here is on the connection between the large-scale use of artillery and rapid-fire technologies and the development of sonic perceptions of ‘sounded power’ during the late nineteenth century. The second part discusses the introduction of ‘soundless weapons’ during the First World War. The horror of ‘silenced power’ as a force undermining the long-term tradition of ‘sounded power’ on the battlefield is exemplified by the case of gas warfare in the First World War and its long-term influence in Germany during the Weimar Republic and National Socialism. The paper points to existing gaps in research regarding the role of sound and silence on the battlefield, and further argues that although the notion of ‘silenced power’ was more prevalent in the first half of the twentieth century its potential horror could not be ignored after 1945.
Wer endlose Regalkilometer mit großen Tonbandspulen in klimatisierten Räumen und aufwändige Archiverschließungssysteme erwartet, mag zunächst enttäuscht sein. Fünf Metallkoffer gefüllt mit DATs (Digital Audio Tapes) und CDs (Compact Discs), ein Aktenordner mit Informationen zu Aufnahmeobjekt, -ort, -datum, -kontext sowie einer rudimentären Verschlagwortung: So sieht die materielle Dimension des Schallarchivs zur Klanglandschaft Ruhrgebiet aus, das Richard Ortmann, Ralf R. Wassermann und ich seit den 1980er-Jahren aufbauen und das sich, grundsätzlichen Überlegungen zur Quellenbasis einer Musealisierung regionaler Industrialisierung folgend, in Kopie auch im Essener Ruhr Museum befindet. Anders als Rundfunkarchive, deren im Laufe von Jahrzehnten akkumulierte Geräuschesammlungen sich (Hörspiel-)Produktionen verdanken, versteht sich dieses Schallarchiv als eine geschichtskulturelle Aktivität, die jenen umfassenden Strukturwandel zum Thema macht, den das Ruhrgebiet als alteuropäische Montanregion seit Ende der 1950er-Jahre durchlebt und vorantreibt.
„There is no reason for any individual to have a computer in his home.“ Diese Einschätzung Kenneth H. Olsens, seinerzeit Präsident der Digital Equipment Corporation (lange eine der führenden amerikanischen Computerfirmen), stammt aus dem Jahr 1977. Die gesellschaftliche Vorstellung von Computern war damals eng mit Großrechnern verknüpft, die lediglich durch Spezialisten bedient werden konnten. Dieses Paradigma stellten Spielekonsolen wie „Pong“ von Atari allerdings bereits 1975 in Frage. Andere Branchengrößen wie IBM hatten weiterhin Bedenken, ob die Leistung der Großrechner auf einem Schreibtisch Platz finden könne. Unternehmen wie Commodore oder Apple bewiesen ab 1977, dass dies möglich war, indem sie kompakte, sofort nach dem Kauf verwendbare Rechner auf den Markt brachten und sich somit an die Spitze der Computerhersteller katapultierten. Sie setzten damit eine Entwicklung in Gang, die sich zu Beginn der 1980er-Jahre beschleunigte: IBM definierte mit dem „IBM PC 5150“ ab 1981 einen Standard im Bereich der Heimcomputer. Sony und Philips brachten die Digitalisierung im Audiobereich voran und legten die technischen Spezifikationen für die Compact Disc fest.
In the 1980s, when computers became affordable for private households, a hacker or cracking scene, which was the term used by members of this subculture, developed in several western and northwestern European countries. These (almost exclusively male) groups of adolescents ‘cracked’, copied and exchanged computer games. On the basis of magazines and published interviews with former members of this scene, this article shows how cracking became an important current in the broad spectrum of teenage subculture – with specific ethical codes and rituals of masculinity. Its members were by no means lone specialists who eschewed contact with the outside world, but rather developed their own forms of community and communication. This scene did not construe itself as a political counter-culture; it was rather part of the diversifying popular and consumer culture of the 1980s. In the early 1990s, when law enforcing agencies began to prosecute software piracy more resolutely, this computer subculture began to fade. However, it lived on in the field of computer graphics, in electronic music and in the growing IT sector.
By the late 1970s, it was technologically possible to manufacture microcomputers – very small, stand-alone computers for personal use – in very large quantities. Selling them, however, meant creating a mass market where none existed: conventionally, only trained professionals, and a few devoted enthusiasts, interacted directly with the machines. Designers, marketers, retailers and other promoters therefore sought to build meanings into the design and presentation of computers which would connect them with new audiences. Such meanings reflected – and might themselves modify – the prevalent hopes, fears, desires and expectations of the users’ cultures.
„Computerspiele einschließlich anderer interaktiver Unterhaltungsmedien (Video-/Konsolen-, Online- und Handyspiele) haben in den letzten Jahren kontinuierlich an Bedeutung gewonnen. Sie sind in Deutschland wirtschaftlich, technologisch, kulturell und gesellschaftlich zu einem wichtigen Einflussfaktor geworden. [...] Computerspiele transportieren gesellschaftliche Abbilder und thematisieren eigene kulturelle Inhalte. Sie werden damit zu einem bedeutenden Bestandteil des kulturellen Lebens unseres Landes und sind prägend für unsere Gesellschaft.“1 Wie der Beschluss des Deutschen Bundestags zur Einrichtung des Deutschen Computerspielpreises zeigt, der seit 2009 jährlich vergeben wird, werden Computerspiele mittlerweile auch von offizieller Seite als ebenso bedeutsam wahrgenommen wie andere, bereits etablierte Kulturgüter. Diese Entwicklung entspricht in ihrer Grundtendenz derjenigen anderer Medien wie Film oder Comic, deren kulturelle Bedeutung ebenfalls erst einige Zeit nach ihrer Erfindung gesellschaftlich anerkannt und staatlich gefördert wurde.
Beim Umgang von Historikerinnen und Historikern mit dem Netz können wir einen interessanten Wandel beobachten: Grundsatzkritik an der Verwendung des Netzes in geschichtswissenschaftlicher Lehre und Forschung findet sich kaum mehr. Noch vor gut zehn Jahren war das anders. Da waren die Bedenkenträger nicht zu überhören, die das Netz für die (Geistes-)Wissenschaften als unnütz und unnötig einstuften und entschlossen waren, dieses vermeintlich kurze technische Intermezzo auszusitzen – Vertreter vor allem der älteren Generation, die sich schon mit der Einführung des Personal Computers seit den 1980er-Jahren schwertaten. Heute geht es vielmehr um die Frage, in welchen Bereichen und mit welchen Fragestellungen das Netz in den Forschungs- und Lehralltag zu integrieren ist.
Die Computerindustrie entwickelte sich in den USA und der UdSSR sehr unterschiedlich. Während in den Vereinigten Staaten der Konzern IBM nahezu ein Monopol erlangte, herrschte in der Sowjetunion ein Konkurrenzkampf. Mehrere Akteure verfolgten an unterschiedlichen Standorten eigene Entwicklungslinien; ein Austausch fand kaum statt. Als Reaktion auf eine von IBM 1963 vorgestellte neue Modellreihe kam es in der UdSSR zu einer Diskussion über die Computerindustrie, die den hartnäckigen Widerstand lokaler Entscheidungsträger bei der Durchsetzung zentraler Direktiven offenbarte. Es bedurfte mehrerer Machtworte von führenden Vertretern der Rüstungsindustrie, um das IBM System /360 als Vorbild einer eigenen Reihe durchzusetzen. Dabei berief man sich vor allem auf die Erfolge, die beim Nachbau von IBM-Rechnern in der DDR erzielt worden waren. Das Ministerium für Staatssicherheit hatte Entwicklungsdokumente aus dem Westen beschafft, und diese Wirtschaftsspionage trug wesentlich dazu bei, den innersowjetischen Konflikt zu entscheiden. Der technologische Rückstand der UdSSR gegenüber den USA blieb gleichwohl bestehen.
Die Automatisierung der industriellen Produktion hat innerhalb der Geschichtswissenschaften bislang erstaunlich wenig Aufmerksamkeit gefunden. An einem Fallbeispiel, der Halle 54 bei Volkswagen in Wolfsburg, widmet sich der Aufsatz den Grenzen der (Voll-)Automatisierung, wie sie in den 1980er-Jahren sichtbar wurden. Die Halle 54, eröffnet 1983, wurde zeitgenössisch als »Modell des technischen Fortschritts« bezeichnet. Hier hatte VW in einem weltweit beachteten Versuch die komplizierte Endmontage zu 25 Prozent automatisiert. Die anfangs gefeierten Roboter erwiesen sich jedoch schnell als fehlerhaft. Der Beitrag analysiert insbesondere das Mensch-Maschine-Verhältnis und dessen damalige Bewertung. Das Fallbeispiel verdeutlicht zum einen die aufgeregten Diskurse der 1980er-Jahre um eine scheinbare Wiederentdeckung menschlicher Überlegenheit gegenüber der Maschine; zum anderen zeigt es die Grenzen der Vollautomatisierung in der Endmontage, die bis heute als zu schwierig für Roboter gilt. Gleichwohl führten diese Erfahrungen nicht zu einer prinzipiellen Abkehr von der Automatisierung, sondern vielmehr zu einer »angepassten Automatisierung«.
Globale Daten in lokalen Speichern. Ethnographische infrastrukturelle Zugänge zum World Wide Web
(2015)
Wie in anderen Kultur- und Sozialwissenschaften so ist auch in der Europäischen Ethnologie das Interesse an den materiellen Dimensionen des sozialen und kulturellen Lebens im letzten Jahrzehnt gestiegen. So wurde zum einen im Sinne der bereits vor Jahren im Fach angestoßenen Diskussion die Betrachtung von Dingen als bloßen Repräsentationen und Symbolen gesellschaftlicher Prozesse und Phänomene als unzureichend kritisiert und die Eigenständigkeit von materiellen Objekten sowie die wissens- und realitätsstiftenden Funktionen ihrer Materialität hervorgehoben. Zum anderen erstarkte in der Fachdiskussion das Bewusstsein, dass die Betrachtung von einzelnen Dingen in lokalen Kontexten nicht immer ausreicht, um soziokulturelle Prozesse in der globalisierten Welt zu verstehen und ethnographisch zu greifen. Diese verengte Perspektive muss durch ein breiteres, relationales Verständnis von Materialität und um die Untersuchung komplexer, grenzüberschreitender sozio-materieller Konstellationen ergänzt werden.
In den 1970er-Jahren wurde Resilienz zu einem Begriff für die Fähigkeit eines Systems, flexibel auf Stress zu reagieren. Statt nach einer Störung dem linearen Ideal der Erholung zu folgen, sollte sich das resiliente System neu organisieren. Die Konzepte Stress und Resilienz stammen aus der Materialforschung des 19. Jahrhunderts; im 20. Jahrhundert wanderten sie in die Psychologie und in die Ökologie. Der Beitrag skizziert die Entstehung des Ideals multistabiler Systeme, die auch unberechenbare, diskontinuierliche Veränderungen bewältigen sollten. Entlang der Geschichte der Bruchmechanik des 19. Jahrhunderts, der Traumaforschung der 1950er-Jahre sowie der Stressökologie der 1970er-Jahre wird gezeigt, wie sich Stress und Resilienz zu Systembegriffen ausweiteten, die so unterschiedliche Größen wie die menschliche Persönlichkeit und die irdische Umwelt erfassten. Diskutiert wird insbesondere die Vorstellung des antizipierten Versagens. Ob Mensch, Technik oder Umwelt – das einkalkulierte Systemversagen wurde zur Bedingung für die Selbstoptimierung des Systems, das aus Krisen und Katastrophen gestärkt hervorgehen sollte. Der Kollaps wurde nicht mehr als ein das moderne Selbstverständnis unterlaufendes Problem gedeutet, sondern als der Motor der Evolution.
The introduction to this issue on historical surveillance studies argues for an integrated understanding of surveillance that focuses on the interconnectedness of the state, economy and sciences within the context of different forms of technological revolution. It suggests reading contemporary diagnoses of ‘total surveillance’ from a long-term historical perspective beginning in the seventeenth century. In this light, surveillance is not limited to intelligence history or state control. Rather, it produces patterns of order and data that can be deployed for political processes like urban planning, welfare policy, crime prevention, or the persecution of political opponents. Furthermore, surveillance is also part of the economy, encompassing market and consumption research, advertising, and workplace monitoring. Research into the political and the economic aspects of surveillance should be combined. After defining the term ‘surveillance’ and differentiating between security and surveillance studies, the article provides an overview of different empirical studies in this new historiographical field. It concludes with shortsummaries of the articles collected in this issue.
The introduction to this issue on historical surveillance studies argues for an integrated understanding of surveillance that focuses on the interconnectedness of the state, economy and sciences within the context of different forms of technological revolution. It suggests reading contemporary diagnoses of ‘total surveillance’ from a long-term historical perspective beginning in the seventeenth century. In this light, surveillance is not limited to intelligence history or state control. Rather, it produces patterns of order and data that can be deployed for political processes like urban planning, welfare policy, crime prevention, or the persecution of political opponents. Furthermore, surveillance is also part of the economy, encompassing market and consumption research, advertising, and workplace monitoring. Research into the political and the economic aspects of surveillance should be combined. After defining the term ‘surveillance’ and differentiating between security and surveillance studies, the article provides an overview of different empirical studies in this new historiographical field. It concludes with short summaries of the articles collected in this issue.
Die Digitalgeschichte ist in der deutschen Geschichtswissenschaft angekommen. Unter Digitalgeschichte verstehen wir eine neue historische Perspektive auf die fundamentale Umwälzung klassischer historischer Kategorien wie beispielsweise Raum, Zeit, Identität, Arbeit oder Nationalstaat seit der zweiten Hälfte des 20. Jahrhunderts durch Informations- und Kommunikationstechnologien. Digitalgeschichte beschränkt sich nicht nur auf die Computergeschichte als Geschichte eines spezifischen Artefaktes, sondern umfasst alle auf binärdigitaler Codierung basierenden, elektronischen Technologien, beispielsweise auch Kommunikationsnetzwerke oder Mensch-Maschine-Hybride. Sie ist das deutsche Pendant zur englischen history of computing, hingegen mit dezidiertem Schwerpunkt auf die Zeit seit dem Zweiten Weltkrieg bis in die Gegenwart.
Der Beitrag untersucht Arbeitsämter in der Bundesrepublik Deutschland und Großbritannien während der 1970er- und 1980er-Jahre, einer Zeit deutlich gestiegener Arbeitslosenzahlen. Im Fokus stehen die Verwaltungsvorgänge, begriffen als soziale Praktiken und Mensch-Ding-Verhältnisse. Mit der Akteur-Netzwerk-Theorie fragt der Aufsatz nach der Agency der Verwaltungsdinge im Arbeitsamt: den Bürogestaltungen, Aktenordnern, Wartenummern oder Stellenaushängen. Problematisiert wird besonders die in den 1970er- und 1980er-Jahren durchgesetzte Technisierung der administrativen Vorgänge, also der vermehrte Einsatz von Apparaten und EDV-Systemen in bundesdeutschen und britischen Arbeitsverwaltungen. In beiden Ländern wurde »Selbstbedienung« zu einem neuen Verhaltensdispositiv, das sich in den neu eingerichteten britischen Jobcentres jedoch schneller durchsetzte als im traditionellen deutschen Arbeitsamt, wo das passive Warten weiterhin eine vorherrschende Subjektivierungspraxis blieb.