Technik
Refine
Year of publication
Document Type
- Journal Article (43)
- Part of a Book (18)
- Online Publication (8)
- Book (1)
Is part of the Bibliography
- no (70) (remove)
Die Automatisierung der industriellen Produktion hat innerhalb der Geschichtswissenschaften bislang erstaunlich wenig Aufmerksamkeit gefunden. An einem Fallbeispiel, der Halle 54 bei Volkswagen in Wolfsburg, widmet sich der Aufsatz den Grenzen der (Voll-)Automatisierung, wie sie in den 1980er-Jahren sichtbar wurden. Die Halle 54, eröffnet 1983, wurde zeitgenössisch als »Modell des technischen Fortschritts« bezeichnet. Hier hatte VW in einem weltweit beachteten Versuch die komplizierte Endmontage zu 25 Prozent automatisiert. Die anfangs gefeierten Roboter erwiesen sich jedoch schnell als fehlerhaft. Der Beitrag analysiert insbesondere das Mensch-Maschine-Verhältnis und dessen damalige Bewertung. Das Fallbeispiel verdeutlicht zum einen die aufgeregten Diskurse der 1980er-Jahre um eine scheinbare Wiederentdeckung menschlicher Überlegenheit gegenüber der Maschine; zum anderen zeigt es die Grenzen der Vollautomatisierung in der Endmontage, die bis heute als zu schwierig für Roboter gilt. Gleichwohl führten diese Erfahrungen nicht zu einer prinzipiellen Abkehr von der Automatisierung, sondern vielmehr zu einer »angepassten Automatisierung«.
»If you can’t beat ’em, join ’em«. Computerschach und der Wandel der Mensch-Maschinen-Verhältnisse
(2018)
Die Computerindustrie entwickelte sich in den USA und der UdSSR sehr unterschiedlich. Während in den Vereinigten Staaten der Konzern IBM nahezu ein Monopol erlangte, herrschte in der Sowjetunion ein Konkurrenzkampf. Mehrere Akteure verfolgten an unterschiedlichen Standorten eigene Entwicklungslinien; ein Austausch fand kaum statt. Als Reaktion auf eine von IBM 1963 vorgestellte neue Modellreihe kam es in der UdSSR zu einer Diskussion über die Computerindustrie, die den hartnäckigen Widerstand lokaler Entscheidungsträger bei der Durchsetzung zentraler Direktiven offenbarte. Es bedurfte mehrerer Machtworte von führenden Vertretern der Rüstungsindustrie, um das IBM System /360 als Vorbild einer eigenen Reihe durchzusetzen. Dabei berief man sich vor allem auf die Erfolge, die beim Nachbau von IBM-Rechnern in der DDR erzielt worden waren. Das Ministerium für Staatssicherheit hatte Entwicklungsdokumente aus dem Westen beschafft, und diese Wirtschaftsspionage trug wesentlich dazu bei, den innersowjetischen Konflikt zu entscheiden. Der technologische Rückstand der UdSSR gegenüber den USA blieb gleichwohl bestehen.
Technikgeschichte
(2018)
In den vergangenen Jahren hat sich die deutschsprachige Technikgeschichte inhaltlich und konzeptionell selbstbewusst präsentiert und ihre Position als eine eigenständige Disziplin des historischen Fächerkanons bekräftigt. Eike-Christian Heine und Christian Zumbrägel stellen zentrale Perspektiven, Begriffe und Theorien vor, die die Technikgeschichte im Laufe des 20. Jahrhunderts prägten, und benennen technikhistorische Themen, die aus zeitgeschichtlicher Perspektive besonders zukunftsträchtig erscheinen.
Am Anfang des 20. Jahrhunderts stand Mathematikern, Naturwissenschaftlern und Ingenieuren eine Reihe von mathematischen Methoden (numerischen und graphischen Verfahren) sowie technischen Hilfsmitteln (Instrumente, Apparate, Maschinen, Tafelwerke) zur Verfügung, um exakte Lösungen bzw. Näherungslösungen für mathematische Probleme »ausrechnen« zu können, die im Zusammenhang mit ihrer wissenschaftlichen oder praktischen Arbeit auftraten. Ein genauerer Blick zeigt, dass um 1900 ein ganzer »Apparate- und Methoden-Zoo« zur Verfügung stand, dessen Klassifizierung – um im Bild zu bleiben – einen sehr kundigen »Apparate- und Methoden-Zoologen« erforderte, um die »Morphologie« und »Anatomie« der Apparate und deren »Physiologie« (in Bezug auf die informationsverarbeitenden Funktionen) zu überblicken. So gab es z. B. weit verbreitete Apparate und Methoden wie Rechenschieber und Planimeter, mechanische Rechenmaschinen, Multiplikations- und Logarithmentafeln oder das Runge-Kutta-Verfahren zur numerischen Lösung gewöhnlicher Differentialgleichungen, aber auch nur in Einzelexemplaren existierende Geräte, wie die im 19. Jahrhundert verschiedentlich entwickelten Gleichungswaagen.
Beim Umgang von Historikerinnen und Historikern mit dem Netz können wir einen interessanten Wandel beobachten: Grundsatzkritik an der Verwendung des Netzes in geschichtswissenschaftlicher Lehre und Forschung findet sich kaum mehr. Noch vor gut zehn Jahren war das anders. Da waren die Bedenkenträger nicht zu überhören, die das Netz für die (Geistes-)Wissenschaften als unnütz und unnötig einstuften und entschlossen waren, dieses vermeintlich kurze technische Intermezzo auszusitzen – Vertreter vor allem der älteren Generation, die sich schon mit der Einführung des Personal Computers seit den 1980er-Jahren schwertaten. Heute geht es vielmehr um die Frage, in welchen Bereichen und mit welchen Fragestellungen das Netz in den Forschungs- und Lehralltag zu integrieren ist.
Die Entwicklung der digitalen Telefonie (1960–1985). Die Kosten soziotechnischer Flexibilisierungen
(2017)
Westliche Wachstumgsgesellschaften haben im letzten Drittel des 20. Jahrhunderts einen tiefgreifenden Wandel erfahren. Die Veränderungen waren so grundlegend, dass es fast ununmgänglich wurde, dafür eine eigenständige kollektive Umbruchsymbolik zu entwickeln: Ein paar wenige Jahreszahlen und Ereignisse – 1968, 1973/74, 1989/90 – wurden so arrangiert, dass sie das Wichtigste benennbar machten. Der Erinnerungshaushalt konnte damit insofern besser verwaltet werden, als die historische Erzählung ganz selbstverständlich auf bekannte und allen verfügbare Meilensteine zurückgreifen vermochte. Dieselben Meilensteine stabilisieren auch heute noch den Umgang mit unserer Vergangenheit – bis zu dem Masse, in welchem sie gerade den gesellschaftlichen Wandel nicht mehr erklären können, weil die großen Ereignisse fälschlicherweise zu Gründen der gesellschaftlichen Entwicklung gerechnet werden, obwohl sie als Ereignisse vielmehr Effekte des zu erklärenden Wandels gewesen sind.
„We do not reward failure“. Brett- und Videospiele zum Kalten Krieg in Ost und West (1977–2017)
(2017)
Wie Brett- und Computerspiele für eine geschichtswissenschaftliche Perspektive fruchtbar gemacht werden können, erkundeten wir im Sommersemester 2017 mit Augsburger Studierenden. Thematisch nahm das Projektseminar bewusst den Kalten Krieg und die Systemkonfrontation als Anker, da die Auseinandersetzung der Supermächte bis in die jüngste Gegenwart ein beliebtes Motiv in Spielen darstellt. Bereits zeitgenössisch hatte der Kalte Krieg auch den Bereich der Populärkultur durchdrungen, wie die neuere Forschung klar zeigt.[5] Im Seminar untersuchten wir Spiele aus dem Osten ebenso wie aus dem Westen, Brettspiele ebenso wie Computerspiele, zeitgenössische Spiele aus der Zeit der Blockkonfrontation ebenso wie nach dem politischen Wandel 1989/1991 publizierte, um ein möglichst breites Spektrum abzudecken.
„There is no reason for any individual to have a computer in his home.“ Diese Einschätzung Kenneth H. Olsens, seinerzeit Präsident der Digital Equipment Corporation (lange eine der führenden amerikanischen Computerfirmen), stammt aus dem Jahr 1977. Die gesellschaftliche Vorstellung von Computern war damals eng mit Großrechnern verknüpft, die lediglich durch Spezialisten bedient werden konnten. Dieses Paradigma stellten Spielekonsolen wie „Pong“ von Atari allerdings bereits 1975 in Frage. Andere Branchengrößen wie IBM hatten weiterhin Bedenken, ob die Leistung der Großrechner auf einem Schreibtisch Platz finden könne. Unternehmen wie Commodore oder Apple bewiesen ab 1977, dass dies möglich war, indem sie kompakte, sofort nach dem Kauf verwendbare Rechner auf den Markt brachten und sich somit an die Spitze der Computerhersteller katapultierten. Sie setzten damit eine Entwicklung in Gang, die sich zu Beginn der 1980er-Jahre beschleunigte: IBM definierte mit dem „IBM PC 5150“ ab 1981 einen Standard im Bereich der Heimcomputer. Sony und Philips brachten die Digitalisierung im Audiobereich voran und legten die technischen Spezifikationen für die Compact Disc fest.
Wie wirkte sich die materielle Beschaffenheit von Kunstgegenständen auf den Kunstmarkt und seine Akteure aus? Alarmiert durch den schlechten Zustand, in dem sich die öffentlichen Kunstsammlungen präsentierten, entwickelte sich seit dem ausgehenden 19. Jahrhundert ein naturwissenschaftlich-technologischer Fachbereich zur Analyse von Kunstmaterialien, der durch stete Innovationen bis heute dynamisch geblieben ist. Die wissenschaftlichen Erkenntnisse steigerten den Aufwand immens, der betrieben wurde, um Kunstwerke sachgerecht unterzubringen, zu versorgen und zu transportieren. Folglich beeinflussten sie auch die Sichtbarkeit und den ökonomischen Wert von Werken bildender Kunst. Die naturwissenschaftlichen Untersuchungsmethoden unterstützten zudem die Authentifizierung. Damit verringerten sie den Bestand anerkannter Originalwerke und vergrößerten zugleich die Sicherheit bei Kaufentscheidungen. Da sie dem Wahrnehmungsapparat der Menschen in dieser Frage teilweise überlegen waren, erschütterten die neuen Technologien das menschliche Selbstverständnis dabei grundlegend. Eindeutige Urteile ließen auch die naturwissenschaftlichen Befunde allerdings längst nicht immer zu.