2/2012 Computerisierung und Informationsgesellschaft
Refine
Year of publication
Document Type
- Journal Article (12)
- Part of a Book (10)
- Book (1)
Has Fulltext
- no (23)
Is part of the Bibliography
- no (23)
Der »Trip durch die Computerszene« begann für den Pflasterstrand-Journalisten Matthias Horx in der Elektroabteilung eines Kaufhauses. In seinem gleichnamigen, 1984 erschienenen Buch betrachtete er dort fasziniert eine neue Spezies – computerbegeisterte Jugendliche, oder, wie er es in einem romantischen Anflug formulierte, »Mikro-Clochards«. Diese liefen »ständig mit einem Diskettenstapel unter dem Arm herum, von Kaufhaus zu Kaufhaus, immer auf der Suche nach dem freien Schacht eines Diskettenlaufwerks und einem Cursor, der nur für sie blinkt.«
Die Etablierung des Computers zählt zu den wichtigsten gesellschaftlichen Veränderungen der jüngeren globalen Zeitgeschichte. Bereits seit den 1950er Jahren setzten auch in Deutschland große Unternehmen, Behörden und ebenso das Militär Computer ein, bevor in den 1980er Jahren die flächendeckende Ausbreitung der Personal Computer (PCs) begann. Die Zeitgenossen diskutierten von Beginn an die Folgen der Computerisierung und bewerteten sie als einen tiefgreifenden Umbruch, etwa als Beginn der »Informationsgesellschaft« oder »dritte industrielle Revolution«. Rasch galt die Verbreitung von Computern als ein ambivalent gedeuteter Wandel: Sie galten als Motor eines ökonomischen und gesellschaftlichen Aufbruchs und als Ursache für eine krisenverstärkende Rationalisierung und Überwachung. Jenseits der Diskurse wurde in vielen gesellschaftlichen Bereichen rasch spürbar, dass der Computereinsatz soziale Realitäten veränderte.
Sowjetisierung und Amerikanisierung der sozialistischen Staaten gelten als Gegensätze. Als die DDR in den 1960er Jahren eine technische „Auto-Amerikanisierung“ einleitete, lehnte die Sowjetunion diese jedoch keineswegs ab. Sie förderte sie vielmehr im Rahmen eines transnationalen technischen Großprojekts, des „Einheitlichen Systems der Elektronischen Rechentechnik“ (ESER). Die Übernahme westlicher Technik sollte dazu beitragen, den Westen zu „überholen“, ohne ihn zuvor „einholen“ zu müssen. Zugleich fürchtete man in Partei und Staat, dass durch den Technologietransfer auch westliches Gedankengut in die DDR einsickern könnte. Daher wurde dort, wo die Herrschaft der SED gefährdet schien, die Kontrolle schnell wieder verschärft.
Seit dem Zweiten Weltkrieg prägen die Vereinigten Staaten von Amerika die westliche Welt nicht nur in politischer, sondern ebenso in wirtschaftlicher und technologischer Hinsicht. Während die USA insbesondere in den modernen Schlüsseltechnologien wie der Mikroelektronik und der Antriebstechnik zu den innovativsten und dynamischsten Märkten gehören, war bis in die späten 1960er Jahre hinein in den europäischen Staaten ein Mangel an technologischem Fortschritt spürbar. Am Beispiel der deutschen Computerindustrie befasst sich der Beitrag mit den Bemühungen, diesen Rückstand aufzuholen. Mit Blick auf das von Volker Berghahn geprägte Amerikanisierungs-Paradigma ist dabei vor allem nach den Konsequenzen für die Wettbewerbspolitik der 1950er bis 1970er Jahre zu fragen.
Wer sich heute über die Veränderung moderner Arbeit Gedanken macht, kommt an neuen Informations- und Kommunikationstechnologien (I&K-Technologien) nicht vorbei. Ohne entsprechende Lösungen der Informationtechnologie (IT) sind aktuelle – und prominent diskutierte – Entwicklungen wie Cloud Working und Crowd Sourcing, permanente Erreichbarkeit und die damit verbundene Un-Kultur permanenter Verfügbarkeit in vielen Unternehmen ebenso wenig denkbar wie die Öffnung von Organisationsstrukturen durch den Einsatz von Social Media. Auch die häufig thematisierte Ökonomisierung der Binnenstrukturen und die verstärkte Shareholder Value-Orientierung in der Unternehmenssteuerung basieren wesentlich auf dem Einsatz von computergestützten Systemen des Enterprise-Resource-Planning. Nicht zuletzt spielen I&K-Technologien bei der Etablierung neuer Produktions- und Geschäftsmodelle sowie neuer Formen der Arbeitsorganisation eine wichtige Rolle und werden damit zum Ausgangspunkt von Veränderungen in der Arbeitswelt.
1977 schalteten Computerwissenschaftler aus Ost und West erstmals eine Datenverbindung durch den Eisernen Vorhang. Am IIASA in Laxenburg bei Wien arbeiteten sie gemeinsam an der Entwicklung grenzüberschreitender Computernetze. Verbesserte Kommunikationsmöglichkeiten sollten die internationale Forschung stimulieren und einen Forschungsverbund schaffen, der weit mehr als die am Institut ansässigen Wissenschaftler umfasste. Hinzu kam die Vorstellung, mit Hilfe elektronischer Datennetze die Gesellschaften effektiver steuern zu können. Diese Planungsutopien gehören der Vergangenheit an, die Vision der Computernetze jedoch ist mit dem Internet Realität geworden.
Am Anfang des 20. Jahrhunderts stand Mathematikern, Naturwissenschaftlern und Ingenieuren eine Reihe von mathematischen Methoden (numerischen und graphischen Verfahren) sowie technischen Hilfsmitteln (Instrumente, Apparate, Maschinen, Tafelwerke) zur Verfügung, um exakte Lösungen bzw. Näherungslösungen für mathematische Probleme »ausrechnen« zu können, die im Zusammenhang mit ihrer wissenschaftlichen oder praktischen Arbeit auftraten. Ein genauerer Blick zeigt, dass um 1900 ein ganzer »Apparate- und Methoden-Zoo« zur Verfügung stand, dessen Klassifizierung – um im Bild zu bleiben – einen sehr kundigen »Apparate- und Methoden-Zoologen« erforderte, um die »Morphologie« und »Anatomie« der Apparate und deren »Physiologie« (in Bezug auf die informationsverarbeitenden Funktionen) zu überblicken. So gab es z. B. weit verbreitete Apparate und Methoden wie Rechenschieber und Planimeter, mechanische Rechenmaschinen, Multiplikations- und Logarithmentafeln oder das Runge-Kutta-Verfahren zur numerischen Lösung gewöhnlicher Differentialgleichungen, aber auch nur in Einzelexemplaren existierende Geräte, wie die im 19. Jahrhundert verschiedentlich entwickelten Gleichungswaagen.
Rechenzentrum
(2012)
»Wer kontrolliert, wer bewacht, wer überwacht mein Gedächtnis? Das liegt ja nicht in Gottes Hand, in einer Wolke, sondern tatsächlich in einem Rechenzentrum irgendwo« – man mag über das Bild von irgendwo herumliegenden Gedächtnissen schmunzeln, dass Claus Kleber im heute journal (5. März 2012) gebrauchte, um dem Zuschauer das Cloud Computing zu erklären. Wo ist »irgendwo«? Es sind Rechenzentren, ohne die heute digital und damit in unserem Alltag nichts mehr geht, egal ob beruflich oder privat. In sie fließen – von der Hardwarebeschaffung bis zur Stromrechnung – enorme Geldsummen. Und trotzdem scheinen Rechenzentren häufig noch durch das Netz wissenschaftlicher und ganz allgemein gesellschaftlicher Aufmerksamkeit zu rutschen. Vielleicht liegt das an der vorgestellten Boden- oder Ortlosigkeit des Digitalen, die sich in Begriffen wie »Cloud« oder »Virtualität« widerspiegelt. Oder möglicherweise greift hier auch eine Profanisierung des Rechenzentrums als Dienstleistungseinrichtung und eine damit einhergehende Unsichtbarmachung von Arbeit in der Traditionslinie des »stummen Dienens«, ein Übersehen dieses Ortes.
Im März 2001 stellte das Unternehmen DITEC vor dem Münchner Amtsgericht Antrag auf Insolvenz. Dieses Ereignis fand weitgehend unterhalb der Wahrnehmungsschwelle einer breiteren Öffentlichkeit statt und hatte auch wenig Spektakuläres an sich. Die DITEC-Insolvenz würde sich kaum von Tausenden ähnlicher Fälle jedes Jahr unterscheiden, wenn sie nicht den Endpunkt eines langen Niedergangs eines einstmals bedeutenden deutschen Computerherstellers markieren würde. Die DITEC kann als Gründung aus einer Notsituation heraus beschrieben werden. Sie war als eine Mitarbeitergesellschaft von damals rund 1.500 Beschäftigten verschiedener deutscher Tochtergesellschaften des US-Computerkonzerns Digital Equipment Corporation (DEC) entstanden. DITEC stand als Abkürzung für „Deutsche Informationstechnologie“. Der Verweis auf Datentechnik made in Germany war zum Zeitpunkt der Gründung 1995 eher trotzig gemeint und zielte gegen den damaligen US-amerikanischen Eigentümer DEC, in dessen Konzernstrategie kein Platz mehr für eine eigenständige Entwicklung und Produktion in der Bundesrepublik war. Die deutschen DEC-Töchter standen 1994/95 kurz vor der Schließung. Ein großer Teil der Mitarbeiter wollte aber das Ende ihres Betriebes nicht hinnehmen und hatte sich deswegen zusammengeschlossen und das Geld aus dem Sozialplan in einen unternehmerischen Alleingang investiert. Dafür nutzten sie die rechtliche Hülle der Digital-Kienzle Informationstechnologie GmbH & Co. KG mit Sitz in Villingen-Schwenningen, einer der zur Schließung anstehenden DEC-Tochtergesellschaften.
Kyberkratie bezeichnet das Regieren vermittels kybernetischer Methoden, eine kybernetisch aufgeklärte Organisation der Gesellschaft. Der Begriff fasst die Bestrebungen sowjetischer Kybernetiker zusammen, die Anwendung kybernetischer Steuerungsmethoden von der Regelungstechnik nicht nur auf die Erforschung lebender Organismen, sondern auch auf die Wissenschaft von der Gesellschaft auszuweiten. Sie betrachteten die Gesellschaft als ein kybernetisches, durch Rückkopplungen gesteuertes System, dessen Funktionieren sie durch den Einsatz rationaler, expliziter und »objektiver« Methoden optimieren zu können meinten. Kurzum, ihr Anliegen war es, einen Sozialismus mit kybernetischem Antlitz zu schaffen. Kyberbürokratie bezeichnet einen bürokratischen Apparat, der über kybernetische Methoden und Technologien, einschließlich Computer, verfügt.
Viele Jahrhunderte lang war der Brief fast konkurrenzlos das einzige Medium, mit dem über größere Distanzen hinweg Kontakt aufgenommen werden konnte oder Beziehungen aufrecht erhalten wurden, doch seit einiger Zeit gibt es eine Reihe von Alternativen. Der Werbeslogan der Deutschen Bundespost in den 80er Jahren des 20. Jahrhunderts – schreib mal wieder! – wirkte bereits zu diesem Zeitpunkt wie ein öffentlicher Aufruf, eine vom Aussterben bedrohte jahrhundertealte kulturelle Praxis und Kommunikationsform zu retten. Zwischenzeitlich haben modulierte Signale längst den Postboten überholt, und die elektronische Mailbox bietet den Anschluss an ein weltweites Kommunikationsforum. Der Medienwechsel brachte einen grundsätzlichen kulturellen Wandel mit sich, weil das kollektive Gedächtnis unserer Gesellschaft, das bisher durch Prinzipien der Schriftlichkeit charakterisiert wurde, zunehmend nach elektronischen Regeln arbeitet.
Bis Ende 2015 werden 50 Prozent aller Chinesen über einen Internetzugang verfügen. Die Möglichkeiten für eine größer werdende Anzahl von Chinesen, online zu kommunizieren und zu konsumieren, hat eine Reihe von Wissenschaftlerinnen und Wissenschaftlern dazu inspiriert, sich mit Themen wie Zensur, Überwachung und Nutzung von sozialen Medien zu beschäftigen. Ein Großteil dieser Forschung baut auf der Prämisse einer antagonistischen Beziehung zwischen Staat und Gesellschaft auf. Allerdings weiß man bisher nur wenig darüber, welche Auswirkungen die staatlich geförderten und internetbasierten Kommunikationskanäle zwischen Regierungsbeamten und chinesischen Bürgern auf die Transformation der autoritären Einparteienherrschaft in China haben. Der vorliegende Artikel beschäftigt sich mit dieser Frage, indem er Chinas E-Government-Strategie einerseits zu globalen Entwicklungen in Beziehung setzt, andererseits im Kontext der sich verändernden Anreize untersucht, die politische Reformen in China in den vergangenen zwei Jahrzehnten ermöglicht haben. Es wird gezeigt, dass die Bemühungen der chinesischen Einparteienregierung, die Interaktion zwischen Staat und Gesellschaft zu digitalisieren, großes Potenzial dafür birgt, das Wesen des chinesischen Staates zu verändern. Allerdings stellen diese Veränderungen keinen Paradigmenwechsel dahingehend dar, wie China regiert wird. Der wichtigste Aspekt dieser Veränderungen ist, dass sie die Möglichkeit bieten, das oftmals als „Diktatoren-Dilemma“ bezeichnete Problem zu lösen: Menschen in nichtdemokratischen Regierungssystemen haben Angst davor, den Herrschenden gegenüber ihre Meinung auszudrücken, und entziehen so dem Staat eine wichtige Informationsgrundlage. Es wird gezeigt, dass die Entwicklung hochintegrierter E-Government-Plattformen, wie sie sich die Technokraten der Kommunistischen Partei Chinas vorstellen, bestehender institutioneller Logik folgt und dringende Probleme zu lösen vermag. So wird die Chance darauf erhöht, dass diese Plattformen nachhaltig eingeführt werden.
Globale Daten in lokalen Speichern. Ethnographische infrastrukturelle Zugänge zum World Wide Web
(2015)
Wie in anderen Kultur- und Sozialwissenschaften so ist auch in der Europäischen Ethnologie das Interesse an den materiellen Dimensionen des sozialen und kulturellen Lebens im letzten Jahrzehnt gestiegen. So wurde zum einen im Sinne der bereits vor Jahren im Fach angestoßenen Diskussion die Betrachtung von Dingen als bloßen Repräsentationen und Symbolen gesellschaftlicher Prozesse und Phänomene als unzureichend kritisiert und die Eigenständigkeit von materiellen Objekten sowie die wissens- und realitätsstiftenden Funktionen ihrer Materialität hervorgehoben. Zum anderen erstarkte in der Fachdiskussion das Bewusstsein, dass die Betrachtung von einzelnen Dingen in lokalen Kontexten nicht immer ausreicht, um soziokulturelle Prozesse in der globalisierten Welt zu verstehen und ethnographisch zu greifen. Diese verengte Perspektive muss durch ein breiteres, relationales Verständnis von Materialität und um die Untersuchung komplexer, grenzüberschreitender sozio-materieller Konstellationen ergänzt werden.
Eine zentrale, einflussreiche und in der jüngeren Bundesrepublik-Forschung gut belegte These lautet, in der Mitte der 1970er Jahre sei eine Phase der »Planungseuphorie« oder auch des »Planungsbooms« zu Ende gegangen. Dieser These zufolge gab es in den »langen« 1960er Jahren unter den politischen und administrativen Eliten einen »kurzen Sommer der konkreten Utopie«, wie Michael Ruck es genannt hat. Gemeint ist damit die Vorstellung, Politik könne durch wissenschaftlich fundierte Vorausschau, durch den Rat der Experten und durch konkrete Planung gesellschaftliche Prozesse aktiv gestalten und damit dem Fortschritt auf die Beine helfen.
Die Digitalgeschichte ist in der deutschen Geschichtswissenschaft angekommen. Unter Digitalgeschichte verstehen wir eine neue historische Perspektive auf die fundamentale Umwälzung klassischer historischer Kategorien wie beispielsweise Raum, Zeit, Identität, Arbeit oder Nationalstaat seit der zweiten Hälfte des 20. Jahrhunderts durch Informations- und Kommunikationstechnologien. Digitalgeschichte beschränkt sich nicht nur auf die Computergeschichte als Geschichte eines spezifischen Artefaktes, sondern umfasst alle auf binärdigitaler Codierung basierenden, elektronischen Technologien, beispielsweise auch Kommunikationsnetzwerke oder Mensch-Maschine-Hybride. Sie ist das deutsche Pendant zur englischen history of computing, hingegen mit dezidiertem Schwerpunkt auf die Zeit seit dem Zweiten Weltkrieg bis in die Gegenwart.
Seit den 1980er Jahren beschäftigen Prognosen zum anthropogenen Klimawandel Wissenschaft, Politik und Öffentlichkeit gleichermaßen. Von der übertriebenen Gelassenheit der Klimaskeptiker bis zur Hysterie der Alarmisten basieren die Expertisen dabei auf den Prognosen computerbasierter Modelle zur Berechnung zukünftiger Szenarien. Die Heterogenität der Expertisen spiegelt sich in den kontroversen Diskussionen zum Klimawandel wider und kumuliert meist in der Rede von der Unsicherheit der Prognosen.
Word, Google, Facebook, Excel, R/3, Twitter – die Nutzung von Informationen und Informations- und Kommunikationstechnologie gehört heute zu den unumgänglichen Fähigkeiten, die in allen Lebens- und Arbeitsbereichen erforderlich sind. Schlagworte wie Informationszeitalter oder Wissensgesellschaft durchziehen allgemeine wie auch fachwissenschaftliche Diskurse und belegen die Nachhaltigkeit dieser Veränderungen. Auch sonst wird unser Alltag immer mehr davon durchdrungen. Manchmal wissentlich wie beim Mobiltelefon, welches sich vom einfachen Telefon zum Smartphone gewandelt hat, oder auch unwissentlich wie im Auto, wo erst das Erlebnis eines notwendigen Software-Updatesder Motorensteuerung in der Werkstatt uns bewusst macht, dass es ohne Informations- und Kommunikationstechnologie nicht funktionieren würde. Somit sind diese Dinge und ihre Nutzung zu Selbstverständlichkeiten geworden. Diese gefühlte Entwicklung spiegelt sich aber auch in wirtschaftlichen Daten wieder. So gehen über 40% des gesamtwirtschaftlichen Wachstums auf den Einsatz von Informations- und Kommunikationstechnologien zurück. Dabei kommt gerade der Software eine besondere Rolle zu, da sie die zugrunde liegenden Produktivitätssteigerungen erst ermöglicht.
Die Entwicklung der digitalen Telefonie (1960–1985). Die Kosten soziotechnischer Flexibilisierungen
(2017)
Westliche Wachstumgsgesellschaften haben im letzten Drittel des 20. Jahrhunderts einen tiefgreifenden Wandel erfahren. Die Veränderungen waren so grundlegend, dass es fast ununmgänglich wurde, dafür eine eigenständige kollektive Umbruchsymbolik zu entwickeln: Ein paar wenige Jahreszahlen und Ereignisse – 1968, 1973/74, 1989/90 – wurden so arrangiert, dass sie das Wichtigste benennbar machten. Der Erinnerungshaushalt konnte damit insofern besser verwaltet werden, als die historische Erzählung ganz selbstverständlich auf bekannte und allen verfügbare Meilensteine zurückgreifen vermochte. Dieselben Meilensteine stabilisieren auch heute noch den Umgang mit unserer Vergangenheit – bis zu dem Masse, in welchem sie gerade den gesellschaftlichen Wandel nicht mehr erklären können, weil die großen Ereignisse fälschlicherweise zu Gründen der gesellschaftlichen Entwicklung gerechnet werden, obwohl sie als Ereignisse vielmehr Effekte des zu erklärenden Wandels gewesen sind.
Der wohl wichtigste Wandel im kulturellen System in den achtziger Jahren war die Verbreitung des Computers und die Entstehung einer ganz neuen Kultur (die ihrerseits dann den Trend zu einer kulturellen Globalisierung beförderte). Dabei gilt es, zumindest die wichtigsten fünf Aspekte kurz anzusprechen. Die Verbreitung des Mediums und seine Nutzung müssen differenziert gesehen werden.
Der vergessene »Brotkasten«. Neue Forschungen zur Sozial- und Kulturgeschichte des Heimcomputers
(2019)
Kaum eine Technologie prägt unseren Alltag so sehr wie der Mikrocomputer. Die Historisierung dieses technischen Mediums, der Umstände und Folgen seiner sozialen Implementierung sowie seiner Nutzungsarten ist überfällig. Der Computer in Privatbesitz ist fester Teil nicht nur unserer Gegenwart, sondern auch jener Epochen, die schon längst »historisch« geworden sind und deren Analyse zum Standardrepertoire der Zeitgeschichte gehört. Es ist schon über 40 Jahre her, dass in den USA in der zweiten Hälfte der 1970er-Jahre Computerbausätze für Bastler kursierten, darunter der erste Computer aus dem Hause Apple, und bald darauf auch die ersten Fertiggeräte fürs Zuhause. In der ersten Hälfte der 1980er-Jahre, während der letzten Eskalationsetappe des Kalten Kriegs, lagen erschwingliche Heimcomputer unter Hunderttausenden von westeuropäischen Weihnachtsbäumen und prägten das Leben zahlloser Jugendlicher. Auch im Ostblock waren Heimcomputer schon Jahre vor dessen Zusammenbruch präsent. Kurzum: Der Computer als technisches Medium, als Konsumgut und als Alltagsobjekt prägte bereits jene Epochen, bei denen ein Konsens darüber herrscht, dass sie ein legitimer Gegenstand der historischen Forschung sind.
Die Visitenkarte mutet unverfänglich an. Man könnte sie zunächst für die gewöhnliche Karte eines Geschäftsmanns halten. Erst der zweite Blick lässt den Betrachter stutzig werden: War Peter Venkman nicht eine fiktive Gestalt aus dem Kassenschlager Ghostbusters von 1984? Erst das Wissen um die Provenienz des Papier-Artefakts leitet den Betrachter schließlich auf die richtige Fährte: Peter Venkman ist ein Pseudonym und Mega Industries kein größenwahnsinniger Konzern, sondern ein Kollektiv niederländischer Teenager innerhalb einer transnationalen Community, die kommerzielle Computerspiele vom Kopierschutz befreite und an den Verkaufskanälen vorbei zirkulierte.
Informationelle Privatheit, also die Kontrolle darüber, was andere über mich wissen können und sollen, erscheint durch den digitalen Wandel, der unseren Alltag revolutioniert hat, gefährdeter denn je. Rund um die Uhr werden Daten über unsere persönlichen Interessen, Beziehungen und Gewohnheiten von kommerziellen Anbietern elektronisch gesammelt, ausgewertet und bei Bedarf auch staatlichen Stellen zur Verfügung gestellt. Man könnte sagen: Wir sind total „verdatet“.
Die Wurzeln einer deutschen Computergeschichte sind nicht nur in den Leistungen zahlreicher früher Erfinder zu suchen, sondern auch in einer Fülle von Erkenntnissen auf den Gebieten von Mathematik, Logik, Nachrichten- und Elektrotechnik. Konrad Zuses bahnbrechende Leistung, den ersten funktionsfähigen Computer der Geschichte entwickelt zu haben, hatte zwar initiale, leider aber kaum multiplizierende Wirkung auf das Entstehen einer eigenen Computerindustrie, so daß deren Herausbildung eher zögerlich, schließlich in den Gleisen deutscher Zweistaatlichkeit erfolgte. Am Anfang standen deshalb lediglich institutionell gefertigte Unikate. Erst Ende der 50er Jahre setzte eine massenhafte Fertigung ein, die auch Konsequenzen für Wirtschaft und Wissenschaft zeigte. Zu Konsequenzen führten auch gesellschaftlich bedingte Unterschiede zwischen Ost und West. So bedingten systemrelevante Eigenheiten -„sozialistischer Produktion“ einerseits und Marktwirtschaft andererseits - konzeptionelle und produktive Verschiedenartigkeit, die bis zur Wende 1989/90 an Signifikanz zunahm und eigenen Leitbildern gehorchte. Der Beitrag richtet sich auf einen analytischen Systemvergleich unter Berücksichtigung der gesellschaftlichen, technischen und wissenschaftlichen Spezifik.