2/2012 Computerisierung und Informationsgesellschaft
Refine
Year of publication
Document Type
- Journal Article (12)
- Part of a Book (10)
- Book (1)
Has Fulltext
- no (23)
Is part of the Bibliography
- no (23)
Viele Jahrhunderte lang war der Brief fast konkurrenzlos das einzige Medium, mit dem über größere Distanzen hinweg Kontakt aufgenommen werden konnte oder Beziehungen aufrecht erhalten wurden, doch seit einiger Zeit gibt es eine Reihe von Alternativen. Der Werbeslogan der Deutschen Bundespost in den 80er Jahren des 20. Jahrhunderts – schreib mal wieder! – wirkte bereits zu diesem Zeitpunkt wie ein öffentlicher Aufruf, eine vom Aussterben bedrohte jahrhundertealte kulturelle Praxis und Kommunikationsform zu retten. Zwischenzeitlich haben modulierte Signale längst den Postboten überholt, und die elektronische Mailbox bietet den Anschluss an ein weltweites Kommunikationsforum. Der Medienwechsel brachte einen grundsätzlichen kulturellen Wandel mit sich, weil das kollektive Gedächtnis unserer Gesellschaft, das bisher durch Prinzipien der Schriftlichkeit charakterisiert wurde, zunehmend nach elektronischen Regeln arbeitet.
Rechenzentrum
(2012)
»Wer kontrolliert, wer bewacht, wer überwacht mein Gedächtnis? Das liegt ja nicht in Gottes Hand, in einer Wolke, sondern tatsächlich in einem Rechenzentrum irgendwo« – man mag über das Bild von irgendwo herumliegenden Gedächtnissen schmunzeln, dass Claus Kleber im heute journal (5. März 2012) gebrauchte, um dem Zuschauer das Cloud Computing zu erklären. Wo ist »irgendwo«? Es sind Rechenzentren, ohne die heute digital und damit in unserem Alltag nichts mehr geht, egal ob beruflich oder privat. In sie fließen – von der Hardwarebeschaffung bis zur Stromrechnung – enorme Geldsummen. Und trotzdem scheinen Rechenzentren häufig noch durch das Netz wissenschaftlicher und ganz allgemein gesellschaftlicher Aufmerksamkeit zu rutschen. Vielleicht liegt das an der vorgestellten Boden- oder Ortlosigkeit des Digitalen, die sich in Begriffen wie »Cloud« oder »Virtualität« widerspiegelt. Oder möglicherweise greift hier auch eine Profanisierung des Rechenzentrums als Dienstleistungseinrichtung und eine damit einhergehende Unsichtbarmachung von Arbeit in der Traditionslinie des »stummen Dienens«, ein Übersehen dieses Ortes.
Eine zentrale, einflussreiche und in der jüngeren Bundesrepublik-Forschung gut belegte These lautet, in der Mitte der 1970er Jahre sei eine Phase der »Planungseuphorie« oder auch des »Planungsbooms« zu Ende gegangen. Dieser These zufolge gab es in den »langen« 1960er Jahren unter den politischen und administrativen Eliten einen »kurzen Sommer der konkreten Utopie«, wie Michael Ruck es genannt hat. Gemeint ist damit die Vorstellung, Politik könne durch wissenschaftlich fundierte Vorausschau, durch den Rat der Experten und durch konkrete Planung gesellschaftliche Prozesse aktiv gestalten und damit dem Fortschritt auf die Beine helfen.
Die Wurzeln einer deutschen Computergeschichte sind nicht nur in den Leistungen zahlreicher früher Erfinder zu suchen, sondern auch in einer Fülle von Erkenntnissen auf den Gebieten von Mathematik, Logik, Nachrichten- und Elektrotechnik. Konrad Zuses bahnbrechende Leistung, den ersten funktionsfähigen Computer der Geschichte entwickelt zu haben, hatte zwar initiale, leider aber kaum multiplizierende Wirkung auf das Entstehen einer eigenen Computerindustrie, so daß deren Herausbildung eher zögerlich, schließlich in den Gleisen deutscher Zweistaatlichkeit erfolgte. Am Anfang standen deshalb lediglich institutionell gefertigte Unikate. Erst Ende der 50er Jahre setzte eine massenhafte Fertigung ein, die auch Konsequenzen für Wirtschaft und Wissenschaft zeigte. Zu Konsequenzen führten auch gesellschaftlich bedingte Unterschiede zwischen Ost und West. So bedingten systemrelevante Eigenheiten -„sozialistischer Produktion“ einerseits und Marktwirtschaft andererseits - konzeptionelle und produktive Verschiedenartigkeit, die bis zur Wende 1989/90 an Signifikanz zunahm und eigenen Leitbildern gehorchte. Der Beitrag richtet sich auf einen analytischen Systemvergleich unter Berücksichtigung der gesellschaftlichen, technischen und wissenschaftlichen Spezifik.
Im März 2001 stellte das Unternehmen DITEC vor dem Münchner Amtsgericht Antrag auf Insolvenz. Dieses Ereignis fand weitgehend unterhalb der Wahrnehmungsschwelle einer breiteren Öffentlichkeit statt und hatte auch wenig Spektakuläres an sich. Die DITEC-Insolvenz würde sich kaum von Tausenden ähnlicher Fälle jedes Jahr unterscheiden, wenn sie nicht den Endpunkt eines langen Niedergangs eines einstmals bedeutenden deutschen Computerherstellers markieren würde. Die DITEC kann als Gründung aus einer Notsituation heraus beschrieben werden. Sie war als eine Mitarbeitergesellschaft von damals rund 1.500 Beschäftigten verschiedener deutscher Tochtergesellschaften des US-Computerkonzerns Digital Equipment Corporation (DEC) entstanden. DITEC stand als Abkürzung für „Deutsche Informationstechnologie“. Der Verweis auf Datentechnik made in Germany war zum Zeitpunkt der Gründung 1995 eher trotzig gemeint und zielte gegen den damaligen US-amerikanischen Eigentümer DEC, in dessen Konzernstrategie kein Platz mehr für eine eigenständige Entwicklung und Produktion in der Bundesrepublik war. Die deutschen DEC-Töchter standen 1994/95 kurz vor der Schließung. Ein großer Teil der Mitarbeiter wollte aber das Ende ihres Betriebes nicht hinnehmen und hatte sich deswegen zusammengeschlossen und das Geld aus dem Sozialplan in einen unternehmerischen Alleingang investiert. Dafür nutzten sie die rechtliche Hülle der Digital-Kienzle Informationstechnologie GmbH & Co. KG mit Sitz in Villingen-Schwenningen, einer der zur Schließung anstehenden DEC-Tochtergesellschaften.
Seit dem Zweiten Weltkrieg prägen die Vereinigten Staaten von Amerika die westliche Welt nicht nur in politischer, sondern ebenso in wirtschaftlicher und technologischer Hinsicht. Während die USA insbesondere in den modernen Schlüsseltechnologien wie der Mikroelektronik und der Antriebstechnik zu den innovativsten und dynamischsten Märkten gehören, war bis in die späten 1960er Jahre hinein in den europäischen Staaten ein Mangel an technologischem Fortschritt spürbar. Am Beispiel der deutschen Computerindustrie befasst sich der Beitrag mit den Bemühungen, diesen Rückstand aufzuholen. Mit Blick auf das von Volker Berghahn geprägte Amerikanisierungs-Paradigma ist dabei vor allem nach den Konsequenzen für die Wettbewerbspolitik der 1950er bis 1970er Jahre zu fragen.
Seit den 1980er Jahren beschäftigen Prognosen zum anthropogenen Klimawandel Wissenschaft, Politik und Öffentlichkeit gleichermaßen. Von der übertriebenen Gelassenheit der Klimaskeptiker bis zur Hysterie der Alarmisten basieren die Expertisen dabei auf den Prognosen computerbasierter Modelle zur Berechnung zukünftiger Szenarien. Die Heterogenität der Expertisen spiegelt sich in den kontroversen Diskussionen zum Klimawandel wider und kumuliert meist in der Rede von der Unsicherheit der Prognosen.
Kyberkratie bezeichnet das Regieren vermittels kybernetischer Methoden, eine kybernetisch aufgeklärte Organisation der Gesellschaft. Der Begriff fasst die Bestrebungen sowjetischer Kybernetiker zusammen, die Anwendung kybernetischer Steuerungsmethoden von der Regelungstechnik nicht nur auf die Erforschung lebender Organismen, sondern auch auf die Wissenschaft von der Gesellschaft auszuweiten. Sie betrachteten die Gesellschaft als ein kybernetisches, durch Rückkopplungen gesteuertes System, dessen Funktionieren sie durch den Einsatz rationaler, expliziter und »objektiver« Methoden optimieren zu können meinten. Kurzum, ihr Anliegen war es, einen Sozialismus mit kybernetischem Antlitz zu schaffen. Kyberbürokratie bezeichnet einen bürokratischen Apparat, der über kybernetische Methoden und Technologien, einschließlich Computer, verfügt.
Der wohl wichtigste Wandel im kulturellen System in den achtziger Jahren war die Verbreitung des Computers und die Entstehung einer ganz neuen Kultur (die ihrerseits dann den Trend zu einer kulturellen Globalisierung beförderte). Dabei gilt es, zumindest die wichtigsten fünf Aspekte kurz anzusprechen. Die Verbreitung des Mediums und seine Nutzung müssen differenziert gesehen werden.
Sowjetisierung und Amerikanisierung der sozialistischen Staaten gelten als Gegensätze. Als die DDR in den 1960er Jahren eine technische „Auto-Amerikanisierung“ einleitete, lehnte die Sowjetunion diese jedoch keineswegs ab. Sie förderte sie vielmehr im Rahmen eines transnationalen technischen Großprojekts, des „Einheitlichen Systems der Elektronischen Rechentechnik“ (ESER). Die Übernahme westlicher Technik sollte dazu beitragen, den Westen zu „überholen“, ohne ihn zuvor „einholen“ zu müssen. Zugleich fürchtete man in Partei und Staat, dass durch den Technologietransfer auch westliches Gedankengut in die DDR einsickern könnte. Daher wurde dort, wo die Herrschaft der SED gefährdet schien, die Kontrolle schnell wieder verschärft.
1977 schalteten Computerwissenschaftler aus Ost und West erstmals eine Datenverbindung durch den Eisernen Vorhang. Am IIASA in Laxenburg bei Wien arbeiteten sie gemeinsam an der Entwicklung grenzüberschreitender Computernetze. Verbesserte Kommunikationsmöglichkeiten sollten die internationale Forschung stimulieren und einen Forschungsverbund schaffen, der weit mehr als die am Institut ansässigen Wissenschaftler umfasste. Hinzu kam die Vorstellung, mit Hilfe elektronischer Datennetze die Gesellschaften effektiver steuern zu können. Diese Planungsutopien gehören der Vergangenheit an, die Vision der Computernetze jedoch ist mit dem Internet Realität geworden.
Informationelle Privatheit, also die Kontrolle darüber, was andere über mich wissen können und sollen, erscheint durch den digitalen Wandel, der unseren Alltag revolutioniert hat, gefährdeter denn je. Rund um die Uhr werden Daten über unsere persönlichen Interessen, Beziehungen und Gewohnheiten von kommerziellen Anbietern elektronisch gesammelt, ausgewertet und bei Bedarf auch staatlichen Stellen zur Verfügung gestellt. Man könnte sagen: Wir sind total „verdatet“.