Technik
Refine
Year of publication
- 2012 (6) (remove)
Document Type
- Journal Article (6) (remove)
Has Fulltext
- yes (6)
Is part of the Bibliography
- no (6) (remove)
„There is no reason for any individual to have a computer in his home.“ Diese Einschätzung Kenneth H. Olsens, seinerzeit Präsident der Digital Equipment Corporation (lange eine der führenden amerikanischen Computerfirmen), stammt aus dem Jahr 1977. Die gesellschaftliche Vorstellung von Computern war damals eng mit Großrechnern verknüpft, die lediglich durch Spezialisten bedient werden konnten. Dieses Paradigma stellten Spielekonsolen wie „Pong“ von Atari allerdings bereits 1975 in Frage. Andere Branchengrößen wie IBM hatten weiterhin Bedenken, ob die Leistung der Großrechner auf einem Schreibtisch Platz finden könne. Unternehmen wie Commodore oder Apple bewiesen ab 1977, dass dies möglich war, indem sie kompakte, sofort nach dem Kauf verwendbare Rechner auf den Markt brachten und sich somit an die Spitze der Computerhersteller katapultierten. Sie setzten damit eine Entwicklung in Gang, die sich zu Beginn der 1980er-Jahre beschleunigte: IBM definierte mit dem „IBM PC 5150“ ab 1981 einen Standard im Bereich der Heimcomputer. Sony und Philips brachten die Digitalisierung im Audiobereich voran und legten die technischen Spezifikationen für die Compact Disc fest.
In the 1980s, when computers became affordable for private households, a hacker or cracking scene, which was the term used by members of this subculture, developed in several western and northwestern European countries. These (almost exclusively male) groups of adolescents ‘cracked’, copied and exchanged computer games. On the basis of magazines and published interviews with former members of this scene, this article shows how cracking became an important current in the broad spectrum of teenage subculture – with specific ethical codes and rituals of masculinity. Its members were by no means lone specialists who eschewed contact with the outside world, but rather developed their own forms of community and communication. This scene did not construe itself as a political counter-culture; it was rather part of the diversifying popular and consumer culture of the 1980s. In the early 1990s, when law enforcing agencies began to prosecute software piracy more resolutely, this computer subculture began to fade. However, it lived on in the field of computer graphics, in electronic music and in the growing IT sector.
By the late 1970s, it was technologically possible to manufacture microcomputers – very small, stand-alone computers for personal use – in very large quantities. Selling them, however, meant creating a mass market where none existed: conventionally, only trained professionals, and a few devoted enthusiasts, interacted directly with the machines. Designers, marketers, retailers and other promoters therefore sought to build meanings into the design and presentation of computers which would connect them with new audiences. Such meanings reflected – and might themselves modify – the prevalent hopes, fears, desires and expectations of the users’ cultures.
„Computerspiele einschließlich anderer interaktiver Unterhaltungsmedien (Video-/Konsolen-, Online- und Handyspiele) haben in den letzten Jahren kontinuierlich an Bedeutung gewonnen. Sie sind in Deutschland wirtschaftlich, technologisch, kulturell und gesellschaftlich zu einem wichtigen Einflussfaktor geworden. [...] Computerspiele transportieren gesellschaftliche Abbilder und thematisieren eigene kulturelle Inhalte. Sie werden damit zu einem bedeutenden Bestandteil des kulturellen Lebens unseres Landes und sind prägend für unsere Gesellschaft.“1 Wie der Beschluss des Deutschen Bundestags zur Einrichtung des Deutschen Computerspielpreises zeigt, der seit 2009 jährlich vergeben wird, werden Computerspiele mittlerweile auch von offizieller Seite als ebenso bedeutsam wahrgenommen wie andere, bereits etablierte Kulturgüter. Diese Entwicklung entspricht in ihrer Grundtendenz derjenigen anderer Medien wie Film oder Comic, deren kulturelle Bedeutung ebenfalls erst einige Zeit nach ihrer Erfindung gesellschaftlich anerkannt und staatlich gefördert wurde.
Beim Umgang von Historikerinnen und Historikern mit dem Netz können wir einen interessanten Wandel beobachten: Grundsatzkritik an der Verwendung des Netzes in geschichtswissenschaftlicher Lehre und Forschung findet sich kaum mehr. Noch vor gut zehn Jahren war das anders. Da waren die Bedenkenträger nicht zu überhören, die das Netz für die (Geistes-)Wissenschaften als unnütz und unnötig einstuften und entschlossen waren, dieses vermeintlich kurze technische Intermezzo auszusitzen – Vertreter vor allem der älteren Generation, die sich schon mit der Einführung des Personal Computers seit den 1980er-Jahren schwertaten. Heute geht es vielmehr um die Frage, in welchen Bereichen und mit welchen Fragestellungen das Netz in den Forschungs- und Lehralltag zu integrieren ist.
Die Computerindustrie entwickelte sich in den USA und der UdSSR sehr unterschiedlich. Während in den Vereinigten Staaten der Konzern IBM nahezu ein Monopol erlangte, herrschte in der Sowjetunion ein Konkurrenzkampf. Mehrere Akteure verfolgten an unterschiedlichen Standorten eigene Entwicklungslinien; ein Austausch fand kaum statt. Als Reaktion auf eine von IBM 1963 vorgestellte neue Modellreihe kam es in der UdSSR zu einer Diskussion über die Computerindustrie, die den hartnäckigen Widerstand lokaler Entscheidungsträger bei der Durchsetzung zentraler Direktiven offenbarte. Es bedurfte mehrerer Machtworte von führenden Vertretern der Rüstungsindustrie, um das IBM System /360 als Vorbild einer eigenen Reihe durchzusetzen. Dabei berief man sich vor allem auf die Erfolge, die beim Nachbau von IBM-Rechnern in der DDR erzielt worden waren. Das Ministerium für Staatssicherheit hatte Entwicklungsdokumente aus dem Westen beschafft, und diese Wirtschaftsspionage trug wesentlich dazu bei, den innersowjetischen Konflikt zu entscheiden. Der technologische Rückstand der UdSSR gegenüber den USA blieb gleichwohl bestehen.