info-verteiler 2005; Teil I, Version 1.0
Die Industrialisierung der Denkarbeit
Die Entwicklung der Maschinen zur Rationalisierung von Denkarbeit verlief in den letzten 50 Jahren sehr schnell. In den 50er Jahren des 20. Jahrhunderts waren Computer riesige, Hallen füllende, aus tausenden elektromechanischen Schaltern (Relais) oder Elektronenröhren zusammengesetzte Maschinen, deren Anschaffung und Betrieb ein gewaltiges Kapital erforderte. Keiner BesucherIn eines solchen Rechenzentrums wäre einzureden gewesen, hier handle es sich um etwas prinzipiell anderes als bei jeder anderen Maschine.
In den 80er-Jahren waren daraus graue Kästchen in Brotdosengröße geworden, die für zwei bis drei durchschnittliche Monatsgehälter zu erstehen waren. Aus den tausenden ratternden Relais elektromechanische Schalter waren tausende Transistoren in Gestalt eines etwa fingergroßen, unscheinbaren, lautlosen Etwas namens Mikroprozessor geworden, der einige Millionen einfache Operationen pro Sekunde durchführte. Damit konnten allerlei Büroarbeiten bequemer durchgeführt werden, etwa Textverarbeitung, einfache Kalkulationen, Buchhaltung, einfache Datenbanken etc.
2005 sind PCs an jeder Ecke für ein halbes durchschnittliches Monatsgehalt zu erhalten. Deren Prozessor ist ein fingernagelgroßes Plättchen mit ca. 50 bis 100 Millionen Transistoren, der einige Milliarden einfache Operationen pro Sekunde durchführen kann. Diese PCs finden ihren Verwendungszweck für technisch-wissenschaftliche Aufgaben, Büro und Verwaltung, als Stereoanlage, Fernseher, Videorekorder, Telefon, Spielkonsole, Fotolabor, etc. und durch die Digitalisierung der Kommunikationsmittel als weltweit vernetztes Nachschlagewerk.
Im allgemeinen Bewusstsein, auch innerhalb der Linken, wurde dieser Wandel in der Produktion jedoch nicht nachvollzogen. Der „echte“ Arbeiter blieb der hammertragende Muskelprotz, ohne dessen „starken“ Arm nichts läuft. Die Millionen von schnellfingrigen ArbeiterInnen, deren millionenmal tausende Tastendrucke pro Stunde ganze Produktionsketten in Gang setzten und hielten, blieben außerhalb der „proletarischen Kernschichten“, die es für die Revolution zu gewinnen galt.
Diese dogmatische, unhistorische Betrachtungsweise öffnete die Tore sperrangelweit für allerlei bürgerlichen Hokuspokus. Die Ideologen des Kapitals, immer bestrebt, die Rolle der ArbeiterInnenklasse möglichst bedeutungslos darzustellen, sie im Bewusstsein der Massen auf eine zahlenmäßig kleine, unwichtige Minderheit zurechtzulügen, zauberten zunächst den „Dienstleistungssektor“ aus dem Hut. Seit den 60er Jahren werden mehr und mehr Teile des Produktionsprozesses unter diesem Begriff geführt, so der Transport, die Kommunikation, die Güterverteilung etc.
In den letzten Jahren rückten neue Kampfbegriffe der Ideologen des Kapitals ins Zentrum der Debatte wie Informationsgesellschaft, kognitiver Kapitalismus, immaterielle Arbeit, Wissensökonomie.
„In der sog. Neuen Ökonomie“, erklärte Angela Merkel, Vorsitzende der CDU (2000), „treten Informationen und ihre Verbreitung an die Stelle von Rohstoffen, Maschinen, Ausrüstungen und klassischer Erwerbsarbeit. Das knappe Gut der Neuen Ökonomie ist der Mensch mit seinem Wissen.“ Selbst linke Autoren verglichen angesichts der „immer wichtiger werdenden Produktion von Informationen“ den Übergang zum High-Tech-Kapitalismus mit dem Übergang von der Agrar- zur Industriegesellschaft, „wo die agrarische Produktion heute auch nur noch ein Anhängsel der Industrieproduktion ist“ (Merten 2002, 1008). So würde künftig die materielle Produktion nur mehr ein Anhängsel der „immateriellen“ sein. „Informationsarbeit dominiert über materielle Arbeit“, klang es vom BWL-Lehrstuhl (Reichwald 2000).1
„Die materiellen Vermögenswerte, die Unternehmen besitzen, werden weniger oder verschwinden ganz, und zwar auf jeder Stufe und in jedem Bereich des kapitalistischen Systems.“2„Auch Geld entmaterialisiert sich in der vernetzten Wirtschaft.“3
„Mit der Industrieforschung großen Stils wurden Wissenschaft, Technik und Verwertung zu einem System zusammengeschlossen ... So werden Technik und Wissenschaft zur ersten Produktivkraft, womit die Anwendungsbedingungen für Marxens Arbeitswerttheorie entfallen. Es ist nicht länger sinnvoll, die Kapitalbeträge für Investitionen in Forschung und Entwicklung auf der Grundlage des Wertes der unqualifizierten (einfachen) Arbeitskraft zu berechnen, wenn der wissenschaftlich-technische Fortschritt zu einer unabhängigen Mehrwertquelle geworden ist, gegenüber der die von Marx allein in Betracht gezogene Quelle des Mehrwerts, die Arbeitskraft der unmittelbaren Produzenten, immer weniger ins Gewicht fällt“.4
Der Kern der neuen Ideologien beruht auf der Auffassung, dass sich „geistige“ Tätigkeit prinzipiell von „körperlicher“ Tätigkeit unterscheidet, so als wäre der „Geist“ unabhängig vom Körper, als existiere ein „Geist“ ohne Materie, „Ideen“ ohne Gehirn, Ideen ohne gesellschaftliche Realität.
Warum finden diese Ideologien so weite Verbreitung? So wie um 1900 mit Verbreitung der Elektrizität und des Elektro-Magnetismus noch allerlei Mythen verbunden waren und damit zu dieser Zeit allerlei ideologischer Unsinn verbreitet werden konnte, werden im Jahr 2000 dem Mikroprozessor allerlei Wunderdinge angedichtet.
DieseTextsammlung soll folgende Thesen nachweisen:
* Der Denkvorgang ist materiell, Kopfarbeit ist materiell.
* Computer entwickeln sich historisch aus der Arbeitsteilung in Hand- und Kopfarbeit, als Maschinen für Kopfarbeit.
* Die Voraussetzung ist die fabrikmäßige Organisierung der Kopfarbeit zunächst ohne Maschinen. Erst auf dieser Grundlage werden Maschinen zur Rationalisierung entwickelt. Durch die Anwendung der Arbeitsteilung auf die Kopfarbeit wird die planerische von der ausführenden Tätigkeit neuerlich getrennt, die Mehrzahl der Tätigkeiten in der Kopfarbeit „manualisiert“, also zur „Handarbeit“.
* Information ist das Produkt der fabrikmäßig organisierten Denkarbeit, der in Datenträgern vergegenständlichte planerische und kontrollierende Anteil der Gesamt-Arbeit.
* In der zweiten Hälfte des 20. Jahrhunderts führen die Computer zu einer starken Rationalisierungswelle im industriellen Bereich. Vorraussetzung dafür ist der Taylorismus, der die Arbeitsteilung weiter vorantreibt. In vielen Bereichen wird die manuelle Tätigkeit erneut durch Maschinen ersetzt, die verbleibenden Tätigkeiten bestehen in der Kontrolle und Steuerung der Maschinen. Die Handarbeit „verkopft“.
* Durch die Verbilligung der Maschinen und deren Vernetzung wird es möglich, dezen-tralisierte Produktion zentral zu steuern. Die Auftrennung der großen Produktionseinheiten beginnt, Teile der Produktion werden in Klein- und Kleinstbetriebe ausgelagert. Der ArbeiterInnenwiderstand in den großen Fabriken wird zunächst zerschlagen.
* Digitale Maschinen und digitale Güter wie Programme etc. sind materiell. Ihre scheinbare „Immaterialität“ ergibt sich daraus, dass sie auf „untastbarer“, für die menschlichen Sinne nicht wahrnehmbarer subatomarer Ebene funktionieren.
Hand- und Kopfarbeit
In den Anfängen des Kapitalismus entwickelte sich mit der Einführung der Fabrikarbeit die Trennung in damals so genannte „Hand-“ und „Kopfarbeit“, wobei die planende Tätigkeit als „Kopfarbeit“ und die ausführende Tätigkeit als „Handarbeit“ bezeichnet wurde. Wie kam es dazu? In den Manufakturen wurden eine größere Zahl von ProduzentInnen unter dem Kommando des Kapitals unter einem Dach zusammengefasst, wobei zunächst die ursprüngliche, handwerkliche Arbeitsweise beibehalten wurde. Die massenhafte Zusammenfassung gleicher Produktionsprozesse brachte aber auch das massenhafte Auftreten gleicher Arbeitsschritte mit sich und schuf die Voraussetzung für eine grundlegende Umorganisation des Arbeitsprozesses, nämlich seine Zersplitterung. Die einzelnen ProduzentInnen konzentrierten sich auf eine spezielle Teilarbeit und entwickelten darin besondere Fertigkeiten, so dass insgesamt die Summe der erzeugten Produkte pro Zeiteinheit anstieg. Teile des Produktionswissens vergegenständlichten sich in der Maschinerie. Handwerkliche Arbeit wurde zur Fabrikarbeit. Dies ging einher mit einer Entmachtung der einzelnen ProduzentInnen, die zunehmend den Überblick über den Gesamtprozess der Produktion verloren.
Dieser Verlust an Produktionswissen bei der Masse der spezialisierten ArbeiterInnen machte eine übergeordnete Planungs- und Leitungsinstanz zur Koordinierung der Einzelarbeiten erforderlich. Bei der Abspaltung der Denkarbeit wurden die den Gesamt-Arbeitsprozess betreffenden Kenntnisse zunehmend beim Leitungspersonal konzentriert. Das Ziel der Kapitalisten formulierte der deutsche Rüstungsindustrielle Krupp 1874 so: „Was ich erstrebe ist, dass nichts abhängig sein soll vom Leben oder Dasein einer bestimmten Person, dass mit derselben kein Wissen und keine Funktion entweiche, dass nichts geschehe, nichts geschehen sei (von eingreifender Bedeutung), das nicht im Zentrum der Prokura bekannt sei oder mit Vorwissen und Genehmigung derselben geschehe, dass man die Vergangenheit der Fabrik sowie die wahrscheinliche Zukunft derselben im Büro der Hauptverwaltung studieren und übersehen kann, ohne einen Sterblichen zu fragen“5
Eine weitere Folge der Zersplitterung der Arbeit war die Entfremdung. Die unmittelbaren ProduzentInnen verloren die Identifikation mit dem Gesamtprodukt sowie mit der Arbeit überhaupt. Aus der Sicht des Kapitals musste dieser „Mangel“ durch verstärkte Kontrolle ausgeglichen werden. Das führte zu einer Hierarchie innerhalb der Arbeitsteilung: auf der einen Seite die Masse der HandarbeiterInnen, die mehr und mehr dequalifiziert wurden, auf der anderen Seite mit der zunehmenden Komplexität der Arbeitsorganisation eine wachsende Qualifikation sowie ein zahlenmäßiges Anwachsen auf Seiten der KopfarbeiterInnen. Die Kopfarbeit musste aus der Sicht der Kapitalisten genauso fabrikmäßig organisiert wie die Handarbeit, die gleichen Mechanismen angewendet werden: arbeitsteilige Zersplitterung der Tätigkeiten, Trennung in ausführende und planende Arbeitsanteile, Ersetzen der dann vereinfachten Tätigkeiten durch Maschinen. Die Denkarbeit musste zur Fabrikarbeit werden.
Historische Entwicklung der fabrikmäßigen Organisation der Kopfarbeit
Die fabrikmäßige Organisation der Kopfarbeit konnte, genauso wie das Fließband, auf eine längere Geschichte zurückgreifen. Zum ersten Mal wurde die systematische Teilung der Kopfarbeit bei der Berechnung von mathematischen Logarithmentafeln Ende des 18. Jahrhunderts in Frankreich vom Mathematiker Prony angewendet. In Frankreich waren erst mit der Revolution Dezimalzahlen in das Maßsystem eingeführt worden; Prony wurde von der französischen Regierung mit der Neuberechnung der dezimalen Logarithmen beauftragt. Die Idee kam ihm, als er zufällig im Buch Wealth of Nations von Adam Smith auf die Methode der Arbeitsteilung bei der Fabrikation von Stecknadeln stieß. Er beschloss, die Berechnung der Logarithmentafeln ebenso „fabrikmäßig“ durchzuführen. Dazu bildete er drei Arbeitsgruppen. Die erste bestand aus sechs Mathematikern und hatte die Aufgabe, die mathematischen Funktionen zu finden, die das Berechnen in der kürzesten Zeit ermöglichten; die zweite verfügte über acht Arithmetik-Spezialisten, die die Zahlen in die Formeln der ersten Gruppe einzusetzen hatten und die dritte Gruppe kontrollierten. Die 80köpfige dritte Gruppe hatte die Aufgabe, auf den von der zweiten Gruppe angefertigten Formularen ausschließlich eine Vielzahl von Additionen und Subtraktionen durchzuführen. Fast alle Personen der dritten Gruppe hatten keine über das Addieren und Subtrahieren hinausgehenden mathematischen Kenntnisse.
Diese Prinzipien der Zerteilung von Kopfarbeit wurden vom englischen Mathematiker und Ökononom Charles Babbage systematisiert und in seinem Buch On the Economy of Machinery and Manufactures 1832 veröffentlicht. Er ging noch einen Schritt weiter und konzipierte einen Automaten, die „analytische Maschine“. Die prinzipielle Konstruktion war die gleiche wie die des heutigen Computers. Er scheiterte allerdings bei der Verwirklichung der Maschine an der damals zu geringen Präzision der dafür benötigten mechanischen Bestandteile.
Anfang des 20. Jahrhunderts „verwissenschaftlichte“ F. W. Taylor die Trennung in Hand- und Kopfarbeit. Sein System „zielt darauf ab, eine neue und deutliche Trennung von Kopf- und Handarbeit in allen Werkstätten einzuführen. Sie gründet sich auf das genaue Zeit- und Bewegungsstudium jeder Arbeitsaufgabe für sich und überführt die gesamten geistigen Anteile an dem Arbeitsvorgang in die Hände des Leitungspersonals...“ (F. W. Taylor, Shop Management). Die breite Einführung des Taylorismus „in allen Werkstätten“ führte durch die in diesem Prozess gewonnenen Kenntnisse zu neuen Möglichkeiten, wesentlich komplexere Produktionsprozesse zu entwickeln. Dies zog größere Anforderungen an Planung und Entscheidung nach sich, wodurch in der Folge weitere, neue Arbeitsprozesse entstanden. Zur Bewältigung dieser verwaltungstechnischen und wissenschaftlichen Anforderungen, die die Bedürfnisse der Konzerne decken konnten, mussten die Arbeitsschritte von tausenden „KopfarbeiterInnen“ genauso fabrikmäßig organisiert werden, in kleine, einfach und sich wiederholende „geistige“ Fließbandarbeitstätigkeiten zerlegt werden.
Vorraussetzung für die Arbeitsteilung bei den KopfarbeiterInnen war, dass die Tätigkeit der Angestellten so weit als möglich standardisiert, generalisiert und hierarchisiert werden musste. So entstand beispielsweise bei Siemens und Halske in den 50er Jahren des 19. Jahrhunderts eine Büro-Organisation, die bewirkte, dass die arbeitenden Büros als „Maschinen“ wie von selbst laufen, wenn sie erst einmal in Gang gesetzt sind. Der Planer dieser Organisation konnte 1855 Werner Siemens berichten: „Im Büro haben wir Deine Disziplin getreulich fortgeführt und noch verschärft, es ist jetzt schon alles Schreien, lautes Sprechen, Umherlaufen gänzlich verschwunden“.6
Die fabrikmäßige Organisation der Kopfarbeit erfolgte zunächst ohne den nennenswerten Einsatz von Maschinen. Die Zerlegung des Arbeitsprozesses schuf jedoch die Voraussetzung dafür, dass, ähnlich wie bei der Entwicklung von der Manufaktur zur Fabrik, auch in diesem Bereich mehr und mehr menschliche Arbeitskraft durch Maschinen ersetzt werden konnte. Mechanische und später elektro-mechanische Rechen- und Datenverarbeitungsmaschinen erreichten eine immer weitere Verbreitung, deren Einsatz entschied über die Konkurrenzfähigkeit im kapitalistischen Verwertungsprozess.
Die historische Entwicklung der Maschinen für die Kopfarbeit
Rechenmaschinen
In der Seefahrt war schon seit dem Altertum die Arbeitsteilung zwischen Hand- und Kopfarbeit eingeführt: der Navigator berechnet den Kurs, die Seeleute führen die manuelle Tätigkeit aus. Die beginnende Kolonialisierung und die Ausdehnung des Handels im 15. Jahrhundert erforderte die verstärkte Entwicklung von Navigationshilfen für die Seefahrt. Vor allem für die Überquerung der Weltmeere ergab sich ein bis dahin ungelöstes Problem: die Bestimmung der geographischen Länge. Dafür gibt es grundsätzlich zwei Möglichkeiten: entweder eine sehr genau gehende Uhr oder die Berechnung über die Mondbewegung bzw. über bestimmte Fixsterne als Himmelsuhr. Daraus entwickelte sich einerseits das Präzisionshandwerk Uhrmacherei, andrerseits die Logarithmentafeln und mechanische Rechenmaschinen zur Erstellung genauer astronomischer Tafeln. So brauchte z.B. J. Kepler 20 Jahre, um astronomische Tafeln für die elliptische Umlaufbahn der Planeten zu berechnen, der Mathematiker Napier rechnete 30 Jahre an seinen Logarithmentafeln. Die erste mechanische Rechenmaschine wurde von dem Astronomen W. Schickard, einem Bekannten Keplers, der um die enorme Rechenarbeit wusste, konzipiert und im Jahr 1623 gebaut. Die Maschine konnte die vier Grundrechenarten ausführen.
Die Ausweitung der Handelstätigkeit und die damit verbundene Entwicklung von Banken, Steuer- und Finanzwesen brachte ebenfalls jede Menge Rechenarbeit zur Führung der Bücher mit sich. Dabei mussten vor allem riesige Zahlenkolonnen addiert werden eine zeitraubende, monotone Routinetätigkeit. Die nächste Rechenmaschine wurde im Hause eines Finanzverwalters entwickelt: Der 19jährige Blaise Pascal, später einer der berühmtesten Mathematiker, baute 1642 für seinen Vater eine Addiermaschine. Diese Maschine wurde in größerer Anzahl produziert. Der deutsche Mathematiker Leibniz erweiterte die Konstruktionsphilosophie der mechanischen Rechenmaschine dahingehend, dass Multiplikation und Division durch mehrfache Addition bzw. Subtraktion durchgeführt wurden. Dieses Prinzip hielt sich bis in die 50er-Jahre des 20. Jahrhunderts und ist in abgewandelter Form (Binär-Multiplikation mit anschließender Addition/Subtraktion) auch das Prinzip, wie heutige PCs multiplizieren.
Diese Rechenmaschinen hatten einen Nachteil, sie erforderten einen ständigen Eingriff des Menschen: Eingabe der Zahlen, Kurbelantrieb, Ablesen der Zwischenergebnisse, Ordnen der Ergebnisse. Die „analytische Maschine“ von Babbage Mitte des 19. Jahrhunderts versuchte dieses Manko auszugleichen. Sie besaß einen Arbeitsspeicher zur Speicherung der Eingabe und der Zwischenergebnisse, ein Rechenwerk zur eigentlichen Berechnung, ein Steuerwerk zur Steuerung der Reihenfolge der Berechnungen sowie ein Ausgabeelement zum Ausdrucken der Ergebnisse. Damit waren alle Bestandteile eines modernen Computers bereits bei Babbages Maschine versammelt. Für das Steuerwerk konnte Babbage auf die Erfindungen, die in der Textilbranche gemacht wurden, zurückgreifen: die Steuerung von Strickmaschinen mittels Lochkarten (1725), die Anwendung von Lochstreifen für Musterweben (1728), der automatische Webstuhl von Jacquard (1804), bei dem die die für das Muster notwendigen Arbeitsdaten auf genormten Lochkarten eingestanzt wurden. Trotz der Finanzierung durch die englische Regierung wurde die Maschine jedoch nie einsatzfähig. Sie hätte zehntausende Präzisionszahnräder benötigt, und die Kraft um dieses Getriebe in Gang zu setzen hätte so viel Energie benötigt, dass das Material der Zahnräder dieser Kraft nicht standgehalten und sich die Zahnräder nicht mehr gedreht hätten. Die Idee von Babbage geriet für fast hundert Jahre in Vergessenheit.
Tabelliermaschine
Eine elektro-mechanische Rechenmaschine ohne programmierbares Steuerwerk wurde von Hollerith 1887 für die US-amerikanische Volkszählung gebaut. Sie wurde von der Regierung in Auftrag gegeben, nachdem die Volkszählung von 1880 nach sechs Jahren immer noch nicht ausgezählt war. Diese Maschine baute auf den Lochkarten des Jaquard-Webstuhls als Datenträger sowie der Walzensteuerung des elektrischen Klaviers zur Betätigung von Zählern und Sortiermechanismen auf. Diese Lochkartenmaschine wurde im Laufe der ersten Hälfte des 20. Jahrhunderts in Form von Tabelliermaschinen weiterentwickelt.7
Eine Tabelliermaschine besteht eigentlich aus mehreren Einzelmaschinen. Mit dem Locher wurden die Lochkarten gestanzt, und zwar mit einer Tastatur ähnlich wie bei einer Schreibmaschine. Der Locher hatte eine Duplizierfunktion, Lochungen von einer Karte können auf eine andere übertragen werden. Der Sortierer wird eingesetzt, um eine Anzahl von Karten nach einem zuvor eingestellten System zu sortieren. Die Sortiermaschine hat ein Kartenzufuhrmagazin für die Lochkarten. Zwischen Kartenzufuhrmagazin und den Ablagefächern liegt eine Lesestation, die in der Lage ist, jeweils eine Spalte einer Lochkarten nach den Stanzmerkmalen zu untersuchen und z.B. bei Erkennen einer 4 die Lochkarte in das Fach 4 zu steuern. Der Kartenmischer hat zwei Kartenzuführungen und Ablagefächer. Die Arbeiten des Mischers werden von auswechselbaren Schalttafeln (eine Schalttafel besitzt viele Buchsen mit bestimmten Funktionen, die Schaltanweisungen werden mittels Schaltschnüren aneinandergereiht) gesteuert. Er besitzt die Fähigkeit, einen Vergleich von zwei Werten vorzunehmen. Die grundsätzliche Aufgabe des Mischers besteht darin, zwei nach demselben Ordnungsbegriff sortierte Kartenpakete in einer sinnvollen Ordnung zusammenzuführen. Der Kartendoppler kann als eine Zusatzmaschine zu den Grundmaschinen Locher und Sortiermaschine des Lochkartenverfahrens bezeichnet werden. Der Kartendoppler besteht aus der Kartenlese- und Kartenstanzeinheit und vereinigt die Funktionen Doppeln, Stanzen, Summenstanzen, Zeichenlochen, Vergleichen. Mit der Tabelliermaschine werden die Lochkarten ausgewertet. Die Steuerung der Daten erfolgt über eine Schalttafel. Mit einer Tabelliermaschine können Werte addiert, subtrahiert, multipliziert und dividiert werden. Damit können in den zu erstellenden Berichten Zwischen- und Endsummen gebildet werden. Ein Schreibwerk ermöglicht schließlich, auf Grund der Eingabedaten Berichte zu erstellen, und zwar mit einer Geschwindigkeit von bis 9000 Zeilen in der Stunde. Diese mechanischen oder halbmechanischen Anlagen waren sehr störanfällig. Zudem versuchten die Angestellten, die die Lochkartenmaschinen bedienten, diese des Öfteren zu manipulieren, um zusätzliche Ruhepausen bei den monotonen Tätigkeiten zu erhalten.8
Der Bedarf an diesen Maschinen für das Kapital war groß. Im beginnendem Stadium der Monopolisierung entstanden durch die Kapitalkonzentration große Trusts und Konzerne. Diese Gebilde brachten erweiterte und neue Anforderungen an Statistik, Rechnungswesen, Auftragsbearbeitung, im Kredit- und Bankwesen etc. hervor. Im wissenschaftlichen Bereich hatte sich durch die Entwicklung von Maschinen und Verkehrsmitteln (Arbeits- und Kraftmaschinen, Lokomotiven, Schiffe, Brücken etc) die technische Mechanik immens weiterentwickelt. Die Chemie hatte sich von einer wissenschaftlichen Spielerei am Anfang des 19. Jahrhunderts zu einer industriell verwertbaren Technologie gewandelt, die die Farben- und Sprengstoffindustrie hervorbrachte. Es brauchte Berechnungen zur Statik, Kinematik, Dynamik, Verfahren zur numerischen Integration von Differentialgleichungen, zur Lösung linearer Gleichungssysteme etc. Die Kontrolle des Monopolkapitals über große Teile der Produktion, international und damit örtlich verstreut, verlangte auch nach einer Weiterentwicklung der Kommunikationsmittel. Telegraph, Telefon, Fernschreiber, Funk etc. wurden unerlässliche Kerntechnologien der kapitalistischen Produktion.
All dies war arbeits- und damit personalintensiv. Es führte zu einem wachsenden Anteil der Kopfarbeit an der Gesamtarbeit. So stieg z.B. im Deutschen Reich der Anteil der Angestellten an der Anzahl der Lohnabhängigen von 4,78% (516.000) im Jahr 1882 auf 17,69 % (3,7 Mio.) im Jahr 1925.9
IBM
Im Laufe der ersten Hälfte des 20. Jahrhunderts stieg IBM zum weltweit größten Produzenten verschiedenster Büromaschinen, insbesondere von Tabelliermaschinen, auf. IBM entstand 1924 aus der Firma, die Hollerith gegründet hatte, und zwei weiteren Firmen, eine für Rechenwaagen und eine für Stechuhren. Das Unternehmen kontrollierte rund 90 Prozent des Weltmarktes für Lochkarten und Sortiermaschinen.
Ende 1935 waren in den USA 4.300 Rechenmaschinen, 4.100 Sortiermaschinen und 8.400 Kartenlocher von IBM im Einsatz. Insbesondere die Einführung einer Sozialversicherung im Rahmen des New Deal führte zu einem erheblichen Anwachsen der Firmen- und Staatsbürokratien und zu einem entsprechenden Mehrbedarf an Maschinen zur Verwaltungsrationalisierung.
Auch im Naziregime kamen ab 1933 Hollerithmaschinen zum Einsatz. „Straffe staatliche Machtverwaltung konnte mit Hilfe dieser zentralistisch arbeitenden Datenverarbeitungssysteme, die erstmals eine Massenerfassung und -verarbeitung von Daten erlaubten, ihre Kontrolle und ihren Machteinfluss um ein erhebliches verstärken.“10IBM vermietete, wartete und modernisierte mehr als 2.000 Multi-Maschinen-Sets in ganz Deutschland, sowie weitere Tausende in den von den Nazis besetzten Gebieten. IBM entwickelte auf die Wünsche der Nazis zugeschnittene Lochkarten, die von diesen benutzt und in einer Stückzahl von jährlich 1,5 Milliarden Exemplaren in Deutschland hergestellt wurden. Sowohl die Bevölkerung als auch militärische Vorhaben wurden erfasst. So wurden mit maschineller Unterstützung Straßenbauvorhaben geplant, Gebärleistungen der Frauen und Fruchtbarkeit der Ehen bzgl. des Nachschubs an Menschen für das System überwacht. „Hollerith-Systeme automatisierten den gesamten nationalsozialistischen Machtapparat; sie optimierten die Staatssicherheit, die Kriegslogistik, die Vernichtungsmaschinerie der Konzentrationslager.“ Es gab Hollerith-Abteilungen in fast jedem Konzentrationslager. Sie dienten der Registrierung der Ankommenden, der Zuteilung von Sklavenarbeit und der Buchführung über die ermordeten Gefangenen. Die angestrebte totale Erfassung der Bevölkerung war mit Lochkartenmaschinen möglich geworden.11
Von der Tabelliermaschine zum Computer
Die Tabelliermaschinen waren sehr teuer und wartungsintensiv. Sie konnten nur für einige Spezialaufgaben eingesetzt werden, eine standardisierte Massenproduktion war nicht in Sicht. Was fehlte, war die Programmierbarkeit des Steuerwerks, um die Maschinen für verschiedenste Aufgaben einsetzen zu können.
Mittlerweile waren jedoch mit dem Relais (elektromechanischer Schalter) und Elektronenröhre (elektronischer Schalter) zwei Technologien zur Verfügung, die das Dilemma von Babbage, zehntausende Zahnräder antreiben zu müssen, lösen konnten. Um sie in Bewegung zu setzen, braucht es elektrischen Strom, der den Vorteil hat, keine mechanische Reibung wie Zahnräder zu verursachen.
Schalter können jedoch nur zwei Zustände darstellen entweder ein oder aus. Damit lassen sich durchaus Zahlen darstellen bereits seit Leibniz (1679) war das duale Zahlensystem in Europa bekannt. Im dualen Zahlensystem wird jede Zahl mit den Ziffern 0 und 1 gebildet, und nicht wie im dezimalen System mit den Ziffern 0 bis 9. Mitte des 19. Jahrhunderts entwickelte der Mathematiker Boole die boolsche Algebra, die einige Funktionen der Aussagenlogik auf die Grundaussagen wahr und falsch, also auf eine duale Logik, zurückführt.
Was fehlte, war die Zusammenfügung all dieser vorhandenen Einzelteile.
Der Schritt von der mechanischen zur elektronischen Datenverarbeitung erfolgte im zweiten Weltkrieg. Der Krieg trieb durch militärischen Bedarf nach Rechenkapazität die Entwicklung voran. Unabhängig voneinander wurden in England, den USA und Deutschland programmgesteuerte Rechenmaschinen gebaut.
In Deutschland arbeitete der Bauingenieur Zuse als Alleinkonstrukteur mit Unterstützung der Henschel Flugzeugwerke und der deutschen Versuchsanstalt für Luftfahrt am Bau eines programmgesteuerten Rechenautomaten auf Relais-Basis. Beide Betriebe entwickelten ferngesteuerte Bomben (V1 und V2) und hatten bei Konstruktion und Ballistik erhebliche rechentechnische Probleme.
Mit Förderung durch das Militär arbeiteten in England und den USA ab 1942 zahlreiche Gruppen von Mathematikern, Ingenieuren und Technikern an der Computerentwicklung. In England wurde vom britischen Außenamt ein Rechenautomat namens „Colossus“ auf Basis von Elektronenröhren entwickelt. An diesem arbeitete der Mathematiker Turing mit, der die logischen Prinzipien von Rechenautomaten über Babbage hinaus weiterentwickelt hatte (Turing-Maschine).
In den USA erfolgte die Entwicklung in enger Zusammenarbeit zwischen Hochschulforschung, Industrie und Militär. Zu Beginn des Krieges wurden spezielle Sortier- und Tabelliermaschinen von IBM zur Berechnung eines nautischen Almanachs eingesetzt, der die Zeit zur Bestimmung eines Schiffsortes von 30 auf 1 Minute senkte. Auf der Basis dieser Maschinen entwickelte der Harvard-Mathematiker Aiken den Relaisrechner Mark I. Er wurde ab 1944 an die US-Marine verpachtet. Der Rechner hatte 3.304 Relais und 850 km elektrische Leitungen. 1946 wurde der Elektronenröhren-Rechner ENIAC fertig gestellt, entwickelt an der Universität von Pennsylvania. Er enthielt 18.000 Röhren als Schaltelemente und konnte etwa 5.000 Additionen pro Sekunde durchführen. Dieser Rechner wurde von der US-Armee finanziert und für die Weiterentwicklung von Atombomben, den Bau der Wasserstoffbombe sowie für Überschallströmungsberechnungen, die zum Bau von Bombern benötigt wurden, eingesetzt. Bis Mitte der 50er Jahre wurden Computer vor allem zur Entwicklung und zum Bau von Massenvernichtungswaffen gebaut und eingesetzt.
Programmierbare Maschinen
All diese Rechenautomaten konnten zwar Befehlsfolgen speichern und abarbeiten, Befehlswiederholungen oder Sprünge innerhalb der Befehlsfolge konnten sie nicht durchführen. Die Befehlseingabe erfolgte über externe Datenträger, etwa Lochkarten oder Lochstreifen. Die Reihenfolge des Befehlsablaufes musste außerhalb der Rechenmaschine festgelegt werden, eine Änderung der Befehlsreihenfolge konnte nur über die manuelle Neuerstellung (bei Lochstreifen) oder Umsortierung (bei Lochkarten) erfolgen. Mit herkömmlichen Lochkartenmaschinen ließen sich nur Regelfälle bearbeiten. Ausnahmefälle, die einen großen Anteil der Vorgänge ausmachen konnten, mussten weiterhin manuell bearbeitet werden. Das hatte zur Folge, dass es bei jeder mechanisierten Prozedur weitere ArbeiterInnen für die Bearbeitung der Ausnahmen notwendig waren, die die erhofften Einsparungen durch die Mechanisierung empfindlich schmälerten.12
Durch die Erfindung der Speicherprogrammierung ließen sich diese Schwachstellen beseitigen. Die Speicherprogrammierung ermöglicht es, eine Sequenz von Operationen, ein Programm, automatisch abzuarbeiten und innerhalb dieses Programms abhängig von Prüfkriterien in unterschiedliche Operationsfolgen zu verzweigen. Durch die automatische Ausführung von mehreren aufeinanderfolgenden Arbeitsschritten sollten die menschlichen Eingriffe, die bei den Lochkartenmaschinen am Ende jedes Arbeitsschrittes notwendig waren und die eine große Anzahl von MaschinenbedienerInnen erforderten, überflüssig gemacht werden.
Diese Technik wurde erst 1944/45 von Eckert, Mauchley und v. Neumann konzeptionell entwickelt und 1949 in einem Computer mit der Bezeichnung „Binac“ realisiert.
1951 wurde der erste nicht-militärische Computer, UNIVAC I, der alle Grundelemente des heutigen Computers in sich vereinte, von der Firma Remington gebaut und vom statistischen Amt der USA gekauft.13
Bei der ersten Generation von Computern spielten die Kosten zunächst keine Rolle, da die Probleme, die damit gelöst wurden, einerseits ohne Rechenmaschinen überhaupt nicht lösbar gewesen wären und andrerseits die Hauptanwendung im militärischen Bereich lag. Beim weiteren Einsatz im technisch-wissenschaftlichen Bereich zeigte sich, dass 60 bis 80% der Gesamtkosten von EDV-Projekten durch die Programmierung, die nur von hochbezahlten Spezialisten und Wissenschaftlern mit genauen Kenntnissen der konkreten Maschine durchgeführt werden konnte, verursacht wurden und dies trotz der nicht gerade geringen Hardware-Kosten. Damit waren die Computer zunächst für Einsatzgebiete, wo es um Einsparung von Kosten ging, etwa im kommerziellen Bereich, unbrauchbar.
Die Programmierung der Maschinen musste also rationalisiert und automatisiert werden. In den 50er Jahren des 20. Jahrhunderts wurden daher große Anstrengungen unternommen, Programmiermethoden zu entwickeln, die keine detaillierte Kenntnis der Rechenmaschine erfordern. Es entstanden die problemorientierten Programmiersprachen FORTRAN (für „Formula Translation“, darin findet sich die formularbasierte Organisation des Arbeitsablaufes wieder) für technisch-wissenschaftliche Aufgaben und COBOL für kommerzielle Anwendungen.
Eine Programmiersprache fasst maschinenbezogene Daten- und Steuerungssequenzen zu zwar exakt definierten, aber für Menschen leichter les- und schreibbaren Gruppen zusammen. Der damit erstellte Source-Code wird in einem automatisierten Prozess mittels eigener Programme (Compiler, Interpreter) in maschinenbezogene 0/1-Sequenzen umgewandelt.
Damit wurde folgende Arbeitsteilung erreicht: Einige wenige Spezialisten mit genauer Maschinen-Kenntnis erstellen für jede spezifische Maschine das Übersetzungs-Programm, den Compiler. Eine weitere, relativ kleine Gruppe von Hardware-Spezialisten erstellt eine Reihe von Programmen, die standardisierte, für alle Problemkreise benötigte Grundfunktionen zur Verfügung stellen, das Betriebssystem. Der Großteil der MaschinenanwenderInnen kann mit verallgemeinerten Kenntnissen in einer der Programiersprachen Ablauf- und Datensequenzen erstellen. Damit löst sich das Programm von der konkreten Maschine, Problemlösungen können unabhängig von einer speziellen Hardware, aber trotzdem automatisch verarbeitbar erstellt werden. Ein weiterer Rationaliserungseffekt ergibt sich durch die Zusammenfassung von Steuerungssequenzen in Befehlsgruppen und deren Darstellung als Pseudo-Sprache. Um keine Missverständnisse aufkommen zu lassen: diese „Sprachen“ sind keineswegs Sprachen im herkömmlichen Sinn, sondern viel mehr im Sinne einer exakt definierten, mathematischen Formelsprache.
Die Entwicklung von Betriebssystem, Compiler und Programmiersprachen war, verbunden mit den Verbesserungen der Hardware, der entscheidende Schritt für den Computer-Einsatz in Verwaltungs-, Produktions- und Dienstleistungsbereichen.14
Um Tätigkeiten mittels EDV automatisieren zu können, müssen zunächst die Funktionen, Methoden und Abläufe in möglichst kleine, standardisierte Teilschritte zergliedert werden. Hier erfolgt der Schritt der Enteignung des Arbeitswissen. Diese Teilschritte werden systematisch erfasst und in automatisierbare Anteile und solche, die weiterhin menschliche Arbeitskraft (die so genannte Benutzer-Schnittstelle) benötigen, gruppiert.
Die einzelnen Teilschritte werden vielfältigen Standardisierungen und Normierungen unterworfen, um einerseits auf bereits vorhandene bausteinartige Programmstrukturen zurückgreifen zu können und andrerseits untereinander verknüpfbar und kombinierbar zu sein.
In der Arbeitsteilung innerhalb der Softwareerstellung übernimmt dies die Systemanalyse. Dieses Konzept die Software-Architektur wird in einer weiteren Arbeitsteilung an die ProgrammiererInnen weitergereicht, die auf dieser Grundlage das Programmsystem erstellen. Der Vorgang des Programmierens, derzeit (2005) noch relativ arbeitsintensiv, ist dabei durch die Vorgabe, alles in einer automatisch verarbeitbaren Programmier“sprache“ umsetzen zu müssen, weitgehend standardisiert und damit in latenter Gefahr, durch die Entwicklung und den Einsatz so genannter CASE-Tools (Computer Aided Software Engeneering) wegrationalisiert zu werden.
Ist das Programmsystem dann im Einsatz, müssen die sich ihm unterworfenen ArbeiterInnen, so sie nicht wegrationalisiert wurden, exakt an die in den Programmen festgelegten Ablaufschemata halten, damit die Maschine das tut, was beabsichtigt war. Wie alle Maschinen zwingt das Arbeitsmittel Computer der ProduzentIn die Arbeitsweise auf.
Computerprogramme waren zunächst auf konkrete, individuelle Problemlösungen einzelner Betriebe zugeschnitten und wurden kosten- und zeitintensiv von eigenen Programmierabteilungen erstellt. Im Laufe der Computerentwicklung entstanden Standardprogramme, z.B. für Datenbanken, Fertigungsteuerung, Buchhaltung- und Lohnverrechnung, die zusammen mit der Verbilligung der Hardware die Vorraussetzung für die rasche Ausbreitung der Computer-Verwendung in kleinen und mittleren Betrieben im Laufe der 70er und 80er Jahre des 20. Jahrhunderts. Wurden ursprünglich die Anwendungsprogramme „gratis“ an die Käufer der Hardware mitgeliefert die Kosten wurden unter den Hardware-Kosten subsumiert so entstanden ab diesem Zeitpunkt die Softwarefirmen,
Technische Grundlagen
Bit, Byte und Bool
Ein Computer hat keinerlei „Denkvermögen“, nicht das kleinste. Jeder Arbeitsvorgang muss von Menschen auf eine eingeschränkte Algorithmusfähigkeit reduziert und eingegeben werden.
Daten können prinzipiell nur in Form von bits verarbeitet werden. Ein bit ist im Prinzip ein Zustand eines Schalters: eingeschalten: 1, ausgeschalten: 0. Durch die Kombination von mehreren Schaltern können deren Zustände als gesamtes aufgefasst werden. So ergeben 8 kombinierte Schalter 256 verschiedene Aus-Ein-Möglichkeiten, d.h. eine Kombination von 8 Schaltern (ein Byte) kann z.B. eine Zahl von 0 bis 255 darstellen. Alle Daten, die in Computern verarbeitet werden, müssen auf diese, binär oder digital genannte 0-1-Form zurückgeführt werden die „Kunst“ der Zerlegung in einfache Einzelteile in ihrer extremsten Form.
Verarbeitet werden diese bits mit einem Rechenwerk, das diese Daten-Schalter ein- und ausschaltet. Auch hier passiert nichts besonders undurchschaubares oder „geistiges“. Ein Rechenwerk ist ebenfalls nichts anderes als eine Ansammlung von Ein-Aus-Schaltern, die so kombiniert sind, dass als Ergebnis die Daten-Schalter einen neuen Zustand haben, d.h. anders geschaltet sind. Eine Art von Rechenwerk kann z.B. die Bit-Reihe 0110 nach links verschieben, d.h. zu 1100. Damit wurde 6 mit 2 multipliziert (Schieberegister). Komplexere Operationen werden durch die Aneinanderreihung von solch einfachen Rechenwerken realisiert.
Daten können miteinander verglichen werden, und zwar, ob sie gleich, kleiner, größer sind. Bits können mit so genannten logischen Verknüpfungen kombiniert werden, mit AND / OR / NOT. Das Ergebnis eines Vergleichs oder einer Verknüpfung ist entweder Ja oder Nein. Sie kann einen Sprung veranlassen, d.h. die Abarbeitung der Aneinanderreihung wird an einer anderen Stelle fortgesetzt. Das Steuerwerk schaltet je nach Zustand des Ergebnisses der logischen Verknüpfung einen Programmzähler, auf den das Rechenwerk zugreift, um den nächsten Befehl zu schalten. Diese Verarbeitungsanweisungen, das Programm oder die Software, liegen ebenfalls in digitaler Form vor und können daher als Daten gespeichert werden.
Mehr können die Dinger nicht: Daten in Form von 0/1 speichern, Sequenzen von einfachen Operationen mit diesen Daten durchführen, aufgrund eines Datenvergleichs an eine andere Stelle der Operations-Sequenz springen. Das allerdings mit Milliarden von 0/1-Daten, d.h. Schaltungszuständen und Milliarden einfacher Operationen pro Sekunde, die diese Schaltungszustände ändern und aufgrund dieser Änderung Sprünge in der Abfolge der Operationen durchführen.
Um mittels der „reinen bit-verarbeitenden Maschine“, die der Computer ist, automatisch bearbeitbar zu werden, muss alles, was bearbeitet werden soll, auf digitale Daten reduziert werden. Wird auf der Tastatur eine Taste gedrückt, z.B. A, so wird dieser mechanische Vorgang durch den Tastaturprozessor in die Bit-Folge 1000001 umgewandelt und an den Prozessor weitergeleitet. Trifft es dort auf keine passende Operationssequenz, etwa ein Textverarbeitungsprogramm, so passiert überhaupt nichts. Diese „passenden“ Operationssequenzen befinden sich nämlich nicht von selbst in der Maschine, sondern werden in mühseliger Kleinarbeit erstellt (programmiert) und, verbreitet über digitale Speichermedien, in der einzelnen Maschine als Programm-Daten abgelegt. Die BenutzerIn der Maschine lädt dieses Programm, bevor etwas sinnvolles mit der Maschine getan werden kann, in den Prozessor und den Hauptspeicher. Auch wenn es so scheint, als würde die Maschine Musik, Bilder, Filme etc. bearbeiten, so bedarf jedoch immer der Umwandlung der Daten mittels geeigneter Eingabegeräte, die diese Daten digital codieren, und geeigneter Ausgabegeräte, die die digitalen Daten wieder in nicht-digitaler Form ausgeben.
Was den Computer zur „Universalmaschine“ macht, ist die Anpassung sämtlicher anderer Maschinen an die digitale Logik.
Halbleiter
Elektro-mechanische Schalter begrenzten die Menge an Schaltungen und die Schaltgeschwindigkeit, mit der Operationen durchgeführt werden können. Sie brauchen viel Energie und haben einen hohen Platzbedarf. Dieser Engpass in der Computerentwicklung wurde erst durch die Entdeckung von Halbleitern beseitigt.
Ein Halbleiter ist ein Material, das, je nachdem, ob ihm eine gewisse Menge Energie zugeführt wird oder nicht, Strom leitet oder isoliert. Diese Eigenschaft ermöglichte die Entwicklung von elektronischen Schaltern auf Halbleiterbasis, den Transistoren. Das am meisten verwendete Halbleitermaterial ist Silizium, das zweithäufigste Element, das auf der Erde vorkommt. Ein Transistor hat drei Verbindungen zur Außenwelt: einen für den Steuerstromeingang, einen Laststromeingang und einen Laststromausgang. Je nachdem, ob am Steuerstromeingang eine Spannung anliegt, wird der Strom am Laststromeingang zum Ausgang weitergeleitet oder nicht. Dabei finden keinerlei mechanische Vorgänge statt, das Halbleitermaterial ändert lediglich sein Verhalten gegenüber dem Laststrom, mal leitet es, mal isoliert es. Es gibt noch eine Reihe weiterer Halbleiter, etwa Selen, das mit Lichtzufuhr Strom-leitend wird.
Die Elektronen in Festkörpern wechselwirken über sehr viele Atomabstände hinweg miteinander. Dabei ergeben sich Energiebänder, das sind Bereiche rund um den Atomkern, die dichter mit Elektronen besetzt sind, und Bänder, die weniger dicht besetzt sind. Zwischen den Bändern bestehen Energiebereiche, in der nach der Quantenmechanik keine erlaubten Zustände existieren, die Energie- oder Bandlücke. Solche Lücken können die Elektronen nicht besetzen. Unbesetzte Bänder können mangels beweglicher Ladungsträger keinen elektrischen Strom leiten. In voll besetzten Bändern weisen die Ladungsträger ebenfalls keine Beweglichkeit auf, da sie mangels erreichbarer freier Zustände keine Energie aufnehmen können. Nur in teilbesetzten Bändern treten Elektronen mit einer hohen Beweglichkeit auf, wie es bei Metallen der Fall ist.15
Dieser Effekt ist die Grundlage, dass ein Halbleiter mal leitet, mal isoliert: wenn dem Halbleiter Energie zugeführt wird, besetzen Elektronen die Bandlücken damit kann hier Strom fließen. Wird der Energiezufluss gestoppt, ergibt sich wieder eine Bandlücke, und es kann kein Strom mehr fließen.
Bei der Halbleitertechnik werden also Eigenschaften von Materialien genutzt, deren Wirkung nur auf atomarer, subatomarer bzw. quantenmechanischer Ebene erklärbar ist. Die physikalischen Gesetze, die in diesen Bereichen wirken, unterscheiden sich stark von den Gesetzen, die auf der „grobstofflichen“, mechanischen Ebene wirken. Oder, anders gesagt, die physikalischen Gesetze der „grobstofflichen“, mechanischen Ebene, mit denen wir tagtäglich konfrontiert sind, etwa das Fallgesetz oder das Hebelgesetz, sind „Sonderfälle“ der Gesetze auf atomarer, subatomarer bzw. quantenmechanischer Ebene.
Ohne entsprechende Werkzeuge sind die Vorgänge auf atomarer und subatomarer Ebene weder sichtbar noch greifbar. Für die Idealisten bietet das ein willkommenes Einfallstor für ihre Geister: sehr kleine Objekte oder technische, die ihren Wirkungszusammenhang nicht sinnlich wahrnehmbar zeigen, erklären sie zu „Gegenständen an der Schwelle der Immaterialität“.16
Raum, Zeit und Materie
Ein ähnliche Debatte wurde bereits vor 100 Jahren geführt: Der Streit „Äther“ versus dem „Nichts“. Die Materialisten vertraten die Auffassung, alles, was nicht mit Atomen gefüllt sei, wäre der „Äther“, einer Stufe der Materie unterhalb der Atome, die den ganzen Raum erfüllt. Die Idealisten vertraten die Ansicht, dort wäre das „Nichts“, die „immaterielle Welt“.
Einstein durchbrach die Debatte 1905 mit einer Theorie, die man später „spezielle Relativitätstheorie“ genannt hat. Sie bedeutete eine wesentliche Veränderung der bisherigen Auffassung von Materie, Energie und leerem Raum. Eigenschaften der entwickelten Materie, wie ihre Ausdehnung, die Dauer ihrer Bewegungen und die Masse, hängen von ihrer Geschwindigkeit ab. Masse und Energie können identisch werden und sind gegenseitig umwandelbar. Materie mit Ruhemasse (z. B. Elektronen) kann in bewegte Materie ohne Ruhemasse (Licht) umgewandelt werden. Im Jahre 1916 publizierte Einstein zusammen mit Kollegen die Verallgemeinerung der speziellen Relativitätstheorie auf „nicht gleichförmige Bewegungen“. Bei diesen treten Trägheitskräfte auf. Woher aber kommen diese Kräfte? Dafür muss es eine materielle Ursache im Raum geben. Einstein setzte diese Kräfte bei Bewegungsänderungen mit der Schwerkraft gleich: Beide Formen der Gravitation sind Ausdrücke eines einheitlichen materiellen Erregungszustands der „kontinuierlichen Materie“ im gesamten Raum, welcher sowohl von den Massen als auch von den Bewegungen abhängt. „Die Raum-Zeit hat keine eigene Existenz als etwas Eigenständiges, sondern nur als eine strukturelle Eigenschaft von Feldern (...) einen leeren Raum, d. h. einen Raum ohne Feld gibt es nicht“. (5) 17
Materie ist alles, was die Raum-Zeit verändert. Raum-Zeit sind die Verhältnisse zwischen Masse, Energie und deren Bewegungsformen Ausdehnung und Anziehung in der Zeit. Materie kann also so beschaffen sein, dass sie weder sichtbar noch anfassbar, sondern nur wissenschaftlich-technisch unseren Sinnen zugänglich ist. Der Begriff des Materiellen muss von der Bindung an das, was unseren Sinnen unmittelbar zugänglich ist, gelöst werden. Er erweitert sich auch im Physikalischen hinein in subatomare Dimensionen.
Hier kann also der Geist in der Maschine nicht sein. Ein paar tausend elektromechanische Schalter kein Geist. Ein paar Millionen elektronische Schalter, aber gleiche Funktionalität Geist ist da. Bei aller Strapazierung des Kippens der Quantität in Qualität stellen wir mal fest: so kommen wir an den Geist der immateriellen Informationsgesellschaft nicht ran.
Die Auswirkungen auf den Arbeitsprozess
Die Computer-Maschinerie automatisiert die Kopfarbeit, also die Arbeits-Teile der Planung, Koordination und Kontrolle des Produktionsprozesses. Es soll daher im Folgenden versucht werden, den materiellen Grundlagen von geistiger Tätigkeit nachzugehen.
Denken und Materie
Die Fähigkeit des Gehirns, die Außenwelt in Empfindungen, Vorstellungen und Begriffen widerzuspiegeln, ist eine erstaunliche Tatsache. Dies liefert den Idealisten auch den Vorwand, dem Bewusstsein eine Ausnahmestellung vor allen anderen Erscheinungen in der Realität einzuräumen, es zu „Vergeistigen“, indem sie ihm eine übernatürliche, nichtmaterielle Kraft zuschreiben. Es ist aber gar nichts übernatürliches, immaterielles am Bewusstsein. Das Bewusstsein entsteht durch die Tätigkeit des Gehirns, und dieses ist nichts anderes als eine spezielle Formation von Materie. Allerdings eine Materieformation, die eine lange Entwicklungsgeschichte hinter sich hat, und deren Funktion viele bislang ungeklärte Vorgänge beinhaltet.
Die gesamte Raum-Zeit, die Materie, ist in beständiger Wechselwirkung miteinander, in ständiger Bewegung und Veränderung. Die einzelnen Objekte der Materie wirken aufeinander ein. In der einfachsten Form reagiert das eine Materie-Objekt auf die Einwirkung des anderen Materie-Objekts, wobei eine Veränderung der Eigenschaften des Objekts auftreten kann.
Mit dem Auftreten der Eiweißkörper, einer komplexeren Formation von Materie-Objekten, entstand eine neue, für diese charakteristische Form der Wechselwirkung die Empfindlichkeit. Das Eiweiß verfügt über eine starke Plastizität und reagiert sehr stark auf Einwirkungen anderer Materie-Objekte seiner Umgebung, seines Milieus. Manche Einwirkungen führen zu einer starken Veränderung der physikalischen und chemischen Eigenschaften des Eiweißes, zu Strukturveränderungen, die zu den neuen Umweltbedingungen entweder besser passen oder zur „Denaturierung“, zur Zerstörung des Eiweißkörpers führen. Die Entwicklung der uns bekannten Lebensformen führte Schritt für Schritt zu einer Differenzierung und Spezialisierung der Reaktion auf Einwirkungen der Umwelt. Dabei entstand die Fähigkeit oder die Eigenschaft der organischen Materie, auf äußere Einwirkungen mit einer Beschleunigung bzw. Verlangsamung des Stoffwechsels, mit einer Veränderung der Wachstumsgeschwindigkeit, mit räumlicher Ortsveränderung und dergleichen mehr zu reagieren, wodurch Organismen entstanden, die sich der Umwelt anpassen. Um es kurz zu machen: diese Entwicklung führte im Verlaufe einiger hundert Millionen Jahre zu einer speziellen Formation von Materie-Objekten, die wir Mensch nennen.
Zum Denkvorgang. Spezielle Zellen nehmen Umweltreize auf (sog. Rezeptoren; im Auge, Haut, Nase etc.) und leiten sie über andere Zellen, die Nervenbahnen, ins Gehirn weiter. Das Auge zum Beispiel ist auf die Wahrnehmung von Licht spezialisiert, es reproduziert auf der Netzhaut die einfallenden Lichtbündel. Durch die darauf erfolgende Weiterleitung über die Nervenbahnen ins Gehirn entsteht eine Erregung der entsprechenden Gehirnzellen, die optische Empfindung, ein dem betrachteten Gegenstand analoges Bild. Mit Veränderung von Gehirnzellen durch jeden Empfindungsvorgang entsteht ein Erinnerungseffekt. Durch die Verbindung der Signale verschiedener Rezeptoren und durch den Erinnerungseffekt entsteht ein „Bündel“ von Empfindungen aus Gegenwart und Vergangenheit über den bestreffenden Gegenstand, die dessen verschiedene Eigenschaften im Gehirn widerspiegeln, ein primäres Abbild des konkreten Gegenstandes im Gehirn.
Dass diese primären Wahrnehmungen die Außenwelt objektiv, d.h. der Wirklichkeit entsprechend, sind, ergibt sich aus dem Praxistest: würde z.B. das Auge nicht die reale Außenwelt wiedergeben, würden wir permanent irgendwo dagegen rennen. Diese primären Wahrnehmungen geben allerdings nur die Seiten der Wirklichkeit wieder, für die wir Rezeptoren haben.
Die primäre Wahrnehmung erfolgt subjektiv, jedes Einzelwesen nimmt die Wahrnehmungen für sich auf. Da aber die Menschen keine Einzelwesen sind, ergab sich die Notwendigkeit, diese Abbilder anderen mitzuteilen. Es entstand die Sprache und die Notwendigkeit, vom konkreten Abbild eines Gegenstandes zu abstrahieren. Gleiche und ähnliche primäre Abbilder von konkreten Gegenständen werden dabei durch die Gehirntätigkeit zu einem Begriff zusammengefasst. Es entsteht ein sekundäres Abbild der Wirklichkeit im Gehirn.
Der Austausch dieser sekundären Abbilder, der Begriffe, mittels der Sprache löst die Begriffsbildung von der sinnlichen Wahrnehmung des einzelnen Menschen. Die Begriffsbildung wird ein kollektiver Prozess, der die konkreten Wahrnehmungen vieler Einzelsubjekte summiert und kombiniert. Die Wahrnehmungsfähigkeit erhält eine neue Qualität.
Die Bildung von Begriffen sowie die Gehirntätigkeit in Bezug auf sekundäre Abbilder der Außenwelt wird als Denken bezeichnet, der Austausch dieser Abbilder mit anderen als Sprache bzw. Kommunikation, der Erinnerungseffekt bezüglich der sekundären Abbilder als Wissen.
Die Gehirntätigkeit ist materiell, die Wechselwirkungsform einer speziellen Materieformation. Auch die Begriffe lösen sich nicht von der Materie: sie existieren einerseits ausschließlich als Gehirntätigkeit, andererseits ausschließlich als sekundäre Abbilder der Widerspiegelung der Wirklichkeit im Gehirn. Auch weitere Abstraktionsstufen, also die Bildung von Begriffen über Begriffe, Theoriebildung etc. ändern nichts an der Sache.
Dem gegenüber steht die Vorstellung, dass eine formlose, aber formbare Materie da ist, der die formende Instanz, der menschliche Geist, „immateriell“ gegenübersteht. Diese Vorstellung ist so alt wie der Idealismus selbst. Aristoteles Beispiel vom Töpfer und seinem Lehm ist die 2300 Jahre alte Variante davon und entspricht dem Handwerkerdenken der damaligen Produktionsweise, der Sklavenhaltergesellschaft.18
“Immaterielle“ Arbeit?
Eine moderne Variante dieses Idealismus findet sich in „Die neue Weltwirtschaft“ (1993), von Robert Reich, dem früheren Arbeitsminister von Clinton. Auf seine Definition von immaterieller oder entmaterialisierter Arbeit beziehen sich die meisten Ideologien des Immaterialismus, ua. Hardt/Negri in Empire, weshalb auf seine Darstellungen näher eingegangen werden soll. Laut Reich seien die wichtigsten Tätigkeitsfelder der Zukunft19:
Symbolanalytische Dienste: „‚Symbolanalytiker lösen, identifizieren und vermitteln Probleme, indem sie Symbole manipulieren.‘ Die Werkzeuge ihrer Manipulationen sind ihr Wissen und ihre Erfahrungen, sind mathematische Algorithmen, juristische Argumente, Finanztricks, wissenschaftliche Regeln, psychologische Kenntnisse, Induktions- und Deduktionsgefüge oder sonstige Techniken des Umgangs mit Begriffen und Symbolen. Rifkin nennt sie auch die ‚Wissensarbeiter‘. Reich zählt einige typische Berufe auf: Forscher, PR-Manager, Anwälte, Baulanderschließer, Ingenieure für Design, Berater für Management, Finanzen und Steuern, Spezialisten für Information, Führungskräfte für betriebliche Entwicklung, strategische Planung, Personalvermittlung und Kostenanalysen, Werbemanager, Journalisten und andere Medienspezialisten, Universitätsprofessoren. Reich schätzt, dass 1990 ca. 20% der amerikanischen Erwerbstätigen Symbolanalytiker waren. Die Arbeit dieser Berufsgruppen ist im umfassenden Sinne immaterielle Arbeit. Sie wird, wie die Produktionsdienste, weltweit vermarktet, aber nicht zu Niedrigstlöhnen, sondern zu Höchstpreisen. Symbolanalytiker verdienten 1989 mehr als die übrigen vier Fünftel der Bevölkerung zusammen.“20
Bei dieser Definition fällt zunächst der fehlende Klassenstandpunkt auf. Bunt zusammengewürfelt verrichten Kapitalbesitzer und Kapitalverschieber, Verkäufer und Käufer der Ware Arbeitskraft ihre „Wissens“Arbeit. Tätigkeiten für Planung und Kontrolle, Überbauproduktion und kapitalistische Konkurrenz werden alles eins. Der Frage der „Immaterialität“ soll an dieser Stelle nicht weiter nachgegangen werden.
„Routinemäßige Produktionsdienste: ‚Die Fußsoldaten der Informationswirtschaft sind Horden von Datenbankverarbeitern, die ‚in Hinterzimmernan weltweit mit Datenbanken verbundenen Computer-Terminals sitzen, Daten eingeben und sich ausgeben lassen.‘ Der Arbeitsgegenstand der ListenschreiberInnen ist immateriell, ihre Arbeit monoton und das Tempo wiederum von Computern kontrolliert, ähnlich der früheren Fließbandarbeit in der Produktion.“21
In der folgenden Darstellung soll es vor allem um die Tätigkeiten und Arbeitsverhältnisse dieser „FußsoldatInnen“ gehen.
Computer in der industriellen Produktion
In der industriellen Produktion lassen sich im Wesentlichen drei Arten von Prozessen unterscheiden: die Energieerzeugung und verteilung (Energietechnik), die Verfahrenstechnik und die Erzeugung von Stückgütern (Fertigungstechnik). Beispiele für einen energietechnischen Prozess ist die Stromerzeugung in einem Kraftwerk, für einen verfahrenstechnischen Prozess die Raffinierung von Erdöl oder die Roheisenerzeugung im Hochofen und für einen Fertigungsprozess die Herstellung von Autos (Fließfertigung), von Werkzeugmaschinen (Werkstattfertigung) oder von Schiffen (Baustellenfertigung).
Diese Unterscheidung ist für die Art und Organisation der dafür notwendigen Arbeit wichtig.
Bei energie- und verfahrenstechnischen Prozessen, die meist in geschlossenen oder untereinander verbundenen Behältern (Turbinen, Wärmetauscher, Öfen, Reaktoren etc) ablaufen, besteht die menschliche Arbeit im Wesentlichen in überwachenden und steuernden Eingriffen. Eine direkte Veränderung des Produkts durch den Menschen gibt es dabei meist nicht. Das bedeutet, dass diese Produktionsprozesse in ihrer industriellen Form im Wesentlichen menschliche Kopfarbeit erfordern. Dagegen bedarf es bei Fertigungsprozessen unter Einsatz von Maschinen einer Vielzahl von koordinierter Handarbeit an einzelnen Arbeitsplätzen.
Die Prozesse der Energie- und Stoffumwandlung bedürfen, um den Prozessablauf sicherzustellen, Einrichtungen für die Anzeige von Größen des Prozesses (z.B. Druck, Temperatur) nach außen sowie für den Eingriff von außen in den Prozess (z.B. Veränderung des Durchflusses, Regelung der Temperatur). Dabei sind zumeist mehrere Größen gleichzeitig zu erfassen und zu steuern, was entsprechend viele Arbeitskräfte erfordert.
Je größer und leistungsfähiger die Anlage, desto mehr zu regelnde und überwachende Größen der Aufwand für Überwachung, Koordination und Dokumentation erhöht sich und damit die Zahl der dafür benötigten, meist hoch qualifizierten ArbeiterInnen.
Die erste Phase der Rationalisierung dieses Produktionsbereichs bestand wie immer in der Teilung der Arbeit.
Der Arbeitsvorgang wurde in gleichartige Überwachungs- und Steuerungsvorgänge zerlegt und diese wurden örtlich zusammengefasst, so dass eine ArbeiterIn z.B. mehrere Druckanzeigen verschiedener Prozesse gleichzeitig überwachen und steuern kann. Der einzelne Arbeitsvorgang wurde durch rigide Betriebsvorschriften vereinheitlicht. Der Verlust des Gesamtüberblicks über einen Prozess wurde durch Einrichtung von Leitzentralen ausgeglichen. Damit war der Gesamtprozess strukturiert und es lag nahe, verschiedene Überwachungs- und Steuerungsvorgänge zu automatisieren. Zunächst wurden dafür herkömmliche Computersysteme eingesetzt, die sich jedoch als zu schwerfällig und zu langsam für die meist sehr schnell ablaufenden Prozessvorgänge herausstellten. Die zumeist analogen Prozess-Daten mussten zuerst in digitaler Form in den Computer eingegeben werden, der Computer berechnete dann die Anweisungen zur Prozessbeeinflussung, die wieder von Hand in die entsprechenden Geräte eingegeben werden mussten.
Um diese Mängel zu beseitigen, wurden eigens angepasste EDV-Systeme entwickelt, so genannte Prozessrechner, die folgende Eigenschaften aufweisen: die Messdaten werden über Messgeräte über Analog-Digitalwandler in digitale Daten umgewandelt und direkt in die EDV eingespeist. Diese Prozessdaten werden mit den entsprechenden Programmen in „Echtzeit“ verarbeitet. Die Ergebnisse sind Stellbefehle, die über digital steuerbare Regler auf den Prozess einwirken.22
„Im Buna-Werk der C.W. Hüls AG, das im Jahre 1958 mit einem Aufwand von 120 Millionen Mark fertig gestellt wurde, regulieren 2.000 automatische Messstellen die Jahresproduktion von 85.000 Tonnen Kunst-Kautschuk. Eine fertig montierte Messstelle kostet 2.800 Mark. Jede von ihnen ersetzt eine ArbeiterIn. Im Nervenzentrum des Konzerns führt ein Elektronengehirn pro Minute 834.000 Rechenoperationen aus. Dank der Automation sparte Hüls zehntausend Arbeitskräfte ein.“ (Spiegel 14/1964)23.
Die Erzeugung von Stückgütern ist wesentlich komplexer. In der Konstruktion muss die geometrische Gestalt des Stückgutes in sämtlichen Details geplant und festgehalten werden. Die Fertigungsplanung legt die technologischen Verfahren mit vielen Einzelangaben fest. In der Fertigungssteuerung erfolgt die Festlegung der zeitlichen Abfolge, die Zerlegung in einzelne Arbeitsvorgänge zur Fertigung der Einzelteile und Baugruppen des Stückgutes. Meist ist nach jedem Arbeitsgang eine Zwischenlagerung erforderlich. Die Bearbeitung der Teile erfolgt mit unterschiedlichsten Werkzeugen und Werkzeugmaschinen und erfolgt meist automatisch. Die Bestückung der Maschinen mit Material, der Transport der einzelnen Teile zum nächsten Fertigungsprozess und die Montage der Einzelteile erfordert viel manuelle Arbeitskraft.
Der Planungsprozess ist vom Produktionsprozess vollkommen abgetrennt und in Konstruktions- und Fertigungsvorbereitungsabteilungen konzentriert. Die Arbeit in diesen Abteilungen ist selbst stark arbeitsteilig organisiert und in einzelne, routinemäßig zu erledigende Arbeitsschritte zerlegt.
Der Einsatz von Maschinen in den entsprechenden Abteilungen für Kopfarbeit ging von den forcierten Nachkriegsrüstungsbestrebungen der USA in den 40er Jahren des 20. Jahrhunderts aus. Vor allem im Flugzeugbau stellten sich besondere Probleme ein, die sich aus der verkürzten Lebensdauer der Rüstungsgüter und den stark gewachsenen Anforderungen an Aerodynamik ergaben. Es mussten komplizierte räumlich gekrümmte Flächen hergestellt werden, die mit den herkömmlichen Kopierfräsmaschinen nur sehr zeitraubend herzustellen waren. Zur Reduzierung der Herstellungszeit und um von den erforderlichen handwerklichen Fähigkeiten der hoch spezialisierten ArbeiterIn unabhängig zu werden, wurde eine Steuerung der Bewegungsabläufe von Fräsmaschinen entwickelt. Zunächst wurde auf die Steuerungslogik des Jacquard-Webstuhles zurückgegriffen und die erforderlichen Daten in Form von Lochstreifen eingegeben, was allerdings lediglich bewirkte, das sich die zeitaufwändige Handarbeit auf zeitaufwändige Kopfarbeit zur Herstellung dieser Lochstreifen verlagerte.
Die Entwicklung von automatischen Steuersystemen im Werkzeugmaschinenbau begann 1946/47 als Ausreifung der Leitungstechnologie für Maschinenwaffen. General Electric (nachdem diese Firma ihre größte Streikwelle durchgemacht hatte), Gisholt und andere kleine Firmen realisierten das „record-playback“-System. Dabei wurden die Bewegungen einer ArbeiterIn bei der Bearbeitung eines Werkstückes auf Magnetband aufgezeichnet. Das Band konnte fortan die sich immer wiederholenden Bewegungen eines Manipulators steuern. Am Anfang stand jedoch die menschliche Vorgabe.
Kurz danach begann in der Hubschrauberfabrik Parsons die Entwicklung eines mittels gelochtem Streifband numerisch gesteuerten Systems. Dieses Verfahren, Numerical Control oder NC genannt, wurde von der amerikanischen Air Force gekauft und dem MIT24zur Weiterentwicklung anvertraut. 1955 existierte nur eine einzige NC-Werkzeugmaschine zu Experimentierzwecken beim MIT. In jenem Jahr beschloss die Luftwaffe die Finanzierung von ungefähr 100 solcher Maschinen, die auf Staatskosten in den Werkhallen der auftragsbegehrenden Unternehmer aufgestellt wurden. Die Entwicklungskosten für das NC-System betrugen 65 Millionen Dollar, bevor eine einzige Schraube produziert wurde. 1956 gelang es dem MIT, eine allgemein übertragbare Software APT (Automatically Programmed Tools) zu erstellen, die aus diesem Typ Werkzeugmaschine einen Vielzweckmanipulator machte. Der von der Luftwaffe durchgesetzte Zwang, die Erteilung von Regierungsaufträgen mit der Einführung der APT zu koppeln, forcierte die Normierung in der Maschinenbauindustrie.
Die Einführung der Numerical Control-Steuerung bewirkte folgende Änderungen im Produktionsprozess: das Fertigungsverfahren wird im Programmierer-Büro und nicht nach Maßgabe einer FacharbeiterIn entwickelt; die über Lochstreifen numerisch gesteuerte Maschine löst das Problem der Zeitermittlung und -durchführung, indem die Zeitvorgabe durch die Durchlaufzeit des Lochstreifens festgelegt wird.25
Die Fertigungsmethode der numerischen Steuerung hatte weitreichende Folgen. Konnten bisher Fertigungsprozesse für Stückguterzeugung nur mit starren mechanischen oder elektromechanischen Mitteln (Getriebe, Kurvenschneider, Schalter etc.) automatisiert werden, was sich nur bei entsprechend hohen Stückzahlen lohnt, so brachte die NC den Anfang der Automatisierung für kleine und mittlere Fertigungsserien.26
Mit dem breiten Einsatz dieser Maschinen in den 60er Jahren des 20. Jahrhunderts änderte sich die Arbeitsstruktur in der Werkstatt-Fertigung wesentlich. Bis dahin waren die MaschinenbedienerInnen zumeist FacharbeiterInnen, die aufgrund von Zeichnung und Arbeitsplan sowie aufgrund ihrer Erfahrung die notwendige Steuerung der Werkzeugmaschine (Drehzahl, Vorschub, Schnitttiefe etc.) innehatten. Dieses Arbeitswissen konnte jetzt abgetrennt und in die Abteilung für Arbeitsvorbereitung verlagert werden. Das produktive Wissen tritt somit der MaschinenbedienerIn im Lochstreifen vergegenständlicht gegenüber, die Kontrolle über die Arbeit ist ihr weitgehend entzogen. Was an Tätigkeiten bleibt, ist das Auf- und Abspannen der Werkstücke, die Überwachung des Maschinenablaufs und die Prüfung der Zusammengehörigkeit von Lochstreifen, Werkstücken und Werkzeugen.
Ab den 70er Jahren baute man Mikroprozessoren in die NC-Maschinen ein. Diese CNC (computerized NC)-Maschinen werden nicht mehr über den Programmträger Lochstreifen gesteuert, sondern nach den im Chip eingespeicherten Anweisungen. Über einen Bildschirm ist der Zugriff oder die Programmänderung unmittelbar am Automaten möglich; auch die direkte Erstellung eines Erstprogramms über Record-Playback ist vorgesehen.
Der Rationalisierungseffekt war enorm und führte lediglich durch die boomende Nachkriegskonjunktur und der damit verbundenen quantitativen Ausweitung nicht zu einer Massenarbeitslosigkeit bei der Facharbeit.
Die NC-Maschinen haben z.B. im Maschinenbausektor der BRD zwischen 1970 und 1980 Jahren und noch vor dem Einbruch des CNC-Systems 400.000 garantierte Arbeitsplätze trotz steigender Produktion vernichtet, es verblieben anfangs der 80er Jahre 1,03 Millionen Beschäftigte. Die Branche stellt meistens kleine und mittlere Stückserien her, und sie war eine der Bastionen von ArbeiterInnenfachwissen und Berufsethos. Die CNC-Technologie war dagegen eine sehr geeignete Waffe: die frühen NC-System entlasteten die ArbeiterInnen von repetitiven Handhabungen, machte ihn aber unentbehrlich als Träger von Wissen und Können. Die Algorithmisierung und Verdatung der Steuerung der späteren NC-Systeme verlagerte die Verfügungsgewalt von den Werkhallen in die Manager-Etage. Somit hörten die Vorgabezeiten auf, Anlass zum Handeln und zum Streit mit den ArbeiterInnen zu sein.28
Die Fortentwicklung des CNC-Systems war das „flexible Fertigungssystem“. EDV wurde bisher dahin außer bei Werkzeugmaschinen auch zur automatischen Lagerhaltung und in Form von Industrierobotern eingesetzt. Schließt man eine Reihe (bis hundert) von CNC-Maschinen mit einer Transferstraße zur Werkstückbeförderung zusammen, verbindet man Transport- und Bearbeitungssystem mit Positionierungs- und Entnahmeautomaten, so entsteht eine beinahe vollautomatisierte Fertigung, die flexible Werkstatt. Regie führt ein zentraler Rechner, der das Materialflusssystem steuert und die Qualitäts-Endkontrolle ausführt. Die traditionellen Berufssparten des Maschinenbaus sind dabei auf der Strecke geblieben. Dies geschah, nachdem oftmals über Humanisierungsprogramme das Können der FacharbeiterInnen in ein numerisches Verfahren verwandelt wurde. Eine neue Generation von IngenieurInnen und WartungsarbeiterInnen zum Teil innerbetrieblich ausgebildet trat jetzt hervor. Um die Maschinen- und Förderungssysteme verbleiben relativ beliebig austauschbare ArbeiterInnen: untätige Aufpasser und Maschinenbediener, die in zwei Wochen eingearbeitet werden, Ausrichter von Einzelteilen (Automaten haben ziemlich viele Schwierigkeiten mit ungeordneten Materialmengen), Bestücker der Anfangsposition des Systems.29
Flexibilität bedeutet, dass in der automatisierten Werkstatt eine Umstellung auf neue Produktionsmuster leicht zu bewerkstelligen ist. Damit erhöht sich die Systemeinsetzbarkeit bis zur Klein- und Einzelstückfertigung. Die Normalisierung der Betriebsprogramme und die Angleichung von Verfahren und Organisationsmustern ersparen den kleinen Betrieben die Entwicklungskosten, machen zugleich das System attraktiver, aber ketten die kleinen Unternehmen an den Systementwickler.30
Diese Abhängigkeit verläuft nicht mehr über eine Produktabnahme bei Zulieferern, sondern über die Verträglichkeit der Systeme innerhalb der aus Klitschen, Heimarbeitern, flexiblen Werkstätten und zentraler Montagefabrik bestehenden Produktlinie. So bildet sich Kapitalkommando nicht nur über den Markt, sondern auch in Gestalt des technologischen Imperativs aus. Es nimmt nicht wunder, dass Siemens zwischen 1976 und 1982 ungefähr 500 Millionen Mark ausgegeben hat, um im Bereich des Maschinenbaus eine Norm zu entwickeln und durchzusetzen. Anfang der 80er Jahre waren 6 bis 10 flexible Fertigungssysteme in der BRD im Einsatz.31
Die Verlagerung der Kontrolle sei am Beispiel einer Fabrik von General Elektric bei Lynn (Massachusetts) erläutert. Dort ist den ArbeiterInnen verboten, laufende Prozessprogramme einzusehen oder selber eigene zu erstellen. Diese ehemaligen FacharbeiterInnen stehen vor blockierten Programmiertasten, die CNC-Werkzeugmaschinen werden automatisch vom eingebauten Mikroprozessor geführt. Die Fertigungsprogramme bleiben in der Manager-Etage unter Verschluss. Dafür spricht, sagt die Betriebsleitung, die Notwendigkeit, Einstufung und Entlohnung der MitarbeiterInnen nicht durcheinander zu bringen. 6 CNC-Maschinen samt Computer machen in einer ähnlichen Fabrik von Ingersoll-Rand in Roanoke 30 FacharbeiterInnen pro Schicht überflüssig. Die Automaten werden bei erhöhter Leistung von drei Angelernten und einem Aufseher bedient. Hier werden unregelmäßige Arbeiten von technischen Auftragsfirmen oder Jobberkolonnen erledigt. Und eine ähnliche Arbeitsdisposition ist tendenziell die Folge der computergestützten Fertigung.32
Entwicklung und Planung
Ein Schelm, wer denkt, die Planungs-Abteilungen wären genügend rationalisiert gewesen. Durch die Verringerung der Arbeitszeit in der manuellen Produktion verschob sich das Verhältnis von Fertigung zu Planung. Bei Kleinserienfertigung beanspruchte der Aufwand für Konstruktion und Fertigungsplanung 70% der Durchlaufzeit eines Auftrags. Dort gab es allerlei SpezialistInnen mit Wissen über Materialbeschaffenheit und Fertigungsabläufe, technisches Zeichnen, Erstellen von Stücklisten und benötigte Rohmaterialien. Der bewährte Kreislauf von Formalisierung, Standardisierung und Arbeitsteilung schuf die Grundvoraussetzungen für Computer Aided Design (CAD). Mit den Methoden und Verfahren des rechnergestützten Konstruierens wurden folgende Tätigkeiten weitgehend rationalisiert: technisches Zeichnen, Stücklistenerstellung, Wissen über Materialeigenschaften, Materialbeschaffung und Berechnung von Varianten einer Konstruktion. 70% der Zeichner, Konstrukteure und Fertigungsplaner wurden dequalifiziert33.
CAD wurde in den 50er Jahren in Zusammenarbeit von General Motors und IBM entwickelt, dabei flossen die in der amerikanischen Luftfahrtindustrie erprobten Simulationsverfahren ein. Anfangs zum Entwurf der Karosserien eingesetzt, entwickelte es das Massachusetts Institute of Technology (MIT) in den 60er Jahren zu einem System der Gesamtplanung und Abwicklungskontrolle für das Bauingenieurswesen: das ICES (Integrated Civil Engineering System).34
CAD ist eine Kombination von Bildschirm, digitalem Zeichenbrett und Computer, der die Umwandlung von Konstruktionsdaten in technisch geprüfte und formalisierte Fertigungsanweisungen ausführt. Mit Hilfe eines Lichtgriffels oder einer Maus und eines Bildschirms lässt sich beim CAD ein Modell direkt auf dem Schirm skizzieren oder anhand von gespeicherten Vorlagen zusammenbauen. Über den Rechner wird dann die noch grobe Skizze in eine präzise technische Zeichnung mit zusätzlichen Materialspezifizierungen umgewandelt. Dabei entstehen eine Reihe Daten geometrische Konturen wie auch Anweisungen über Maschinenschnittiefe und geschwindigkeit die eine gemeinsame Grundlage der Entwicklungs- und Fertigungsprozesse bilden. Zusätzlich können die Bereitstellung der Produktionsmittel, die Bestimmung der Fertigungsabläufe und die Festlegung der Qualitätskontrollen mit eingeplant werden.35
Zum Planungssystem wird das CAD mit Hilfe der Simulation. Sie fing harmlos an, indem bei der technischen Analyse (Material, Belastung usw.) an einem Bildschirmterminal in Dialogform mit einer EDV-Anlage die Reaktionen eines Bauteils auf Belastung getestet und simuliert wurden. Der Computer lieferte das Bild eines entsprechenden belasteten Bauteils. Die Ausreifung dieser Methode lieferte die Software für die Produktionsablaufsimulation. Dabei geht das Programm vom Liefertermin rückwärts aus, errechnet die Fertigungs- und Planungsschritte, bezieht die Rüst- und Wartezeiten der Maschinen ein, berücksichtigt Zulieferer- und Transportfristen. Dann können sämtliche Produktionsfaktoren als veränderliche durchgespielt werden. 36
Ein so gebautes Planungssystem liefert im Voraus Übersichtspläne für das Management, es liefert in Echtzeit Kontrollbestandsaufnahmen der Ausführung, listet und individualisiert Unplanmäßigkeiten.37
Computer in der Verwaltung
Was ist eigentlich „Büroarbeit“? Die Grundoperationen von Büroarbeit lassen sich Einteilen in das Formulieren, Schreiben und Korrigieren von Texten, zusammengefasst als Textverarbeitung. Dabei müssen im wesentlichen Gedanken formuliert, d.h. Folgen von Wörtern in lesbarer Form in einem bestimmten Zusammenhang auf ein Medium aufgebracht werden.
Eine zweite Gruppe von Tätigkeiten, die Datenverarbeitung, besteht aus Rechnen, Suchen und Sortieren von Daten. Dabei werden Aufgaben in einer bestimmten Verarbeitungsreihenfolge gelöst. Zur Lösung der Aufgaben braucht es zwei Voraussetzungen: die Daten müssen vorhanden sein oder eingegeben werden, und es muss die Verarbeitungsreihenfolge festgelegt sein. Im Bereich der kommerziellen Büroarbeit fallen zwar zahlenmäßig umfangreiche Daten an, sie sind jedoch im Vergleich zu den Daten aus dem Produktionsbereich relativ einfach strukturiert. Meist geht es auch nur um eine einzige Messgröße Geld. Die übrigen Werte sind Worte, beispielsweise Kundendaten, beschreibende Merkmale von Waren und dergleichen. Der Arbeitsprozess gliedert sich, vereinfacht dargestellt, in folgende Arbeitsschritte: Eingang der Belege registrieren, Belege auf formale Richtigkeit überprüfen, Verteilung auf die zuständigen SachbearbeiterInnen, Sachbearbeitung. Die Ergebnisse der Verarbeitung, sowohl Texte als auch Daten müssen irgendwo abgelegt bzw. aus dieser Ablage wieder hervorgeholt werden.
Die Grundlage der beginnenden Arbeitsteilung in der Kopfarbeit waren Formblätter, bei denen „nur die Zahlen (Eingangswerte) eingesetzt werden, und der Ablauf der Rechnungen, die sich in der Regel aus den Grundrechnungsarten zusammensetzen, ergeben sich aus dem Aufbau der Formulare gewissermaßen von selbst, möglichst so, dass nebeneinander stehende Zahlen zu multiplizieren, untereinander stehende zu addieren und Festwerte (Formelkonstante) gleich an den richtigen Stellen vorgedruckt stehen“38. Das Formular ist einerseits Träger der zu erfassenden oder zu verarbeitenden Daten, andrerseits ist in dessen Aufteilung bereits die Verarbeitungsvorschrift festgelegt.
Dabei sind diese Tätigkeiten soweit in Einzelschritte zerlegt, dass ein einzelner Angestellten nur eine beschränkte Anzahl von Grundoperationen in immer wiederkehrender Folge durchführen muss. „Die Arbeit wird zwar im Kopf geleistet, doch wird das Gehirn so eingesetzt wie bei der FabrikarbeiterIn die Hand: es ergreift immer wieder einzelne Daten und lässt sie los. Der nächste Schritt ist die Beseitigung des gedanklichen Vorgangs, soweit dies überhaupt bei menschlicher Arbeit möglich ist. Damit entstehen Angestelltenkategorien, die nichts anderes als manuelle Arbeit leisten“:39
Spätestens zu diesem Zeitpunkt des Fortschreitens der Arbeitsteilung in der Kopfarbeit wird der Begriff Kopfarbeit selbst absurd. Die Denktätigkeit ist ebenso reduziert wie bei der „Handarbeit“. Die beiden Bereiche unterscheiden sich lediglich darin, dass die einen in der Abteilung für Planung oder Verwaltung, die andren in der Produktionsabteilung arbeiten, die einen als Werkstück Zahlen oder Worte in Schriftform bearbeiten, die andren Werkstücke in Form von festen, flüssigen oder gasförmigen Stoffen. Beiden ist die planerische Tätigkeit aus dem Arbeitsprozess genommen.
Die Automatisierung der Büroarbeit
Bis ca. 1900 wurden Briefe und Rechnungen von Hand geschrieben. Die meist männlichen Arbeiter, Kontoristen genannt, hatten vielfältige Aufgaben zu verrichten. Den Arbeitsplatz bildete das Stehpult mit abgeschrägter Schreibfläche, das oft Rücken an Rücken mit einem zweiten Pult platziert wurde. Wichtigster Datenträger war zu dieser Zeit das Kontorbuch, ein kiloschweres und meterbreites Journal, das auf jeder Seite Hunderte von Einträgen aufnahm. Es enthielt neben Lohnzahlungen, Ausgaben und Einnahmen Verweise auf die entsprechende Korrespondenz. Aus diesem Hauptjournal ließ sich der gesamte Geschäftsgang der Firma erschließen. Aus Inspektionsgründen mussten alle Transaktionen auf nummerierten Seiten in chronologischer Reihenfolge festgehalten werden; eine Loseblattablage war nur für Quittungen und Bestellungen erlaubt. Da aber auch Lagerbestände und Verkäufe in gebundenen Warenbüchern und Lagerbüchern festgehalten wurden und die in der Kopierpresse erstellten Briefkopien mit Nadel und Faden zu Büchern gebunden wurden, mussten vergleichende Rückschlüsse auf den eigentlichen Geschäftsgang aus mehreren Datenträgern zusammengestellt werden. Gerade den Grossbetrieben der Maschinenbranche mit ihren komplizierten und unterschiedlichen Produkten fällt es um die Jahrhundertwende äußerst schwer, ihre Produktionskosten auch nur einigermaßen präzise zu bestimmen.40
Ab 1900 fand die erste Welle von Umgestaltungen der Büroarbeit statt. Die Arbeit des Kontoristen wurde in verschiedene Arbeitstätigkeiten zerlegt. Es entstanden die Tätigkeiten der Sachbearbeiter und Bürovorstände, die Routinearbeiten wie Briefeschreiben oder das Führen von Büchern und Karteien wurden an die ihm unterstellten Hilfskräfte zunächst zum größten Teil noch Männer delegiert. Der Arbeitsplatz wurde neu strukturiert. Die Anordnung der Stehpulte begünstigte die gegenseitige Kontrolle; zentrale Anlaufstellen sind Telefonsäule und Aktenablage. Der in dieser Zeit erfundene Aktenordner vereinfachte und rationalisierte die Aktenhaltung. Schreibmaschine, Diktiergerät und elektrische Beleuchtung erzeugten einen Effizienzschub bei der Korrespondenz; Briefdiktat und -verschriftlichung wurden zu zwei voneinander unabhängigen Arbeitsschritten.
In den folgenden Jahren wird die einstige Verwaltung, in der alle alles ausführten, immer weiter in Abteilungen aufgegliedert; Hierarchien gewinnen an Bedeutung. Der Buchhaltung, der Korrespondenz, der Auslieferung oder dem Lagerwesen steht jetzt je ein Fachmann vor, der seinen Befehlsempfängern die Arbeit zuweist und gleichzeitig auch über Äußerlichkeiten wacht: über Benehmen, Kleidung oder Ausdrucksweise. Der Büroschreibtisch löst das Stehpult ab; die zwei stämmigen Schubladensockel nehmen Aktenstapel auf, später Hängeregistraturen.41Immer mehr Frauen arbeiten in der Verwaltung, im Laufe der 20er und 30er Jahre sind die Mehrzahl der ArbeiterInnen im Bürobereich Frauen.
Die sichtbaren Teile der Büroarbeit, so wie Texterfassung und Aktenablage, wurden ab den 50er Jahren mehr und mehr abgetrennt. In den 50er Jahren war das auch die Trennung zwischen denen, die verschiedenste mechanisierte Tätigkeiten unter Zuhilfenahme verschiedenster Maschinen wie Schreibmaschine, Diktafonen, und Telefonen, und denen, die keinerlei Maschinerie für ihre Arbeit verwendeten. Die unsichtbaren Anteile und Aufgaben wie Termineinteilung, die Pförtner-Arbeit, die Arbeitseinteilung für die Chefs, und die Arbeit, die die gesamte Büroorganisation am Laufen halten, hatten der Automatisierung zunächst widerstanden. Die, deren Arbeit Routinearbeit war, wurden in das Backoffice auch räumlich ausgelagert, und waren den Blicken derer, die die Büros besuchten, verborgen. In diesen Bereich gab es eine Vielzahl von Maschinen: die Kopiermaschinen, Buchungsautomaten, Kartenlocher, Schreibmaschinen, etc. Die Trennung der Tätigkeiten machte sich auch am Lohnzettel bemerkbar. Verdiente eine Büroarbeiterin um 1920 fast das doppelte einer Fabrikarbeiterin, so war in den 60er und 70er Jahren das Lohnverhältnis 1:1 für die Arbeiterinnen in den Routine-Bereichen der Büroarbeit.42
Bürocomputer
Das erste US-Unternehmen, das begann, Computer für Verwaltungsaufgaben einzusetzen, war General Electric, das 1954 seine Lohnbuchhaltung mithilfe einer UNIVAC I automatisierte. Das Lohnbuchhaltungsprogramm lief einmal wöchentlich für zwei Stunden und errechnete die Gehälter für 12.000 Beschäftigte sowie die Belastung der entsprechenden Buchhaltungskonten. Die erforderlichen Daten wurden über Lochkarten eingegeben, die Ausgabe erfolgte auf Magnetband, das dann zum Druck der Lohnschecks und der notwendigen Berichte benutzt wurde.43
Bei den Banken war die Scheckverbuchung die „Einsteigeranwendung“.Hier setzte 1955 das System ERMA Maßstäbe. Die Entwicklung von ERMA war ein Kooperationsprojekt der Bank of America und des Stanford Research Institute. Das System automatisierte die Buchhaltungsaufgaben, die bei der Verwaltung von 50.000 Girokonten anfielen. Als Eingabemedium dienten die Schecks. Auf den Scheckformularen wurden mit einem speziellen Schreibgerät Kontonummer und Betrag mit magnetischer Tinte aufgedruckt. Der Scheck wurde dann in das ERMA-System eingelesen. ERMA hatte für jedes Konto die Kontonummer und den aktuellen Kontostand als Datensatz gespeichert. Bei Eingabe eines Schecks wurde der entsprechende Datensatz geprüft und entweder der Betrag vom Kontostand abgezogen und der Datensatz aktualisiert oder die Annahme des Schecks wurde verweigert. Die Transaktion wurde auf Magnetband festgehalten, von dem einmal monatlich die Kontoauszüge gedruckt wurden. Der eigentliche Datenverarbeitungsvorgang bestand also aus wenigen und einfachen Operationen. Das größte Problem stellte die Entwicklung und Konstruktion der Eingabegeräte für die Schecks dar, für die ein neues Verfahren der Zeichenerkennung durch magnetische Tinte entwickelt werden musste.44
Auch bei den Fluglinien wurden sehr früh Computer eingesetzt. Den Anfang machten 1956 die Fluglinien Capital, Eastern und Northwest mit dem Einsatz einer UNIVAC für ihr gemeinsames Reservierungssystem. Hier gaben die TicketverkäuferInnen in den verschiedenen Niederlassungen Bestellungen oder Stornierungen von Flügen an speziellen Eingabegeräten ein. Die Daten des gewünschten Fluges und der Anzahl der bestellten Plätze wurden über Telefonleitungen an die UNIVAC übermittelt. Der Rechner überprüfte die Verfügbarkeit der Plätze anhand der Bestandslisten der Flüge, die in einem Trommelspeicher gespeichert wurden, brachte diese auf den neusten Stand und meldete die Antwortdaten an das Eingabegerät zurück. Dieses zeigte über spezielle Dias den TicketverkäuferInnen Bestätigung oder Ablehnung der Bestellung an, welcher dann manuell das Flugticket ausstellte.
Die Technik für Online- und Realtime-Datenverarbeitung war im Zusammenhang mit der Entwicklung der Luftverteidigungssysteme Whirlwind und SAGE Mitte der fünfziger Jahre entwickelt worden. Die Daten der Radarstationen sollten bei diesen Systemen ohne Zeitverzögerung auf dem Bildschirm, einem neuen Ausgabegerät, das für SAGE entwickelt worden war, angezeigt werden, um eine schnelle Reaktion auf einen potentiellen Luftangriff möglich zu machen.45
IBM, das die Hardware für SAGE entwickelt hatte, konnte die dabei gewonnenen Erfahrungen bald für den Bau des ersten zivilen Online-Systems SABRE verwenden. SABRE, das 1962 in Betrieb ging, war das Reservierungssystem der American Airlines. Bei den Vorläufern von SABRE waren nur die Bestandslisten der Flüge automatisch überprüft und aktualisiert worden, während beispielsweise die Personendaten des Fluggastes manuell verwaltet werden mussten. Bei SABRE wurden sämtliche für die Flugreservierung relevanten Daten im System gespeichert und waren an 1.100 landesweit verteilten Terminals per Online-Zugriff jederzeit abrufbar. Ähnlich wie das Lohnbuchhaltungssystem von General Electric oder ERMA galt SABRE in seiner Zeit als richtungweisend für die Weiterentwicklung der kommerziellen Computeranwendungen in Richtung Online-Verarbeitung. Als Vorteil von Online-Systemen galt, dass im Gegensatz zu Batchsystemen Daten jederzeit eingegeben und abgerufen werden konnten und jede Änderung der Datenbasis sofort zur Verfügung stand. Dafür waren aber Online-Systeme auch wesentlich komplexer als Batchsysteme und der Entwicklungsaufwand war erheblich höher.46
Die meisten Computersysteme dieser Zeit wurden für die Lohnbuchhaltung eingesetzt. Bis auf das erwähnte Reservierungssystem der Fluglinien waren die ersten Anwendungen alle Batchprogramme, die einige einfache arithmetische Operationen (wie zusammenzählen von gearbeiteten Stunden, multiplizieren mit dem Stundenlohn, abziehen der Steuern etc.) auf einem großen Datenbestand ausführten. Ziel der Verarbeitung war es weniger, Informationen bereitzustellen, sondern ein bestimmtes Produkt, einen Lohnscheck oder einen Kontoauszug zu erzeugen. Das Personal der Fachabteilungen, das die Ausgaben der Programme nutzte, hatte zum Computer keinen direkten Kontakt. Spezielles DV-Personal bildete die Schnittstelle zwischen Computer und NutzerInnen. Oft lief auf einem Computer nur eine einzelne Anwendung.Da die Hardwarekomponenten, insbesondere die Elektronenröhren, sehr fehleranfällig waren, bereitete die geringe Zuverlässigkeit der Computer einige Schwierigkeiten.47
Im Laufe der sechziger Jahre begann die Verbreitung des Computers in den US-Unternehmen im großen Stil. 1960 waren in den USA 6.000 Computer in Betrieb, acht Jahre später 67.000. 1958 betrugen die Ausgaben für Computer-Hardware 250 Mio. Dollar, 1963 waren sie auf 1,5 Mrd. Dollar angestiegen und erreichten 1968 schließlich eine Höhe von 4,5 Mrd. Dollar.Der Großteil dieser Umsätze wurde mit Computern für den kommerziellen Einsatz getätigt.48
Ab Anfang der sechziger Jahre stand mit dem Transistor eine stabile Technologie zur Verfügung, die wesentlich billiger, zuverlässiger, sparsamer im Energieverbrauch und Platz sparender war als die Elektronenröhre. Der erfolgreichste kommerzielle Rechner der „2. Generation“ war die IBM 1401 mit 15.000 verkauften Exemplaren. Durch die Marktfähigkeit der integrierten Schaltkreise, die ab 1965 in kommerziellen Computern eingesetzt wurden, verbesserte sich das Preis-Leistungsverhältnis sprunghaft. Der Preis für die Verarbeitung von einer Million Anweisungen fiel von 40 Dollar im Jahre 1955 auf 2 Dollar im Jahre 1961 und 1965 auf 0,4 Dollar.Dadurch wurden leistungsfähige Computer, die in den fünfziger Jahren noch das Privileg der Großunternehmen waren, nun auch für kleinere und mittlere Unternehmen erschwinglich.49
IBM brachte 1965 die Rechnerfamilie S/360 auf den Markt, die die Verbreitung und relative Verbilligung von Computern weiter beschleunigte. Mit der S/360 realisierte IBM eine ganze Reihe von neuen Konzepten: die S/360 Rechner arbeiteten als erste mit integrierten Schaltkreisen; sie eignete sich sowohl für kaufmännische als auch für wissenschaftliche Anwendungen. Ein umfangreiches Betriebssystem, das OS/360, erleichterte Anwendung und Programmierung. Die zentrale Neuerung aber war das Konzept der Kompatibilität: Maschinen dieses Typs gab es in verschiedenen Größen und zu verschiedenen Preisen, aber mit einheitlicher Arbeitsweise. Programme und Peripheriegeräte, die auf einem Rechner der S/360 Serie einsetzbar waren, funktionierten auch auf allen anderen Modellen dieser Serie. Dadurch konnten Anwender auf einen größeren Rechner des Typs S/360 umsteigen, ohne die Programme neu schreiben und die Peripherie neu kaufen zu müssen.50Dieses Prinzip der Modul-Bauweise übertrug IBM 25 Jahre später auf Micro-Computer und verhalf dem so genannten „Personal Computer“, dem PC, damit zum Durchbruch.
1969 waren Lohnbuchhaltungsprogramme, Buchführungsprogramme und Programme zur Lagerhaltung die mit Abstand am weitesten verbreiteten Computeranwendungen in den US-amerikanischen Unternehmen. Die Funktionsweise dieser Systeme unterschied sich nicht grundsätzlich von den frühen Anwendungen der fünfziger Jahre. Ihr Charakter war im Gegensatz zur eingesetzten Hardware seit der Einführung des Computers in den Unternehmen erstaunlich stabil geblieben.51
Die Anwendungssysteme automatisierten größtenteils bestehende Arbeitsabläufe, die bereits hochgradig formalisiert und mechanisiert waren. Es war die Rede vom „Electronic Clerk“, vom elektronischen Angestellten.
Die Verwaltungsangestellten in den Abteilungen, in denen der Computer eingesetzt wurde, waren verunsichert. War der Computer für die Geschäftsleitung der elektronische Angestellte, der mithalf, Lohnkosten einzusparen, wurde er von den Büroangestellten als der elektronische Konkurrent gesehen, der ihre Arbeitsplätze vernichtete.52
Bei den BüroarbeiterInnen und auch beim mittleren Management der Fachabteilungen wuchs der Unwillen gegen die Einführung neuer Computeranwendungen.
Der Computer sollte neben der Effektivierung bereits mechanisierter Arbeitsgänge auch Arbeiten automatisieren können, die der Mechanisierung bisher völlig verschlossen geblieben waren. Als Schlüssel galt die Möglichkeit, innerhalb von Programmen abhängig von Prüfkriterien in unterschiedliche Operationsfolgen zu verzweigen, ein Potential, das mit der menschlichen Fähigkeit, Entscheidungen zu treffen, gleichgesetzt wurde. Damit sollte der Computer durch „Problem Solving“-Anwendungen das mittlere Management ersetzen. Die Äußerung eines Unternehmensleiters ist für dieses Vorhaben charakteristisch: „Die Hauptaufgabe des mittleren Managements besteht im Treffen von Betriebsentscheidungen, in denen die politischen Entscheidungen des Top-Managements impliziert sind. In vielen Betriebsbereichen kann der Computer diese Entscheidungen zeitgerechter, genauer und sicherlich mit größerer Konsistenz treffen, als der Mensch es vermag.“53
Äußerungen wie diese wurden von den Angehörigen des mittleren Managements als direkter Angriff auf ihre berufliche Existenz gesehen. Auch die Tatsache, dass sie Entscheidungen oft aufgrund ihrer Erfahrung und ihres Fingerspitzengefühls ohne systematische Grundlage fällen mussten, wurde von den VertreterInnen des „Problem Solving“-Ansatzes bestritten. Die fehlende systematische Entscheidungsgrundlage wurde nun auf ihre unsystematische Arbeitsweise zurückgeführt, und darauf, dass die Entscheidungen einfach nicht gründlich überdacht wurden.
So hatte das mittlere Management wenig Anlass, begeistert über die Einführung von Computern in den Unternehmen zu sein. Skepsis und Ablehnung der unteren Führungsebenen gegenüber dem Computer fanden breite Beachtung. Ein Beitrag in einer Management-Zeitschrift schilderte die Situation in den Unternehmen sehr plastisch: „Tatsache ist, dass hinter den verschlossenen Türen der Wirtschaftswelt eine stille, nichtsdestoweniger aber heftige Fehde ausgetragen wird. Es ist nicht übertrieben zu sagen, dass das heutige Mittel-Management oft unter erheblichen Spannungen und Sorgen steht und dass es mit nahezu jedem zur Verfügung stehenden Mittel versucht, manchmal sogar durch Sabotage, das weitere Vordringen des elektronischen Neulings kurzzuschließen.“54
Das Problem gewann für die Unternehmensleitungen dadurch an Brisanz, dass das mittlere Management durchaus in der Lage war, die Einführung von neuen Computeranwendungen empfindlich zu stören. Die Angehörigen des mittleren Managements verfügten über detaillierte Kenntnisse über die Organisation der Arbeitsabläufe, die benötigten Daten und die Informationsflüsse und damit genau über das Organisationswissen, das benötigt wurde, um Computeranwendungen zu entwickeln. Ohne eine Kooperation des mittleren Managements ließen sich also nur schwer die richtigen Anwendungen entwickeln. Typisch für diese Problem ist die Klage eines EDV-Managers: „Man kann die besten Computer der Welt kaufen, wenn die Manager aber, die sie benutzen sollen, diese Computer nicht wollen, so muss das ganze System versagen, ohne dass man recht weiß, warum.“55
In den 70erJahren sah die Arbeit in den Büros zunächst gleich aus wie in den 60er Jahren. Aber unter der Oberfläche tat sich eine Menge. Die Arbeit wurde mehr und mehr in einzelne Stücke zerteilt. ähnlich wie in der Taylor-Fabrik der 20erJahre, und damit mehr und mehr manualisiert. Die Büros der 70er waren so organisiert, dass entlang der Fensterfront die Büroräume der Chefs, des höheren und des mittleren Managements lagen und in der Mitte ein riesiges, fensterloses Großraumbüro für die Sekretärinnen und die anderen BüroarbeiterInnen. In den Büros der Manager war das Telefon meist der einzige technische Ausrüstungsgegenstand. Im Großraumbüro standen reihenförmig angeordnet die meist L-förmigen Schreibtische der BüroarbeiterInnen, die mit Schreibmaschine, Diktiergerät und Telefon bestückt waren.
Das Management pushte eine weitere Trennung der Arbeit in abgesonderte Schreib-Pools. Diese Abteilungen befanden sich räumlich entweder im Keller oder sonst an einem Ort, an dem kein Publikums-Verkehr stattfand. Die Tätigkeit der Arbeiterinnen in diesen Pools bestand darin, die „hinuntergeschickten“ Arbeit, etwa Tonbänder oder handschriftliche Vorlagen abzutippen und wieder „hinauf“ zu schicken. Zuerst konnte sich das mittlere Management mit dieser Arbeitseinteilung nicht anfreunden und bestand auf dem Schema: ein Chef ein Sekretärin. Aber die Berater beharrten darauf, dass die neue Form der Organisation viel effizienter sei. Die räumliche Trennung führte jedoch sehr oft zu schlechterer Arbeit. Die SchreibarbeiterInnen tippten genau das, was in Diktaphon gesagt wurde, inklusive aller Räusperer und Verlegenheitslauten, ab. Es konnte ja nicht rückgefragt werden, was tatsächlich gemeint war.56
Netzwerke
In den 70ern waren in den verschiedensten Bereichen, sowohl in den Werkhallen als auch in den Planungs- und Verwaltungsabteilungen eine Vielzahl von EDV-Systemen eingeführt worden. Die Systeme passten jedoch nicht zueinander, obwohl alle Daten digitalisiert vorlagen. Jeder Hersteller benutzte seine eigenen Datenformate. Die Datenträger waren entweder Lochkarten oder Magnetbänder und platten, damit anfällig für Beschädigungen während des Transports. Die Daten, die dabei benötigt werden, mussten mühsam zwischen den einzelnen Systemen mit hohem Arbeitsaufwand transportiert und angepasst werden, oft durch die Arbeitsvorgänge: Daten des einen Systems (z.B. Fertigungsdaten) ausdrucken, in die Verwaltungs-EDV erneut manuell eingeben. Die einzelnen Systeme mussten vernetzt, der Datentransport mit wesentlich reduzierter Arbeitskraft bewerkstelligt und beschleunigt werden.
Zu diesem Zeitpunkt waren Computer immer noch relativ teuer. Es gab kaum ein kleineres bis mittleres Unternehmen, das mehr als einen Computer hatte, bei den großen Unternehmen gab es nicht mehr als einen pro Unternehmensabteilung. 1976 kostete ein mittelgroßer Computer, ein so genannter Mainframe, ca. 360.000 US$ nur für die Hardware, wobei die Entwicklung der zugehörigen Programme meist ein Mehrfaches der Hardwarekosten ausmachte. An diesen Zentralcomputern waren die einzelnen Arbeitsplätze über die altgediente Kombination aus Lochkartenstanzer auf der Eingabeseite durch die DatenverarbeiterInnen und Lochkartenleser am Mainframe mit dem hochbezahlten Operator angeschlossen. Dies begann sich mit der Einführung so genannter Terminals, die direkt mit dem Mainframe verdrahtet waren, zu ändern. Der manuelle Transport von der Eingabestelle zur Verarbeitungsstelle entfiel, mehrere BenuterInnen konnten die teure zentrale Maschine gleichzeitig nutzen. Die Tätigkeit des Büroboten, die innerhalb der Firmen mit dem Transport der Daten beschäftigt waren, wurden wegrationalisiert.
In den 70ern wurden auch die ersten Textverarbeitungssysteme eingeführt. Diese Computer waren ebenfalls isolierte Maschinen. Sie rationalisierten zwar erhebliche Teile der Schreibarbeit über die Möglichkeit, Texte bereits vor dem Ausdruck zu korrigieren und mittels Textbausteinen die Tipparbeit zu verringern, hatten jedoch keinerlei Verbindung mit den Mainframes.
Um diese Mängel auszugleichen, entstanden eine Vielzahl von Netzen und Kommunikationsstrukturen.
Bereits in den 60ern wurden für den Datenaustausch zwischen großen Rechnern (Universitäten, Betriebe, Ämtern etc.) spezielle Netze mit hohen Übertragungskapazitäten installiert. Durch militärische Förderungsgelder in den USA finanziert, entstanden die ersten Grundlagen eines universell nutzbaren Netzes, welches mittels Standardisierung der Datenübertragung (TCP/IP) den Datenaustausch zwischen Computern verschiedener Hersteller und über verschiedene Trägermedien ermöglichte. Damit konnten vorhandene Kommunikationsstrukturen wie das breitflächig vorhandene Telefonnetz, Funk- und Satelittenverbindungen genutzt werden.
Parallel dazu erfolgte in den 80ern die allgemeine Digitalisierung der Übertragung auf den Telefonleitungen, wozu die Sprache in digitale Informationen zerlegt und übermittelt wird. Die Übermittlung von Sprache, Text und Bild wurde damit vereinheitlicht und integriert und der Computersteuerung unterworfen. Ein Ergebnis war das „Integrated Service Digital Network“ (ISDN), das auf den bisherigen Telefonleitungen beruht.
Da diese Leitungen die Übertragung bewegter Bilder (Videoüberwachung, Fern-Sehen als Bestandteil dezentralisierter Arbeitsformen) und großer Datenmengen damals nicht leisten konnten, wurde mit der Glasfaser-Verkabelung begonnen und in Europa meist mit staatlichen Geldern ein Glasfasernetz aufgebaut.
Durch die laufende Integration bestehender Netze etwa das SWIFT zum Austausch von Daten zwischen Banken, diverse Buchungsnetze von Fluggesellschaften entstand das „Netz der Netze“, das heutige Internet.
Die Vernetzung erhielt ab den 80ern einen weiteren Schub: Durch die Verbilligung und Miniaturisierung in der Computer-Produktion sanken die Kosten für die Computernutzung auf einen Bruchteil. Die ersten Personal-Computer kamen auf den Markt, deren Anschaffungskosten betrugen anfänglich etwa zwei bis drei durchschnittliche FacharbeiterInnen-Monatslöhne, mittlerweile (2005) 25% eines Monatslohnes. Zunächst als universelle Büromaschine als Ersatz der Textverarbeitungssysteme und der Terminals zur Verbindung mit den Zentralcomputern verbreitet, drang der PC, als Consumer-Gerät vermarktet, mehr und mehr in die „private“ Sphäre ein. Es erfolgte die unmittelbare Einbindung der Individuen in den informationstechnologischen Gesamtzusammenhang der Gesellschaft. Als massenhafte Technologie der Unterordnung des individuellen Verhaltens unter die Maschinerie wurde der PC das „Endgerät“ für den Anschluss an das Netz, der sämtliche Funktionen von der Schreibmaschine bis zum Fernseher integriert.
Eine Folge der Netze war die Zerschlagung der Massenarbeit im Verwaltungsbereich. Die Taylorisierung und Mechanisierung der Arbeit in diesem empfindlichen Bereich hatte für das Kapital zu einer bedrohlichen Homogenisierung dieser entqualifizierten Massenarbeit geführt, und damit den Spaltungseffekt zwischen Hand- und Kopfarbeit verringert. Erst über eine Strategie der Dezentralisierung der Arbeit konnte die abgelaufene Entprofessionalisierung in Verbilligung der Arbeitskraft übersetzbar werden.57
Zusammenfassung
Die Automatisierung des Denkens verlief in mehreren Phasen: zunächst die Trennung in Hand- und Kopfarbeit, die die Grundlage der industriellen Revolution des 19. Jahrhunderts ist. Die handwerkliche Arbeit, in der ausführende und planende Tätigkeit einen zusammengehörigen Arbeitsprozess bilden, wird zerteilt. Die ausführenden Tätigkeiten werden einer Reihe von Umformungen unterworfen, Teile des Produktionswissens wandern in die Maschinerie, andere Teile in die abgetrennten Bereiche für die Kopfarbeit.
Im Laufe des 20. Jahrhunderts wird die Kopfarbeit ihrerseits immer wieder aufs Neue dem gleichen Mechanismus unterworfen: Zersplitterung der Denkarbeit in Anteile von ausführender und planender Tätigkeit, Reorganisierung der ausführenden Tätigkeit, bis sie so weit manualisiert ist, dass sie entweder durch Maschinen oder durch weniger qualifizierte ArbeiterInnen durchgeführt werden kann.
Aber auch die Arbeitsteilung in der verbleibenden Handarbeit wird ständig aufs Neue reorganisiert. Mit der „Verwissenschaftlichung“ des Fließbandes erhält die Arbeitsteilung in den 20erJahren einen weiteren Schub. Ab den 60erJahren werden die Maschinen, die zur Rationalisierung der Kopfarbeit entwickelt wurden, verstärkt in den Abteilungen für Handarbeit eingesetzt. Die Fabriken und Werkstätten werden erneut umstrukturiert.
Die Maschinen ersetzten zwar einerseits die bestehenden Tätigkeiten und dequalifizieren das bisherige Produktionswissen, doch mit steigender Komplexität des Arbeitsprozesses wird neues Produktionswissen notwendig, entstehen neue Qualifikationen, ohne die der Produktionsprozess nicht läuft.
Die Digitalisierung und Elektronisierung der Maschinen führt zu einem Maschinentyp, dessen Funktionsweise weder sicht- noch tastbar ist.
Die Teilung der Arbeit führt zu Verlust des Überblicks über den Produktionsprozess. Kopfarbeit scheint abgetrennt zu sein, sich zu verselbständigen, Selbstzweck zu sein, die Handarbeit aus den Augen, aus dem Sinn zu verschwinden.
Die Folge: neue Ideologien über Immaterialität entstehen auf verschiedensten Ebenen. Ruhemasselose Materie wie Licht, elektrischer Strom und Magnetismus werden nicht mehr als Materie wahrgenommen. Die Verwandlung des dicken schweren Kontorbuches in Energiequanten stiftet Verwirrung.
Mit der vorliegenden Geschichtsaufarbeitung ist hoffentlich klar geworden, dass die „immateriellen“ ListenschreiberInnen, das „Fußvolk“ der „Wissensgesellschaft“, bis in die 70erJahre nicht nur mit einem massiv greif- und sichtbaren Maschinenpark mit hohem manuellem Arbeitsanteil arbeiteten, sondern auch der Arbeitsgegenstand Milliarden von Lochkarten und Lochstreifen waren, deren Transport und Lagerung ebenfalls einen massiv greif- und sichtbaren manuellen Arbeitsanteil erforderte. Durch die Elektronisierung dieser sicht- und greifbaren Arbeitsgegenstände in nicht sichtbare und nicht greifbare elektromagnetische Ladungszustände änderte sich an der Materialität des Arbeitsgegenstandes gar nichts das einzige, was sich veränderte, war die massive Verwirrung im Erkenntnisprozess der bürgerlichen Intellektuellen.
Der vorliegende erste Teil der Textsammlung zur Neugestaltung des Produktionsprozesses endet historisch in den 70er-Jahren. Der zweite Teil wird die Entwicklung ab den 80ern mit der flächendeckenden Einführung des Personal Computer als Konsumgut und ab den 90ern die Zusammenführung aller Kommunikationsnetze in Form des Internet behandeln.
Quellen
[Haug] Zur Frage der Im/Materialität digitaler Produkte; W. F. Haug, in Argument 30.12.2002
[Rifkin 2000]. Access, Das Verschwinden des Eigentums; Jeremy Rifkin, 2000
[PK] Der programmierte Kopf. Eine Sozialgeschichte der Datenverarbeitung; Peter Brödner, Detlef Krüger, Bernd Senf; 1981
[Möller] Immaterielle Arbeit die neue Dominante in der Wertschöpfungskette; Carola Möller, 2005; www.labournet.de/diskussion/arbeit/moeller.html
[Aut13] Autonomie Neue Folge Nr. 13; Materialien gegen die Fabrikgesellschaft der technologische Angriff; 1983
[Kontor] Vom Kontor zum Office, Hans Peter Treichler, 2003; www-x.nzz.ch/folio/archiv/2003/10/articles/treichler.html
[Softwarekrise] Auf dem Weg in die Softwarekrise? Computeranwendungen und Programmentwicklung in den USA der fünfziger und sechziger Jahre; Florian Theißing; 1995; tal.cs.tu-berlin.de/RoteReihe/RR95-14.rtf
[WOW] Windows on the Workplace, Technology, Jobs and the Organisation of Office Work; Joan Greenbaum; 2004
[ERF] Albert Einstein eine kritische Würdigung; MLPD-Rote Fahne; www.rf-news.de/rfnews/aktuell/Wissenschaft_und_Technik/article_html/News_Item.2004-04-20.3338
Anmerkungen
1[Haug]
2[Rifkin 2000] s. 47.
3[Rifkin 2000] s. 51]
4Jürgen Habermas, Technik und Wissenschaft als „Ideologie“, Frankfurt/Main 1968, Seite 79f.
5nach Kocka, s. 227
6[PK] Seite 13 19
7[PK] 18, 29f, 30f, 36
8mitglied.lycos.de/techfreaq/informatikComputerhistorie.htm
9[PK]
10Oberliesen, Rolf (1982): Informationen, Daten und Signale; Seite 213 214
11www.lossebon.de/seminare.pdf; www.wsws.org/de/2001/jul2001/ibm-j18.shtml
12[Softwarekrise]
13[PK]
14[PK] 48f
15Halbleiter aus Wikipedia der freien Enzyklopädie
16Bolz 1994, 73 in: [Haug]
17[ERF]
18[Haug]
19nach: [Möller]
20[Möller]
21[Möller]
22[PK] 65
23nach: [Aut13]
24Massachusetts Institute of Technologie, eine US-amerikanische Eliteuniversität
25[Aut13]
26[PK] 68
27[Aut13]
28[Aut13]
29[Aut13]
30[Aut13]
31[Aut13]
32[Aut13]
33siehe dazu M.J.E. Cooley: CAD. Alektor-Verlag, Stuttgart 1978, nach [Aut13]
34[Aut13]
35[Aut13]
36[Aut13]
37[Aut13]
38Der Computer, mein Lebenswerk, Konrad Zuse, 1970; s. 35
39Die Arbeit im modernen Produktionsprozeß, Harry Braverman, 1985 ; s. 245
40[Kontor] Vom Kontor zum Office, Hans Peter Treichler, 2003; www-x.nzz.ch/folio/archiv/2003/10/articles/treichler.html
41[Kontor]
42nach: [WOW]
43[Softwarekrise]
44[Softwarekrise]
45[Softwarekrise]
46[Softwarekrise]
47[Softwarekrise]
48[Softwarekrise]
49[Softwarekrise]
50[Softwarekrise]
51[Softwarekrise]
52[Softwarekrise]
53zitiert nach Berkwitt 1966, S. 394 in:[Softwarekrise]
54[Softwarekrise]
55zitiert nach Berkwitt 1966, S. 389, in [Softwarekrise]
56nach: [WOW]
57[Aut13]