Geschichte des Computers (1991)

803 views

Published on

Geschichte des Computers

Published in: Technology
9 Comments
0 Likes
Statistics
Notes
  • 1. Entwicklung des Computers 1.1 Mathematische Grundlagen Der Versuch, rationales Denken als mechanischen Vorgang darzustellen, reicht zurück bis zu den alten Griechen, die Zusammenhänge zwischen Sprache und Mathematik suchten. Als Gottfried Wilhelm Leibniz, ein Mathematiker und Philosoph des 17. Jahrhunderts, auf der Suche nach dem war, was er das Universalkalkül nannte, wollte er jegliches menschliche Denken vordefinierten physikalischen Prinzipien zuordnen. Dabei faszinierten ihn vor allem die Eigenschaften binärer Zahlensysteme, bei denen alle Werte durch nur zwei Symbole ausgedrückt werden können. Letztlich basieren alle Rechenregeln eines solchen Systems auf der Addition, einer Grundrechenart, die verschiedene Maschinen zu dieser Zeit bereits ausführen konnten. Doch binäre Systeme können weitaus mehr als Zahlen und Alphabeten auszudrücken. Diesen Zusammenhang aber entdeckte nicht Leibniz, sondern George Boole (1815-1864) etwa 150 Jahre später. Er erweiterte die Binärtheorie insofern, als er logischen Feststellungen eine Eins zuordnete, wenn sie wahr, und eine Null, wenn sie falsch waren, und definierte eine entsprechende Anzahl von Regeln zur Verarbeitung dieser Zustände. Damit "erwies sich die boolesche Algebra als nachprüfbare Universalsprache für den symbolischen Ausdruck formaler Logik."1
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
  • 1.2 Erste mechanische Rechenmaschinen Mechanische Rechenapparate hatte es schon lange zuvor gegeben. Bereits 1642 konstruierte der französische Philosoph Blaise Pascal (1623-1662) eine Addiermaschine, deren Konzeption auf der Drehung numerierter Räder basierte. 1822 begann dann Charles Babbage (1792-1871), ein britischer Ingenieur, eine Differenziermaschine zu bauen, die eine Art von Allzweck-Rechenmaschine darstellte. Er verwendete dabei Lochkarten, die damals bereits Webstühle steuern konnten, da er die Notwendigkeit, Daten zu bertragen, Informationen zwischenzuspeichern und letztendlich Ergebnisse auszugeben, bereits früh erkannte. Daneben entwarf er eine noch komplexere sogenannte Analytische Maschine, die aus einer hochkomplizierten Anordnung von dampfgetriebenen Kurbeln, Wellen, Flaschenzügen und Hebeln bestand. Doch seine Materialanforderungen überstiegen selbst die besten damaligen Erzeugnisse, und kein Mechaniker dieser Zeit hätte eine derartige Konstruktion jemals realisieren können. Rechenmaschinen fanden erstmals 1890 bei der amerikanischen Volkszählung kommerzielle Verwendung. Sie waren von Herman Hollerith (1860-1929) entworfen worden, der erstmals elektromechanische Relais benutzte. Die Stanzungen auf den Lochkarten schlossen einen Stromkreis, wodurch ein Relais das entsprechende Zählerrad in Bewegung setzte. Der Aufwand der Volkszählung konnte somit um ein Vielfaches reduziert werden. In der Folge wurden weiterentwickelte Versionen seiner Maschine etwa von den Eisenbahnen zur Berechnung von Fahrplänen benutzt, und "seine Firma Tabulating Machine Company wurde schließlich unter der Leitung von Thomas Watson zur International Business Machine Company, kurz IBM."2
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
  • 1.3 Der Einsatz von Elektronik Die Verbindung zwischen der booleschen Algebra und der Suche nach einer Universal-Rechenmaschine konnte erstmals von Claude Shannon (1916-), einem junger Elektroingenieur, hergestellt werden. Er experimentierte mit elektromagnetischen Relais, die Schaltkreise schließen oder unterbrechen können und damit exakt jene zwei Zustände EIN und AUS besitzen, je nachdem ob der Elektromagnet aktiviert ist oder nicht. Angesichts dieser Zweiphasenwirkung suchte Shannon nach einer Form des mathematischen Zusammenhangs und erkannte die boolesche Algebra als ein System, das nicht nur logische Operationen ausdrückt, sondern auch das Wesen elektrischer Schaltungen darstellt. Diese Entdeckung war angesichts der bisher verwendeten elektromechanischen Geräte, die zwar Informationen empfangen und verarbeiten, jedoch nicht darauf reagieren konnten, ein entscheidender Durchbruch. Daneben wurde erstmals die Frage aufgeworfen, ob Schaltungen nicht umgekehrt dadurch die Macht der Logik und des Verstandes in sich tragen würden, und damit denken könnten. Während des Zweiten Weltkrieges kam es zu einem Wettrennen zwischen den Deutschen und den Alliierten um die Weiterentwicklung dieser neuen Technologien zum Zwecke der Nachrichtenentschlüsselung, aber vor allem für komplizierte Berechnungen in der Raketentechnik. Bereits 1934 hatte Konrad Zuse (1910-) in Berlin mit der Entwicklung elektronischer Computer begonnen. Er hegte erstmals den Gedanken, Vakuumröhren für die Grundschaltungen zu verwenden, verwarf ihn aber aufgrund deren Unzuverlässigkeit wieder und griff auf die altbewährten Telefonrelais zurück. In Zusammenarbeit mit dem deutschen Luftfahrtforschungsamt entwickelte er den ersten Elektronikcomputer Z3, dessen Nachfolger Z4 zur Lösung von komplexeren Ballistikproblemen und zur Raketenkonstruktion verwendet wurde. 1944 wurden viele von Zuses Entwicklungen bei einem Bombenangriff zerstört. Er konnte lediglich einige Teile des Z4 retten. Zuse selbst geriet in Kriegsgefangenschaft, und die Bedeutung seiner Leistungen wurde erst viele Jahre später erkannt. Etwa zur selben Zeit arbeitete Howard Aiken an der Universität von Cambridge an seiner Version eines elektronischen Computers, der Ende 1943 fertiggestellt wurde. Dieses Gerät wurde, wie kaum anders zu erwarten war, von Marine und Air Force eingesetzt, war allerdings zwei Jahre später bereits veraltet und wurde vom ENIAC ersetzt, der etwa fünfhundertmal schneller arbeiten konnte. Seine Konstrukteure hatten die langsamen Relaisschaltungen durch Vakuumröhren ersetzt, die keine beweglichen Teile besitzen und innerhalb weniger Millionstel Sekunden ihren Zustand wechseln können. Der Nachteil dieser Variante war die enorme Wärmeentwicklung; selbst wenn die Vielzahl an Röhren in größerer Entfernung voneinander installiert wurde, brannten sie regelmäßig durch. Die Raumtemperatur jenes Saales, in dem der ENIAC aufgebaut worden war, stieg bis auf 39 Grad Celsius an. Um das die Zuverlässigkeit des Systems zu erhöhen, bauten die Ingenieure Ventilatoren und Gebläse ein, und ganze Mannschaften suchten die Maschine nach durchgebrannten Röhren durch, um diese zu ersetzen. Weiters mußte für jede andere Berechnung der ganze Komplex neu verdrahtet werden. Der ENIAC selbst war ein elektronisches Monster, bestehend aus 18.000 Röhren, 70.000 Widerständen, 10.000 Kondensatoren, 6.000 diversen Schaltern und einem Wirrwarr an Verbindungsdrähten. Er war 30 Meter lang, einen Meter tief, drei Meter hoch und wog 30 Tonnen. John von Neumann (1903-1957) erkannte die Probleme des ENIAC und entwickelte das Konzept des gespeicherten Programms, wonach bestimmte Grundfunktionen und Befehle im Schaltplan des Computers bereits fix zu verdrahten sind. Ein Großteil der ewigen Neuverdrahtungen konnte dadurch vermieden werden, und die Rechenanlagen wurden schneller und flexibler. Außerdem war dies ein erster Schritt in Richtung Massenspeicher, sodaß der Computer auf eigene Informationsreserven zugreifen konnte. Auch wollte von Neumann den Computer nicht einzig als Werkzeug und Hilfsmittel des Militärs sehen, sondern vielmehr die Idee von einer Universalmaschine und einem allgemeinen Problemlöser verwirklichen. Nach dem Krieg wurde der ENIAC weiterentwickelt und sollte auch in der freien Wirtschaft Verwendung finden. Sein erster Nachfolger hatte den etwas beängstigenden Namen MANIAC und wurde in der Atomforschung eingesetzt. Die dort beschäftigten Wissenschaftler versuchten auch erstmals, ihm das Schachspielen beizubringen. Der darauffolgende UNIVAC war an Leistung überlegen und ersetzte die Lochkarten, von denen Ende der vierziger Jahre mehr als 10.000 Tonnen verbraucht worden waren, durch Magnetbänder.
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
  • 1.4 Miniaturisierung durch das Aufkommen von Halbleitern Völlig neue Perspektiven eröffnete zu dieser Zeit jedoch die Entwicklung des Transistors in den Bell Laboratories, der letztendlich 1948 der Öffentlichkeit präsentiert wurde. Er benötigte keine Aufwärmzeit, erzeugte selbst keinerlei Wärme und war überdies platzsparender. Dies war das Startsignal für das Zeitalter der Mikrochips. Das Aufkommen des Transistors machte es möglich, elektronische Geräte in einem festen Block und ohne Verbindungsdrähte herzustellen. Ein solcher Block besteht aus mehreren Schichten leitender und isolierender Materialien, wobei elektronische Funktionen einfach durch entsprechendes Herausschneiden aus den Schichten zusammengeschlossen werden können. Und wiederum war das Militär der erste Abnehmer. Die Siliziumplättchen hatten auch den Vorteil eines hohen Schmelzpunkts von 1420 Grad Celsius, also ideal zum Einsatz unter Hochbelastungsbedingungen, zum Beispiel bei der Steuerung von Raketen. Trotzdem blieben die Röhren in den fünfziger Jahren noch dominierend, was nicht zuletzt auf finanzielle Aspekte zurückzuführen war. Daneben hielt der Computer auch in den Betrieben immer öfter Einzug. Dabei übernahm IBM mit einer aggressiven Verkaufspolitik die Vorherrschaft vom Erzrivalen Remington Rand. Vertrieben wurde ein Vakuumröhrencomputer, der bereits in Massenproduktion gefertigt wurde. Er verdrängte zunehmend die mit lärmenden Lochkartenrechnern vollgestopften Tabelliersäle, für deren Bedienung Dutzende von Angestellten benötigt wurden. In den folgenden Jahren, die von einem Wettrennen um die Vorherrschaft im Weltraum geprägt waren, kam es zu ständigen Versuchen, integrierte Schaltungen auf immer kleinerem Raum zu realisieren. Während 1950 die Techniker in einem Volumen von 28 Kubikzentimeter etwa 1000 Röhren unterbringen konnten, enthielt 1958 der selbe Raum 1.000.000 Festkörpertransistoren. Die Entwicklung verlagerte sich ins Silicon Valley, 60 km südlich von San Franzisco, wo das in Massen vorkommende Silizium in bares Geld umgemünzt wurde, und wo sich immer mehr Firmen ansiedelten, was wiederum begabte Elektroingenieure und junge Talente durch die unbegrenzt scheinenden Möglichkeiten individuellen Aufstiegs anlockte. 1963 brachte IBM dann mit der sogenannten 360-Serie die erste Computer-Familie auf den Markt, wobei die einzelnen Computer dieser Reihe sich stark in Preis, Größe und Leistung unterschieden, aber intern den gleichen Grundaufbau und eine standardisierte Methode von Eingabe, Informationsspeicherung und Befehlskodierung hatten. Mit einem Schlag waren alle anderen Modelle, auch die von IBM selbst, veraltet. Allein in den Sechziger Jahren wurden 30.000 Stück an Staat, Handel, Industrie und Universitäten verkauft. Die 360-Serie sorgte auch dafür, daß sich normierte Programmiersprachen wie COBOL oder FORTRAN durchzusetzen begannen.3
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
  • 1.5 Der Mikrochip 1970 erregte dann erstmals die Firma Intel mit der Entwicklung eines Speicherchips mit wahlfreiem Zugriff (RAM) Aufmerksamkeit. Kurz darauf gelang es schließlich, eine komplette Zentraleinheit auf einem einzigen Siliziumplättchen von drei mal vier Millimetern Größe unterzubringen. Darauf befanden sich über 2200 Schaltelemente, die für das freie Auge kaum sichtbar waren. Dieses neue Konzept einer Zentraleinheit, auf der sich sämtliche Mathematik- und Logikschaltungen befinden, wurde von Intel Mikroprozessor genannt und beeinflußte in entscheidendem Ausmaß die nachfolgenden Entwicklungen. Ein solcher Mikroprozessor ist zwar an sich alleine nicht arbeitsfähig, muß jedoch nur mehr an entsprechende Ein- und Ausgabeschaltkreise angeschlossen und synchronisiert werden, um als eigener Computer funktionieren zu können. Doch der Mikroprozessor hatte anfangs große Probleme, sich gegen die etablierten IBM-Großrechner durchzusetzen. Viele Anwender wußten wenig damit anzufangen; schließlich erklärte Noyce, einer der Firmengründer von Intel, den Unterschied zwischen den bisher bekannten Computern und dem Mikroprozessor wie folgt: "Wie sich zeigt sind viele der von Computern angegangene Probleme in Wahrheit keine großen, sondern vielmehr eine Sammlung kleiner, einfacherer Probleme. Der Unterschied zwischen einem Computer und einem Mikroprozessor ist wie der Unterschied zwischen einem Düsenflugzeug und einem Auto. Das Flugzeug befördert hundertmal so viele Menschen und tut das zehnmal so schnell, aber neunzig Prozent der Transporte in diesem Land erfolgen mit dem Automobil, weil man damit am einfachsten von hier nach dort kommt, und das gleiche gilt für den Mikroprozessor."4 Der Mikrochip revolutionierte die gesamte Elektronikbranche. Er fand nun Anwendung in der Weltraumforschung, Krankenpflege, in Küchengeräten, mikroelektronischen Netzen, elektronischer Musik, Automation, Robotersteuerung, elektronischer Kriegsführung, in Digitaluhren, Heimcomputer, Videospielen, und so weiter. Bereits 1977 leistete ein einziger Mikrocomputer mehr als der erste elektronische Großrechner ENIAC. Er war zwanzig Mal schneller, kostete das Zehntausendfache weniger, und verbrauchte die Energie einer Glühbirne und nicht die einer Lokomotive.
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
  • Be the first to like this

No Downloads
Views
Total views
803
On SlideShare
0
From Embeds
0
Number of Embeds
548
Actions
Shares
0
Downloads
2
Comments
9
Likes
0
Embeds 0
No embeds

No notes for slide

×