In der
wird der Ausdruck
Peripherie verwendet, wenn von
die Rede ist, das sind z.B. alle Geräte, die an die
angeschlossen sind/werden. Diese Geräte bedürfen der Steuerung durch die Zentraleinheit und gegebenenfalls einer vorherigen Initialisierung. Dies sind zum Beispiel Drucker, Scanner, Tastatur und Maus.
Kommunikationsgeräte sind technische Anlagen und Einrichtungen, die zur Erfassung, Eingabe, Übermittlung und Ausgabe von
dienen.
Beispiele für Kommunikationsgeräte im Umfeld des Menschen sind das
und das
; im weiteren Sinne können jedoch auch Technologien wie
und
in diese Liste aufgenommen werden.
Im Umfeld der Technik können auch Kommunikationsmittel zum Einsatz kommen. Sensorische Bauelemente können als Kommunikationsgerät in Betracht kommen, da diese beispielsweise
bzw. Messdaten an andere Bereiche der entsprechenden technischen Einheit übertragen und somit auch eine
stattfindet.
Prinzipiell allen Kommunikationsgeräten liegt dasselbe Funktionsprinzip zu Grunde. Es muss erst die Entscheidung durch den Benutzer erfolgen, mit wem kommuniziert werden soll. Nach getroffener Entscheidung muss eine Eingabe an das Kommunikationsgerät erfolgen. Dies findet abhängig vom Kommunikationsgerätetyp beispielsweise durch das Wählen einer Telefon- oder Faxnummer oder die Auswahl einer E-Mail-Adresse aus dem
. Im Bereich der Technik bzw.
sind die Kommunikationspartner zumeist fest einprogrammiert.
Nach erfolgreicher Kontaktaufnahme durch das Kommunikationsgerät können Informationen übertragen werden. Dies kann
sein oder aber auch Faxdaten. Als Träger für diese Informationen kommt in aller Regel
, eher seltener aber auch
zum Einsatz.
Auf einem PC muss ein Betriebssystem vorhanden sein.Da es den Computer Kontrolliert der wiederum die Geräte verwaltet.Das Betriebssystem mit seiner Bedienoberfläche ist die Schnittstelle für die Ausgabe zwischen Mensch und Maschiene-Bekannte Vertreter sind:Microsoft Vista oder XP. Bzw Linux oderMac os.Linux ist ein Open Source Btriebssystem..Das heisst jeder kann es verändern wie er will u es an seine persönlichen Bedürfnisse anpssen
1. Computer und Peripherie
Ein Computersystem besteht aus mehreren Einzelgeräten, die miteinander Daten austauschen. Dabei lassen sich häufig der Standardcomputer (z.B. PC) mit Bildschirm, Tastatur und Maus und die weiteren, angeschlossenen Peripheriegeräte (Peripherie = Rand, äussere Linie) unterscheiden. Manchmal ist die Unterscheidung aber schwierig, weil z.B. mehrere Computer zusammenarbeiten oder weil der Computer in einem Peripheriegerät integriert ist.
2. Computerfamilien
Einplatinensystem
Alle wichtigen Komponenten eines Computers befinden sich auf einer Elektronik-Platine. Beim Einbau der Platine in ein Laborgerät erhält dieses Eigenintelligenz. Der Computer kann Aufgaben zur Steuerung und Messdatenauswertung übernehmen.
PC: Personal Computer
Das am meisten verbreitete Computersystem ist von seiner Ausstattung her für viele unterschiedliche Aufgaben einsetzbar, stellt in der Regel einen einzelnen Arbeitsplatz dar und kann zum Datenaustausch mit anderen Systemen vernetzt sein.
Workstation
Durch die Zusammenstellung besonders leistungsfähiger Hardware- und Software-Komponenten lassen sich Aufgaben mit grossen Datenmengen und rechenintensiven Verfahren bearbeiten.
Grossrechner
Die an den aktuellen technischen Möglichkeiten orientierten Systeme stehen meist über Datenleitungen mehreren, räumlich weit verteilten Benutzern zur Verfügung, die für ihre Aufgaben Rechenzeit kaufen. Am Grossrechner werden z.B. globale Wettermodelle berechnet.
Systeme verteilter Intelligenz
Durch Zusammenschalten von vielen, auch verschiedenen Computern über Datennetze entsteht ein System, bei dem Teilaufgaben den verschiedenen Systemen zur Bearbeitung übergeben werden. Die Ergebnisse sind wiederum Ausgangsdaten für weitere Bearbeitungen im vernetzten System (Intranet, Internet).
Dort sind auch noch ein paar sachen geschrieben
in der elektronischen Datenverarbeitung nennt sich die kleinstmögliche Speichereinheit
. Ein Bit kann zwei mögliche Zustände annehmen, die meist als „Null“ und „Eins“ bezeichnet werden.
Acht solcher Bits werden zu einer Einheit – sozusagen einem Datenpäckchen – zusammengefasst und allgemein
Byte genannt. Die offizielle ISO-konforme Bezeichnung lautet dagegen
Oktett: 1 Oktett = 1 Byte = 8 Bit.
Das Byte ist die Standardeinheit, um
oder Datenmengen zu bezeichnen. Dazu gehören Dateigrößen, die Kapazität von permanenten Speichermedien (Festplatten, CDs, DVDs, Disketten, USB-Massenspeichergeräte usw.) und die Kapazität von vielen flüchtigen Speichern (z. B.
). Übertragungsraten (z. B. die maximale Geschwindigkeit eines Internet-Anschlusses) gibt man dagegen üblicherweise auf der Basis von Bits an.
Einheiten für große Mengen Bytes [
]
Das Byte ist eine relativ kleine Einheit. Ein Byte entspricht in vielen Fällen dem zum Speichern eines einzelnen Buchstabens nötigen Platz. Die Kapazität moderner Speichermedien liegt im Bereich einiger Milliarden Bytes. Deshalb werden größere
üblicherweise zu übergeordneten Einheiten zusammengefasst, indem man der Grundeinheit
Byte
voranstellt. Eingebürgert haben sich dafür die Namen der SI-Präfixe (besonders Kilo, Mega, Giga), da die
erst viel später eingeführt wurden. Man spricht dann von
Kilobyte,
Megabyte oder
Gigabyte
Ein
Computer, auch
Rechner genannt, ist ein Apparat, der Informationen mit Hilfe einer programmierbaren
kann. Der englische Begriff
computer, abgeleitet vom Verb
to compute (rechnen), bezeichnete ursprünglich Menschen, die zumeist langwierige Berechnungen vornahmen, zum Beispiel für Astronomen im Mittelalter. In der Namensgebung des 1946 der Öffentlichkeit vorgestellten
(kurz ENIAC) taucht erstmals das Wort als Namensbestandteil auf. In der Folge etablierte sich
Computer als Gattungsbegriff für diese neuartigen Maschinen.
Zunächst war die Informationsverarbeitung mit Computern auf die Verarbeitung von Zahlen beschränkt. Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden: Sie dienen der Verarbeitung und Ausgabe von Informationen in Wirtschaft und Behörden, der Berechnung der Statik von Bauwerken bis hin zur
von Waschmaschinen und Automobilen. Die leistungsfähigsten Computer werden eingesetzt, um komplexe Vorgänge zu
: Beispiele sind die Klimaforschung, thermodynamische Fragestellungen, medizinische Berechnungen – bis hin zu militärischen Aufgaben, zum Beispiel der Simulation des Einsatzes von nuklearen Waffen. Viele Geräte des Alltags, vom
über den
bis hin zur Münzprüfung in Warenautomaten, werden heute von integrierten Kleinstcomputern gesteuert (
).
Die Computertechnologie entwickelte sich im Vergleich zu anderen Elektrogeräten sehr schnell. Die Entwicklungsgeschichte des Computers reicht zurück bis in die Antike und ist damit wesentlich länger als die Geschichte der modernen Computertechnologien und mechanischen oder elektrischen Hilfsmitteln (Rechenmaschinen oder
). Sie umfasst dabei auch die Entwicklung von Rechenmethoden, die etwa für einfache Schreibgeräte auf Papier und Tafeln entwickelt wurden. Im folgenden wird entsprechend versucht, einen Überblick über diese Entwicklungen zu geben.
Die Entwicklung mechanischer Rechenhilfen
Der
Eine nicht ausbalancierte Waage
Das früheste Gerät, das in rudimentären Ansätzen mit einem heutigen Computer vergleichbar ist, ist der
, eine mechanische Rechenhilfe, die vermutlich um 1100 v. Chr. im indo-chinesischen Kulturraum erfunden wurde. Der Abakus wurde bis ins 17. Jahrhundert benutzt und dann von den ersten
ersetzt. Einem ähnlichen Zweck diente auch das Rechenbrett des
. Ebenfalls zu den frühen Rechenmaschinen gehört die
, die allerdings keinen numerischen Ansatz bietet sondern mit deren Hilfe versucht werden soll, beidseitig einer gemeinsamen Aufhängung eine Gleichheit des Gewichtes zu erreichen.
Bereits im 1. Jh. v. Chr. wurde mit dem
die erste Rechenmaschine erfunden. Das Gerät diente vermutlich für astronomische Berechnungen und funktionierte mit einem
, einer erst im 13. Jahrhundert wiederentdeckten Technik.
Mit dem Untergang der Antike kam der technische Fortschritt zum Stillstand und in den Zeiten der Völkerwanderung ging viel Wissen verloren (so beispielsweise auch der Computer von Antikythera, der erst 1902 wiederentdeckt wurde). Das Mittelalter schließlich hemmte den technischen Fortschritt. Doch ab der
begann sich der Motor des technischen Fortschritts wieder langsam zu drehen und beschleunigte fortan - und dies tut er bis heute.
1614 publizierte
seine
und 1623 baute
die erste
und damit den ersten mechanischen Rechner der Neuzeit, wodurch er bis heute zum „Vater der Computerära“ wurde. Seine Konstruktion basierte auf dem Zusammenspiel von
, die im wesentlichen aus dem Bereich der
stammten und dort genutzt wurden, wodurch seine Maschine den Namen „rechnende Uhr“ erhielt. Praktisch angewendet wurde die Maschine von
bei seinen astronomischen Berechnungen.
1642 folgte
mit seiner Rechenmaschine, der
. 1668 entwickelte
eine Rechenmaschine, die erstmals nicht dezimal addierte, sondern auf das englische Geldsystem abgestimmt war. 1673 baute
seine erste Vier-Spezies-Maschine und erfand 1703 das binäre Zahlensystem (
), das später die Grundlage für die
und darauf aufbauend die
wurde.
Mechanischer Rechner von 1914
Der
, eine der wichtigsten mechanischen Rechenhilfen für die Multiplikation und Division
1805 entwickelte
, um Webstühle zu steuern. 1820 baute
das „
“, den ersten Rechner, der in Massenproduktion hergestellt wurde und somit den Computer für Großunternehmen erschwinglich machte.
entwickelte von 1820 bis 1822 die
(engl. Difference Engine) und 1833 die
, konnte sie aber aus Geldmangel nicht bauen. 1843 bauten Edvard und
in
den ersten mechanischen Computer nach den Ideen von Babbage. Im gleichen Jahr entwickelte
eine Methode zur Programmierung von Computern nach dem Babbage-System und schrieb damit das erste Computerprogramm. 1890 wurde die US-Volkszählung mit Hilfe des
von
durchgeführt. Im gleichen Jahr baute
eine
, die mit König und Turm einen König matt setzen konnte, und somit den ersten
.
Mechanische Rechner wie die darauf folgenden
, der
, der
, die
und der
wurden bis in die 1970er Jahre genutzt. Anders als Leibniz nutzten die meisten Rechner das
, das technisch schwieriger umzusetzen war. Dies galt sowohl für die Rechner von
um 1800 wie auch für den
von 1945, den ersten elektronischen Universalrechner überhaupt.
Der Siegeszug des elektronischen
Vom Beginn des 20. Jahrhunderts bis zum Ende des zweiten Weltkrieges
1935 stellten
die
IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchführen konnte. Es wurden ca. 1500 Exemplare verkauft. 1937 meldete
zwei Patente an, die bereits alle Elemente der so genannten
beschreiben. Im gleichen Jahr baute
zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, den
und
publizierte einen Artikel, der die Turing-Maschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt.
1938 stellte Konrad Zuse die
fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Die Z1 verfügte bereits über Gleitkommarechnung. Sie wurde im Krieg zerstört und später nach Originalplänen neu gefertigt, die Teile wurden auf modernen Fräs- und Drehbänken hergestellt. Dieser Nachbau der Z1, welcher im Deutschen Technik Museum in
steht, ist mechanisch voll funktionsfähig und hat eine Rechengeschwindigkeit von 1
, vollzieht also eine Rechenoperation pro Sekunde. Ebenfalls 1938 publizierte
einen Artikel darüber, wie man symbolische Logik mit
implementieren kann. (
: Shannon 1938)
Während des
gab Alan Turing die entscheidenden Hinweise zur Entschlüsselung der
-Codes und baute dafür einen speziellen mechanischen Rechner,
genannt. Ebenfalls im Krieg (1941) baute Konrad Zuse die erste funktionstüchtige programmgesteuerte, binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais, die
. Die Z3 war
und damit außerdem die erste Maschine, die – im Rahmen des verfügbaren Speicherplatzes – beliebige Algorithmen automatisch ausführen konnte. Aufgrund dieser Eigenschaften wird sie oft als erster funktionsfähiger Computer der Geschichte betrachtet. Die nächsten Digitalrechner waren der in den USA gebaute
(Inbetriebnahme 1941) und die britische
(1941). Sie dienten speziellen Aufgaben und waren nicht turingmächtig. Auch Maschinen auf analoger Basis wurden erstellt.
Auf das Jahr 1943 wird auch die angeblich von IBM-Chef
stammende Aussage „Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern.“ datiert. Im gleichen Jahr stellte
mit seinem Team in
den ersten „
“ fertig. 1944 erfolgte die Fertigstellung des ASCC (Automatic Sequence Controlled Computer, „
“ durch
) und das Team um
stellte eine Entschlüsselungsmaschine für das Verschlüsselungsgerät
der
fertig
.
Die Entwicklung mechanischer Rechenhilfen
Der
Eine nicht ausbalancierte Waage
Das früheste Gerät, das in rudimentären Ansätzen mit einem heutigen Computer vergleichbar ist, ist der
, eine mechanische Rechenhilfe, die vermutlich um 1100 v. Chr. im indo-chinesischen Kulturraum erfunden wurde. Der Abakus wurde bis ins 17. Jahrhundert benutzt und dann von den ersten
ersetzt. Einem ähnlichen Zweck diente auch das Rechenbrett des
. Ebenfalls zu den frühen Rechenmaschinen gehört die
, die allerdings keinen numerischen Ansatz bietet sondern mit deren Hilfe versucht werden soll, beidseitig einer gemeinsamen Aufhängung eine Gleichheit des Gewichtes zu erreichen.
Bereits im 1. Jh. v. Chr. wurde mit dem
die erste Rechenmaschine erfunden. Das Gerät diente vermutlich für astronomische Berechnungen und funktionierte mit einem
, einer erst im 13. Jahrhundert wiederentdeckten Technik.
Mit dem Untergang der Antike kam der technische Fortschritt zum Stillstand und in den Zeiten der Völkerwanderung ging viel Wissen verloren (so beispielsweise auch der Computer von Antikythera, der erst 1902 wiederentdeckt wurde). Das Mittelalter schließlich hemmte den technischen Fortschritt. Doch ab der
begann sich der Motor des technischen Fortschritts wieder langsam zu drehen und beschleunigte fortan - und dies tut er bis heute.
1614 publizierte
seine
und 1623 baute
die erste
und damit den ersten mechanischen Rechner der Neuzeit, wodurch er bis heute zum „Vater der Computerära“ wurde. Seine Konstruktion basierte auf dem Zusammenspiel von
, die im wesentlichen aus dem Bereich der
stammten und dort genutzt wurden, wodurch seine Maschine den Namen „rechnende Uhr“ erhielt. Praktisch angewendet wurde die Maschine von
bei seinen astronomischen Berechnungen.
1642 folgte
mit seiner Rechenmaschine, der
. 1668 entwickelte
eine Rechenmaschine, die erstmals nicht dezimal addierte, sondern auf das englische Geldsystem abgestimmt war. 1673 baute
seine erste Vier-Spezies-Maschine und erfand 1703 das binäre Zahlensystem (
), das später die Grundlage für die
und darauf aufbauend die
wurde.
Mechanischer Rechner von 1914
Der
, eine der wichtigsten mechanischen Rechenhilfen für die Multiplikation und Division
1805 entwickelte
, um Webstühle zu steuern. 1820 baute
das „
“, den ersten Rechner, der in Massenproduktion hergestellt wurde und somit den Computer für Großunternehmen erschwinglich machte.
entwickelte von 1820 bis 1822 die
(engl. Difference Engine) und 1833 die
, konnte sie aber aus Geldmangel nicht bauen. 1843 bauten Edvard und
in
den ersten mechanischen Computer nach den Ideen von Babbage. Im gleichen Jahr entwickelte
eine Methode zur Programmierung von Computern nach dem Babbage-System und schrieb damit das erste Computerprogramm. 1890 wurde die US-Volkszählung mit Hilfe des
von
durchgeführt. Im gleichen Jahr baute
eine
, die mit König und Turm einen König matt setzen konnte, und somit den ersten
.
Mechanische Rechner wie die darauf folgenden
, der
, der
, die
und der
wurden bis in die 1970er Jahre genutzt. Anders als Leibniz nutzten die meisten Rechner das
, das technisch schwieriger umzusetzen war. Dies galt sowohl für die Rechner von
um 1800 wie auch für den
von 1945, den ersten elektronischen Universalrechner überhaupt.
Der Siegeszug des elektronischen
Vom Beginn des 20. Jahrhunderts bis zum Ende des zweiten Weltkrieges
1935 stellten
die
IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchführen konnte. Es wurden ca. 1500 Exemplare verkauft. 1937 meldete
zwei Patente an, die bereits alle Elemente der so genannten
beschreiben. Im gleichen Jahr baute
zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, den
und
publizierte einen Artikel, der die Turing-Maschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt.
1938 stellte Konrad Zuse die
fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Die Z1 verfügte bereits über Gleitkommarechnung. Sie wurde im Krieg zerstört und später nach Originalplänen neu gefertigt, die Teile wurden auf modernen Fräs- und Drehbänken hergestellt. Dieser Nachbau der Z1, welcher im Deutschen Technik Museum in
steht, ist mechanisch voll funktionsfähig und hat eine Rechengeschwindigkeit von 1
, vollzieht also eine Rechenoperation pro Sekunde. Ebenfalls 1938 publizierte
einen Artikel darüber, wie man symbolische Logik mit
implementieren kann. (
: Shannon 1938)
Während des
gab Alan Turing die entscheidenden Hinweise zur Entschlüsselung der
-Codes und baute dafür einen speziellen mechanischen Rechner,
genannt. Ebenfalls im Krieg (1941) baute Konrad Zuse die erste funktionstüchtige programmgesteuerte, binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais, die
. Die Z3 war
und damit außerdem die erste Maschine, die – im Rahmen des verfügbaren Speicherplatzes – beliebige Algorithmen automatisch ausführen konnte. Aufgrund dieser Eigenschaften wird sie oft als erster funktionsfähiger Computer der Geschichte betrachtet. Die nächsten Digitalrechner waren der in den USA gebaute
(Inbetriebnahme 1941) und die britische
(1941). Sie dienten speziellen Aufgaben und waren nicht turingmächtig. Auch Maschinen auf analoger Basis wurden erstellt.
Auf das Jahr 1943 wird auch die angeblich von IBM-Chef
stammende Aussage „Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern.“ datiert. Im gleichen Jahr stellte
mit seinem Team in
den ersten „
“ fertig. 1944 erfolgte die Fertigstellung des ASCC (Automatic Sequence Controlled Computer, „
“ durch
) und das Team um
stellte eine Entschlüsselungsmaschine für das Verschlüsselungsgerät
der
fertig
.
Das Ende des Zweiten Weltkriegs erlaubte es, dass Europäer und Amerikaner von ihren Fortschritten gegenseitig wieder Kenntnis erlangten. 1946 wurde der
(ENIAC) unter der Leitung von
und
entwickelt. ENIAC ist der erste elektronische digitale
. 1947 baute
den
(SSEC), einen
mit
und mechanischen
und die
(ACM) wurde als erste wissenschaftliche Gesellschaft für
gegründet. Im gleichen Jahr wurde auch der
erfunden, der heute aus der modernen Technik nicht mehr weggedacht werden kann. Die maßgeblich an der Erfindung beteiligten
,
und
erhielten 1956 den
für Physik. In die späten 1940er Jahre fällt auch der Bau des
(EDVAC), der erstmals die
implementierte.
1949 stellte
, Begründer der ACM, mit „
“ den ersten digitalen, programmierbaren Computer für den Heimgebrauch vor. Er bestand aus 50 Relais und wurde in Gestalt von Bauplänen vertrieben, von denen in den ersten zehn Jahren ihrer Verfügbarkeit über 400 Exemplare verkauft wurden. Im selben Jahr stellte
mit seinem Team in Cambridge den
(EDSAC) vor; basierend auf
EDVAC ist es der erste Rechner, der vollständig speicherprogrammierbar war. Ebenfalls 1949 stellte
die
fertig, deren Bau schon 1942 begonnen wurde und 1944 in wesentlichen Teilen abgeschlossen war, aber kriegsbedingt nicht fertiggestellt werden konnte. 1950 wurde die
Z4 von der Firma
an die
geliefert und ging dort in Betrieb.
In den 1950er Jahren setzte die Produktion kommerzieller (Serien-)Computer ein. So baute
1951 ihren ersten kommerziellen Röhrenrechner, den
(UNIVAC I) und 1955
für die
mit dem
den ersten Computer, der komplett mit Transistoren statt
bestückt war; im gleichen Jahr baute die
mit der „
“ (OPREMA) ihren ersten Computer. 1956 fertigte IBM das
(Random Access Method of Accounting and Control (RAMAC)). Ab 1958 wurde die
als volltransistorisierter Serienrechner gebaut. Noch im selben Jahr stellte die Polnische Akademie der Wissenschaften in Zusammenarbeit mit dem Laboratorium für mathematische Apparate unter der Leitung von Romuald Marczynski den ersten polnischen Digital Computer "XYZ" vor. Vorgesehenes Einsatzgebiet war die Nuklearforschung. 1959 begann
mit der Auslieferung des
, des ersten in Serie gefertigten und vollständig auf Basis von Transistoren hergestellten Computers.
1960er
1960 baute IBM den
, einen transistorisierten Rechner mit Magnetbandsystem, und
(Digital Equipment Corporation) erster Minicomputer, die
(Programmierbarer Datenprozessor) erscheint. 1962 lieferte die
die ersten
aus. 1964 baute DEC den Minicomputer
für unter 20.000 Dollar.
1964 definierte IBM die erste Computerarchitektur
, womit Rechner verschiedener Leistungsklassen denselben Code ausführen können und bei
wird der erste „
“ (IC) entwickelt. 1965 stellte das Moskauer Institut für Präzisionsmechanik und Computertechnologie unter der Leitung seines Chefentwicklers Sergej Lebedjew mit dem
den ersten exportfähigen Großcomputer der
vor. BESM-6 wurde ab 1967 mit Betriebssystem und Compiler ausgeliefert und bis 1987 gebaut. 1966 erschien dann auch noch mit
ein 33bit Auftischrechner der
.
1968 bewarb
(HP) den
in der Science-Ausgabe vom 4. Oktober 1968 als „personal computer“. Im Dezember stellten
und
vom
(SRI) die erste
vor, mangels sinnvoller Einsatzmöglichkeit (es gab noch keine grafischen Benutzeroberflächen) interessierte dies jedoch kaum jemanden.
1970er
Mit der Erfindung des serienmäßig produzierbaren
wurden die Computer immer kleiner und leistungsfähiger. Doch noch wurde das Potential der Computer verkannt. So sagte noch 1977
, Präsident und Gründer von DEC: „Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollte.“
1971 war es Intel, der mit dem
den ersten in Serie gefertigten Mikroprozessor baute. Er bestand aus 2250 Transistoren. 1971 lieferte
den
an das Deutsche Rechenzentrum Darmstadt, sowie an die Universitäten Bochum und München. 1972 ging der
, ein Supercomputer mit
, in Betrieb. 1973 erschien mit
der erste Computer mit Maus,
(GUI) und eingebauter
-Karte; und die französische Firma R2E begann mit der Auslieferung des
. 1974 stellte HP mit dem
den ersten programmierbaren Taschenrechner vor und
baute den 6800 Prozessor währenddessen Intel den
fertigte. 1975 begann
mit der Auslieferung des
.
1975
(Ursprünglich Programm-Entwicklungs-Terminal-System PET) von
war weltweit die erste
für Software.
wurde weltweit 22.000 Mal installiert, davon 6.000 Mal in der Bundesrepublik Deutschland. Maestro I war in den 70-er und 80-er Jahren führend auf diesem Gebiet.
1976 brachte
den
auf den Markt und
entwickelte den
Prozessor. 1977 kamen der
, der
und der
auf den Markt. 1978 brachte DEC die
, eine Maschine speziell für virtuelle
, auf den Markt. 1979 schließlich brachte
seine Rechnermodelle
und
in die Läden. Revolutionär war, dass mehrere Custom-Chips den Hauptprozessor entlasteten.
1980er
Die 1980er waren die Blütezeit der
, zunächst mit 8-Bit-Mikroprozessoren und einem
bis 64 kB (
,
,
/
,
, Schneider CPC 464/664), später auch leistungsfähigere Modelle mit 16-Bit- oder 16/32-Bit-Mikroprozessoren (z. B.
,
). Diese Entwicklung wurde durch IBM in Gang gesetzt, die 1981 den
(
) vorstellten und damit entscheidend die weitere Entwicklung bestimmten.
1982 brachte Intel den
-Prozessor auf den Markt und
entwickelte die
. 1984 wurde der
gebaut und setzte neue Maßstäbe für Benutzerfreundlichkeit. Die
konterte mit ihrem „Kronos 1“, einer Bastelarbeit des Rechenzentrums in
. Im
stellte
den
auf der
(CES) in
vor. Im
produzierte
den ersten
-Heimcomputer. In
wurde der „Kronos 2“ vorgestellt, der dann als „Kronos 2.6“ für vier Jahre in Serie ging. 1986 brachte Intel den
-Prozessor auf den Markt, 1989 den
. Ebenfalls 1986 präsentierte Motorola den 68030-Prozessor. 1988 stellte
mit
, Mitgründer von
, den gleichnamigen Computer vor.
1990er
Die 1990er sind das Jahrzehnt des
und des
. (
Siehe auch
,
) 1991 spezifizierte das AIM-Konsortium (Apple, IBM, Motorola) die
-Plattform. 1992 stellte DEC die ersten Systeme mit dem 64-Bit-
vor. 1993 brachte Intel den
-Prozessor auf den Markt, 1995 den
. 1994 stellte
mit dem
den ersten Prototypen für einen
vor, im Jahr darauf
die
. 1999 baute Intel den
mit 9.472 Prozessoren und
mit dem
den Nachfolger der
-Prozessorfamilie vor.
Entwicklung im 21. Jahrhundert
Zu Beginn des 21. Jahrhunderts sind Computer sowohl in beruflichen wie privaten Bereichen allgegenwärtig und allgemein akzeptiert. Während die Leistungsfähigkeit in klassischen Anwendungsbereichen weiter gesteigert wird, werden digitale Rechner unter anderem in die
und
integriert. 2001 baute IBM den Supercomputer
und 2002 ging der
in Betrieb. 2003 lieferte Apple den PowerMac
aus, den ersten Computer mit 64-Bit-Prozessoren für den Massenmarkt. AMD zog mit dem
und dem
nach. 2005 produzierten AMD und Intel erste
Prozessoren, 2006 doppelte Intel mit den ersten
Quad-Prozessoren nach.
Zukunftsperspektiven
Zukünftige Entwicklungen bestehen aus der möglichen Nutzung biologischer Systeme (
), optischer Signalverarbeitung und neuen physikalischen Modellen (
). Weitere Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung. Auf der anderen Seite nimmt man langsam Abstand von nicht realisierten Trends der letzten 20 Jahre, Expertensysteme und
, die ein Bewusstsein entwickeln, sich selbst verbessern oder gar rekonstruieren, zu erforschen.
[FONT="]Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw.
haben, siehe
(= Rechnerautonomie),
,
,
(= Rechnerallgegenwart) und
[/FONT]
EDIT (autom. Beitragszusammenführung):