Wie die Volkszählung zu moderner Computertechnik führte

Wie die Volkszählung zu moderner Computertechnik führte



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Die Volkszählung gibt es seit den Anfängen der USA, was bedeutete, dass die gesamte Bevölkerung von Hand gezählt werden musste. Bis ein Erfinder einen besseren Weg sah.


Eine kurze Geschichte von Big Data

Big Data wurde von einigen Datenmanagement-Experten (mit einem kleinen Kichern) als „riesige, überwältigende und unkontrollierbare Informationsmengen“ beschrieben. 1663 beschäftigte sich auch John Graunt mit „überwältigenden Informationsmengen“, während er sich mit der Beulenpest beschäftigte, die derzeit in Europa wütete. Graunt hat Statistiken verwendet und ist die erste Person, die die statistische Datenanalyse verwendet. In den frühen 1800er Jahren erweiterte sich der Bereich der Statistik um das Sammeln und Analysieren von Daten.

Die Entwicklung von Big Data beinhaltet eine Reihe von vorbereitenden Schritten für ihre Gründung, und obwohl ein Blick zurück auf 1663 für das Wachstum der Datenmengen heute nicht notwendig ist, bleibt der Punkt, dass „Big Data“ ein relativer Begriff ist, je nachdem, wer diskutiert es. Big Data für Amazon oder Google ist ganz anders als Big Data für einen mittelständischen Versicherungskonzern, aber nicht weniger „Big“ in den Köpfen derer, die damit zu tun haben.

Solche grundlegenden Schritte zur modernen Konzeption von Big Data umfassen die Entwicklung von Computern, Smartphones, dem Internet und sensorischen (Internet der Dinge) Geräten zur Bereitstellung von Daten. Auch Kreditkarten spielten eine Rolle, indem sie immer größere Datenmengen zur Verfügung stellten, und sicherlich veränderten soziale Medien die Natur der Datenmengen auf neuartige und sich noch entwickelnde Weise. Die Evolution der modernen Technologie ist mit der Evolution von Big Data verwoben.

Die Grundlagen von Big Data

Die Daten wurden 1880 für das US Census Bureau zu einem Problem. Sie schätzten, dass es acht Jahre dauern würde, die während der Volkszählung von 1880 gesammelten Daten zu verarbeiten und zu verarbeiten, und sagten voraus, dass die Verarbeitung der Daten aus der Volkszählung von 1890 mehr als 10 Jahre dauern würde. Glücklicherweise entwickelte 1881 ein junger Mann namens Herman Hollerith, der für das Büro arbeitete, die Hollerith Tabulating Machine. Seine Erfindung basierte auf Lochkarten, die zur Kontrolle der von mechanischen Webstühlen gewebten Muster bestimmt waren. Seine Tabelliermaschine reduzierte zehn Arbeitsjahre in drei Arbeitsmonate.

1927 entwickelte Fritz Pfleumer, ein österreichisch-deutscher Ingenieur, eine Möglichkeit, Informationen magnetisch auf Band zu speichern. Pfleumer hatte eine Methode entwickelt, um Metallstreifen auf Zigarettenpapier zu kleben (um zu verhindern, dass die Lippen eines Rauchers durch die damals verfügbaren Zigarettenpapiere verschmutzt werden) und entschied sich, mit dieser Technik einen Magnetstreifen herzustellen, der dann verwendet werden konnte um die Drahtaufzeichnungstechnologie zu ersetzen. Nach Experimenten mit verschiedenen Materialien entschied er sich für sein Patent 1928 für ein sehr dünnes Papier, das mit Eisenoxidpulver gestreift und mit Lack überzogen war.

Während des Zweiten Weltkriegs (genauer gesagt 1943) erfanden die Briten, die verzweifelt versuchten, Nazi-Codes zu knacken, eine Maschine, die nach Mustern in von den Deutschen abgefangenen Nachrichten suchte. Die Maschine hieß Colossus und scannte 5.000 Zeichen pro Sekunde, was die Arbeitsbelastung von Wochen auf nur noch Stunden reduzierte. Colossus war der erste Datenverarbeiter. Zwei Jahre später, 1945, veröffentlichte John von Neumann einen Artikel über die Elektronischer diskreter variabler automatischer Computer (EDVAC), die erste „dokumentierte“ Diskussion über Programmspeicherung und legte den Grundstein für die heutige Computerarchitektur.

Es wird gesagt, dass diese kombinierten Ereignisse 1952 die „formelle“ Gründung der US-amerikanischen NSA (National Security Agency) durch Präsident Truman veranlassten. Mitarbeiter der NSA wurden mit der Entschlüsselung von Nachrichten beauftragt, die während des Kalten Krieges abgefangen wurden. Computer dieser Zeit hatten sich so weit entwickelt, dass sie Daten sammeln und verarbeiten konnten, unabhängig und automatisch arbeiteten.

Der Interneteffekt und Personal Computer

ARPANET begann am 29. Oktober 1969, als eine Nachricht vom Host-Computer der UCLA an den Host-Computer von Stanford gesendet wurde. Es wurde von der Advanced Research Projects Agency (ARPA), einer Unterabteilung des Verteidigungsministeriums, finanziert. Im Allgemeinen war ARPANET der Öffentlichkeit nicht bekannt. 1973 wurde es mit einem transatlantischen Satelliten verbunden und mit dem norwegischen seismischen Array verbunden. 1989 begann jedoch die Infrastruktur von ARPANET zu altern. Das System war nicht so effizient oder so schnell wie neuere Netzwerke. Organisationen, die ARPANET verwenden, begannen, auf andere Netzwerke wie NSFNET umzusteigen, um die grundlegende Effizienz und Geschwindigkeit zu verbessern. 1990 wurde das ARPANET-Projekt aufgrund einer Kombination aus Alter und Überalterung eingestellt. Die Kreation ARPANET führte direkt ins Internet.

1965 baute die US-Regierung das erste Rechenzentrum mit der Absicht, Millionen von Fingerabdrucksätzen und Steuererklärungen zu speichern. Jede Aufzeichnung wurde auf Magnetbänder übertragen und sollte an einem zentralen Ort aufgenommen und aufbewahrt werden. Verschwörungstheoretiker äußerten ihre Befürchtungen, und das Projekt wurde geschlossen. Trotz ihrer Schließung gilt diese Initiative jedoch allgemein als der erste Versuch einer groß angelegten Datenspeicherung.

Personal Computer kamen 1977 auf den Markt, als Mikrocomputer eingeführt wurden, und wurden zu einem wichtigen Sprungbrett in der Entwicklung des Internets und später von Big Data. Ein Personalcomputer könnte von einer einzelnen Person verwendet werden, im Gegensatz zu Großrechnern, die ein Betriebspersonal oder eine Art Time-Sharing-System erfordern, wobei ein großer Prozessor von mehreren Personen gemeinsam genutzt wird. Nach der Einführung des Mikroprozessors sanken die Preise für Personal Computer erheblich und wurden als „ein erschwingliches Konsumgut“ bezeichnet. Viele der frühen Personalcomputer wurden als elektronische Bausätze verkauft, die von Bastlern und Technikern gebaut wurden. Schließlich würden Personalcomputer den Menschen weltweit den Zugang zum Internet ermöglichen.

1989 entwickelte ein britischer Informatiker namens Tim Berners-Lee das Konzept des World Wide Web. Das Web ist ein Ort/Informationsraum, in dem Webressourcen über URLs erkannt, durch Hypertext-Links verknüpft und über das Internet zugänglich sind. Sein System ermöglichte auch die Übertragung von Audio, Video und Bildern. Sein Ziel war es, Informationen über das Internet mithilfe eines Hypertext-Systems auszutauschen. Im Herbst 1990 hatte Tim Berners-Lee, der für das CERN arbeitete, drei grundlegende IT-Befehle geschrieben, die die Grundlage des heutigen Webs bilden:

  • HTML-Code: HyperText-Markup-Sprache. Die Formatierungssprache des Webs.
  • URL: Uniform Resource Locator. Eine eindeutige „Adresse“, die verwendet wird, um jede Ressource im Web zu identifizieren. Er wird auch als URI (Uniform Resource Identifier) ​​bezeichnet.
  • HTTP: Hypertext Transfer Protocol. Wird zum Abrufen verknüpfter Ressourcen aus dem gesamten Web verwendet.

1993 kündigte das CERN an, dass das World Wide Web für jedermann frei zu entwickeln und zu nutzen sei. Der kostenlose Teil war ein Schlüsselfaktor für die Wirkung des Webs auf die Menschen auf der ganzen Welt. (Es sind die Unternehmen, die die "Internetverbindung" bereitstellen, die uns eine Gebühr berechnen).

Das Internet der Dinge (IoT)

Das Konzept des Internets der Dinge erhielt seinen offiziellen Namen im Jahr 1999. Bis 2013 hatte sich das IoT so weiterentwickelt, dass es mehrere Technologien umfasste, die das Internet, drahtlose Kommunikation, mikroelektromechanische Systeme (MEMS) und eingebettete Systeme nutzten. Alle diese übermitteln Daten über die Person, die sie verwendet. Automatisierung (einschließlich Gebäude und Häuser), GPS und andere unterstützen das IoT.

Das Internet der Dinge kann Computersysteme leider anfällig für Hacker machen. Im Oktober 2016 legten Hacker mithilfe des IoT große Teile des Internets lahm. Die erste Reaktion war die Entwicklung von maschinellem Lernen und künstlicher Intelligenz, die sich auf Sicherheitsfragen konzentrieren.

Rechenleistung und Internetwachstum

In den 1990er Jahren gab es ein unglaubliches Wachstum des Internets, und PCs wurden immer leistungsfähiger und flexibler. Das Internet-Wachstum basierte sowohl auf Tim Berners-Lees Bemühungen, Cerns freiem Zugang als auch auf dem Zugang zu einzelnen PCs.

2005 wurde Big Data, das ohne Namen verwendet wurde, von Roger Mougalas gekennzeichnet. Er bezog sich auf eine große Datenmenge, die zu dieser Zeit mit den herkömmlichen verfügbaren Business-Intelligence-Tools kaum zu verwalten und zu verarbeiten war. Darüber hinaus wurde 2005 Hadoop entwickelt, das mit Big Data umgehen konnte. Hadoop basierte auf einem Open-Source-Software-Framework namens Nutch und wurde mit Googles MapReduce zusammengeführt. Hadoop ist ein Open-Source-Software-Framework und kann strukturierte und unstrukturierte Daten aus fast allen digitalen Quellen verarbeiten. Aufgrund dieser Flexibilität können Hadoop (und seine Geschwister-Frameworks) Big Data verarbeiten.

Big-Data-Speicher

Magnetspeicher sind derzeit eine der kostengünstigsten Methoden zum Speichern von Daten. Fritz Pfleumers Konzept der gestreiften Magnetlinien aus dem Jahr 1927 wurde an eine Vielzahl von Formaten angepasst, von Magnetbändern, Magnettrommeln, Disketten bis hin zu Festplatten. Magnetspeicher bezeichnet jede Datenspeicherung auf Basis eines magnetisierten Mediums. Es verwendet die beiden magnetischen Polaritäten Nord und Süd, um eine Null oder Eins oder Ein/Aus darzustellen.

Cloud Data Storage ist in den letzten Jahren sehr beliebt geworden. Die erste echte Cloud erschien 1983, als CompuServe seinen Kunden 128 KB Datenspeicher für persönlichen und privaten Speicher bot. 1999 bot Salesforce auf seiner Website Software-as-a-Service (SaaS) an. Technische Verbesserungen im Internet, verbunden mit sinkenden Kosten für die Datenspeicherung, haben Unternehmen und Privatpersonen die Nutzung der Cloud zur Datenspeicherung wirtschaftlicher gemacht. Dies erspart Unternehmen die Kosten für den Kauf, die Wartung und den eventuellen Austausch ihres Computersystems. Die Cloud bietet eine nahezu unbegrenzte Skalierbarkeit, ist überall und jederzeit zugänglich und bietet eine Vielzahl von Diensten.

Die Verwendung von Big Data

Big Data revolutioniert ganze Branchen und verändert die menschliche Kultur und das Verhalten. Es ist ein Ergebnis des Informationszeitalters und verändert die Art und Weise, wie Menschen Sport treiben, Musik machen und arbeiten. Im Folgenden finden Sie einige Beispiele für die Nutzung von Big Data.

  • Big Data wird im Gesundheitswesen verwendet, um Krankheitsausbrüche zu kartieren und alternative Behandlungsmethoden zu testen. nutzt Big Data, um das Universum zu erkunden.
  • Die Musikindustrie ersetzt Intuition durch Big-Data-Studien. Nutzen Sie Big Data, um das Kundenverhalten zu untersuchen und Blackouts zu vermeiden. verwendet Wearables zur Gesundheitsüberwachung, um Kunden zu verfolgen und Feedback zu ihrer Gesundheit zu geben.
  • Big Data wird von der Cybersicherheit verwendet, um Cyberkriminalität zu stoppen.

Big-Data-Analyse

Analytik gibt es in gewisser Weise seit 1663, als John Graunt sich mit „überwältigenden Mengen an Informationen“ beschäftigte, indem er Statistiken verwendete, um die Beulenpest zu untersuchen. Im Jahr 2017 wurden 2.800 erfahrene Fachleute befragt, die mit Business Intelligence gearbeitet haben, und sie sagten voraus, dass Data Discovery und Datenvisualisierung zu einem wichtigen Trend werden werden. Datenvisualisierung ist eine Form der visuellen Kommunikation (denken Sie an Infografiken). Es beschreibt Informationen, die in ein schematisches Format übersetzt wurden und umfasst Änderungen, Variablen und Schwankungen. Ein menschliches Gehirn kann visuelle Muster sehr effizient verarbeiten.

Visualisierungsmodelle werden als wichtige Methode, um Erkenntnisse aus Big Data zu gewinnen, immer beliebter. (Grafiken sind üblich und Animationen werden üblich. Derzeit sind Datenvisualisierungsmodelle etwas ungeschickt und könnten verbessert werden.) Nachfolgend sind einige der Unternehmen aufgeführt, die Big Data-Visualisierungsmodelle anbieten:

Natürlich ist die Kurze Geschichte von Big Data nicht so kurz, wie es scheint. Auch wenn das 17. Jahrhundert nicht annähernd die Datenmengen im Exabyte-Bereich sah, mit denen Unternehmen heute zu kämpfen haben, erschienen den frühen Datenpionieren die Datenmengen zu dieser Zeit sicherlich entmutigend. Big Data wird weiter wachsen und mit ihm werden neue Technologien entwickelt, um die Daten besser zu sammeln, zu speichern und zu analysieren, während die Welt der datengetriebenen Transformation immer schneller voranschreitet.


Eine kurze Geschichte des Internets

Das Internet begann in den 1960er Jahren als Möglichkeit für Regierungsforscher, Informationen auszutauschen. Computer in den 60er Jahren waren groß und unbeweglich, und um die in einem Computer gespeicherten Informationen nutzen zu können, musste man entweder zum Standort des Computers reisen oder sich magnetische Computerbänder über das konventionelle Postsystem schicken lassen.

Ein weiterer Katalysator bei der Entstehung des Internets war die Aufheizung des Kalten Krieges. Der Start des Sputnik-Satelliten durch die Sowjetunion veranlasste das US-Verteidigungsministerium, darüber nachzudenken, wie Informationen auch nach einem nuklearen Angriff noch verbreitet werden könnten. Dies führte schließlich zur Bildung des ARPANET (Advanced Research Projects Agency Network), das sich schließlich zu dem entwickelte, was wir heute als Internet kennen. ARPANET war ein großer Erfolg, aber die Mitgliedschaft war auf bestimmte akademische und Forschungsorganisationen beschränkt, die Verträge mit dem Verteidigungsministerium hatten. Als Reaktion darauf wurden andere Netzwerke geschaffen, um den Informationsaustausch zu ermöglichen.

Der 1. Januar 1983 gilt als offizieller Geburtstag des Internets. Zuvor hatten die verschiedenen Computernetzwerke keinen einheitlichen Weg, um miteinander zu kommunizieren. Es wurde ein neues Kommunikationsprotokoll namens Transfer Control Protocol/Internetwork Protocol (TCP/IP) eingeführt. Dies ermöglichte es verschiedenen Arten von Computern in verschiedenen Netzwerken, miteinander zu "sprechen". ARPANET und das Defense Data Network wurden am 1. Januar 1983 offiziell auf den TCP/IP-Standard umgestellt und damit die Geburtsstunde des Internets. Alle Netze könnten nun durch eine universelle Sprache verbunden werden.


Turings Automatic Computing Engine

Turing und Newman dachten ähnlich. 1945 trat Turing dem National Physical Laboratory (NPL) in London bei, um einen elektronischen, speicherprogrammierbaren Digitalcomputer für wissenschaftliche Arbeiten zu entwerfen und zu entwickeln. (Künstliche Intelligenz war nicht weit von Turings Gedanken entfernt: Er beschrieb sich selbst als &lsquoGehirnbau&rsquo und bemerkte in einem Brief, dass er &lsquo mehr an der Möglichkeit interessiert sei, Modelle der Gehirntätigkeit zu erstellen, als an praktischen Anwendungen in der Computertechnik&rsquo.) John Womersley , Turings unmittelbarer Vorgesetzter bei NPL, taufte Turings vorgeschlagene Maschine die Automatic Computing Engine oder ACE, als Hommage an Babbages Difference Engine und Analytical Engine.

Turings Bericht &lsquoProposed Electronic Calculator&rsquo aus dem Jahr 1945 lieferte die erste relativ vollständige Spezifikation eines elektronischen Allzweck-Digitalcomputers mit gespeichertem Programm. Der Bericht wird vollständig in Copeland 2005 nachgedruckt.

Der erste elektronische Computer mit gespeichertem Programm, der in den USA vorgeschlagen wurde, war der EDVAC (siehe unten). Der &lsquoFirst Draft of a Report on the EDVAC&rsquo (Mai 1945), verfasst von von Neumann, enthielt wenig technische Details, insbesondere bezüglich elektronischer Hardware (aufgrund von Beschränkungen in den USA). Turings &lsquoProposed Electronic Calculator&rsquo hingegen lieferte detaillierte Schaltungsentwürfe und Spezifikationen von Hardwareeinheiten, Musterprogramme im Maschinencode und sogar eine Schätzung der Kosten für den Bau der Maschine (£11.200). ACE und EDVAC unterschieden sich grundlegend voneinander, beispielsweise verwendete ACE eine verteilte Verarbeitung, während EDVAC eine zentralisierte Struktur hatte.

Turing erkannte, dass Geschwindigkeit und Speicher die Schlüssel zum Rechnen waren. Turings Kollege am NPL, Jim Wilkinson, beobachtete, dass Turing &lsquo von der Idee der Geschwindigkeit auf der Maschine besessen war &rsquo [Copeland 2005, S. 2]. Turings Design hatte viele Gemeinsamkeiten mit den heutigen RISC-Architekturen und verlangte einen Hochgeschwindigkeitsspeicher von ungefähr der gleichen Kapazität wie ein früher Macintosh-Computer (für die damaligen Standards enorm). Wäre Turings ACE wie geplant gebaut worden, hätte er in einer anderen Liga gespielt als die anderen frühen Computer. Der Fortschritt bei Turings Automatic Computing Engine verlief jedoch aufgrund organisatorischer Schwierigkeiten bei NPL langsam, und 1948 verließ ein &lsquosehr müder&rsquo Turing (Robin Gandys Beschreibung, in einem Interview mit Copeland, 1995) NPL für das Newman's Computing Machine Laboratory an der Manchester University. Erst im Mai 1950 führte ein kleines Pilotmodell der Automatic Computing Engine, gebaut von Wilkinson, Edward Newman, Mike Woodger und anderen, erstmals ein Programm aus. Mit einer Arbeitsgeschwindigkeit von 1 MHz war das Pilot Model ACE für einige Zeit der schnellste Computer der Welt.

Der Verkauf von DEUCE, der Produktionsversion des Pilotmodells ACE, war dynamisch und widerlegte die 1946 vom Direktor des NPL, Sir Charles Darwin, gemachte Vermutung, dass &lsquo es sehr wahrscheinlich ist, dass &hellip eine Maschine ausreichen würde, um alle Probleme zu lösen die vom ganzen Land verlangt werden&rsquo [Copeland 2005, S. 4]. Die Grundlagen von Turings ACE-Design wurden von Harry Huskey (an der Wayne State University, Detroit) im Bendix G15-Computer verwendet (Huskey im Interview mit Copeland, 1998). Der G15 war wohl der erste Personal Computer, der über 400 weltweit verkauft wurde. DEUCE und der G15 blieben bis etwa 1970 im Einsatz. Ein weiterer Computer, der von Turings ACE-Design abstammte, der MOSAIC, spielte eine Rolle in der britischen Luftverteidigung während der Zeit des Kalten Krieges, andere Derivate umfassen den Packard-Bell PB250 (1961). (Weitere Informationen zu diesen frühen Computern finden Sie in [Copeland 2005].)


Wie die Volkszählung zu moderner Computertechnik führte - GESCHICHTE

Wir sind von der Vakuumröhre zum Transistor, zum Mikrochip gegangen. Dann begann der Mikrochip mit dem Modem zu sprechen. Jetzt tauschen wir Text, Ton, Fotos und Filme in einer digitalen Umgebung aus.

Computing-Meilensteine ​​und Maschinenentwicklung:

  • 14. Jh. - Abacus - ein Instrument zum Durchführen von Berechnungen durch Verschieben von Zählern entlang von Stäben oder in Rillen (Grafik: Merriam Webster Collegiate Dictionary http://www.m-w.com/mw/art/abacus.htm)
  • 17. Jh. - Rechenschieber - ein manuelles Rechengerät, das in seiner einfachen Form aus einem Lineal und einem beweglichen Mittelstück besteht, die mit ähnlichen logarithmischen Skalen graduiert sind (Bild aus dem The Museum of HP Calculators)
  • 1642 - Pascaline - ein mechanischer Taschenrechner, gebaut von Blaise Pascal, einem Mathematiker aus dem 17. Jahrhundert, nach dem die Programmiersprache Pascal benannt wurde.
  • 1804 - Jacquard-Webstuhl - ein mit Lochkarten programmierter Webstuhl, erfunden von Joseph Marie Jacquard
  • ca. 1850 - Differenz-Engine, Analytical Engine - Charles Babbage und Ada Byron (Siehe ihr Bild.). Babbages Beschreibung der Analytical Engine aus dem Jahr 1837, eines handgekurbelten, mechanischen Digitalcomputers, nahm praktisch jeden Aspekt heutiger Computer vorweg. Erst über 100 Jahre später wurde ein weiterer Allzweckcomputer konzipiert. Skizze des Motors und Notizen von Ada Byron King, Countess of Lovelace.
  • 1939 -1942 - Atanasoff Berry Computer - gebaut im Bundesstaat Iowa von Prof. John V. Atanasoff und dem Doktoranden Clifford Berry.Stellte mehrere "Premieren" in der Informatik dar, darunter ein binäres System aus Arithmetik, Parallelverarbeitung, regenerativem Speicher, Trennung von Speicher- und Rechenfunktionen und mehr. 750 Pfund gewogen. und hatte einen Speicher von 3.000 Bit (0,4 K). Aufgezeichnete Zahlen durch Einbrennen von Markierungen in Karten, während ein Problem gelöst wurde. Siehe Zeichnung.
  • 1940er - Colossus - eine Vakuumröhren-Rechenmaschine, die während des Zweiten Weltkriegs Hitlers Codes knackte. Es war maßgeblich daran beteiligt, Turing zu helfen, die deutschen Codes während des Zweiten Weltkriegs zu brechen, um das Blatt des Krieges zu wenden. Im Sommer 1939 wurde eine kleine Gruppe von Wissenschaftlern zu Codeknackern und arbeitete bei Bletchley Part in England. Diese Gruppe bahnbrechender Codeknacker trug dazu bei, den Krieg zu verkürzen und den Lauf der Geschichte zu verändern. Sehen Sie sich die Bletchley Park-Website und ihre Geschichte an. Weitere Informationen zu Codes und Chiffren im Zweiten Weltkrieg finden Sie auf der Website von Tony Sales.
  • 1946 - ENIAC - Der weltweit erste elektronische Großrechner für allgemeine Zwecke, gebaut von Mauchly und Eckert und 1946 an der University of Pennsylvania aktiviert. ENIAC wurde auf einem modernen Computerchip nachgebaut. Siehe eine Erklärung von ENIAC on a Chip von der Moore School of Electrical Engineering, University of Pennsylvania. Die ENIAC ist eine 30-Tonnen-Maschine mit den Maßen 50 x 30 Fuß. Es enthielt 19.000 Vakuumröhren, 6000 Schalter und konnte 5.000 Zahlen in einer Sekunde hinzufügen, eine bemerkenswerte Leistung für die damalige Zeit. Als umprogrammierbare Maschine führte die ENIAC erste Berechnungen für die H-Bombe durch. Es wurde auch verwendet, um Flugbahntabellen von Artilleriegranaten vorzubereiten und andere militärische und wissenschaftliche Berechnungen durchzuführen. Da es keine Software gab, um den Computer neu zu programmieren, mussten die Leute ihn neu verkabeln, damit er verschiedene Funktionen ausführen konnte. Die menschlichen Programmierer mussten Schaltpläne lesen und wissen, was jeder Schalter tat. J. Presper Eckert, Jr. und John W. Mauchly stützten sich auf Alansoffs Arbeit, um ENIAC, den elektronischen numerischen Integrator und Computer, zu entwickeln.
  • 1951-1959 - Technologie auf Vakuumröhrenbasis. Vakuumröhren sind elektronische Geräte, die aus einer Vakuumhülle aus Glas oder Stahl und zwei oder mehr Elektroden bestehen, zwischen denen sich Elektronen frei bewegen können. Erste kommerzielle Computer verwendeten Vakuumröhren: Univac, IBM 701.
  • 1950er - 1960er - UNIVAC - "Lochkartentechnologie" Der erste kommerziell erfolgreiche Computer, eingeführt 1951 von Remington Rand. Über 40 Systeme wurden verkauft. Sein Speicher bestand aus mit Quecksilber gefüllten akustischen Verzögerungsleitungen, die 1.000 12-stellige Zahlen enthielten. Es verwendete Magnetbänder, die 1 MB Daten mit einer Dichte von 128 cpi speicherten. UNIVAC wurde (für eine Weile) zum Synonym für Computer. Siehe UNIVAC-Foto. Siehe UNIVAC-Flussdiagramm
  • 1960 IBM 1620 - Siehe Fotos im Computer History Museum.
  • 1960-1968 - Transistor-basierte Technologie. Der 1948 von Dr. John Bardeen, Dr. Walter Brattain und Dr. William Shockley erfundene Transistor. Sie ersetzte die Vakuumröhre aufgrund ihrer geringeren Kosten, ihres Gewichts und ihres Stromverbrauchs sowie ihrer höheren Zuverlässigkeit fast vollständig. Siehe Erklärung und Diagramm eines Transistors und wie der erste Transistor aussah. Der Transistor wird veranlasst, seinen Zustand von einem Anfangszustand der Leitfähigkeit (eingeschaltet, voller Stromfluss) in einen Endzustand der Isolierung (ausgeschaltet, kein Stromfluss) zu ändern.
  • 1969 - Das Internet, ursprünglich ARPAnet (Advanced Research Projects Agency Network), begann als militärisches Computernetzwerk.
  • 1969-1977 - Technologie basierend auf integrierten Schaltkreisen (IC). Die erste integrierte Schaltung wurde 1958 vom Erfinder von Texas Instruments, Jack Kilby, demonstriert. Sie war 7/16" breit und enthielt zwei Transistoren. Beispiele für frühe integrierte Schaltungstechnologie: Intel 4004, Dec pdp 8, CRAY 1 (1976) - a 75 MHz, 64-Bit-Maschine mit einer Spitzengeschwindigkeit von 160 Megaflops (eine Million Gleitkommaoperationen pro Sekunde) der damals schnellste Prozessor der Welt. Jetzt können Schaltungen Hunderttausende von Transistoren auf einem kleinen Stück Material enthalten, was die Computertechnik revolutioniert hat Hier ist ein Diagramm einer modernen integrierten Schaltung, bekannt als Chip.
  • 1976 - CRAY 1 - Der weltweit erste elektronische Digitalcomputer, 1946 entwickelt. Ein 75 MHz, 64-Bit-Rechner mit einer Spitzengeschwindigkeit von 160 Megaflops (eine Million Gleitkommaoperationen pro Sekunde) der damals schnellste Prozessor der Welt.
  • 1976 - Äpfel/MACs - Der Apple wurde von Steve Wozniak und Steve Jobs entworfen. Apple war der erste, der eine grafische Benutzeroberfläche vom Typ "Windows" und die Computermaus hatte. Wie moderne Computer hatten die frühen Apples eine periphere Tastatur und Maus sowie ein Diskettenlaufwerk mit 3,5-Zoll-Disketten. Der Macintosh ersetzte den Apple. Siehe ein Bild des Apple III (1980 - 1985).
  • 1978 bis 1986 - Large Scale Integration (LSI) Alto - frühe Workstation mit Maus von Apple, entworfen von Steve Wozniak und Steve Jobs. Apple war der erste, der eine grafische Benutzeroberfläche vom Typ "Windows" und die Computermaus hatte. Sehen Sie sich die Entwicklung von Apple/MACs im Laufe der Zeit an. Der PC- und Klonmarkt beginnt zu expandieren. Damit beginnt der erste Massenmarkt von Desktop-Computern.
  • 1986 bis heute - das Zeitalter der vernetzten Computer, des Internets und des WWW.
  • 1990 - Tim Berners-Lee erfindet das vernetzte Hypertextsystem World Wide Web.
  • 1992 - Bill Gates' Microsoft Corp. veröffentlicht Windows 3.1, ein Betriebssystem, das IBM und IBM-kompatible PCs benutzerfreundlicher macht, indem es eine grafische Benutzeroberfläche in die Software integriert. Beim Ersetzen des alten Windows-Befehlszeilensystems hat Microsoft jedoch ein Programm entwickelt, das dem Macintosh-Betriebssystem ähnelt. Apple klagte wegen Urheberrechtsverletzung, aber Microsoft setzte sich durch. Windows 3.1 wurde zu Win 95, dann zu Win 98, jetzt zu Windows XP. (Natürlich gibt es andere Betriebssysteme, aber Windows ist heute das dominierende Betriebssystem. MACs von Apple haben immer noch eine treue Anhängerschaft. Linux hat eine treue Anhängerschaft.
  • 1995 – große kommerzielle Internetdienstanbieter (ISPs) wie MCI, Sprint, AOL und UUNET begannen, einer großen Zahl von Kunden Dienstleistungen anzubieten.
  • 1996 - Persönliche digitale Assistenten (wie der Palm Pilot wurden für Verbraucher verfügbar. Sie können numerische Berechnungen durchführen, Spiele und Musik spielen und Informationen aus dem Internet herunterladen. Siehe Funktionsweise und Details.
    Zurück nach oben

Charles Babbage (1792-1871) - Differenz-Engine, Analytische Engine. Ada Byron, die Tochter des Dichters Lord Byron, arbeitete mit ihm zusammen. Seine 1837 beschriebene Beschreibung der Analytical Engine, eines mechanischen Digitalcomputers, nahm praktisch jeden Aspekt heutiger Computer vorweg. Skizze des Motors und Notizen von Ada Byron King, Countess of Lovelace.

Alan Turing – 1912-1954. Britischer Codebrecher. Arbeitete am Colossus (Code Breaking Machine, Vorläufer des Computers) und am ACE (Automatic Computing Engine). Turing ist für viele brillante Ideen bekannt und ist vielleicht am besten für die Konzepte des Turing-Tests für künstliche Intelligenz und der Turing-Maschine in Erinnerung geblieben, ein abstraktes Modell zur Modellierung von Computeroperationen. Der Turing-Test ist der "Säuretest" echter künstlicher Intelligenz, wie er vom englischen Wissenschaftler Alan Turing definiert wurde. In den 1940er Jahren sagte er: "Eine Maschine hat künstliche Intelligenz, wenn es keinen erkennbaren Unterschied zwischen der von der Maschine erzeugten Konversation und der einer intelligenten Person gibt." Turing war maßgeblich daran beteiligt, den deutschen Rätselcode während des Zweiten Weltkriegs mit seiner Bombe-Rechenmaschine zu knacken. Die Enigma ist eine Maschine, die von den Deutschen verwendet wird, um verschlüsselte Nachrichten zu erstellen. Siehe Turings Abhandlung über Enigma.

Weitere Informationen zur Enigma-Maschine.

J. von Neumann - (1903-1957). Ein Wunderkind der Mathematik, Autor eines wegweisenden Artikels, der erklärt, wie Programme als Daten gespeichert werden können. (Im Gegensatz zu ENIAC, das neu verkabelt werden musste, um neu programmiert zu werden.). Praktisch alle Computer von heute, von Spielzeug bis zu Supercomputern, die Millionen von Dollar kosten, sind Variationen der Computerarchitektur, die John von Neumann auf der Grundlage der Arbeit von Alan Turing in den 1940er Jahren geschaffen hat. Es umfasste drei Komponenten, die heute von den meisten Computern verwendet werden: eine CPU, ein Speicherbereich mit langsamem Zugriff, wie eine Festplatte, und ein sekundärer Schnellzugriffsspeicher (RAM). Die Maschine speicherte Anweisungen als Binärwerte (wodurch das Konzept des gespeicherten Programms erstellt wurde) und führte die Anweisungen sequentiell aus – der Prozessor holte Anweisungen nacheinander und verarbeitete sie. Der Befehl wird analysiert, Daten werden verarbeitet, der nächste Befehl wird analysiert usw. Heute bezieht sich "von Neumann-Architektur" oft auf die sequentielle Natur von Computern, die auf diesem Modell basieren. Siehe eine andere von Neumann-Quelle.

John V. Atanasoff – (1904 – 1995) – einer der Anwärter, zusammen mit Konrad Zuse und H. Edward Roberts und anderen, als Erfinder des ersten Computers. Das Vakuumröhrengerät mit eingeschränkter Funktion hatte begrenzte Fähigkeiten und hatte keine Zentrale. Es war nicht programmierbar, konnte aber Differentialgleichungen mit binärer Arithmetik lösen. Atanasoffs Computer.

J. Presper Eckert, Jr. und John W. Mauchly stellten 1946 den ersten programmierten elektronischen Allzweck-Digitalcomputer fertig. Sie stützten sich auf Alansoffs Arbeit, um den ENIAC, den elektronischen numerischen Integrator und Computer, zu entwickeln. 1973 führte ein Patentstreit dazu, dass John V. Atanasoff rechtlich zum Erfinder erklärt wurde. Obwohl Atanasoff für seine Leistung einen Rechtsstatus erhielt, schreiben viele Historiker J. Presper Eckert, Jr. und John W. Mauchly, den Gründervätern des modernen Computers, immer noch zu. Eckert und Mauchly gründeten 1946 die erste Computerfirma. Eckert erhielt 87 Patente. Sie führten mit dem Binary Automatic Computer (BINAC) den ersten modernen Binany-Computer ein, der Informationen auf Magnetband statt auf Lochkarten speicherte. Ihre UNIVAC I wurde für das US Census Bureau gebaut. Ihr Unternehmen wurde von Remington Rand übernommen, die in die Sperry Rand Corp. und dann in die Unisys Corp. fusionierten. Eckert zog sich 1989 von Unisys zurück.

Konrad Zuse – (1910-1995) Deutscher, der während des Zweiten Weltkriegs mechanische und elektromechanische Computer entwarf. Zuses Z1, sein Anwärter auf den ersten frei programmierbaren Computer, enthielt alle Grundkomponenten eines modernen Computers (Steuergerät, Speicher, Mikrosequenzen etc.). Zuse verwendete wegen der Materialknappheit während des Zweiten Weltkriegs ausrangierte Videofilme als Lochkarten. Wie ein moderner Computer war er für verschiedene Zwecke anpassbar und verwendete Ein-/Ausschaltrelais, ein binäres System von 1s und 0s (ein = 1, aus = 0). 1938 fertiggestellt, wurde es zusammen mit den Bauplänen bei der Bombardierung Berlins im Zweiten Weltkrieg zerstört. 1986 baute Zuse den Z1 um.

H. Edward Roberts -- entwickelte 1975 den MITS Altair 8800. Der Altair wird von einigen als der erste Mikrocomputer (Personal Computer) angesehen., Der MITS Altair 8800 basierte auf einem 2 MHz Intel 8080 Chip, mit 256 Bytes, Standard RAM. Es wurde ein Jahr vor dem Erscheinen des ersten Apple von Steve Wozniak und Steve Jobs entwickelt. Paul Allen und Bill Gates (damals Student in Harvard) schrieben eine abgespeckte Version der Basic-Programmiersprache, die auf dem Altair ausgeführt werden sollte, was der Beginn von Microsoft war.

Details zum MITS Altair 8800 finden Sie im Computer Museum of America (http://www.computer-museum.org/collections/mits8800.html)

Wir können nicht über Computer sprechen, ohne Folgendes zu erwähnen:

Die Geburt des Internets

Das Internet, ursprünglich ARPAnet (Advanced Research Projects Agency Network), begann 1969 als militärisches Computernetzwerk. Dieses Netzwerk war ein experimentelles Projekt der Advanced Research Projects Agency (DARPA) des US-Verteidigungsministeriums. Andere Regierungsbehörden und Universitäten schufen intern Netzwerke nach dem ARPAnet-Modell. Den Katalysator für das heutige Internet lieferte die National Science Foundation (NSF). Anstatt eine physische Kommunikationsverbindung von jeder Institution zu einem Superrechenzentrum zu haben, begann die NSF eine "Kette" von Verbindungen, in der Institutionen mit ihren "Nachbar"-Rechenzentren verbunden waren, die alle in zentrale Superrechenzentren eingebunden waren. Dieser Anfang weitete sich auf ein globales Netzwerk von Computernetzwerken aus, das es Computern auf der ganzen Welt ermöglicht, miteinander zu kommunizieren und Informationen auszutauschen, die auf verschiedenen Computer-"Servern" gespeichert sind, entweder auf einem lokalen Computer oder einem Computer irgendwo auf der Welt. 1986 entstand das National Science Foundation Network (NSFNET), das Wissenschaftler im ganzen Land mit fünf Supercomputerzentren zusammenführt. Universitäten waren frühe Nutzer des Internets. 1992 wurde das Internet noch hauptsächlich von Forschern und Akademikern genutzt. 1995 begannen große kommerzielle Internetdienstanbieter (ISPs) wie MCI, Sprint, AOL und UUNET, einer großen Zahl von Kunden Dienstleistungen anzubieten.

Das Internet verbindet heute Tausende von Computernetzwerken und erreicht Menschen auf der ganzen Welt. In diesem Atlas of Cyberspaces finden Sie grafische Bilder von Netzwerken im Cyberspace.

Da der Verkehr im Internet so stark geworden ist, haben einige der wissenschaftlichen und akademischen Einrichtungen, die das ursprüngliche Internet bildeten, ein neues globales Netzwerk namens Internet 2 entwickelt. Bekannt als das Abilene-Projekt, das über schnelle Glasfaserkabel läuft, wurde es offiziell eröffnet im Februar 1999 bei einer Zeremonie in Washington, DC

Die George Mason University ist eine von 150 Universitäten in den Vereinigten Staaten, die mit der Industrie über die University Corporation for Advanced Internet Development (UCAID) am Internet-2-Projekt zusammenarbeiten, um die Funktionalität und Fähigkeiten des Internets zu verbessern. Die 2,4-Gigabit-pro-Sekunde-Geschwindigkeit des Netzwerks begann mit einer Übertragungsgeschwindigkeit von 45.000 schneller als ein 56K-Modem.

1990 - Tim Berners-Lee, derzeit Direktor des World Wide Web Consortiums, der Koordinierungsstelle für die Webentwicklung, erfand das World Wide Web. Er besetzt den 3Com Founders Chair am MIT Laboratory for Computer Science. Das WWW wurde ursprünglich für die Hochenergie-Physik-Kooperationen konzipiert und entwickelt, die einen sofortigen Informationsaustausch zwischen Physikern, die an verschiedenen Universitäten und Instituten auf der ganzen Welt arbeiten, erfordern. Jetzt wird das WWW von Menschen auf der ganzen Welt, Kindern und Erwachsenen, für persönliche, kommerzielle und akademische Zwecke verwendet. Berners-Lee und Robert Cailliau schrieben die erste WWW-Client- und Server-Software, die Webadressen (URLs), Hypertext Transfer Protocol (http) und Hypertext Markup Language (html) definierte. Hier ist Tim Berners-Lees ursprünglicher Vorschlag, das CERN-Management davon zu überzeugen, ein globales Hypertext-System zu initiieren, das Berners-Lee "Mesh" nannte, bevor er sich beim Schreiben des Codes 1990 für den Namen "World Wide Web" entschied. Im Dezember 1993 , Berners-Lee und Cailliau teilten sich zusammen mit Marc Andreesen und E. Bina von NCSA den Software System Award der Association for Computing (ACM) für die Entwicklung des World-Wide Web. Der grafische Webbrowser Mosaic entwickelte sich zu Netscape.

Das WWW basiert auf dem Hypertext-Protokoll.

Siehe CERNs Übersicht über das WWW (Was es ist und seine Fortschritte).

Die Benutzerfreundlichkeit des World Wide Web hat es den Menschen leichter gemacht, sich miteinander zu verbinden und die Hindernisse von Zeit und Raum zu überwinden. Diese Vernetzung hat zahlreiche virtuelle Gemeinschaften und Cyberkulturen hervorgebracht. Siehe diese Liste von Ressourcen zu Cyberkulturen. Das WWW ist auch zu einer bequemen Möglichkeit geworden, Dienstleistungen und Waren zu kaufen und zu verkaufen.

Das Internet und das WWW bleiben nicht ohne ethische und rechtliche Konsequenzen, wie Urheberrechtsverletzungen, Computerspionage und -hacking, Computerviren, Betrug und Datenschutzprobleme. Siehe Links zu Computerethik, Gesetzen, Datenschutzfragen. Siehe auch Internet-Copyright-Ressourcen.

Was kommt als nächstes?? - Interessantes zum Nachdenken: Nanotechnologie - K. Eric Drexler ist der Gründervater der Nanotechnologie, der Idee, aus einzelnen Atomen und Molekülen in Miniaturfabriken lebende und mechanische "Dinge" zu bauen. Seine Vision ist, dass, wenn Wissenschaftler DNA auf einem Molekül entwickeln können, warum können wir dann keine Maschinen aus Atomen bauen und sie so programmieren, dass sie mehr Maschinen bauen? Die Forderung nach niedrigen Kosten weckt ein Interesse an diesen "selbstreplizierenden Fertigungssystemen", die von Neumann in den 1940er Jahren untersucht wurden. Diese "Nanoroboter", die von Miniaturcomputern programmiert werden, die kleiner als die menschliche Zelle sind, könnten durch den Blutkreislauf gehen, Krankheiten heilen, chirurgische Eingriffe durchführen usw. Wenn diese Technologie auftaucht, können die Barrieren zwischen konstruierten und lebenden Systemen durchbrochen werden. Forscher verschiedener Institutionen und Organisationen wie NASA und Xerox arbeiten an dieser Technologie.


Einige der vielen Pionierinnen in der Informatik:

Ada Byron King - Portrait. Gräfin von Lovelace und Tochter des britischen Dichters Lord Byron (1815-1852). - Ada war Mathematikerin und schrieb umfangreiche Notizen zu Charles Babbages Rechenmaschine und schlug vor, wie die Maschine Bernoulli-Zahlen berechnen könnte. Dieser Plan gilt heute als das erste "Computerprogramm". Skizze des Motors und Notizen von Ada Byron King, Countess of Lovelace. Eine vom US-Verteidigungsministerium entwickelte Softwaresprache wurde ihr zu Ehren 1979 "Ada" genannt.

Edith Clarke (1883-1959) - Am MIT erhielt Clarke im Juni 1919 den ersten Abschluss in Elektrotechnik, der einer Frau verliehen wurde. Sie entwickelte und verbreitete mathematische Methoden, die Berechnungen vereinfachten und den Zeitaufwand für die Lösung von Problemen beim Entwurf und Betrieb elektrischer Energiesysteme reduzierten.

Grace Murray Hopper (1906-1992) - Hopper erwarb 1930 einen MA und einen Ph.D. 1934 in Mathematik an der Yale University. 1967 schied sie im Rang eines Konteradmirals aus der Marine aus. Hopper entwickelte ein Compilersystem, das mathematischen Code in Maschinensprache übersetzte. Spätere Versionen, unter ihrer Leitung, wurde der Compiler zum Vorläufer moderner Programmiersprachen. Mit dem FLOW-MATIC leistete sie Pionierarbeit bei der Integration von Englisch in Programme. Hopper erhielt 1969 den Computer Sciences "Man of The Year Award". Sie war die erste Frau, die 1973 in die Distinguished Fellow British Computer Society aufgenommen wurde. Der Begriff "Bug" bezeichnet einen Fehler oder Defekt in einer Software, der dazu führt, dass ein Programm Fehlfunktion, entstand laut Computerfolklore, als Grace und ihr Team eine tote Motte fanden, die vom Relais "gezapft" worden war und das Gerät zum Versagen brachte.

Erna Hoover - erfand ein computergestütztes Vermittlungssystem für den Telefonverkehr. Für diese Leistung wurde ihr am 23. November 1971 das erste jemals erteilte Softwarepatent (Patent Nr. 3,623,007) zuerkannt. Sie war die erste weibliche Vorgesetzte einer technischen Abteilung (bei Bell Labs).

Kay McNulty Mauchly Antonelli und Alice Burks - erstellten im Rahmen der Kriegsanstrengungen Berechnungen für Tabellen der Schuss- und Bombenflugbahnen. Diese Arbeit führte 1946 zur Entwicklung des ENIAC, des weltweit ersten elektronischen Digitalcomputers.

Adele Goldstine - half bei der Erstellung des ENIAC und schrieb das Handbuch, um es zu verwenden.

Joan Margaret Winters - unter anderem wissenschaftliche Programmiererin in SLAC Computing Services am Stanford Linear Accelerator Center.

Alexandra Illmer Forsythe (1918-1980) - .In den 1960er und 1970er Jahren war sie Co-Autorin einer Reihe von Lehrbüchern über Informatik. Sie schrieb das erste Lehrbuch der Informatik.

Evelyn Boyd Granville - war eine der ersten afroamerikanischen Frauen, die einen Ph.D.in Mathematik. Während ihrer Karriere entwickelte sie Computerprogramme, die für die Flugbahnanalyse im Mercury-Projekt (der ersten bemannten US-Mission im Weltraum) und im Apollo-Projekt (das US-Astronauten zum Mond schickte) verwendet wurden.

Zeitleisten:
Zeitachse des Computerverlaufs
Zeitleiste der Ereignisse in der Computergeschichte
Computermuseen/Geschichte:
Generationen durch die Geschichte der Informatik - Machen Sie eine Tour durch Unternehmen und Computer haben uns dahin geführt, wo wir heute sind.
Triumph of the Nerds Online - Begleiter zur PBS-Serie
The Machine that Changed the World - begleitende Website zur Videoserie (Das Buch, das die Serie "Machine that Changed the World: The Dream Machine: Exploring the Computer Age. Jon Palfreman and Doron Swade. BBC Books, London, 1991) begleitete)
Das Ada-Projekt
UVA-Computermuseum
VA Tech-Geschichte der Computer


Erster Univac 1 an US Census Bureau geliefert

Der Univac 1 ist der erste kommerzielle Computer, der breite öffentliche Aufmerksamkeit erregt. Obwohl die Maschine von Remington Rand hergestellt wurde, wurde die Maschine oft fälschlicherweise als „der IBM Univac“ bezeichnet. Univac-Computer wurden in vielen verschiedenen Anwendungen eingesetzt, aber Versorgungsunternehmen, Versicherungsunternehmen und das US-Militär waren Hauptkunden. Ein Bibelgelehrter benutzte sogar einen Univac 1, um eine Konkordanz zur King-James-Version der Bibel zu erstellen. Der Univac 1 wurde von Presper Eckert und John Mauchly – den Designern des früheren ENIAC-Computers – entwickelt und verwendet 5.200 Vakuumröhren und wog 29.000 Pfund. Remington Rand verkaufte schließlich 46 Univac 1 zu jeweils mehr als 1 Million US-Dollar.


Digital Computing ist eng mit der Darstellung von Zahlen verbunden. [1] Aber lange bevor Abstraktionen wie die Nummer entstanden, gab es mathematische Konzepte, die den Zwecken der Zivilisation dienten. Diese Konzepte sind in konkreten Praktiken implizit wie:

  • Eins-zu-eins-Korrespondenz, [2] eine Regel zum Zählenwie viele Gegenstände, z.B. auf einem Zählstab, schließlich abstrahiert in Zahlen.
  • Vergleich mit einem Standard, [3] eine Methode zur Annahme Reproduzierbarkeit bei einer Messung beispielsweise die Anzahl der Münzen.
  • Die 3-4-5 rechtwinkliges Dreieck war ein Gerät zur Sicherstellung von a rechter Winkel, zum Beispiel mit Seilen mit 12 gleichmäßig verteilten Knoten. [4]

Schließlich wurde das Konzept der Zahlen konkret und vertraut genug, um das Zählen zu ermöglichen, manchmal mit Sing-Song-Mnemonik, um anderen Sequenzen beizubringen. Alle bekannten menschlichen Sprachen, mit Ausnahme der Piraha-Sprache, haben Wörter für mindestens "eins" und "zwei", und sogar einige Tiere wie die Amsel können eine überraschende Anzahl von Gegenständen unterscheiden. [5]

Fortschritte im Zahlensystem und in der mathematischen Notation führten schließlich zur Entdeckung mathematischer Operationen wie Addition, Subtraktion, Multiplikation, Division, Quadrierung, Quadratwurzel und so weiter. Schließlich wurden die Operationen formalisiert, und die Konzepte über die Operationen wurden gut genug verstanden, um formell erklärt und sogar bewiesen zu werden. Siehe zum Beispiel Euklids Algorithmus zum Finden des größten gemeinsamen Teilers zweier Zahlen.

Im Hochmittelalter hatte das positionelle hindu-arabische Zahlensystem Europa erreicht, das eine systematische Berechnung von Zahlen ermöglichte. Während dieser Zeit ermöglichte die Darstellung einer Rechnung auf Papier tatsächlich die Berechnung mathematischer Ausdrücke und die tabellarische Darstellung mathematischer Funktionen wie der Quadratwurzel und des gemeinsamen Logarithmus (zur Verwendung bei Multiplikation und Division) und der trigonometrischen Funktionen. Zur Zeit der Forschungen von Isaac Newton war Papier oder Pergament eine wichtige Computerressource, und selbst in unserer heutigen Zeit bedeckten Forscher wie Enrico Fermi zufällige Papierfetzen mit Berechnungen, um ihre Neugier auf eine Gleichung zu befriedigen. [6] Sogar in der Zeit der programmierbaren Taschenrechner berechnete Richard Feynman ohne zu zögern alle Schritte, die den Speicher der Taschenrechner überfluteten, von Hand, nur um die Antwort zu erfahren 1976 hatte Feynman einen HP-25-Rechner mit 49 Programmschritten gekauft Wenn eine Differentialgleichung mehr als 49 Schritte zum Lösen erforderte, konnte er seine Berechnungen einfach von Hand fortsetzen. [7]

Mathematische Aussagen brauchen nicht nur dann abstrakt zu sein, wenn eine Aussage mit tatsächlichen Zahlen illustriert werden kann, die Zahlen kommuniziert werden können und eine Gemeinschaft entstehen kann. Dies ermöglicht die wiederholbaren, überprüfbaren Aussagen, die das Markenzeichen von Mathematik und Naturwissenschaften sind. Diese Art von Aussagen gibt es seit Tausenden von Jahren und über mehrere Zivilisationen hinweg, wie unten gezeigt:

Das früheste bekannte Werkzeug zur Verwendung bei der Berechnung ist der sumerische Abakus, und es wurde angenommen, dass er in Babylon c erfunden wurde. 2700-2300 v. Chr. Seine ursprüngliche Nutzungsart bestand in Linien, die mit Kieselsteinen in Sand gezeichnet wurden. Abaci, modernerer Bauart, werden auch heute noch als Berechnungswerkzeuge verwendet. Dies war der erste bekannte Taschenrechner und das fortschrittlichste Berechnungssystem, das bis heute bekannt war - Archimedes um 2.000 Jahre voraus.

In c. 1050–771 v. Chr. wurde der nach Süden gerichtete Streitwagen im alten China erfunden. Es war der erste bekannte Getriebemechanismus, der ein Differentialgetriebe verwendet, das später in analogen Computern verwendet wurde. Die Chinesen erfanden auch einen komplexeren Abakus aus dem 2. Jahrhundert v. Chr., der als chinesischer Abakus bekannt ist. [8]

Im 5. Jahrhundert v. Chr. Im alten Indien formulierte der Grammatiker Pāṇini die Grammatik des Sanskrit in 3959 Regeln, die als Ashtadhyayi bekannt waren und stark systematisiert und technisch waren. Panini verwendete Metaregeln, Transformationen und Rekursionen. [9]

Im 3. Jahrhundert v. Chr. nutzte Archimedes das mechanische Gleichgewichtsprinzip (siehe Archimedes Palimpsest#Mathematical content), um mathematische Probleme wie die Anzahl der Sandkörner im Universum zu berechnen (Der Sandrechner), die auch eine rekursive Notation für Zahlen erforderte (z. B. die Myriade Myriade).

Der Antikythera-Mechanismus gilt als der früheste bekannte mechanische Analogcomputer. [10] Es wurde entwickelt, um astronomische Positionen zu berechnen. Es wurde 1901 im Wrack von Antikythera vor der griechischen Insel Antikythera zwischen Kythera und Kreta entdeckt und wurde auf zirka 100 v.Chr.

Mechanische analoge Computergeräte tauchten tausend Jahre später in der mittelalterlichen islamischen Welt wieder auf und wurden von muslimischen Astronomen entwickelt, wie das mechanische Getriebeastrolab von Abū Rayhān al-Bīrūnī [11] und das Torquetum von Jabir ibn Aflah. [12] Auch muslimische Mathematiker machten laut Simon Singh wichtige Fortschritte in der Kryptographie, wie etwa die Entwicklung der Kryptoanalyse und der Frequenzanalyse durch Alkindus. [13] [14] Programmierbare Maschinen wurden auch von muslimischen Ingenieuren erfunden, wie der automatische Flötenspieler der Brüder Banū Mūsā [15] und Al-Jazaris humanoide Roboter [ Zitat benötigt ] und Schlossuhr, der als erster programmierbarer Analogrechner gilt. [16]

Im Mittelalter versuchten mehrere europäische Philosophen, analoge Computergeräte herzustellen. Von Arabern und Scholastik beeinflusst, widmete der mallorquinische Philosoph Ramon Llull (1232–1315) einen großen Teil seines Lebens der Definition und Gestaltung mehrerer logische Maschinen die durch die Kombination einfacher und unbestreitbarer philosophischer Wahrheiten alle möglichen Erkenntnisse hervorbringen könnte. Diese Maschinen wurden nie wirklich gebaut, da sie eher ein Gedankenexperiment waren, um auf systematische Weise neues Wissen zu erzeugen, obwohl sie einfache logische Operationen durchführen konnten, brauchten sie immer noch einen Menschen zur Interpretation der Ergebnisse. Außerdem fehlte ihnen eine vielseitige Architektur, jede Maschine diente nur ganz konkreten Zwecken. Trotzdem hatte Llulls Werk einen starken Einfluss auf Gottfried Leibniz (frühes 18. Jahrhundert), der seine Ideen weiterentwickelte und daraus mehrere Rechenwerkzeuge baute.

Als John Napier im frühen 17. Jahrhundert Logarithmen für Rechenzwecke entdeckte, folgte eine Zeit beträchtlicher Fortschritte von Erfindern und Wissenschaftlern bei der Herstellung von Rechenwerkzeugen. Der Höhepunkt dieser frühen Ära des formalen Rechnens ist in der Differenz-Engine und ihrem Nachfolger, der analytischen Engine (die nie vollständig konstruiert wurde, aber im Detail entworfen wurde), beide von Charles Babbage, zu sehen. Der analytische Motor kombinierte Konzepte aus seiner Arbeit und denen anderer, um ein Gerät zu schaffen, das, wenn es wie geplant konstruiert wäre, viele Eigenschaften eines modernen elektronischen Computers besessen hätte. Zu diesen Eigenschaften gehören Funktionen wie ein interner "Scratch-Speicher", der dem RAM entspricht, mehrere Ausgabeformen, einschließlich einer Glocke, eines Graphenplotters und eines einfachen Druckers, und ein programmierbarer "harter" Speicher für Lochkarten, der modifiziert werden kann sowie lesen. Der entscheidende Fortschritt, den Babbages Geräte gegenüber den vor ihm entwickelten, hatten, bestand darin, dass jede Komponente des Geräts unabhängig vom Rest der Maschine war, ähnlich wie die Komponenten eines modernen elektronischen Computers. Dies war ein grundlegender Denkwandel, frühere Computergeräte dienten nur einem einzigen Zweck, mussten aber bestenfalls zerlegt und neu konfiguriert werden, um ein neues Problem zu lösen. Babbages Geräte könnten umprogrammiert werden, um neue Probleme durch die Eingabe neuer Daten zu lösen und auf frühere Berechnungen innerhalb derselben Reihe von Anweisungen zu reagieren. Ada Lovelace führte dieses Konzept noch einen Schritt weiter, indem sie ein Programm für die analytische Maschine zur Berechnung von Bernoulli-Zahlen entwickelte, eine komplexe Berechnung, die einen rekursiven Algorithmus erfordert. Dies gilt als das erste Beispiel für ein echtes Computerprogramm, eine Reihe von Anweisungen, die auf Daten einwirken, die nicht vollständig bekannt sind, bis das Programm ausgeführt wird. Nach Babbage, obwohl er sich seiner früheren Arbeit nicht bewusst war, veröffentlichte Percy Ludgate 1909 das zweite der einzigen zwei Designs für mechanische Analysemaschinen in der Geschichte. [17]

Mehrere Beispiele für analoge Berechnungen haben sich bis in die jüngste Zeit erhalten. Ein Planimeter ist ein Gerät, das Integrale macht, wobei der Abstand als analoge Größe verwendet wird. Bis in die 1980er Jahre nutzten HLK-Anlagen Luft sowohl als analoge Größe als auch als Stellglied. Im Gegensatz zu modernen digitalen Computern sind analoge Computer nicht sehr flexibel und müssen manuell umkonfiguriert (d. h. umprogrammiert) werden, um sie von der Bearbeitung eines Problems auf ein anderes umzuschalten. Analoge Computer hatten gegenüber frühen digitalen Computern den Vorteil, dass sie zur Lösung komplexer Probleme mithilfe von Verhaltensanalogen verwendet werden konnten, während die ersten Versuche mit digitalen Computern ziemlich begrenzt waren.

Da Computer zu dieser Zeit selten waren, waren die Lösungen oft hartcodiert in Papierformen wie Nomogramme [18], die dann analoge Lösungen für diese Probleme wie die Verteilung von Drücken und Temperaturen in einem Heizsystem liefern könnten.

Das „Gehirn“ [Computer] könnte eines Tages auf unsere Ebene [des einfachen Volkes] herunterkommen und bei unseren Einkommensteuer- und Buchhaltungsberechnungen helfen. Aber das sind Spekulationen und davon gibt es bisher keine Anzeichen.

Keines der frühen Computergeräte waren wirklich Computer im modernen Sinne, und es bedurfte beträchtlicher Fortschritte in Mathematik und Theorie, bevor die ersten modernen Computer entworfen werden konnten.

In einem Brief von 1886 beschrieb Charles Sanders Peirce, wie logische Operationen durch elektrische Schaltkreise ausgeführt werden könnten. [20] Während 1880-81 zeigte er, dass NOR-Gatter allein (oder alternativ NAND-Gatter allein) verwendet werden können, um die Funktionen aller anderen Logikgatter zu reproduzieren, aber diese Arbeit darüber war bis 1933 unveröffentlicht. [21] Die erste veröffentlichte Beweis wurde von Henry M. Sheffer im Jahr 1913, daher wird die logische NAND-Operation manchmal als Sheffer-Strich bezeichnet, das logische NOR wird manchmal genannt Peirces Pfeil. [22] Folglich werden diese Tore manchmal genannt universelle Logikgatter. [23]

Schließlich ersetzten Vakuumröhren Relais für logische Verknüpfungen. Lee De Forests Modifikation des Fleming-Ventils im Jahr 1907 kann als Logikgatter verwendet werden. Ludwig Wittgenstein führte eine Version der 16-zeiligen Wahrheitstabelle als Satz 5.101 von . ein Tractatus Logico-Philosophicus (1921). Walther Bothe, Erfinder der Koinzidenzschaltung, erhielt 1954 den Nobelpreis für Physik für das erste moderne elektronische UND-Gatter 1924. Konrad Zuse entwarf und baute elektromechanische Logikgatter für seinen Computer Z1 (von 1935–38).

Die erste aufgezeichnete Idee zur Verwendung digitaler Elektronik für Computer war das Papier "The Use of Thyratrons for High Speed ​​Automatic Counting of Physical Phenomena" von C. E. Wynn-Williams aus dem Jahr 1931. [24] Von 1934 bis 1936 veröffentlichte der NEC-Ingenieur Akira Nakashima eine Reihe von Veröffentlichungen zur Einführung der Schaltkreistheorie unter Verwendung digitaler Elektronik für boolesche algebraische Operationen Relais- und Schaltstromkreise". [28]

Im Jahr 1935 schrieb Alan Turing seine wegweisende Arbeit On Computable Numbers, with an Application to the Entscheidungsproblem [29], in der er Berechnungen in Bezug auf ein eindimensionales Speicherband modellierte, was zur Idee der universellen Turing-Maschine und Turing-vollständigen Systemen führte .

Der erste digitale elektronische Computer wurde im Zeitraum April 1936 - Juni 1939 in der IBM Patentabteilung, Endicott, New York von Arthur Halsey Dickinson entwickelt. [30] [31] [32] In diesem Computer stellte IBM erstmals ein Rechengerät mit Tastatur, Prozessor und elektronischer Ausgabe (Display) vor. Konkurrent von IBM war der digitale elektronische Computer NCR3566, entwickelt in NCR, Dayton, Ohio von Joseph Desch und Robert Mumma im Zeitraum April 1939 - August 1939. [33] [34] Die IBM- und NCR-Maschinen waren dezimal und führten Addition und Subtraktion aus im binären Positionscode.

Im Dezember 1939 stellten John Atanasoff und Clifford Berry ihr experimentelles Modell fertig, um das Konzept des Atanasoff-Berry-Computers zu beweisen. [35] Dieses experimentelle Modell ist binär, ausgeführte Addition und Subtraktion im oktalen Binärcode und ist das erste binäre digitale elektronische Rechengerät. Der Atanasoff-Berry-Computer sollte lineare Gleichungssysteme lösen, war jedoch nicht programmierbar und wurde nie fertiggestellt. [36] Der 1941 vom deutschen Erfinder Konrad Zuse gebaute Z3-Rechner war der erste programmierbare, vollautomatische Rechenautomat, jedoch nicht elektronisch.

Während des Zweiten Weltkriegs wurde ballistisches Rechnen von Frauen durchgeführt, die als "Computer" angeheuert wurden. Der Begriff Computer bezog sich bis 1945 hauptsächlich auf Frauen (jetzt als "Bediener"), danach nahm er die moderne Definition von Maschinen an, die er heute besitzt. [37]

Der ENIAC (Electronic Numerical Integrator And Computer) war der erste elektronische Allzweckcomputer, der 1946 der Öffentlichkeit vorgestellt wurde. Er war Turing-komplett, [ Zitat benötigt ] digital und kann umprogrammiert werden, um eine ganze Reihe von Computerproblemen zu lösen. Frauen implementierten die Programmierung für Maschinen wie die ENIAC und Männer erstellten die Hardware. [37]

Das Manchester Baby war der erste elektronische Computer mit gespeichertem Programm. Es wurde an der Victoria University of Manchester von Frederic C. Williams, Tom Kilburn und Geoff Tootill gebaut und führte sein erstes Programm am 21. Juni 1948 durch. [38]

William Shockley, John Bardeen und Walter Brattain von den Bell Labs erfanden 1947 den ersten funktionierenden Transistor, den Punktkontakttransistor, gefolgt von dem Bipolartransistor im Jahr 1948. [39] [40] 1953 an der University of Manchester, a Team unter der Leitung von Tom Kilburn entwarf und baute den ersten Transistorcomputer, den sogenannten Transistor Computer, eine Maschine, die die neu entwickelten Transistoren anstelle von Ventilen verwendet. [41] Der erste speicherprogrammierbare Transistorcomputer war der ETL Mark III, der von 1954 [45] bis 1956 vom japanischen Electrotechnical Laboratory [42] [43] [44] entwickelt wurde. [43] Frühe Sperrschichttransistoren waren jedoch relativ sperrige Geräte die schwer in Massenproduktion herzustellen waren, was sie auf eine Reihe von Spezialanwendungen beschränkte. [46]

Im Jahr 1954 wurden 95 % der in Betrieb befindlichen Computer für technische und wissenschaftliche Zwecke verwendet. [47]

Personalcomputer Bearbeiten

Der Metall-Oxid-Silizium-Feldeffekttransistor (MOSFET), auch bekannt als MOS-Transistor, wurde 1959 von Mohamed Atalla und Dawon Kahng in den Bell Labs erfunden. [48] [49] Es war der erste wirklich kompakte Transistor, der Miniaturisierung und Massenproduktion für eine Vielzahl von Anwendungen. [46] Der MOSFET machte es möglich, hochdichte integrierte Schaltungschips zu bauen. [50] [51] Der MOSFET führte später zur Mikrocomputerrevolution, [52] und wurde zur treibenden Kraft hinter der Computerrevolution. [53] [54] Der MOSFET ist der am weitesten verbreitete Transistor in Computern, [55] [56] und ist der grundlegende Baustein der digitalen Elektronik. [57]

Die 1960 von Mohamed Atalla erstmals vorgeschlagene integrierte MOS-Schaltung [46] führte zur Erfindung des Mikroprozessors. [58] [59] Die integrierte Silizium-Gate-MOS-Schaltung wurde 1968 von Federico Faggin bei Fairchild Semiconductor entwickelt. [60] Dies führte zur Entwicklung des ersten Einchip-Mikroprozessors, dem Intel 4004. [58] Es begann mit das "Busicom-Projekt" [61] als Drei-Chip-CPU-Design von Masatoshi Shima 1968, [62] [61] bevor Tadashi Sasaki von Sharp ein Ein-Chip-CPU-Design konzipierte, das er 1968 mit Busicom und Intel diskutierte. [63 ] Der Intel 4004 wurde dann von 1969 bis 1970 als Ein-Chip-Mikroprozessor entwickelt, angeführt von Intels Federico Faggin, Marcian Hoff und Stanley Mazor und Busicoms Masatoshi Shima. [61] Der Chip wurde hauptsächlich von Faggin mit seiner Silizium-Gate-MOS-Technologie entworfen und realisiert. [58] Der Mikroprozessor führte zur Mikrocomputerrevolution mit der Entwicklung des Mikrocomputers, der später als Personal Computer (PC) bezeichnet wurde.

Die meisten frühen Mikroprozessoren, wie Intel 8008 und Intel 8080, waren 8-Bit. Texas Instruments veröffentlichte im Juni 1976 den ersten vollständig 16-Bit-Mikroprozessor, den TMS9900-Prozessor. [64] Sie verwendeten den Mikroprozessor in den Computern TI-99/4 und TI-99/4A.

Die 1980er Jahre brachten bedeutende Fortschritte mit Mikroprozessoren, die einen großen Einfluss auf die Gebiete der Ingenieurwissenschaften und anderer Wissenschaften hatten. Der Mikroprozessor Motorola 68000 hatte eine Verarbeitungsgeschwindigkeit, die den anderen damals verwendeten Mikroprozessoren weit überlegen war. Aus diesem Grund ermöglichte es ein neuer, schnellerer Mikroprozessor, dass die neueren Mikrocomputer, die danach kamen, effizienter in der Rechenleistung waren, die sie ausführen konnten. Dies wurde in der Veröffentlichung der Apple Lisa 1983 deutlich. Der Lisa war der erste PC mit einer grafischen Benutzeroberfläche (GUI), der kommerziell verkauft wurde. Es lief auf der Motorola 68000 CPU und nutzte sowohl zwei Diskettenlaufwerke als auch eine 5-MB-Festplatte als Speicher. Die Maschine verfügte auch über 1 MB RAM, um Software von der Festplatte auszuführen, ohne die Festplatte dauerhaft neu zu lesen. [65] Nach dem Misserfolg der Lisa in Bezug auf den Verkauf veröffentlichte Apple seinen ersten Macintosh-Computer, der immer noch auf dem Motorola 68000-Mikroprozessor läuft, aber mit nur 128 KB RAM, einem Diskettenlaufwerk und keiner Festplatte, um den Preis zu senken .

In den späten 1980er und frühen 1990er Jahren sehen wir weitere Fortschritte bei Computern, die für tatsächliche Rechenzwecke nützlicher werden. [ Klärung nötig ] 1989 brachte Apple den Macintosh Portable auf den Markt, er wog 7,3 kg und war mit 7.300 US-Dollar extrem teuer. Bei der Markteinführung war es einer der leistungsstärksten Laptops auf dem Markt, aber aufgrund des Preises und des Gewichts hatte es keinen großen Erfolg und wurde nur zwei Jahre später eingestellt. Im selben Jahr stellte Intel den Supercomputer Touchstone Delta vor, der über 512 Mikroprozessoren verfügte. Dieser technologische Fortschritt war sehr bedeutend, da er als Modell für einige der schnellsten Multiprozessorsysteme der Welt verwendet wurde. Es wurde sogar als Prototyp für Caltech-Forscher verwendet, die das Modell für Projekte wie die Echtzeitverarbeitung von Satellitenbildern und die Simulation von molekularen Modellen für verschiedene Forschungsbereiche nutzten.

Supercomputer Bearbeiten

In Bezug auf Supercomputing war der erste weithin anerkannte Supercomputer der 1964 von Seymour Cray gebaute Control Data Corporation (CDC) 6600 [66]. Seine maximale Geschwindigkeit betrug 40 MHz oder 3 Millionen Gleitkommaoperationen pro Sekunde (Flops). Der CDC 6600 wurde 1969 durch den CDC 7600 ersetzt [67] obwohl seine normale Taktrate nicht schneller war als der 6600, war der 7600 aufgrund seiner Spitzentaktrate immer noch schneller, die ungefähr 30-mal schneller war als die des 6600. Obwohl CDC führend bei Supercomputern war, brach ihre Beziehung zu Seymour Cray (die sich bereits verschlechtert hatte) vollständig zusammen. 1972 verließ Cray CDC und gründete sein eigenes Unternehmen, Cray Research Inc. [68] Mit Unterstützung von Investoren in der Wall Street, einer Branche, die vom Kalten Krieg angetrieben wurde, und ohne die Einschränkungen, die er innerhalb von CDC hatte, schuf er das Cray-1 Supercomputer. Mit einer Taktrate von 80 MHz oder 136 MegaFLOPS hat sich Cray in der Computerwelt einen Namen gemacht. 1982 produzierte Cray Research den mit Multiprocessing ausgestatteten Cray X-MP und brachte 1985 den Cray-2 auf den Markt, der den Trend des Multiprocessing fortsetzte und mit 1,9 GigaFLOPS getaktet wurde. Cray Research entwickelte 1988 den Cray Y-MP, hatte jedoch danach Schwierigkeiten, weiterhin Supercomputer zu produzieren. Dies lag vor allem daran, dass der Kalte Krieg zu Ende war und die Nachfrage nach modernster Computertechnik von Hochschulen und der Regierung drastisch zurückging und die Nachfrage nach Mikroprozessoren stieg.

Heute werden Supercomputer immer noch von Regierungen der Welt und Bildungseinrichtungen für Berechnungen wie Simulationen von Naturkatastrophen, Suche nach genetischen Varianten innerhalb einer Bevölkerung im Zusammenhang mit Krankheiten und mehr verwendet. Ab November 2020 [Update] ist Fugaku der schnellste Supercomputer.

Ausgehend von bekannten Spezialfällen kann die Berechnung von Logarithmen und trigonometrischen Funktionen durch Nachschlagen von Zahlen in einer mathematischen Tabelle und Interpolation zwischen bekannten Fällen durchgeführt werden. Für die Unterschiede, die klein genug waren, war diese lineare Operation genau genug für die Verwendung in der Navigation und Astronomie im Zeitalter der Erforschung. Die Verwendung der Interpolation hat sich in den letzten 500 Jahren weiterentwickelt: Im 20. Jahrhundert haben Leslie Comrie und W.J. Eckert die Verwendung der Interpolation in Zahlentabellen für die Lochkartenberechnung systematisiert.

Die numerische Lösung von Differentialgleichungen, insbesondere der Navier-Stokes-Gleichungen, war ein wichtiger Anreiz für die Berechnung mit Lewis Fry Richardsons numerischem Ansatz zur Lösung von Differentialgleichungen. Die erste computergestützte Wettervorhersage wurde 1950 von einem Team durchgeführt, das aus den amerikanischen Meteorologen Jule Charney, Philip Thompson, Larry Gates und dem norwegischen Meteorologen Ragnar Fjørtoft, dem angewandten Mathematiker John von Neumann und der ENIAC-Programmiererin Klara Dan von Neumann bestand. [69] [70] [71] Bis heute werden einige der leistungsfähigsten Computersysteme der Erde für Wettervorhersagen verwendet. [ Zitat benötigt ]

In den späten 1960er Jahren konnten Computersysteme symbolische algebraische Manipulationen gut genug ausführen, um Mathematikkurse auf College-Niveau zu bestehen. [ Zitat benötigt ]

Frauen sind in MINT-Bereichen im Vergleich zu ihren männlichen Kollegen oft unterrepräsentiert. [72] In der Neuzeit vor den 1960er Jahren wurde Computer allgemein als "Frauenarbeit" angesehen, da sie mit der Bedienung von Tabelliermaschinen und anderen mechanischen Büroarbeiten in Verbindung gebracht wurde. [73] [74] Die Genauigkeit dieser Assoziation variierte von Ort zu Ort. In Amerika erinnerte sich Margaret Hamilton an eine von Männern dominierte Umgebung [75], während Elsie Shutt sich überraschte, dass sogar die Hälfte der Computerbediener bei Raytheon Männer waren. [76] Maschinenführer in Großbritannien waren bis in die frühen 1970er Jahre überwiegend Frauen. [77] Als sich diese Wahrnehmungen änderten und Computer zu einem hochrangigen Beruf wurden, wurde das Feld mehr von Männern dominiert. [78] [79] [80] Professor Janet Abbate, in ihrem Buch Geschlecht neu kodieren, schreibt:

Dennoch waren Frauen in den frühen Jahrzehnten der Informatik eine bedeutende Rolle. Sie stellten die Mehrheit der ersten Computerprogrammierer während des Zweiten Weltkriegs. Sie hatten verantwortungsvolle und einflussreiche Positionen in der frühen Computerindustrie inne und waren in einer Zahl beschäftigt, die, obwohl eine kleine Minderheit der Gesamtzahl, im Vergleich zur Vertretung von Frauen in vielen anderen günstig war naturwissenschaftlichen und ingenieurwissenschaftlichen Bereichen. Einige Programmiererinnen der 1950er und 1960er Jahre hätten sich über die Vorstellung lustig gemacht, dass Programmieren jemals als männlicher Beruf angesehen werden würde, doch die Erfahrungen und Beiträge dieser Frauen gerieten allzu schnell in Vergessenheit. [81]


Harte, gefährliche und langweilige Jobs haben abgenommen

Technologie ersetzt Muskelkraft. Abbildung: Eigene Berechnungen des Autors anhand von Volkszählungsdaten

In einigen Sektoren hat Technologie ganz klar Arbeitsplätze gekostet, aber Stewart und seine Kollegen fragen sich, ob es wirklich Arbeitsplätze sind, an denen wir festhalten wollen. Technologie ersetzt direkt die menschliche Muskelkraft und steigert so die Produktivität und schrumpft die Beschäftigung.

„Im Vereinigten Königreich war die Landwirtschaft der erste Sektor, der diesen Effekt in irgendeiner Größenordnung spürte“, heißt es in der Studie.

Im Jahr 1871 wurden 6,6% der Arbeitskräfte von England und Wales als Landarbeiter eingestuft. Heute ist dieser Wert auf 0,2 % gesunken, ein Rückgang von 95 %.

Schluss mit dem lästigen Händewaschen. Foto: Aufzeichnungen der Volkszählung von England und Wales, Berechnungen der Autoren

Die Volkszählungsdaten geben auch einen Einblick in die Auswirkungen auf die Arbeitsplätze in einem einst großen, aber heute fast vergessenen Sektor. Im Jahr 1901 waren bei einer Bevölkerung von 32,5 Millionen in England und Wales 200.000 Menschen mit dem Waschen von Kleidung beschäftigt. Im Jahr 2011 arbeiteten bei einer Bevölkerung von 56,1 Millionen nur 35.000 Menschen in der Branche.

„Eine Kollision von Technologien, Inneninstallationen, Elektrizität und die erschwingliche automatische Waschmaschine haben große Wäschereien und die Plackerei des Händewaschens fast ausgezahlt“, heißt es in dem Bericht.


Inhalt

Antike und mittelalterliche Bearbeiten

Geräte werden seit Tausenden von Jahren verwendet, um Berechnungen zu unterstützen, meist unter Verwendung einer Eins-zu-Eins-Entsprechung mit den Fingern. Das früheste Zählgerät war wahrscheinlich eine Art Zählstab. Der Lebombo-Knochen aus den Bergen zwischen Swasiland und Südafrika ist möglicherweise das älteste bekannte mathematische Artefakt. [2] Es stammt aus 35.000 v. Chr. und besteht aus 29 verschiedenen Kerben, die absichtlich in die Fibula eines Pavians geschnitten wurden. [3] [4] Spätere Aufzeichnungshilfen im gesamten Fruchtbaren Halbmond umfassten Kalküle (Tonkugeln, Kegel usw.), die die Zählung von Gegenständen darstellten, wahrscheinlich Vieh oder Getreide, die in hohlen ungebackenen Tonbehältern versiegelt waren. [b] [6] [c] Der Einsatz von Zählstäben ist ein Beispiel. Der Abakus wurde schon früh für Rechenaufgaben verwendet. Was wir heute den römischen Abakus nennen, wurde in Babylonien bereits um ca. 2700-2300 v. Chr. Seitdem wurden viele andere Formen von Rechenbrettern oder Tabellen erfunden. In einem mittelalterlichen europäischen Zählhaus wurde ein kariertes Tuch auf einen Tisch gelegt und nach bestimmten Regeln Markierungen darauf bewegt, um Geldbeträge zu berechnen.

Mehrere analoge Computer wurden in der Antike und im Mittelalter gebaut, um astronomische Berechnungen durchzuführen. Dazu gehörten das Astrolabium und der Antikythera-Mechanismus aus der hellenistischen Welt (ca. 150–100 v. Chr.). [8] Im römischen Ägypten stellte Hero of Alexandria (ca. 10–70 n. Chr.) mechanische Geräte wie Automaten und einen programmierbaren Wagen her. [9] Andere frühe mechanische Geräte, die verwendet wurden, um die eine oder andere Art von Berechnungen durchzuführen, umfassen die Planisphäre und andere mechanische Computergeräte, die von Abu Rayhan al-Biruni (ca. 1000 n. Chr.) erfunden wurden, das Äquatorium und das universelle Breitengrad-unabhängige Astrolabium von Abū Ishāq Ibrāhīm al -Zarqālī (ca. 1015) die astronomischen Analogcomputer anderer mittelalterlicher muslimischer Astronomen und Ingenieure und der astronomische Glockenturm von Su Song (1094) während der Song-Dynastie. Die Schlossuhr, eine mit Wasserkraft betriebene mechanische astronomische Uhr, die 1206 von Ismail al-Jazari erfunden wurde, war der erste programmierbare Analogcomputer. [10] [11] [12] Ramon Llull erfand den Lullian Circle: eine fiktive Maschine zur Berechnung von Antworten auf philosophische Fragen (in diesem Fall zum Christentum) mittels logischer Kombinatorik. Diese Idee wurde Jahrhunderte später von Leibniz aufgegriffen und ist damit eines der Grundelemente der Informatik und Informationswissenschaft.

Renaissance-Rechenwerkzeuge Bearbeiten

Der schottische Mathematiker und Physiker John Napier entdeckte, dass die Multiplikation und Division von Zahlen durch Addition bzw. Subtraktion der Logarithmen dieser Zahlen durchgeführt werden kann. Bei der Erstellung der ersten logarithmischen Tabellen musste Napier viele mühsame Multiplikationen durchführen. An diesem Punkt entwarf er seine "Napier's bones", ein abakusähnliches Gerät, das Berechnungen mit Multiplikation und Division stark vereinfachte. [D]

Da reelle Zahlen als Abstände oder Intervalle auf einer Linie dargestellt werden können, wurde in den 1620er Jahren, kurz nach Napiers Arbeit, der Rechenschieber erfunden, um Multiplikations- und Divisionsoperationen deutlich schneller als bisher möglich durchzuführen. [13] Edmund Gunter baute an der Universität Oxford ein Rechengerät mit einer einzigen logarithmischen Skala. Sein Gerät vereinfachte arithmetische Berechnungen, einschließlich Multiplikation und Division, erheblich. William Oughtred verbesserte dies 1630 mit seinem kreisförmigen Rechenschieber erheblich. Dem folgte 1632 der moderne Rechenschieber, im Wesentlichen eine Kombination aus zwei Gunter-Regeln, die mit den Händen zusammengehalten werden. Rechenschieber wurden von Generationen von Ingenieuren und anderen mathematisch engagierten Fachleuten bis zur Erfindung des Taschenrechners verwendet. [14]

Mechanische Taschenrechner Bearbeiten

Wilhelm Schickard, ein deutscher Universalgelehrter, entwarf 1623 eine Rechenmaschine, die eine mechanisierte Form der Napier-Ruten mit der weltweit ersten mechanischen Addiermaschine kombinierte, die in die Basis eingebaut war. Da es sich um ein Einzelzahnrad handelte, gab es Umstände, unter denen sein Tragemechanismus klemmen würde. [15] Ein Brand zerstörte 1624 mindestens eine der Maschinen und es wird vermutet, dass Schickard zu entmutigt war, um eine weitere zu bauen.

Im Jahr 1642, noch als Teenager, begann Blaise Pascal mit einigen Pionierarbeiten an Rechenmaschinen und erfand nach drei Jahren Arbeit und 50 Prototypen [16] einen mechanischen Taschenrechner. [17] [18] Er baute in den folgenden zehn Jahren zwanzig dieser Maschinen (genannt Pascals Taschenrechner oder Pascaline). [19] Neun Pascalines sind erhalten geblieben, von denen die meisten in europäischen Museen ausgestellt sind. [20] Es gibt eine anhaltende Debatte darüber, ob Schickard oder Pascal als "Erfinder des mechanischen Taschenrechners" angesehen werden sollte, und die zu berücksichtigenden Fragen werden an anderer Stelle erörtert. [21]

Gottfried Wilhelm von Leibniz erfand um 1672 den Stufenrechner und seinen berühmten Stufentrommelmechanismus. Er versuchte, eine Maschine zu entwickeln, die nicht nur zum Addieren und Subtrahieren verwendet werden konnte, sondern einen beweglichen Schlitten verwendet, um lange Multiplikationen und Divisionen zu ermöglichen. Leibniz hat einmal gesagt: "Es ist ausgezeichneter Männer unwürdig, Stunden wie Sklaven in der Rechenarbeit zu verlieren, die mit Maschinen getrost jedem anderen überlassen werden könnten." [22] Leibniz hat jedoch keinen vollständig erfolgreichen Carry-Mechanismus eingebaut. Leibniz beschrieb auch das binäre Zahlensystem, [23] ein zentraler Bestandteil aller modernen Computer. Bis in die 1940er Jahre basierten jedoch viele nachfolgende Designs (einschließlich der Maschinen von Charles Babbage von 1822 und sogar ENIAC von 1945) auf dem Dezimalsystem. [e]

Um 1820 schuf Charles Xavier Thomas de Colmar das, was im weiteren Verlauf des Jahrhunderts der erste erfolgreiche mechanische Taschenrechner in Massenproduktion werden sollte, das Thomas Arithmometer. Es könnte verwendet werden, um zu addieren und zu subtrahieren, und mit einem beweglichen Wagen könnte der Operator auch multiplizieren und dividieren durch einen Prozess der langen Multiplikation und der langen Division. [24] Es verwendete eine gestufte Trommel, die in ihrer Konzeption der von Leibniz erfundenen ähnelte. Mechanische Rechenmaschinen blieben bis in die 1970er Jahre im Einsatz.

Lochkartendatenverarbeitung Bearbeiten

1804 entwickelte der französische Weber Joseph Marie Jacquard einen Webstuhl, bei dem das zu gewebte Muster durch ein aus Lochkarten hergestelltes Papierband kontrolliert wurde. Das Papierband konnte gewechselt werden, ohne die mechanische Konstruktion des Webstuhls zu ändern. Dies war ein Meilenstein in der Programmierbarkeit. Seine Maschine war eine Verbesserung gegenüber ähnlichen Webstühlen. Gelochten Karten gingen Lochstreifen voraus, wie in der von Basile Bouchon vorgeschlagenen Maschine. Diese Bänder würden die Informationsaufzeichnung für automatische Klaviere und neuere numerisch gesteuerte Werkzeugmaschinen inspirieren.

Ende der 1880er Jahre erfand der Amerikaner Herman Hollerith die Datenspeicherung auf Lochkarten, die dann von einer Maschine gelesen werden konnten. [25] Um diese Lochkarten zu verarbeiten, erfand er den Tabulator und die Keypunch-Maschine. Seine Maschinen verwendeten elektromechanische Relais und Zähler. [26] Holleriths Methode wurde 1890 bei der Volkszählung der Vereinigten Staaten verwendet. Diese Volkszählung wurde zwei Jahre schneller verarbeitet als die vorherige Volkszählung. [27] Holleriths Unternehmen wurde schließlich zum Kern von IBM.

Bis 1920 konnten elektromechanische Tabelliermaschinen akkumulierte Summen addieren, subtrahieren und drucken. [28] Die Maschinenfunktionen wurden durch das Einfügen von Dutzenden von Drahtbrücken in abnehmbare Bedienfelder gesteuert. Als die Vereinigten Staaten 1935 die Sozialversicherung einführten, wurden IBM-Lochkartensysteme verwendet, um die Aufzeichnungen von 26 Millionen Arbeitnehmern zu verarbeiten. [29] Lochkarten wurden in der Industrie und in der Regierung für Buchhaltung und Verwaltung allgegenwärtig.

Leslie Comries Artikel über Lochkartenmethoden und W. J. Eckerts Veröffentlichung von Lochkartenmethoden in der wissenschaftlichen Berechnung 1940 beschrieben Lochkartentechniken, die ausreichend fortgeschritten sind, um einige Differentialgleichungen zu lösen [30] oder Multiplikationen und Divisionen unter Verwendung von Gleitkommadarstellungen durchzuführen, alle auf Lochkarten und Einheitsaufzeichnungsmaschinen. Solche Maschinen wurden während des Zweiten Weltkriegs für die kryptografische statistische Verarbeitung sowie für eine Vielzahl von Verwaltungszwecken verwendet. Das Astronomical Computing Bureau der Columbia University führte astronomische Berechnungen durch, die den neuesten Stand der Computertechnik repräsentieren. [31] [32]

Taschenrechner Bearbeiten

Bis zum 20. Jahrhundert wurden frühere mechanische Taschenrechner, Registrierkassen, Buchhaltungsmaschinen usw. umgestaltet, um Elektromotoren zu verwenden, wobei die Gangposition als Darstellung für den Zustand einer Variablen diente. Das Wort "Computer" war eine Berufsbezeichnung, die hauptsächlich Frauen zugewiesen wurde, die diese Taschenrechner benutzten, um mathematische Berechnungen durchzuführen. [33] In den 1920er Jahren führte das Interesse des britischen Wissenschaftlers Lewis Fry Richardson für die Wettervorhersage dazu, dass er menschliche Computer und numerische Analysen vorschlug, um das Wetter bis heute zu modellieren. Stokes-Gleichungen. [34]

Firmen wie Friden, Marchant Calculator und Monroe stellten ab den 1930er Jahren mechanische Tischrechner her, die addieren, subtrahieren, multiplizieren und dividieren konnten. [35] 1948 wurde die Curta vom österreichischen Erfinder Curt Herzstark eingeführt. Es war ein kleiner mechanischer Taschenrechner mit Handkurbel und als solcher ein Nachkomme von Gottfried Leibniz' Stufenrechnung und Thomas' Arithmometer.

Die weltweit erste vollelektronischer Desktop Rechner war der 1961 veröffentlichte britische Bell Punch ANITA. [36] [37] Er verwendete Vakuumröhren, Kaltkathodenröhren und Dekatrons in seinen Schaltungen, mit 12 Kaltkathoden-"Nixie"-Röhren für seine Anzeige. Der ANITA verkaufte sich gut, da er der einzige verfügbare elektronische Tischrechner war und leise und schnell war. Die Röhrentechnologie wurde im Juni 1963 durch den in den USA hergestellten Friden EC-130 abgelöst, der ein reines Transistordesign hatte, einen Stapel von vier 13-stelligen Zahlen, die auf einer 5-Zoll (13 cm) CRT angezeigt wurden, und die umgekehrte polnische Notation einführte (RPN).

Charles Babbage, ein englischer Maschinenbauingenieur und Universalgelehrter, hat das Konzept eines programmierbaren Computers erfunden. Er gilt als "Vater des Computers" [38] und konzipierte und erfand im frühen 19. Jahrhundert den ersten mechanischen Computer. Nachdem er an seiner revolutionären Differenzmaschine gearbeitet hatte, die bei Navigationsberechnungen helfen sollte, erkannte er 1833, dass ein viel allgemeineres Design, eine analytische Maschine, möglich war. Die Eingabe von Programmen und Daten sollte über Lochkarten an die Maschine erfolgen, ein Verfahren, das seinerzeit bei mechanischen Webstühlen wie dem Jacquard-Webstuhl zum Einsatz kam. Zur Ausgabe hätte die Maschine einen Drucker, einen Kurvenplotter und eine Glocke. Die Maschine könnte auch Zahlen auf Karten stanzen, um sie später einzulesen. Es verwendete gewöhnliche Festpunktarithmetik zur Basis 10.

Die Engine enthielt eine arithmetische Logikeinheit, einen Kontrollfluss in Form von bedingten Verzweigungen und Schleifen sowie einen integrierten Speicher und war damit der erste Entwurf für einen Allzweckcomputer, der in modernen Begriffen als Turing-vollständig bezeichnet werden könnte. [39] [40]

Es sollte einen Speicher geben, der 1.000 Zahlen mit je 40 Dezimalstellen (ca. 16,7 kB) aufnehmen kann. Eine arithmetische Einheit, die "Mühle" genannt wird, könnte alle vier arithmetischen Operationen plus Vergleiche und optional Quadratwurzeln ausführen. Ursprünglich war es als Differenzmotor konzipiert, der sich in einem im Allgemeinen kreisförmigen Grundriss [41] in sich selbst zurückkrümmte, wobei der lange Laden zu einer Seite austrat. (Spätere Zeichnungen zeigen ein reguläres Rasterlayout.) [42] Wie die zentrale Verarbeitungseinheit (CPU) in einem modernen Computer würde sich die Fabrik auf ihre eigenen internen Prozeduren verlassen, die ungefähr dem Mikrocode in modernen CPUs entsprechen, um in der Form gespeichert zu werden von Stiften, die in rotierende Trommeln, sogenannte "Fässer", eingesetzt werden, um einige der komplexeren Anweisungen auszuführen, die das Benutzerprogramm möglicherweise vorgibt. [43]

Die von den Benutzern zu verwendende Programmiersprache war mit modernen Assemblersprachen verwandt. Schleifen und bedingte Verzweigungen waren möglich, und so wäre die konzipierte Sprache Turing-vollständig gewesen, wie später von Alan Turing definiert. Es wurden drei verschiedene Lochkartentypen verwendet: eine für Rechenoperationen, eine für numerische Konstanten und eine für Lade- und Speicheroperationen, die Zahlen vom Speicher in die Recheneinheit oder zurück übertragen.Es gab drei separate Leser für die drei Kartentypen.

Die Maschine war ihrer Zeit etwa ein Jahrhundert voraus. Das Projekt wurde jedoch durch verschiedene Probleme gebremst, darunter Streitigkeiten mit dem Chefmaschinenbauer, der Teile dafür baute. Alle Teile für seine Maschine mussten von Hand gefertigt werden – das war bei einer Maschine mit Tausenden von Teilen ein großes Problem. Schließlich wurde das Projekt mit der Entscheidung der britischen Regierung aufgelöst, die Finanzierung einzustellen. Babbages Scheitern, die analytische Maschine zu vervollständigen, ist vor allem auf politische und finanzielle Schwierigkeiten zurückzuführen, sondern auch auf seinen Wunsch, einen immer ausgeklügelteren Computer zu entwickeln und schneller voranzukommen, als jeder andere folgen könnte. Ada Lovelace übersetzte und fügte dem "Skizze der Analytical Engine" von Luigi Federico Menabrea. Dies scheint die erste veröffentlichte Beschreibung der Programmierung zu sein, daher wird Ada Lovelace weithin als die erste Computerprogrammiererin angesehen. [44]

Auf Babbage folgte Percy Ludgate, ein Angestellter eines Maishändlers in Dublin, Irland, obwohl er sich seiner früheren Arbeit nicht bewusst war. Er entwarf unabhängig einen programmierbaren mechanischen Computer, den er in einer 1909 veröffentlichten Arbeit beschrieb. [45] [46]

In der ersten Hälfte des 20. Jahrhunderts galten analoge Computer vielen als die Zukunft der Computertechnik. Diese Geräte nutzten die sich ständig ändernden Aspekte physikalischer Phänomene wie elektrische, mechanische oder hydraulische Größen, um das zu lösende Problem zu modellieren, im Gegensatz zu digitalen Computern, die variierende Größen symbolisch darstellten, wenn sich ihre Zahlenwerte ändern. Da ein analoger Computer keine diskreten Werte verwendet, sondern kontinuierliche Werte, können Prozesse nicht wie bei Turing-Maschinen zuverlässig mit exakter Äquivalenz wiederholt werden. [47]

Der erste moderne analoge Computer war eine Gezeitenvorhersagemaschine, die 1872 von Sir William Thomson, dem späteren Lord Kelvin, erfunden wurde großer Nutzen für die Navigation in seichten Gewässern. Sein Gerät war die Grundlage für weitere Entwicklungen im analogen Rechnen. [48]

Der Differentialanalysator, ein mechanischer Analogcomputer, der entwickelt wurde, um Differentialgleichungen durch Integration mit Rad-und-Scheibe-Mechanismen zu lösen, wurde 1876 von James Thomson, dem Bruder des berühmteren Lord Kelvin, konzipiert. Er untersuchte die mögliche Konstruktion solcher Rechner, wurde jedoch durch das begrenzte Ausgangsdrehmoment der Kugel- und Scheibenintegratoren behindert. [49] In einem Differentialanalysator steuerte der Ausgang eines Integrators den Eingang des nächsten Integrators oder einen grafischen Ausgang.

Ein wichtiger Fortschritt im analogen Computing war die Entwicklung der ersten Feuerleitsysteme für den Langstrecken-Schiffskanonieren. Als die Reichweite der Geschütze Ende des 19. Jahrhunderts dramatisch zunahm, war es angesichts der Flugzeiten der Granaten nicht mehr einfach, den richtigen Zielpunkt zu berechnen. Verschiedene Beobachter an Bord des Schiffes würden Entfernungsmessungen und Beobachtungen an eine zentrale Plotstation weiterleiten. Dort fütterten die Feuerleitteams Standort, Geschwindigkeit und Richtung des Schiffes und seines Ziels sowie verschiedene Anpassungen für Coriolis-Effekt, Wettereffekte auf die Luft und andere Anpassungen, der Computer gab dann eine Schusslösung aus, die so lautete: den Türmen zum Verlegen zugeführt. 1912 entwickelte der britische Ingenieur Arthur Pollen den ersten elektrisch betriebenen mechanischen Analogcomputer (damals Argo Clock). [ Zitat benötigt ] Es wurde von der kaiserlich-russischen Marine im Ersten Weltkrieg eingesetzt. [ Zitat benötigt ] Das alternative Feuerleitsystem Dreyer Table wurde bis Mitte 1916 auf britischen Großkampfschiffen installiert.

Mechanische Geräte wurden auch verwendet, um die Genauigkeit von Luftangriffen zu unterstützen. Drift Sight war das erste solche Hilfsmittel, das 1916 von Harry Wimperis für den Royal Naval Air Service entwickelt wurde. Es maß die Windgeschwindigkeit aus der Luft und verwendete diese Messung, um die Auswirkungen des Windes auf die Flugbahn der Bomben zu berechnen. Das System wurde später mit dem Course Setting Bomb Sight verbessert und erreichte einen Höhepunkt mit Bombenvisieren aus dem Zweiten Weltkrieg, Mark XIV Bombenvisier (RAF Bomber Command) und Norden [50] (United States Army Air Forces).

Die Kunst des mechanischen Analogrechnens erreichte ihren Höhepunkt mit dem Differentialanalysator [51], der ab 1927 von H. L. Hazen und Vannevar Bush am MIT gebaut wurde und auf den mechanischen Integratoren von James Thomson und den von H. W. Nieman erfundenen Drehmomentverstärkern aufbaute. Ein Dutzend dieser Geräte wurde gebaut, bevor ihre Veralterung offensichtlich wurde, das leistungsstärkste wurde an der Moore School of Electrical Engineering der University of Pennsylvania gebaut, wo das ENIAC gebaut wurde.

Ein vollelektronischer Analogrechner wurde 1942 von Helmut Hölzer im Heeresforschungszentrum Peenemünde gebaut. [52] [53] [54]

In den 1950er Jahren hatte der Erfolg digitaler elektronischer Computer das Ende der meisten analogen Rechenmaschinen bedeutet, aber hybride analoge Computer, die von digitaler Elektronik gesteuert wurden, blieben bis in die 1950er und 1960er Jahre und später in einigen spezialisierten Anwendungen in erheblichem Umfang im Einsatz.

Das Prinzip des modernen Computers wurde erstmals von dem Informatiker Alan Turing beschrieben, der die Idee 1936 in seiner wegweisenden Arbeit [55] darlegte. Über berechenbare Zahlen. Turing formulierte Kurt Gödels Ergebnisse von 1931 über die Grenzen von Beweisen und Berechnungen neu und ersetzte Gödels universelle, auf Arithmetik basierende formale Sprache durch die formalen und einfachen hypothetischen Geräte, die als Turing-Maschinen bekannt wurden. Er bewies, dass eine solche Maschine jede denkbare mathematische Berechnung durchführen könnte, wenn sie als Algorithmus darstellbar wäre. Er fuhr fort zu beweisen, dass es keine Lösung für die Entscheidungsproblem indem wir zunächst zeigen, dass das Anhalteproblem für Turing-Maschinen unentscheidbar ist: Im Allgemeinen ist es nicht möglich, algorithmisch zu entscheiden, ob eine gegebene Turing-Maschine jemals anhält.

Er führte auch den Begriff einer "universellen Maschine" (jetzt bekannt als universelle Turing-Maschine) ein, mit der Idee, dass eine solche Maschine die Aufgaben jeder anderen Maschine erfüllen könnte, oder mit anderen Worten, sie ist nachweislich in der Lage, alles zu berechnen, was ist berechenbar, indem ein auf Band gespeichertes Programm ausgeführt wird, wodurch die Maschine programmierbar ist. Von Neumann räumte ein, dass das zentrale Konzept des modernen Computers auf dieses Papier zurückzuführen sei. [56] Turingmaschinen sind bis heute ein zentrales Untersuchungsobjekt der Rechentheorie. Abgesehen von den Beschränkungen, die durch ihre endlichen Speicherkapazitäten auferlegt werden, werden moderne Computer als Turing-vollständig bezeichnet, das heißt, sie verfügen über eine Algorithmusausführungsfähigkeit, die einer universellen Turing-Maschine entspricht.

Elektromechanische Computer Bearbeiten

Die Ära der modernen Computer begann mit einer rasanten Entwicklung vor und während des Zweiten Weltkriegs. Die meisten in dieser Zeit gebauten Digitalcomputer waren elektromechanisch – elektrische Schalter trieben mechanische Relais an, um die Berechnung durchzuführen. Diese Geräte hatten eine niedrige Arbeitsgeschwindigkeit und wurden schließlich von viel schnelleren vollelektrischen Computern abgelöst, die ursprünglich Vakuumröhren verwendeten.

Der Z2 war eines der frühesten Beispiele eines elektromechanischen Relais-Computers und wurde 1940 vom deutschen Ingenieur Konrad Zuse entwickelt Relaisschaltungen. [57]

Im selben Jahr wurden von britischen Kryptologen elektromechanische Geräte namens Bomben gebaut, um während des Zweiten Weltkriegs mit der deutschen Enigma-Maschine verschlüsselte Geheimnachrichten zu entschlüsseln. Das ursprüngliche Design der Bombe wurde 1939 an der britischen Government Code and Cypher School (GC&CS) in Bletchley Park von Alan Turing [58] mit einer wichtigen Verfeinerung 1940 von Gordon Welchman entworfen. [59] Die Konstruktion und Konstruktion war das Werk von Harold Keen von der British Tabulating Machine Company. Es war eine wesentliche Weiterentwicklung eines Geräts, das 1938 vom polnischen Kryptologen Marian Rejewski entworfen und als "kryptologische Bombe" bekannt war (polnisch: "bomba kryptologiczna").

1941 folgte Zuse seiner früheren Maschine mit der Z3, [57] dem weltweit ersten funktionierenden elektromechanisch programmierbaren, vollautomatischen Digitalcomputer. [60] Der Z3 wurde mit 2000 Relais gebaut und implementierte eine 22-Bit-Wortlänge, die mit einer Taktfrequenz von etwa 5–10 Hz betrieben wurde. [61] Programmcode und Daten wurden auf gestanztem Film gespeichert. Es war in mancher Hinsicht modernen Maschinen sehr ähnlich und war Pionier für zahlreiche Fortschritte wie Gleitkommazahlen. Der Ersatz des schwer zu implementierenden Dezimalsystems (das in Charles Babbages früherem Entwurf verwendet wurde) durch das einfachere Binärsystem bedeutete, dass Zuses Maschinen angesichts der damals verfügbaren Technologien einfacher zu bauen und potenziell zuverlässiger waren. [62] Die Z3 wurde 1998 von Raúl Rojas als Turing-vollständige Maschine bewiesen. [63] In zwei Patentanmeldungen von 1936 nahm Zuse auch vor, dass Maschinenbefehle in demselben Speicher gespeichert werden könnten, der auch für Daten verwendet wird – die entscheidende Erkenntnis der so genannten von Neumann-Architektur, die erstmals 1948 in Amerika in der elektromechanischen IBM SSEC implementiert wurde und in Großbritannien im vollelektronischen Manchester Baby. [64]

Zuse erlitt während des Zweiten Weltkriegs Rückschläge, als einige seiner Maschinen im Zuge der alliierten Bombenangriffe zerstört wurden. Offenbar blieb seine Arbeit den Ingenieuren in Großbritannien und den USA bis viel später weitgehend unbekannt, obwohl zumindest IBM davon wusste, als es 1946 seine Nachkriegs-Startup-Firma im Gegenzug für eine Option auf Zuses Patente finanzierte.

1944 wurde der Harvard Mark I in den Endicott-Labors von IBM gebaut. [65] Es war ein ähnlicher elektromechanischer Allzweckcomputer wie der Z3, aber nicht ganz Turing-vollständig.

Digitale Berechnung Bearbeiten

Der Begriff digital wurde zuerst von George Robert Stibitz vorgeschlagen und bezieht sich darauf, dass ein Signal, wie beispielsweise eine Spannung, nicht verwendet wird, um einen Wert direkt darzustellen (wie es in einem analogen Computer der Fall wäre), sondern um ihn zu codieren. Im November 1937 stellte George Stibitz, der damals bei Bell Labs (1930–1941) arbeitete, [66] einen relaisbasierten Rechner fertig, den er später „Modell K“ (für „kitchen-Tabelle", auf der er sie zusammengestellt hatte), der der erste binäre Addierer wurde. [67] Typischerweise haben Signale zwei Zustände – niedrig (normalerweise für 0) und hoch (normalerweise für 1), aber manchmal wird eine dreiwertige Logik verwendet , vor allem in High-Density-Speicher. Moderne Computer im allgemeinen binäre Logik verwenden, aber viele der frühen Maschinen waren Dezimalrechner. bei diesen Maschinen war die grundlegende Einheit der Daten, die die Nachkommastelle, codiert in einem von mehreren Schemata, binär codierten dezimal einschließlich oder BCD, Biquinär, Exzess-3 und Zwei-von-Fünf-Code.

Die mathematische Grundlage des Digital Computing ist die Boolesche Algebra, die der britische Mathematiker George Boole in seiner Arbeit entwickelt hat Die Gesetze des Denkens, veröffentlicht 1854. Seine Boolesche Algebra wurde in den 1860er Jahren von William Jevons und Charles Sanders Peirce weiter verfeinert und erstmals systematisch von Ernst Schröder und A. N. Whitehead präsentiert. [68] 1879 entwickelt Gottlob Frege den formalen Zugang zur Logik und schlägt die erste logische Sprache für logische Gleichungen vor. [69]

In den 1930er Jahren zeigten der amerikanische Elektronikingenieur Claude Shannon und der sowjetische Logiker Victor Shestakov unabhängig voneinander eine Eins-zu-Eins-Entsprechung zwischen den Konzepten der Booleschen Logik und bestimmten elektrischen Schaltungen, die heute als Logikgatter bezeichnet werden und heute in digitalen Computern allgegenwärtig sind. [70] Sie zeigten, [71] dass elektronische Relais und Schalter die Ausdrücke der Booleschen Algebra realisieren können. Diese Arbeit begründete im Wesentlichen den praktischen digitalen Schaltungsentwurf. Darüber hinaus gibt Shannons Aufsatz einen korrekten Schaltplan für einen digitalen 4-Bit-Binäraddierer. [70] : S.494–495

Elektronische Datenverarbeitung Bearbeiten

Rein elektronische Schaltungselemente ersetzten bald ihre mechanischen und elektromechanischen Äquivalente, gleichzeitig ersetzte die digitale Berechnung die analoge. Maschinen wie der Z3, der Atanasoff-Berry-Computer, die Colossus-Computer und der ENIAC wurden von Hand gebaut, unter Verwendung von Schaltungen mit Relais oder Ventilen (Vakuumröhren) und verwendeten häufig Lochkarten oder Lochstreifen für die Eingabe und als Hauptkabel (nichtflüchtiges) Speichermedium. [72]

Der Ingenieur Tommy Flowers trat 1926 in die Telekommunikationsabteilung des General Post Office ein. Während seiner Tätigkeit in der Forschungsstation in Dollis Hill in den 1930er Jahren begann er, den möglichen Einsatz von Elektronik für die Telefonzentrale zu erforschen. Die 1934 von ihm gebaute Versuchsanlage ging 5 Jahre später in Betrieb und verwandelte einen Teil des Telefonvermittlungsnetzes in ein elektronisches Datenverarbeitungssystem mit Tausenden von Vakuumröhren. [48]

In den USA erfand Arthur Dickinson (IBM) 1940 den ersten digitalen elektronischen Computer. [73] Dieses Rechengerät war vollelektronisch – Steuerung, Berechnung und Ausgabe (die erste elektronische Anzeige). [74] John Vincent Atanasoff und Clifford E. Berry von der Iowa State University entwickelten 1942 den Atanasoff-Berry Computer (ABC), [75] das erste binäre elektronische digitale Rechengerät. [76] Dieses Design war halbelektronisch (elektromechanische Steuerung und elektronische Berechnungen) und verwendete etwa 300 Vakuumröhren mit Kondensatoren, die in einer mechanisch rotierenden Trommel als Speicher befestigt waren. Sein Schreib-/Lesegerät für Papierkarten war jedoch unzuverlässig und das regenerative Trommelkontaktsystem war mechanisch. Die Spezialität der Maschine und das Fehlen von veränderbaren, gespeicherten Programmen unterscheiden sie von modernen Computern. [77]

Computer, deren Logik hauptsächlich mit Vakuumröhren gebaut wurde, werden heute als Computer der ersten Generation bezeichnet.

Der elektronische programmierbare Computer Bearbeiten

Während des Zweiten Weltkriegs erzielten britische Codeknacker in Bletchley Park, 64 km nördlich von London, eine Reihe von Erfolgen beim Durchbrechen verschlüsselter feindlicher Militärkommunikation. Die deutsche Verschlüsselungsmaschine Enigma wurde zuerst mit Hilfe der elektromechanischen Bomben angegriffen. [78] Frauen bedienten oft diese Bombenmaschinen. [79] [80] Sie schlossen mögliche Enigma-Einstellungen aus, indem sie Ketten von logischen Schlussfolgerungen durchführten, die elektrisch implementiert wurden. Die meisten Möglichkeiten führten zu einem Widerspruch, und die wenigen verbleibenden konnten von Hand getestet werden.

Die Deutschen entwickelten auch eine Reihe von Verschlüsselungssystemen für Fernschreiber, die sich ganz von Enigma unterscheiden. Die Lorenz SZ 40/42 wurde für die hochrangige Armeekommunikation verwendet, von den Briten mit dem Codenamen "Tunny". Das erste Abfangen von Lorenz-Nachrichten begann 1941. Als Teil eines Angriffs auf Tunny entwickelten Max Newman und seine Kollegen die Heath Robinson, eine Maschine mit fester Funktion, die beim Entschlüsseln von Codes helfen soll. [81] Tommy Flowers, ein leitender Ingenieur der Post Office Research Station [82] wurde Max Newman von Alan Turing [83] empfohlen und verbrachte ab Anfang Februar 1943 elf Monate damit, den flexibleren Colossus-Computer (der den Heath . ersetzte) zu entwerfen und zu bauen Robinson). [84] [85] Nach einem Funktionstest im Dezember 1943 wurde Colossus nach Bletchley Park verschifft, wo er am 18. Januar 1944 abgeliefert wurde [86] und am 5. Februar seine erste Nachricht angriff. [87]

Colossus war der weltweit erste elektronische, digital programmierbare Computer. [48] ​​Es verwendete eine große Anzahl von Ventilen (Vakuumröhren). Es hatte Papierbandeingaben und konnte so konfiguriert werden, dass es eine Vielzahl von booleschen logischen Operationen an seinen Daten durchführte, [88] aber es war nicht Turing-vollständig. Die Dateneingabe in Colossus erfolgte durch photoelektrisches Lesen einer Papierband-Transkription der verschlüsselten abgefangenen Nachricht. Diese wurde in einer Endlosschleife angeordnet, so dass sie mehrfach gelesen und wieder gelesen werden konnte – ein interner Speicher für die Daten fehlte. Der Lesemechanismus lief mit 5.000 Zeichen pro Sekunde, wobei sich das Papierband mit 40 ft/s (12,2 m/s 27,3 mph) bewegte. Colossus Mark 1 enthielt 1500 thermionische Ventile (Röhren), aber Mark 2 mit 2400 Ventilen und fünf parallelen Prozessoren war fünfmal schneller und einfacher zu bedienen als Mark 1, was den Dekodierungsprozess erheblich beschleunigte. Mark 2 wurde entworfen, während Mark 1 gebaut wurde. Allen Coombs übernahm die Leitung des Colossus Mark 2-Projekts, als Tommy Flowers zu anderen Projekten wechselte. [89] Der erste Mark-2-Koloss wurde am 1. Juni 1944, gerade rechtzeitig für die alliierte Invasion der Normandie am D-Day, einsatzbereit.

Die meiste Verwendung von Colossus bestand darin, die Startpositionen der Tunny-Rotoren für eine Nachricht zu bestimmen, die als "Radeinstellung" bezeichnet wurde. Colossus beinhaltete die allererste Verwendung von Schieberegistern und systolischen Arrays, die fünf gleichzeitige Tests mit jeweils bis zu 100 Booleschen Berechnungen ermöglichten. Damit konnten fünf verschiedene mögliche Startpositionen für einen Durchgang des Papierbandes untersucht werden. [90] Neben der Radeinstellung enthielten einige spätere Colossi Mechanismen, die dazu gedacht waren, Stiftmuster zu bestimmen, die als "Radbrechen" bekannt sind. Beide Modelle waren mit Schaltern und Steckerfeldern programmierbar, wie es ihre Vorgänger nicht waren. Bis Kriegsende waren zehn Mk 2 Colossi einsatzbereit.

Ohne den Einsatz dieser Maschinen wären den Alliierten die sehr wertvollen Informationen vorenthalten worden, die sie aus dem Lesen der riesigen Menge verschlüsselter hochrangiger Telegrafennachrichten zwischen dem deutschen Oberkommando (OKW) und ihren Heereskommandos im gesamten besetzten Europa erhielten. Details über ihre Existenz, Konstruktion und Verwendung wurden bis in die 1970er Jahre geheim gehalten. Winston Churchill gab persönlich einen Befehl, sie in Stücke von nicht größer als eine Hand zu vernichten, um geheim zu halten, dass die Briten während des bevorstehenden Kalten Krieges in der Lage waren, Lorenz SZ-Chiffren (von deutschen Rotorstrom-Chiffriermaschinen) zu knacken. Zwei der Maschinen wurden in das neu gegründete GCHQ überführt und die anderen zerstört. Infolgedessen wurden die Maschinen in vielen Computergeschichten nicht berücksichtigt. [f] Eine rekonstruierte Arbeitskopie einer der Colossus-Maschinen ist jetzt im Bletchley Park ausgestellt.

Der in den USA gebaute ENIAC (Electronic Numerical Integrator and Computer) war der erste elektronisch programmierbare Computer, der in den USA gebaut wurde. Obwohl der ENIAC dem Colossus ähnlich war, war er viel schneller und flexibler. Es war eindeutig ein Turing-komplettes Gerät und konnte jedes Problem berechnen, das in seinen Speicher passte. Wie beim Colossus wurde ein "Programm" auf der ENIAC durch die Zustände seiner Patchkabel und Switches definiert, weit entfernt von den gespeicherten Programm-Elektronikmaschinen, die später kamen. Nachdem ein Programm geschrieben war, musste es mechanisch in die Maschine mit manuellem Zurücksetzen von Steckern und Schaltern eingestellt werden. Die Programmiererinnen des ENIAC waren Mathematikerinnen. [92]

Es kombinierte die hohe Geschwindigkeit der Elektronik mit der Möglichkeit, für viele komplexe Probleme programmiert zu werden. Es könnte 5000 Mal pro Sekunde addieren oder subtrahieren, tausendmal schneller als jede andere Maschine. Es hatte auch Module zum Multiplizieren, Dividieren und Quadratwurzeln. Der Hochgeschwindigkeitsspeicher war auf 20 Wörter (entspricht etwa 80 Bytes) begrenzt.Gebaut unter der Leitung von John Mauchly und J. Presper Eckert an der University of Pennsylvania, dauerte die Entwicklung und der Bau von ENIAC von 1943 bis zum Vollbetrieb Ende 1945. Die Maschine war riesig, 30 Tonnen schwer, verbrauchte 200 Kilowatt elektrische Leistung und enthielt über 18.000 Vakuumröhren, 1.500 Relais und Hunderttausende von Widerständen, Kondensatoren und Induktivitäten. [93] Eine seiner wichtigsten Ingenieurleistungen bestand darin, die Auswirkungen des Röhrendurchbrennens zu minimieren, das zu dieser Zeit ein häufiges Problem der Maschinenzuverlässigkeit war. Die Maschine war die nächsten zehn Jahre fast im Dauereinsatz.

Frühe Rechenmaschinen waren in dem Sinne programmierbar, dass sie der Abfolge von Schritten folgen konnten, die sie ausführen sollten, aber das "Programm" oder die Schritte, die die Maschine ausführen sollte, wurden normalerweise durch Ändern der Art und Weise eingerichtet, wie die Drähte angeschlossen wurden in ein Patchpanel oder Plugboard. „Umprogrammieren“, wenn es überhaupt möglich war, war ein mühsamer Prozess, beginnend mit der Ausarbeitung von Flussdiagrammen durch die Ingenieure, dem Design des neuen Setups und dann dem oft anspruchsvollen Prozess der physischen Neuverdrahtung von Patchfeldern. [94] Im Gegensatz dazu wurden Computer mit gespeicherten Programmen entwickelt, um einen Satz von Anweisungen (ein Programm) im Speicher zu speichern – typischerweise im selben Speicher wie gespeicherte Daten.

Theorie Bearbeiten

Die theoretische Grundlage für den speicherprogrammierbaren Computer wurde von Alan Turing in seiner Arbeit von 1936 vorgeschlagen. 1945 trat Turing dem National Physical Laboratory bei und begann seine Arbeit an der Entwicklung eines elektronischen, speicherprogrammierbaren Digitalcomputers. Sein Bericht „Proposed Electronic Calculator“ von 1945 war die erste Spezifikation für ein solches Gerät.

Inzwischen hat John von Neumann von der Moore School of Electrical Engineering, University of Pennsylvania, seine Erster Entwurf eines Berichts zum EDVAC 1945. Obwohl Turings Design im Wesentlichen ähnlich war und vergleichsweise wenig technische Details enthielt, wurde die von ihm skizzierte Computerarchitektur als "von Neumann-Architektur" bekannt. Turing legte dem Exekutivkomitee des National Physical Laboratory (NPL) 1946 ein ausführlicheres Papier vor, in dem er den ersten einigermaßen vollständigen Entwurf eines Computers mit gespeichertem Programm vorstellte, ein Gerät, das er Automatic Computing Engine (ACE) nannte. Der bekanntere EDVAC-Entwurf von John von Neumann, der Turings theoretische Arbeit kannte, erhielt jedoch trotz seiner Unvollständigkeit und der fragwürdigen fehlenden Quellenangabe einiger Ideen mehr Publizität. [48]

Turing dachte, dass die Geschwindigkeit und die Größe des Computerspeichers entscheidende Faktoren seien, und schlug einen Hochgeschwindigkeitsspeicher von heute 25 KB vor, auf den mit einer Geschwindigkeit von 1 MHz zugegriffen wird. Der ACE implementierte Unterprogrammaufrufe, während der EDVAC dies nicht tat, und der ACE verwendete auch Abgekürzte Computeranleitung, eine frühe Form der Programmiersprache.

Manchester Baby Bearbeiten

Das Manchester Baby war der weltweit erste elektronische Computer mit gespeichertem Programm. Es wurde an der Victoria University of Manchester von Frederic C. Williams, Tom Kilburn und Geoff Tootill gebaut und führte sein erstes Programm am 21. Juni 1948 durch. [95]

Die Maschine war nicht als praktischer Computer gedacht, sondern als Testumgebung für die Williams-Röhre, das erste digitale Speichergerät mit wahlfreiem Zugriff. [96] Erfunden von Freddie Williams und Tom Kilburn [97] [98] an der University of Manchester in den Jahren 1946 und 1947, war es eine Kathodenstrahlröhre, die einen Effekt namens Sekundäremission nutzte, um elektronische Binärdaten vorübergehend zu speichern, und sie wurde erfolgreich eingesetzt in mehreren frühen Computern.

Obwohl der Computer klein und primitiv war, war er ein Proof-of-Concept zur Lösung eines einzelnen Problems Baby war die erste funktionierende Maschine, die alle für einen modernen elektronischen Computer wesentlichen Elemente enthielt. [99] Sobald das Baby die Machbarkeit seines Designs demonstriert hatte, wurde an der Universität ein Projekt initiiert, um das Design zu einem besser nutzbaren Computer, dem Manchester Mark 1 zu entwickeln. Der Mark 1 wiederum wurde schnell zum Prototyp für den Ferranti Mark 1, der weltweit erste kommerziell erhältliche Allzweckcomputer. [100]

Das Baby hatte eine Wortlänge von 32 Bit und einen Speicher von 32 Wörtern. Da er als der einfachste speicherprogrammierbare Computer entworfen wurde, waren die einzigen in Hardware implementierten arithmetischen Operationen Subtraktion und Negation, andere arithmetische Operationen wurden in Software implementiert. Das erste von drei Programmen, die für die Maschine geschrieben wurden, fand den höchsten richtigen Teiler von 2 18 (262,144) nach unten, da die Division durch wiederholtes Subtrahieren des Divisors durchgeführt wurde. Das Programm bestand aus 17 Anweisungen und lief 52 Minuten lang, bevor es die richtige Antwort von 131.072 erreichte, nachdem das Baby 3,5 Millionen Operationen durchgeführt hatte (für eine effektive CPU-Geschwindigkeit von 1,1 kIPS). Die aufeinanderfolgenden Annäherungen an die Antwort wurden als aufeinanderfolgende Positionen eines hellen Punktes auf der Williams-Röhre angezeigt.

Manchester Mark 1 Bearbeiten

Die experimentelle Maschine führte zur Entwicklung des Manchester Mark 1 an der University of Manchester. [101] Die Arbeiten begannen im August 1948, und die erste Version war im April 1949 einsatzbereit in der britischen Presse, die ihren Lesern den Ausdruck "elektronisches Gehirn" benutzte.

Der Computer ist von besonderer historischer Bedeutung wegen seiner bahnbrechenden Aufnahme von Indexregistern, einer Innovation, die es einem Programm erleichterte, sequentiell eine Reihe von Wörtern im Speicher zu lesen. Aus der Entwicklung der Maschine gingen 34 Patente hervor, und viele der Ideen, die hinter ihrem Design standen, flossen in spätere kommerzielle Produkte wie die IBM 701 und 702 sowie die Ferranti Mark 1 ein. Die Chefdesigner Frederic C. Williams und Tom Kilburn , schlossen aus ihren Erfahrungen mit dem Mark 1, dass Computer eher in wissenschaftlichen Rollen als in reiner Mathematik eingesetzt würden. 1951 begannen sie mit der Entwicklung von Meg, dem Nachfolger des Mark 1, der eine Gleitkommaeinheit beinhalten sollte.

EDSAC-Bearbeitung

Der andere Anwärter auf den ersten erkennbar modernen digitalen speicherprogrammierbaren Computer [102] war der EDSAC [103], der 1949 von Maurice Wilkes und seinem Team am Mathematical Laboratory der University of Cambridge in England an der University of Cambridge entworfen und gebaut wurde. Die Maschine wurde von John von Neumanns bahnbrechendem inspiriert Erster Entwurf eines Berichts zum EDVAC und war einer der ersten brauchbar betriebsbereiten elektronischen digitalen speicherprogrammierbaren Computer. [g]

EDSAC führte seine ersten Programme am 6. Mai 1949 aus, als es eine Quadrattabelle [106] und eine Liste von Primzahlen berechnete. Das EDSAC diente auch als Grundlage für den ersten kommerziell eingesetzten Computer, den LEO I, der von Lebensmittelherstellern verwendet wurde J. Lyons & Co. Ltd. EDSAC 1 wurde schließlich am 11. Juli 1958 stillgelegt, nachdem es von EDSAC 2 abgelöst wurde, das bis 1965 in Gebrauch blieb. [107]

Das "Gehirn" [Computer] könnte eines Tages auf unsere Ebene [des gemeinen Volkes] herunterkommen und bei unseren Einkommensteuer- und Buchhaltungsberechnungen helfen. Aber das sind Spekulationen und davon gibt es bisher keine Anzeichen.

EDVAC Bearbeiten

Die ENIAC-Erfinder John Mauchly und J. Presper Eckert schlugen den Bau des EDVAC im August 1944 vor, und die Konstruktionsarbeiten für das EDVAC begannen an der Moore School of Electrical Engineering der University of Pennsylvania, bevor das ENIAC voll funktionsfähig war. Das Design implementierte eine Reihe wichtiger architektonischer und logischer Verbesserungen, die während der Konstruktion des ENIAC konzipiert wurden, sowie einen Hochgeschwindigkeitsspeicher mit seriellem Zugriff. [109] Eckert und Mauchly verließen das Projekt jedoch und sein Bau geriet ins Stocken.

Er wurde schließlich im August 1949 an das Ballistics Research Laboratory der US-Armee auf dem Aberdeen Proving Ground geliefert, aber aufgrund einer Reihe von Problemen nahm der Computer erst 1951 den Betrieb auf, und dann nur in begrenztem Umfang.

Kommerzielle Computer Bearbeiten

Der erste kommerzielle Computer war der Ferranti Mark 1, der von Ferranti gebaut und im Februar 1951 an die University of Manchester geliefert wurde. Er basierte auf dem Manchester Mark 1. Die wichtigsten Verbesserungen gegenüber dem Manchester Mark 1 waren die Größe des Primärspeichers ( mit Williams-Röhren mit wahlfreiem Zugriff), Sekundärspeicherung (mit einer Magnettrommel), einem schnelleren Multiplikator und zusätzlichen Anweisungen. Die Grundzykluszeit betrug 1,2 Millisekunden, und eine Multiplikation konnte in etwa 2,16 Millisekunden abgeschlossen werden. Der Multiplikator nutzte fast ein Viertel der 4.050 Vakuumröhren (Ventile) der Maschine. [110] Eine zweite Maschine wurde von der University of Toronto gekauft, bevor das Design zum Mark 1 Star überarbeitet wurde. Mindestens sieben dieser späteren Maschinen wurden zwischen 1953 und 1957 geliefert, eine davon an Shell-Labors in Amsterdam. [111]

Im Oktober 1947 beschlossen die Direktoren von J. Lyons & Company, einem britischen Cateringunternehmen, das für seine Teestuben bekannt ist, aber starkes Interesse an neuen Büromanagementtechniken hat, eine aktive Rolle bei der Förderung der kommerziellen Entwicklung von Computern zu übernehmen. Der LEO I-Computer wurde im April 1951 in Betrieb genommen [112] und führte den weltweit ersten regulären Routine-Computerjob im Büro aus. Am 17. November 1951 nahm die Firma J. Lyons den wöchentlichen Betrieb einer Bäckereibewertungsstelle im LEO (Lyons Electronic Office) auf. Dies war die erste Geschäftsanwendung, die auf einem Computer mit gespeicherten Programmen live ging. [h]

Im Juni 1951 wurde der UNIVAC I (Universal Automatic Computer) an das US Census Bureau ausgeliefert. Remington Rand verkaufte schließlich 46 Maschinen zu jeweils mehr als 1 Million US-Dollar (9,97 Millionen US-Dollar ab 2021). [113] UNIVAC war der erste "massenproduzierte" Computer. Es verwendete 5.200 Vakuumröhren und verbrauchte 125 kW Leistung. Sein Hauptspeicher waren Quecksilber-Verzögerungsleitungen mit seriellem Zugriff, die 1.000 Wörter mit 11 Dezimalstellen plus Vorzeichen (72-Bit-Wörter) speichern konnten.

IBM stellte 1954 einen kleineren, günstigeren Computer vor, der sich als sehr beliebt erwies. [i] [115] Die IBM 650 wog über 900 kg, das angeschlossene Netzteil wog rund 1350 kg und beide wurden in separaten Schränken von etwa 1,5 x 0,9 x 1,8 Metern untergebracht. Es kostete 500.000 US-Dollar [116] (4,82 Millionen US-Dollar ab 2021) oder könnte für 3.500 US-Dollar pro Monat gemietet werden (30.000 US-Dollar ab 2021). [113] Sein Trommelspeicher umfasste ursprünglich 2.000 zehnstellige Wörter, die später auf 4.000 Wörter erweitert wurden. Speicherbeschränkungen wie diese sollten die Programmierung noch Jahrzehnte lang dominieren. Die Programmanweisungen wurden von der sich drehenden Trommel geholt, während der Code lief. Eine effiziente Ausführung unter Verwendung des Trommelspeichers wurde durch eine Kombination aus Hardwarearchitektur gewährleistet: Das Befehlsformat umfasste die Adresse des nächsten Befehls und Software: das Symbolic Optimal Assembly Program, SOAP, [117] ordnete den optimalen Adressen Befehle zu (soweit möglich durch statische Analyse des Quellprogramms). Somit befanden sich bei Bedarf viele Anweisungen in der nächsten zu lesenden Reihe der Trommel und es war keine zusätzliche Wartezeit für die Trommeldrehung erforderlich.

Mikroprogrammierung Bearbeiten

1951 entwickelte der britische Wissenschaftler Maurice Wilkes das Konzept der Mikroprogrammierung aus der Erkenntnis heraus, dass die Zentraleinheit eines Computers durch ein hochspezialisiertes Miniatur-Computerprogramm in einem Hochgeschwindigkeits-ROM gesteuert werden konnte. Die Mikroprogrammierung ermöglicht es, den Basisbefehlssatz durch eingebaute Programme (jetzt Firmware oder Mikrocode genannt) zu definieren oder zu erweitern. [118] Dieses Konzept hat die CPU-Entwicklung stark vereinfacht. Er beschrieb dies erstmals 1951 auf der Computer Inaugural Conference der University of Manchester und veröffentlichte es dann in erweiterter Form in IEEE-Spektrum 1955. [ Zitat benötigt ]

Es war weit verbreitet in den CPUs und Gleitkommaeinheiten von Großrechnern und anderen Computern verwendet und wurde zum ersten Mal in EDSAC 2 implementiert, [119] das auch mehrere identische "Bit-Slices" verwendet, um das Design zu vereinfachen. Für jedes Bit des Prozessors wurden austauschbare, austauschbare Röhrenanordnungen verwendet. [J]

Magnetische Trommelspeicher wurden während des Zweiten Weltkriegs für die US Navy entwickelt, wobei die Arbeiten 1946 und 1947 bei Engineering Research Associates (ERA) fortgesetzt wurden. ERA, damals ein Teil von Univac, enthielt einen Trommelspeicher in seinem 1103, der im Februar 1953 angekündigt wurde Der Massencomputer IBM 650, ebenfalls 1953 angekündigt, hatte etwa 8,5 Kilobyte Trommelspeicher.

Magnetkernspeicher patentiert im Jahr 1949 [121] mit seiner ersten Verwendung für den Whirlwind-Computer im August 1953 demonstriert. [122] Die Kommerzialisierung folgte schnell. Magnetkern wurde in Peripheriegeräten des im Juli 1955 gelieferten IBM 702 und später im 702 selbst verwendet. Der IBM 704 (1955) und der Ferranti Mercury (1957) verwendeten Magnetkernspeicher. Es dominierte das Feld bis in die 1970er Jahre, als es durch Halbleiterspeicher ersetzt wurde. Das Volumen des Magnetkerns erreichte um 1975 seinen Höhepunkt und ging danach in der Nutzung und dem Marktanteil zurück. [123]

Noch 1980 waren an vielen der ursprünglichen UNIX-Sites PDP-11/45-Maschinen mit Magnetkern-Hauptspeicher und Trommeln zum Austauschen im Einsatz.

Definition der Eigenschaften einiger früher digitaler Computer der 1940er Jahre (In der Geschichte der Computerhardware)
Name Erste Inbetriebnahme Zahlensystem Rechenmechanismus Programmierung Turing abgeschlossen
Arthur H. Dickinson IBM (USA) Januar 1940 Dezimal Elektronisch Nicht programmierbar Nein
Joseph Desch NCR (USA) März 1940 Dezimal Elektronisch Nicht programmierbar Nein
Zuse Z3 (Deutschland) Mai 1941 Binäre Gleitkommazahl Elektromechanisch Programmgesteuert durch gestanzten 35 mm Filmvorrat (jedoch keine bedingte Verzweigung) Theoretisch (1998)
Atanasoff – Berry Computer (USA) 1942 Binär Elektronisch Nicht programmierbar – Einzweck Nein
Koloss Mark 1 (Großbritannien) Februar 1944 Binär Elektronisch Programmgesteuert über Patchkabel und Switches Nein
Harvard Mark I – IBM ASCC (USA) Mai 1944 Dezimal Elektromechanisch Programmgesteuert durch 24-Kanal Lochstreifen (aber keine bedingte Verzweigung) Fraglich
Koloss Mark 2 (Großbritannien) Juni 1944 Binär Elektronisch Programmgesteuert über Patchkabel und Switches Theoretisch (2011) [124]
Zuse Z4 (Deutschland) März 1945 Binäre Gleitkommazahl Elektromechanisch Programmgesteuert durch gestanzten 35 mm Filmvorrat Jawohl
ENIAC (USA) Februar 1946 Dezimal Elektronisch Programmgesteuert über Patchkabel und Switches Jawohl
ARC2 (SEC) (Großbritannien) Mai 1948 Binär Elektronisch Gespeichertes Programm im Drehtrommelspeicher Jawohl
Manchester-Baby (Großbritannien) Juni 1948 Binär Elektronisch Gespeichertes Programm im Williams-Kathodenstrahlröhrenspeicher Jawohl
Modifiziertes ENIAC (USA) September 1948 Dezimal Elektronisch Schreibgeschützter, gespeicherter Programmiermechanismus, der die Funktionstabellen als Programm-ROM verwendet Jawohl
Manchester Mark 1 (Großbritannien) April 1949 Binär Elektronisch Gespeichertes Programm im Williams-Kathodenstrahlröhrenspeicher und Magnettrommelspeicher Jawohl
EDSAC (Großbritannien) Mai 1949 Binär Elektronisch Gespeichertes Programm im Quecksilber-Verzögerungsleitungsspeicher Jawohl
CSIRAC (Australien) November 1949 Binär Elektronisch Gespeichertes Programm im Quecksilber-Verzögerungsleitungsspeicher Jawohl

Der Bipolartransistor wurde 1947 erfunden. Ab 1955 ersetzten Transistoren die Vakuumröhren in Computerdesigns, [125] was die „zweite Generation“ von Computern hervorbrachte. Im Vergleich zu Vakuumröhren haben Transistoren viele Vorteile: Sie sind kleiner und benötigen weniger Strom als Vakuumröhren, geben also weniger Wärme ab. Silizium-Übergangstransistoren waren viel zuverlässiger als Vakuumröhren und hatten eine längere Lebensdauer. Transistorisierte Computer könnten auf relativ kompaktem Raum Zehntausende von binären Logikschaltungen enthalten. Transistoren reduzierten die Größe, die Anschaffungskosten und die Betriebskosten von Computern erheblich. Typischerweise bestanden Computer der zweiten Generation aus einer großen Anzahl von Leiterplatten wie dem IBM Standard Modular System [126], die jeweils ein bis vier Logikgatter oder Flip-Flops trugen.

An der University of Manchester hat ein Team unter der Leitung von Tom Kilburn eine Maschine entworfen und gebaut, die die neu entwickelten Transistoren anstelle von Ventilen verwendet. Anfangs waren die einzigen verfügbaren Geräte Germanium-Punktkontakttransistoren, die weniger zuverlässig waren als die Ventile, die sie ersetzten, aber viel weniger Strom verbrauchten. [127] Ihr erster Transistorcomputer und der erste der Welt war 1953 in Betrieb, [128] und eine zweite Version wurde dort im April 1955 fertiggestellt. [129] Die 1955er Version verwendete 200 Transistoren, 1.300 Festkörperdioden, und hatte eine Leistungsaufnahme von 150 Watt. Die Maschine verwendete jedoch Ventile, um ihre 125-kHz-Taktwellenformen zu erzeugen und in der Schaltung zum Lesen und Schreiben auf ihrem Magnettrommelspeicher, so dass sie nicht der erste vollständig Transistorcomputer war.

Diese Auszeichnung geht an das Harwell CADET von 1955, [130] gebaut von der Elektronikabteilung des Atomic Energy Research Establishment in Harwell. Das Design umfasste einen 64-Kilobyte-Magnettrommelspeicher mit mehreren Moving Heads, der im britischen National Physical Laboratory entwickelt wurde. 1953 hatte dieses Team Transistorschaltungen, die auf einer kleineren Magnettrommel des Royal Radar Establishment lesen und schreiben konnten. Die Maschine verwendete eine niedrige Taktfrequenz von nur 58 kHz, um die Verwendung von Ventilen zur Erzeugung der Taktwellenformen zu vermeiden. [131] [130]

CADET verwendet 324-Punktkontakttransistoren der britischen Firma Standard Telephones and Cables 76 Sperrschichttransistoren wurden für die Verstärker der ersten Stufe zum Lesen von Daten von der Trommel verwendet, da Punktkontakttransistoren zu verrauscht waren. Ab August 1956 bot CADET einen regulären Rechendienst an, bei dem es oft ununterbrochene Rechenläufe von 80 Stunden oder mehr durchführte. [132] [133] Probleme mit der Zuverlässigkeit früher Chargen von Punktkontakt- und legierten Sperrschichttransistoren führten dazu, dass die mittlere Zeit zwischen den Ausfällen der Maschine etwa 90 Minuten betrug, aber dies verbesserte sich, als die zuverlässigeren Bipolartransistoren verfügbar wurden. [134]

Das Design des Transistorcomputers der Universität Manchester wurde von der lokalen Ingenieurfirma Metropolitan-Vickers in ihrem Metrovick 950 übernommen, dem ersten kommerziellen Transistorcomputer überhaupt. [135] Sechs Metrovick 950 wurden gebaut, die erste wurde 1956 fertiggestellt. Sie wurden erfolgreich in verschiedenen Abteilungen des Unternehmens eingesetzt und waren etwa fünf Jahre im Einsatz. [129] Ein Computer der zweiten Generation, der IBM 1401, eroberte etwa ein Drittel des Weltmarktes. IBM hat zwischen 1960 und 1964 mehr als zehntausend 1401 installiert.

Transistorperipherie Bearbeiten

Transistorisierte Elektronik verbesserte nicht nur die CPU (Central Processing Unit), sondern auch die Peripheriegeräte. Die Plattendatenspeicher der zweiten Generation konnten Millionen von Buchstaben und Ziffern speichern. Neben den Festplattenspeichern, die über eine Hochgeschwindigkeits-Datenübertragung mit der CPU verbunden waren, befanden sich Wechseldatenträger. Ein Wechseldatenträgerpaket kann in wenigen Sekunden problemlos gegen ein anderes Paket ausgetauscht werden.Auch wenn die Kapazität von Wechseldatenträgern geringer ist als die von Festplatten, garantiert ihre Austauschbarkeit eine nahezu unbegrenzte Datenmenge zur Hand. Magnetband bietet Archivierungsmöglichkeiten für diese Daten zu geringeren Kosten als Festplatten.

Viele CPUs der zweiten Generation delegierten die Kommunikation von Peripheriegeräten an einen sekundären Prozessor. Während beispielsweise der Kommunikationsprozessor das Kartenlesen und -lochen steuerte, führte die Haupt-CPU Berechnungen und binäre Verzweigungsbefehle aus. Ein Datenbus würde Daten zwischen der Haupt-CPU und dem Kernspeicher mit der Abruf-Ausführungs-Zyklusrate der CPU übertragen, und andere Datenbusse würden typischerweise die Peripheriegeräte bedienen. Auf dem PDP-1 betrug die Zykluszeit des Kernspeichers 5 Mikrosekunden, folglich dauerten die meisten arithmetischen Befehle 10 Mikrosekunden (100.000 Operationen pro Sekunde), da die meisten Operationen mindestens zwei Speicherzyklen benötigten, einen für den Befehl und einen für den Operandendatenabruf.

Während der zweiten Generation von Fernterminals (oft in Form von Fernschreibern wie einem Friden Flexowriter) wurde die Verwendung stark erhöht. [k] Telefonverbindungen boten den frühen Gegenstellen ausreichend Geschwindigkeit und ermöglichten Hunderte von Kilometern Trennung zwischen Gegenstellen und Rechenzentrum. Schließlich würden diese eigenständigen Computernetzwerke zu einem miteinander verbundenen Netzwerk von Netzwerken-das Internet. [l]

Transistor-Supercomputer Bearbeiten

In den frühen 1960er Jahren kam das Supercomputing auf den Markt. Der Atlas war eine gemeinsame Entwicklung der University of Manchester, Ferranti und Plessey und wurde erstmals an der Manchester University installiert und 1962 als einer der ersten Supercomputer der Welt offiziell in Betrieb genommen – damals galt er als der leistungsstärkste Computer der Welt . [138] Es wurde gesagt, dass jedes Mal, wenn Atlas offline ging, die Hälfte der Computerkapazität des Vereinigten Königreichs verloren ging. [139] Es war eine Maschine der zweiten Generation mit diskreten Germaniumtransistoren. Atlas leistete auch Pionierarbeit beim Atlas Supervisor, "der von vielen als das erste erkennbare moderne Betriebssystem angesehen wird". [140]

In den USA wurde eine Reihe von Computern der Control Data Corporation (CDC) von Seymour Cray entwickelt, um innovative Designs und Parallelität zu verwenden, um eine überlegene Rechenleistung zu erzielen. [141] Der 1964 veröffentlichte CDC 6600 gilt allgemein als der erste Supercomputer. [142] [143] Der CDC 6600 übertraf seinen Vorgänger, den IBM 7030 Stretch, um etwa den Faktor 3. Mit einer Leistung von etwa 1 MegaFLOPS war der CDC 6600 von 1964 bis 1969 der schnellste Computer der Welt, als er diesen Status aufgab zu seinem Nachfolger, dem CDC 7600.

Die "dritte Generation" digitaler elektronischer Computer verwendete integrierte Schaltkreise (IC) als Grundlage ihrer Logik.

Die Idee eines integrierten Schaltkreises stammt von einem Radarwissenschaftler, der für die Royal Radar Establishment des Verteidigungsministeriums, Geoffrey W.A. Dummer, arbeitet.

Die ersten funktionierenden integrierten Schaltkreise wurden von Jack Kilby von Texas Instruments und Robert Noyce von Fairchild Semiconductor erfunden. [144] Kilby zeichnete seine ersten Ideen bezüglich der integrierten Schaltung im Juli 1958 auf und demonstrierte erfolgreich das erste funktionierende integrierte Beispiel am 12. September 1958. [145] Kilbys Erfindung war eine hybride integrierte Schaltung (Hybrid-IC). [146] Es hatte externe Drahtverbindungen, was die Massenproduktion erschwerte. [147]

Noyce hatte ein halbes Jahr nach Kilby seine eigene Idee eines integrierten Schaltkreises. [148] Noyces Erfindung war ein monolithischer integrierter Schaltkreis (IC). [149] [147] Sein Chip löste viele praktische Probleme, die Kilbys nicht hatte. Er wurde bei Fairchild Semiconductor hergestellt und bestand aus Silizium, während Kilbys Chip aus Germanium bestand. Grundlage für den monolithischen IC von Noyce war der Planarprozess von Fairchild, mit dem integrierte Schaltungen nach den gleichen Prinzipien wie gedruckte Schaltungen ausgelegt werden konnten. Der planare Prozess wurde Anfang 1959 von Noyces Kollege Jean Hoerni entwickelt, basierend auf Mohamed M. Atallas Arbeiten zur Passivierung von Halbleiteroberflächen durch Siliziumdioxid in den späten 1950er Jahren an den Bell Labs. [150] [151] [152]

Computer der dritten Generation (integrierte Schaltkreise) tauchten zuerst in den frühen 1960er Jahren in Computern auf, die für Regierungszwecke entwickelt wurden, und dann in kommerziellen Computern ab Mitte der 1960er Jahre. Der erste Silizium-IC-Computer war der Apollo Guidance Computer oder AGC. [153] Obwohl es nicht der leistungsstärkste Computer seiner Zeit war, erforderten die extremen Einschränkungen hinsichtlich Größe, Masse und Leistung des Apollo-Raumschiffs, dass der AGC viel kleiner und dichter war als jeder frühere Computer mit einem Gewicht von nur 70 Pfund (32 kg .). ). Jede Mondlandemission führte zwei AGCs mit sich, jeweils eine in der Kommando- und Mondaufstiegsmodul.

Der MOSFET (Metall-Oxid-Halbleiter-Feldeffekttransistor oder MOS-Transistor) wurde 1959 von Mohamed M. Atalla und Dawon Kahng in den Bell Labs erfunden. [154] Neben der Datenverarbeitung ermöglichte der MOSFET den praktischen Einsatz von MOS Transistoren als Speicherzellenspeicherelemente, eine Funktion, die früher von Magnetkernen erfüllt wurde. Halbleiterspeicher, auch als MOS-Speicher bekannt, waren billiger und verbrauchten weniger Strom als Magnetkernspeicher. [155] MOS-Random-Access-Memory (RAM) in Form von statischem RAM (SRAM) wurde 1964 von John Schmidt bei Fairchild Semiconductor entwickelt. [155] [156] 1966 entwickelte Robert Dennard von der IBM Thomas J. Watson Research Center hat dynamisches MOS-RAM (DRAM) entwickelt. [157] 1967 entwickelten Dawon Kahng und Simon Sze von den Bell Labs den Floating-Gate-MOSFET, die Grundlage für nichtflüchtige MOS-Speicher wie EPROM, EEPROM und Flash-Speicher. [158] [159]

Die "vierte Generation" digitaler elektronischer Computer verwendete Mikroprozessoren als Grundlage ihrer Logik. Der Mikroprozessor hat seinen Ursprung im MOS-integrierten Schaltkreis (MOS IC)-Chip. [160] Aufgrund der schnellen MOSFET-Skalierung nahm die Komplexität von MOS-IC-Chips schnell mit einer vom Mooreschen Gesetz vorhergesagten Rate zu, was Ende der 1960er Jahre zu einer großflächigen Integration (LSI) mit Hunderten von Transistoren auf einem einzigen MOS-Chip führte. Die Anwendung von MOS-LSI-Chips auf Computer war die Grundlage für die ersten Mikroprozessoren, als Ingenieure erkannten, dass ein vollständiger Computerprozessor auf einem einzigen MOS-LSI-Chip enthalten sein könnte. [160]

Die Frage, welches Gerät genau der erste Mikroprozessor war, ist umstritten, zum Teil aufgrund mangelnder Einigkeit über die genaue Definition des Begriffs "Mikroprozessor". Die frühesten Multi-Chip-Mikroprozessoren waren die Four-Phase Systems AL-1 im Jahr 1969 und Garrett AiResearch MP944 im Jahr 1970, die mit mehreren MOS-LSI-Chips entwickelt wurden. [160] Der erste Einchip-Mikroprozessor war der Intel 4004, [161] der auf einem einzigen PMOS-LSI-Chip entwickelt wurde. [160] Es wurde von Ted Hoff, Federico Faggin, Masatoshi Shima und Stanley Mazor bei Intel entworfen und realisiert und 1971 veröffentlicht. [m] Tadashi Sasaki und Masatoshi Shima bei Busicom, einem Rechnerhersteller, hatten die erste Erkenntnis, dass die CPU könnte ein einzelner MOS-LSI-Chip sein, der von Intel geliefert wird. [163] [161]

Während die frühesten Mikroprozessor-ICs buchstäblich nur den Prozessor, d. h. die zentrale Verarbeitungseinheit, eines Computers enthielten, führte ihre fortschreitende Entwicklung natürlich zu Chips, die die meisten oder alle internen elektronischen Teile eines Computers enthielten. Der integrierte Schaltkreis im Bild rechts, zum Beispiel ein Intel 8742, ist ein 8-Bit-Mikrocontroller, der eine CPU mit 12 MHz, 128 Byte RAM, 2048 Byte EPROM und I/O im selben Chip enthält .

In den 1960er Jahren gab es erhebliche Überschneidungen zwischen Technologien der zweiten und dritten Generation. [n] IBM implementierte seine IBM Solid Logic Technology-Module 1964 in Hybridschaltungen für das IBM System/360. Noch 1975 führte Sperry Univac die Herstellung von Maschinen der zweiten Generation wie der UNIVAC 494 fort. Die Burroughs-Großsysteme wie die B5000 waren Stapelmaschinen, die eine einfachere Programmierung ermöglichten. Diese Kellerautomaten wurden später auch in Minicomputern und Mikroprozessoren implementiert, was das Design der Programmiersprache beeinflusste. Minicomputer dienten als kostengünstige Rechenzentren für Industrie, Wirtschaft und Universitäten. [164] Es wurde möglich, analoge Schaltungen mit dem Simulationsprogramm mit Schwerpunkt auf integrierten Schaltungen, oder SPICE (1971) auf Minicomputern, einem der Programme für Electronic Design Automation (EDA). Der Mikroprozessor führte zur Entwicklung von Mikrocomputern, kleinen, kostengünstigen Computern, die Privatpersonen und kleinen Unternehmen gehören konnten. Mikrocomputer, von denen die ersten in den 1970er Jahren erschienen, wurden in den 1980er Jahren und darüber hinaus allgegenwärtig.

Welches spezielle System als der erste Mikrocomputer gilt, ist zwar umstritten, da es mehrere einzigartige Bastlersysteme gab, die auf der Grundlage des Intel 4004 und seines Nachfolgers, dem Intel 8008, entwickelt wurden, war das erste kommerziell erhältliche Mikrocomputer-Kit der Intel 8080-basierte Altair 8800 , die im Titelartikel vom Januar 1975 von . angekündigt wurde Beliebte Elektronik. Dies war jedoch in seinen Anfangsstadien ein extrem begrenztes System, das nur 256 Bytes DRAM in seinem ursprünglichen Paket und keine Eingabe-Ausgabe außer seinen Kippschaltern und der LED-Registeranzeige hatte. Trotzdem war es mit mehreren Hundert Verkäufen im ersten Jahr zunächst überraschend beliebt und die Nachfrage überstieg schnell das Angebot. Mehrere frühe Drittanbieter wie Cromemco und Processor Technology begannen bald, zusätzliche S-100-Bus-Hardware für den Altair 8800 zu liefern.

Im April 1975 präsentierte Olivetti auf der Hannover Messe mit dem P6060 das weltweit erste komplette, vormontierte Personal Computer System. Die Zentraleinheit bestand aus zwei Karten mit den Codenamen PUCE1 und PUCE2 und wurde im Gegensatz zu den meisten anderen PCs mit TTL-Komponenten und nicht mit einem Mikroprozessor gebaut. Es hatte ein oder zwei 8-Zoll-Diskettenlaufwerke, ein 32-Zeichen-Plasmadisplay, einen grafischen Thermodrucker mit 80 Spalten, 48 KByte RAM und BASIC-Sprache. Es wog 40 kg (88 lb). Als komplettes System war dies ein bedeutender Schritt zum Altair, der jedoch nie den gleichen Erfolg erzielte, sondern in Konkurrenz zu einem ähnlichen Produkt von IBM stand, das über ein externes Diskettenlaufwerk verfügte.

Von 1975 bis 1977 wurden die meisten Mikrocomputer wie der MOS Technology KIM-1, der Altair 8800 und einige Versionen des Apple I als Bausätze für Heimwerker verkauft. Vorkonfektionierte Systeme gewannen erst 1977 mit der Einführung des Apple II, des Tandy TRS-80, der ersten SWTPC-Computer und des Commodore PET viel an Boden. Die Computertechnik hat sich mit Mikrocomputerarchitekturen entwickelt, mit Funktionen, die von ihren größeren Brüdern hinzugefügt wurden, die jetzt in den meisten Marktsegmenten dominieren.

Ein NeXT Computer und seine objektorientierten Entwicklungswerkzeuge und Bibliotheken wurden von Tim Berners-Lee und Robert Cailliau am CERN verwendet, um die weltweit erste Webserver-Software, CERN httpd, zu entwickeln und auch den ersten Webbrowser WorldWideWeb zu schreiben.

So komplizierte Systeme wie Computer erfordern eine sehr hohe Zuverlässigkeit. ENIAC blieb von 1947 bis 1955 für acht Jahre im Dauerbetrieb, bevor es abgeschaltet wurde. Obwohl eine Vakuumröhre ausfallen könnte, würde sie ersetzt, ohne das System herunterzufahren. Durch die einfache Strategie, ENIAC niemals herunterzufahren, wurden die Ausfälle drastisch reduziert. Die SAGE-Luftverteidigungscomputer mit Vakuumröhre wurden bemerkenswert zuverlässig – paarweise installiert, eine offline, Röhren, die wahrscheinlich ausfallen, wenn der Computer absichtlich mit reduzierter Leistung betrieben wurde, um sie zu finden. Hot-pluggable Festplatten, wie die hot-pluggable Vakuumröhren von einst, setzen die Tradition der Reparatur im Dauerbetrieb fort. Halbleiterspeicher weisen im Betrieb routinemäßig keine Fehler auf, obwohl Betriebssysteme wie Unix beim Start Speichertests durchgeführt haben, um fehlerhafte Hardware zu erkennen. Heutzutage wird die Anforderung an zuverlässige Leistung noch strenger, wenn Serverfarmen die Bereitstellungsplattform sind. [165] Google hat dies durch den Einsatz von fehlertoleranter Software zur Wiederherstellung nach Hardwareausfällen geschafft und arbeitet sogar an dem Konzept, ganze Serverfarmen während eines Serviceereignisses on-the-fly zu ersetzen. [166] [167]

Im 21. Jahrhundert wurden Multi-Core-CPUs kommerziell verfügbar. [168] Inhaltsadressierbarer Speicher (CAM) [169] ist inzwischen preiswert genug, um in Netzwerken verwendet zu werden, und wird häufig für On-Chip-Cache-Speicher in modernen Mikroprozessoren verwendet, obwohl noch kein Computersystem Hardware-CAMs für die Verwendung in der Programmierung implementiert hat Sprachen. Derzeit sind CAMs (oder assoziative Arrays) in Software programmiersprachenspezifisch. Halbleiter-Speicherzellen-Arrays sind sehr regelmäßige Strukturen, und Hersteller beweisen ihre Prozesse darauf, was Preissenkungen bei Speicherprodukten ermöglicht. Während der 1980er Jahre entwickelten sich CMOS-Logikgatter zu Geräten, die so schnell wie andere Schaltungstypen hergestellt werden konnten, der Computerstromverbrauch konnte daher drastisch gesenkt werden. Im Gegensatz zur kontinuierlichen Stromaufnahme eines auf anderen Logiktypen basierenden Gates zieht ein CMOS-Gate nur während des "Übergangs" zwischen logischen Zuständen signifikanten Strom, mit Ausnahme von Lecks.

CMOS-Schaltungen haben es ermöglicht, Computer zu einer Ware zu werden, die heute allgegenwärtig ist, eingebettet in viele Formen, von Grußkarten und Telefonen bis hin zu Satelliten. Die während des Betriebs verbrauchte thermische Entwurfsleistung ist ebenso wichtig wie die Rechengeschwindigkeit des Betriebs. Im Jahr 2006 verbrauchten Server 1,5 % des gesamten Energiebudgets der USA [170] Der Energieverbrauch von Rechenzentren soll sich bis 2011 auf 3 % des Weltverbrauchs verdoppeln. Das SoC (System on a Chip) hat noch mehr komprimiert Die integrierten Schaltkreise in einem einzigen Chip-SoC ermöglichen es Telefonen und PCs, zu einzelnen tragbaren drahtlosen Mobilgeräten zusammenzuwachsen. [171]

Quantencomputing ist eine aufstrebende Technologie im Bereich der Computer. MIT Technology Review berichtete am 10. November 2017, dass IBM einen 50-Qubit-Computer entwickelt hat, dessen Quantenzustand derzeit 50 Mikrosekunden dauert. [172] Physical Review X berichtete am 26. November 2018 über eine Technik für „Single-Gate-Sensing als praktikable Auslesemethode für Spin-Qubits“ (ein Singulett-Triplett-Spin-Zustand in Silizium). [173] Ein Google-Team hat erfolgreich ihre HF-Pulsmodulator-Chip bei 3 Kelvin, der die Kryotechnik ihres 72-Qubit-Computers vereinfacht, der für den Betrieb bei 0,3 Kelvin eingerichtet ist, aber die Ausleseschaltung und ein weiterer Treiber müssen noch in die Kryotechnik gebracht werden. [174] Siehe: Quantenüberlegenheit [175] [176] Silizium-Qubit-Systeme haben eine Verschränkung in nicht-lokalen Abständen gezeigt. [177]

Computerhardware und ihre Software sind sogar zu einer Metapher für den Betrieb des Universums geworden. [178]

Ein Hinweis auf die rasante Entwicklung dieses Gebiets kann der Geschichte des wegweisenden Artikels von Burks, Goldstine und von Neumann von 1947 entnommen werden. [179] Als irgendjemand Zeit hatte, etwas aufzuschreiben, war es überholt. Nach 1945 lasen andere John von Neumanns Erster Entwurf eines Berichts zum EDVAC, und begann sofort mit der Implementierung eigener Systeme. Bis heute hält die rasante Entwicklung weltweit an. [180] [o]


Schau das Video: BOWLING BALLS. How Its Made