JavaScript deaktiviert! Das Abschicken einer Bestellung ist bei deaktiviertem JavaScript leider NICHT möglich!
Es stehen Ihnen nicht alle Shopfunktionalitäten zur Verfügung. Bitte kontrollieren Sie Ihre Interneteinstellungen. Für ein optimales Einkaufserlebnis empfehlen wir, JavaScript zu aktivieren. Bei Fragen: webmaster@conrad.de
{{#unless user.loggedIn}} {{#xif " digitalData.page.category.pageType !== 'checkout_confirmation' " }}
{{/xif}} {{/unless}}

Das Mooresche Gesetz – endlich verständlich

Das Mooresche Gesetz – endlich verständlich
Das Mooresche Gesetz geht auf Gordon Moore, einen Mitbegründer von Intel zurück (Bild: „Intel CEOs Gordon Moore und Robert Noyce im Jahr 1970“, von Intel Free Press, Lizenz: CC BY-SA 2.0).

Das „Mooresche Gesetz“ darf in keiner Informatikeinführung fehlen: es beschreibt die Evolution der Computertechnik – vom Großrechner bis zum Smartphone.

Als Gordon Moore am 19. April 1965 den Essay „Cramming More Components onto Integrated Circuits“ in der Fachzeitschrift Electronics veröffentlichte, wurde das von der Fachwelt zunächst als Science Fiction oder technische Spinnerei abgetan. Doch Moore war mehr Prophet als Spinner: er gründete gemeinsam mit anderen Ingenieuren die Firma Fairchild Semiconductor, die den ersten integrierten Schaltkreis herstellte – die Grundlage heutiger Computer. Einige Jahre später rief er zusammen mit Robert Noyce das Unternehmen Intel ins Leben, das aktuell den größten Marktanteil im Bereich Chipherstellung besitzt. Übrigens: Moore hält noch heute die meisten Aktien.

Sein Essay beinhaltet einen wichtigen Teil seiner intellektuellen Leistung: Moore sagte voraus, dass Computer etwa alle zwei Jahre schneller, leistungsfähiger und kompakter werden. Diese Faustregel wird als das „Mooresche Gesetz“ bezeichnet und darf in keiner Informatikeinführung fehlen. Es beschreibt die Evolution der Computertechnik, die ihr wahrscheinlich gerade benutzt um diesen Artikel zu lesen. Technik begeistert euch? Dann gehört das Mooresche Gesetz in den Elektronikbaukasten und Begriffe wie Computer, Hard- und Software oder Transistoren sowieso.

Wie Computer funktionieren

Computer sind nicht besonders kreativ. Etwas neues ausprobieren oder selbstständig denken? Fehlanzeige. Es sind einfache Geräte, die doch wunderbare Dinge vollbringen können. Computer nehmen uns Arbeit ab, sie sorgen für Entertainment und diverse Optionen, sich zu informieren. Rechenaufgaben, Textverarbeitung, Computerspiele oder Internetanwendungen, alles kein Problem.

Wie Computer funktionieren
Am 12. Mai 1941 präsentierte der deutsche Ingenieur Konrad #Zuse der Welt seinen ‪‎Z3‬ – den ersten funktionsfähigen Digitalrechner.(Bild: Von Venusianer aus der deutschsprachigen Wikipedia, CC BY-SA 3.0)

Was aber im Innern der Geräte in den Mikrochips schlummert, lässt sich herunterbrechen: Man kann etwas eingeben und es kommt, leicht verändert, wieder heraus. Computer sind Eingabe- und Ausgabegeräte und ganz versessen auf Informationen. Mit Tastatur und Maus werden Eingaben gemacht. Der Computer verarbeitet sie und gibt sie mit einem Ausgabegerät wie Bildschirm und Drucker wieder aus. Manchmal speichert er auch was. Selfies oder Familienfotos zum Beispiel. Im Beitrag „Wie funktioniert eigentlich ein Computer?“ haben wir das und das Binärsystem, über das wir gleich noch sprechen, intensiver erklärt.

Computer funktionieren dank dreier Prinzipien:

  • Eingabe und Ausgabe

  • Datenverarbeitung

  • Datenspeicherung

Mehr Transistoren auf engstem Raum

Was hat Gordon Moore mit der Sache am Hut? Wie passt das Mooresche Gesetz hier hinein? Nun, er war fast von Anfang an dabei. Von der Herstellung des ersten Transistorchips über komplizierte integrierte Schaltkreise bis hin zur Erfindung des Smartphones. Sein Essay beschreibt diese Entwicklung und er lag ziemlich richtig: das Bauteil, das den Computer zu einem wahren Rechenkünstler macht, ist der Transistor. Wenn ihr eine Taste auf der Tastatur eures Smartphones drückt, ist mit absoluter Sicherheit ein Transistor daran beteiligt, dass ein Smiley im Chat erscheint. Oder komische Emoticons und verwirrende Rechtschreibkorrekturen.

Mehr Transistoren auf engstem Raum
Eine Auswahl an diskreten Transistoren in verschiedenen Gehäuseformen. (Bild: Von Benedikt.Seidl – Eigenes Werk, Gemeinfrei)

Das Innenleben von kleinen wie großen Computern besteht zu einem großen Teil aus Transistoren. Ein Transistor arbeitet nach einem einfachen Prinzip. Man kann sich das wie ein Wasserhahn vorstellen: Ist er geöffnet, fließt Wasser. Wenn er geschlossen ist, fließt gar nichts. Transistoren arbeiten aber mit Strom statt Wasser: Liegt Strom an, machen sie etwas. Liegt kein Strom an, machen sie nichts. Es sei denn, sie sollen etwas machen, wenn kein Strom anliegt. Dann wird einfach die Polung umgekehrt – das Wasser bzw. der Strom fließt in die jeweils andere Richtung. Das heißt, dass sie bei nicht anliegendem Strom auch etwas ausführen oder unterlassen können.

Aber was machen Transistoren oder was können sie ausführen? Naja, sie können zum Beispiel als Wasserhahn dienen, indem sie Ströme auf verschiedene Weisen steuern. Zum besseren Verständnis, was in einem Computer vorgeht, können wir uns ein Wassersystem einer Stadt vorstellen: es gibt tausende Wasserhähne, Leitungen und auch ein Wasserwerk – das Herz des ganzen. Vielleicht gibt es auch ein paar Ingenieure, die dieses System gebaut haben und überwachen. Aber auf jeden Fall sind wir auf Wasser, Wasserleitungen und Wasserhähne angewiesen, wenn das System funktionieren soll.

Zurück zum Computer: dank Stromanschluss oder Batterie brauchen wir kein Wasserwerk. Strom liegt immer dann an, wenn der Computer angeschlossen ist oder der Akku ausreichend Energie bereitstellt. Wird nun der Einschalter betätigt, fängt das System an zu arbeiten. Ihr kennt das bestimmt: ein kurzes Summen, der Bildschirm flackert und das Betriebssystem wird gestartet. Nach gefühlten zwei Minuten kann der Benutzer etwas in den Computer eingeben. Er kann zum Beispiel ein Programm starten. Das was ihr dann seht, ist die Benutzeroberfläche dieses Programms. Hier können Eingaben getätigt werden, die der Computer je nach Programmlogik verarbeitet. Ihr erinnert euch: die Sache mit der Ein- und Ausgabe und der Verarbeitung.

Zwischen Hardware, Software und Programmlogik

Bereits jetzt wird ein wichtiger Unterschied deutlich: nämlich der zwischen Hardware und Software. Das Innere und Äußere, also das Physische eines Computers wird als Hardware bezeichnet. Sie besteht vorrangig aus Transistoren (und vielen anderen Bauteilen wie Speicher oder Schnittstellen, die meist ebenfalls aus Transistoren gebaut sind). Allerdings ist das Innere des Computers etwas komplexer: hier arbeiten zahlreiche Transistoren zusammen, weil sie sich miteinander kombinieren lassen. Transistoren werden sehr häufig zusammengeschaltet. Dann können sie noch mehr Eingaben entgegennehmen, verarbeiten und ausspucken.

Je nach Schaltung können Transistoren Ströme weiterleiten, verstärken oder verringern. Aber Transistoren sind recht einfach gestrickt. Ohne menschlichen Input sind sie nichts weiter als ein ultraschneller und ziemlich schlichter Rechenschieber. Wir benötigen eine Software, um die Hardware zu steuern und ihr zu sagen, was sie tun soll. Der Computer braucht diese Anweisungen und Befehle – sie sind das Futter für ihn.

  • Hardware: Geräte für die Ein- und Ausgabe, für das Speichern von Daten und für das Verarbeiten

  • Software: Programmlogik, die der Hardware sagt, was sie machen soll

Das Wassersystem in einer Stadt würde ja auch nicht funktionieren, hätte es sich nicht irgendwer von Beginn an ausgedacht. In welche Richtung fließt das Wasser? Wo kommt es her? Und: an welchen Stellen im System wird viel davon benötigt? Diese systematische Steuerung übernimmt beim Computer die Software und teilweise wird sie schon bei der Herstellung von Chips beachtet: manche Chips haben eine eingebaute Programmlogik. Das bedeutet, dass die zur Verfügung stehenden Befehle und Befehlsketten für das System feststehen. Hauptprozessoren sind solche Bauteile. Sie sind das Herz der Hardware: die CPU (Central Processing Unit) oder zentrale Prozessoreinheit.

Von Nullen und Einsen zu Befehlsketten

Nun müssen sich Mensch und Hardware irgendwie verstehen: Die Programmlogik arbeitet deshalb nach dem binären System. Das ist eine zweiwertige Logik, die der Hardware bekannt ist und dem Menschen dank Gottfried Wilhelm Leibniz auch. Der Mensch kann mit den Zuständen Null und Eins dem Computer sagen, was er tun soll. Nullen und Einsen sind das Bindeglied zwischen Computersprache und unserer Sprache.

Ähnlich wie beim städtischen Wassersystem ist auch das eine recht komplexe Angelegenheit: denn im Grunde benötigen wir eine Programmlogik, die etwas macht, wenn ein Strom anliegt. Solche Befehle sind logische Argumente, die auf den Zuständen Null und Eins basieren. In sprachlicher, abstrakter Form sind das beispielsweise Aussagen wie:

  • x und y

  • x oder y

  • Wenn x, dann y

  • Entweder x oder y

  • Genau wenn x, dann y

Die Sache mit den Nullen und Einsen ist zwar auf den ersten Blick relativ einfach und wirkt vielleicht zu trocken. Schaut man genauer hin, lässt sich damit aber eine Programmlogik aufbauen. Zum Beispiel: genau dann, wenn der Benutzer den Einschalter betätigt, wird das Betriebssystem gestartet. Oder: drückt der Benutzer gleichzeitig Steuerung + Alt + Entfernen, wird der Taskmanager eines Windows-Betriebssystems gestartet. Solche Befehlsketten bestehen aus Sicht des Computers nur aus Nullen und Einsen. Klingt absurd, ist aber zutiefst logisch.

Von Befehlsketten zu Logikgattern

Der Knackpunkt ist: diese Programmlogik wird anhand von Transistoren nachgebaut. Man nennt sie dann Logikgatter. Das sind elektronische Bauteile, die das zweiwertige System mit Nullen und Einsen schon verinnerlicht haben: es ist ihnen bei der Herstellung der Chips in die Wiege gelegt worden. Logikgatter setzen die zweiwertige Logik um und bieten somit eine Fülle von Möglichkeiten, wie Computersysteme konzipiert werden können. Dieses Video erklärt Logikgatter recht gut:

Stell dir vor, dass Millionen von Transistoren miteinander verknüpft sind, sodass die Hardware aufgrund der integrierten Programmlogik tausende Anfragen und ganz spezielle Aufgaben bearbeiten kann. So ähnlich arbeiten alle Computer. Sie brauchen diesen logischen Input, damit sie für uns Menschen Aufgaben erledigen können. Und wir Menschen sind dafür zuständig, die Hardware und die Programmlogik so zu gestalten, dass der Computer die Aufgaben auch ausführen kann und keine Konflikte oder Programmfehler auftreten.

Transistoren, die schon eine Programmlogik mitbringen, werden übrigens auch als integrierte Schaltkreise bezeichnet. Womit wir wieder beim Ausgangspunkt wären: Gordon Moore bezog sich mit seinem Essay auf integrierte Schaltkreise, die aus Millionen von Transistoren bestehen. Und interessanterweise sind integrierte Schaltkreise der Hauptbestandteil von Computern, so wie wir sie heute kennen. Dass Moore also den Transistor betrachtete, war kein Zufall. Er wollte ausloten, wozu wir Menschen in Sachen Computertechnik in den nächsten Jahrzehnten im Stande sind. Wenn ihr jetzt euer Smartphone in die Hände nehmt, haltet ihr ein Beispiel für diese technologische Entwicklung in den Händen, die Moore in den sechziger Jahren zumindest in der Theorie vorwegnahm.

Das Mooresche Gesetz: vom Großrechner zum Smartphone

Moores Vorhersagen blieben mehr als 50 Jahre gültig. Erst jetzt, im Jahr 2016, scheint das mooresche Gesetz die technologische Entwicklung nicht mehr zu 100 % zu beschreiben.

Woran das liegt und wohin die Reise durch verschiedene Technologien noch gehen kann, erfährst du im zweiten Teil über das Mooresche Gesetz. Dieser erscheint nächste Woche.