Inhaltsverzeichnis
  Übersicht Kapitel 1
  1.1 Aufbau eines Digitalrechners      1.3 Entwicklungsgeschichte der Mikroprozessor-Technik

1.2 Erklärung wichtiger Begriffe


In diesem Abschnitt sollen zunächst die Begriffe erklärt werden, die in diesem Kurs wiederholt benutzt werden. Die wichtigsten von ihnen sind im Bild 1.2-1 zu finden.
Der Mikroprozessor (µP, Micro Processing Unit - MPU) ist die Zentraleinheit (oder ihr wesentlicher Teil) eines Digitalrechners, die in einem oder sehr wenigen programmierbaren Logikbaustein(en) untergebracht ist. Er umfaßt die im Abschnitt 1.1 beschriebenen Komponenten Steuerwerk, Operationswerk sowie eine Schnittstelle zum Systembus. Die Vorsilbe "Mikro-" bezieht sich nur auf die Größe des Prozessors, nicht jedoch auf seine Leistungsfähigkeit oder die Art der Realisierung des Steuerwerks. Danach kann man unterscheiden (vgl. Abschnitt 2.2) zwischen einem


Bild 1.2-1:  Zur Erklärung der wichtigsten Begriffe

Nach architektonischen Gesichtspunkten unterscheiden wir die folgenden µP-Klassen:

Nach ihren verschiedenen Einsatz- und Aufgabenbereichen, die sich auch in der Architektur niederschlagen, können wir die folgenden anwendungsorientierten Mikroprozessoren unterscheiden:

Unter einem n-bit-µP (meistens n = 4, 8, 16, 32, 64) verstehen wir einen Prozessor, dessen Operationswerk in einem Schritt eine Information der Breite n bit verarbeiten kann. (Weniger sinnvoll ist die oft zu findende Definition, die an der Breite des Datenbusses festgemacht wird, d.h. an der Anzahl der parallel - gleichzeitig - übertragenen Datenbits.)
Ein Mikrorechner (µR,Mikrocomputer - µComputer) enthält neben dem µP als Zentraleinheit zusätzlich Daten- und Programmspeicher, Schnittstellen für diverse Peripheriegeräte sowie weitere Systembausteine (Zähler, Echtzeituhr, Digital/ Analog- bzw. Analog/Digital-Wandler etc.). Die Verbindung der Komponenten geschieht durch den Systembus, bestehend aus Adreß-, Daten- und Steuerbus. (In Analogie zum menschlichen Körper ist der µP das Gehirn des µCs und nicht - wie oft gesagt wird - sein Herz.) Spezialfälle von Mikrorechnern sind:

Unter einem Mikrorechner-System (µRS, Mikrocomputer-System) verstehen wir einen Mikrorechner, zusammen mit allen angeschlossenen Peripheriegeräten. Dabei verlangen wir zur Abgrenzung von den Mikroprozessor-Systemen der einfachsten Form stets, daß ein MRS "frei" programmierbar ist und somit zur Lösung verschiedenster Aufgaben benutzt werden kann. (Bei einer Tastatur mit µP-Steuerung handelt es sich in diesem Sinne daher nicht um ein µRS.) Alle Komponenten eines µRS, die nicht zum µR selbst gehören, nennen wir die Peripherie des Systems.


1.2.1 Zur Abgrenzung zwischen CISC- und RISC-Prozessoren

In den folgenden Abschnitten werden wir immer wieder auf die architektonischen Unterschiede zwischen CISC- und RISC-Prozessoren eingehen. Damit Sie dabei den Überblick behalten, wollen wir schon an dieser Stelle die Entwicklung der RISC-Prozessoren motivieren und die wesentlichen Merkmale beider Prozessortypen gegenüberstellen. Dabei werden wir bewußt keinen Leistungsvergleich zwischen CISC- und RISC-Prozessoren anstellen, wie er in vielen Veröffentlichungen zu finden ist. Allen diesen Vergleichen ist gemeinsam, daß sie an vielen Stellen mit Fragezeichen zu versehen und häufig durch die Prozessorhersteller "gefärbt" sind. Auch werden wir uns nicht um die (eher philosophische) Frage kümmern, wie man einen bestimmten Prozessor zweifelsfrei einer der beiden Klassen zuordnen kann. Denn die Grenzen zwischen beiden Klassen sind sehr verschwommen und verschieben sich laufend. Jeder Prozessorhersteller ist natürlich bemüht, in sein neues Produkt so viele gute Eigenschaften wie möglich aus beiden Klassen einfließen zu lassen. So findet man heute auch in Standard-Mikroprozessoren Merkmale, die bis vor kurzem noch den RISC-Typen vorbehalten waren. (Im Steuerwerk des Motorola 68040 sind z.B. einige häufig benutzte Befehle nicht mehr durch ein Mikroprogramm sondern in direkter Verdrahtung realisiert. Andererseits enthalten - wie oben bereits gesagt - einige RISC-Prozessoren auf dem Chip Komponenten, die ein mikroprogrammiertes Steuerwerk besitzen.) Zunächst sind im Bild 1.2-2 die zugrunde liegenden "Entwurfsphilosophien" skizziert.


Bild 1.2-2:  Hardware/Software-Komplexität bei CISC/RISC-Prozessoren


Erklärtes Ziel der CISC-Entwicklung war es bis zur Mitte der 80er Jahre, die Grenze zwischen Hardware und Software immer weiter nach "oben" zu verschieben, d.h. möglichst viele Funktionen direkt durch die Hardware ausführen zu lassen. Als Endziel dachte man an einen Prozessor, der unmittelbar, also ohne Einsatz eines Compilers, in einer höheren Programmiersprache programmiert werden sollte. Als Folge ergaben sich Prozessoren mit einem umfangreichen Satz von bis zu einigen Hundert Befehlen in unterschiedlichsten Formaten, mit bis zu einigen Dutzend unterstützten Adressierungsarten und vielen verschiedenen Datentypen und Datenformaten. Die Realisierung dieser Prozessoren führt zu einigen technologischen und ökonomischen Problemen, die wir nun kurz skizzieren wollen.

Die dargestellten Probleme wurden schon in den Anfangsjahren der Mikroprozessor-Technik erkannt. So begann man schon in der Mitte der 70er Jahre nach Alternativen zu suchen. Ab 1975 entwickelte man bei der Firma IBM das Rechnersystem IBM 801, dessen Prozessor sich durch einen einfachen Befehlssatz für die Verarbeitung von Texten und ganzen Zahlen auszeichnete und für den Einsatz einfacher, optimierender Compiler konzipiert wurde. Anfang der 80er Jahre folgte dann an der Universität von Kalifornien in Berkeley die Entwicklung zweier Prozessoren RISC I und RISC II, die einer ganzen Klasse von Nachfolgern den Namen gegeben haben.

Ziel der RISC-Entwicklung ist es, die Grenze zwischen Hardware und Software so weit wie möglich nach "unten" zu verschieben, also Prozessoren zu bauen, die durch eine ganze Palette von Maßnahmen den oben erwähnten Nachteilen der CISC-Prozessoren begegnen. Dazu gehört insbesondere eine drastische Reduzierung der Komplexität des Steuerwerks. So liegt der Anteil der Chipfläche, die das Steuerwerk typischer RISC-Prozessoren belegt, unter 10% . Die eingesparte Fläche wurde zwar zum Teil für eine drastische Vergrößerung des Registersatzes verwendet, jedoch erlaubt die reduzierte Komplexität eine erhebliche Verkürzung der Entwicklungszeit und damit eine bessere Ausnutzung der Technologiefortschritte.

In den letzten Jahren ist aber auch eine gegenläufige Tendenz zu beobachten. So werden auf der durch die Reduzierung der Komplexität gewonnenen Chipfläche immer weitere Komponenten eines Mikrocomputer-Systems untergebracht und dadurch seine Hardware-Komplexität wieder vergrößert (s. Bild 1.2-2 rechts). Dazu gehören insbesondere schnelle Zwischenspeicher (Caches), Speicherverwaltungseinheiten (Memory Management Units - MMU) und weitere Rechenwerke.
Im Rest dieses Unterabschnitts werden wir die charakteristischen Eigenschaften von RISC-Prozessoren beschreiben.

Typische RISC-Eigenschaften

Wie nicht anders zu erwarten, sind einige der im folgenden beschriebenen typischen RISC-Merkmale gerade "komplementär" zu den bei den CISC-Prozessoren festgestellten Nachteilen. Die Auflistung der Eigenschaften darf nicht so mißverstanden werden, daß ein typischer RISC-Prozessor alle diese Eigenschaften besitzen muß. Vielmehr erfüllen alle realen RISC-Prozessoren nur eine mehr oder weniger große Teilmenge der gestellten Forderungen. Auch erhebt die Darstellung keinen Anspruch auf Vollständigkeit. Zu den typischen RISC-Merkmalen gehören:

Exkurs 1.2.1: Zu den Begriffen bit und byte

In der Literatur kann man leider keine einheitliche Schreibweise und Interpretation dieser Begriffe finden. Wir benutzen die folgende Konvention:

Bit(Binary Digit) bezeichnet ein einzelnes Speicherelement eines Registers bzw. einer Speicherzelle, das nur den Wert '0' oder '1' aufnehmen kann, oder eine bestimmte Binärstelle innerhalb einer Adresse bzw. eines Datenwortes.
Bytebezeichnet dementsprechend eine Gruppe von acht zusammenhängenden Bits in einem Register, einem Speicher-, Adreß- oder Datenwort.
bitist die Maßeinheit für den Informationsgehalt. Wir benutzen sie zur Angabe der Länge (Breite) eines Registers, eines Wortes oder der Kapazität eines Speichers. Häufig benutzt werden die abgeleiteten Maßeinheiten:
kbit = 210 bit = 1 024 bit (Kilobit),
Mbit = 220 bit = 1 048 576 bit (Megabit),
Gbit= 230 bit = 1 073 741 824 bit (Gigabit).
byteist eine vom bit abgeleitete Maßeinheit, für die die Berechnungsformel gilt: n byte = 8 x n bit. Sie wird bevorzugt dann benutzt, wenn die kleinste selektierbare Einheit eines Registers, eines Speicher-, Adreß- oder Datenwortes ein Byte ist. Gebräuchlich sind die abgeleiteten Maßeinheiten kbyte, Mbyte, Gbyte.

Ergänzung:
Im Gegensatz zum Informationsgehalt werden Frequenzen gewöhnlich in 10er-Potenzen angeben. Demgemäß bedeuten die folgenden Übertragungsraten:

kbit/s= 103 bit/s = 1 000 bit/s(Kilobit/Sekunde),
Mbit/s= 106 bit/s = 1 000 000 bit/s (Megabit/Sekunde),
Gbit/s= 10 9 bit/s = 1 000 000 000 bit/s (Gigabit/Sekunde).

  Inhaltsverzeichnis
  Übersicht Kapitel 1
1.1 Aufbau eines Digitalrechners      1.3 Entwicklungsgeschichte der Mikroprozessor-Technik