Logo Prof. Dr. Dirk W. Hoffmann
Cover Cover Cover Cover Cover Cover Cover Cover
Abakus
☞ Abschnitt 1.2
Das mit Stäben und Kugeln aufgebaute Rechenbrett ist die älteste bekannte mechanische Rechenhilfe der Menschheitsgeschichte. Aus dem chinesischen Ur-Abakus, dem Suan pan, gingen der russische Stschoty sowie der japanische Soroban hervor. In einigen asiatischen Ländern ist der Abakus noch heute im praktischen Gebrauch.



Addierer
☞ Abschnitt 7.5
Spezielles Schaltwerk zur Durchführung der binären Addition und eine Grundkomponente des Rechenwerks eines jeden Mikroprozessors. Halb- und Volladdierer dienen der Addition zweier Binärziffern und lassen sich auf unterschiedliche Weise zu einem vollständigen Addierwerk für mehrziffrige Binärzahlen zusammenschalten. Wichtige Implementierungsvarianten sind der Carry-ripple-Addierer, der Carry-look-ahead-Addierer, der Präfix-Addierer und der Carry-save-Addierer.



Additionssystem
☞ Abschnitt 3.1
Spezielles Zahlensystem, in dem sich der Wert einer Zahl ausschließlich aus der Summe der jeweiligen Ziffernwerte berechnet. Anders als in Stellenwertsystemen hängt der Wert einer Ziffer nicht von deren Position innerhalb der Ziffernfolge ab. Additionssystemen sind z. B. das Kerbensystem sowie die römischen Zahlen.



Adressbus
☞ Abschnitt 11.1
Spezieller Bus, der in einem Von-Neumann-Rechner den Mikroprozessor mit dem Hauptspeicher ( Speicher) verbindet. Während eines Speicherzugriffs wird die Adresse der zu lesenden oder zu schreibenden Speicherzelle auf diesem Bus übertragen.



Adressierungsart
☞ Abschnitt NA
Regel zur Berechnung des Speicherbereichs oder des Datenwerts, auf den ein Maschinenbefehl zugreift. Zu den elementaren Adressierungsarten gehören
  • die unmittelbare Adressierung,
  • die absolute Adressierung,
  • die relative Adressierung und
  • die indirekte Adressierung.
Darüber hinaus unterstützen moderne CISC-Architekturen weitere Adressierungsarten, die ein oder mehrere Displacements in die Adressberechnung mit einbeziehen und den Speicherzugriff mit dem impliziten Inkrementieren oder Dekrementieren der Registerinhalte kombinieren.



Akkumulator
☞ Abschnitt 9.1.4
Register des Rechenwerks eines Mikroprozessors zur Durchführung arithmetischer Operationen.



Akzeptor
☞ Abschnitt 8.2.1
Spezieller endlicher Automat, der in der theoretischen Informatik im Bereich der formalen Sprachen eine große Rolle spielt. Akzeptoren bestehen aus einer Menge von Zuständen, einem Eingabealphabet sowie einer Reihe von Akzeptanzzuständen. In jedem Verarbeitungsschritt nimmt der Automat ein einzelnes Eingabezeichen entgegen und geht in einen neuen Zustand über. Die Eingabesequenz wird genau dann akzeptiert, wenn die Verarbeitung in einem der Akzeptanzzustände endet.



Allzweckregister
☞ Abschnitt 11.1.2
Bezeichnung für ein Register eines Mikroprozessors, das zur Zwischenspeicherung beliebiger Werte eingesetzt werden kann. Obwohl jedes Programm mit Hilfe eines einzigen Allzweckregisters formuliert werden kann, halten moderne Prozessoren zur Steigerung der Effizienz eine Vielzahl solcher Register vor.



Arithmetisch-logische Einheit
☞ Abschnitt 7.10
Spezielles Schaltnetz oder Schaltwerk, das mehrere arithmetische ( Addierer, Multiplizierer etc.) und logische Verarbeitungseinheiten (UND- bzw. ODER-Maskierung, Schieberegister etc.) in einer einzigen Hardware-Komponente integriert. Die von der arithmetisch-logischen Einheit – kurz ALU – tatsächlich ausgeführte Operation wird über die Werte der Steuerleitungen bestimmt, die neben den Datensignalen als zusätzliche Eingänge zur Verfügung stehen.



ASCII-Code
☞ Abschnitt 3.4.1
Im Jahre 1963 eingeführter 7-Bit-Code zur Darstellung von Zeichen und Texten. Der ASCII-Code ist auch heute noch von großer Bedeutung, da nahezu alle modernen Zeichencodierungen rückwärtskompatibel ausgelegt sind. So sind die ersten 128 Zeichen des Unicodes und der ISO-8859-Zeichensätze mit dem ASCII-Code identisch.



Assembler
☞ Abschnitt 11.1
Bezeichnung für eine Software-Applikation, die ein in Assembler-Sprache verfasstes Programm in die für den Mikroprozessor verständliche Binärform übersetzt. Im gängigen Sprachgebrauch wird der Begriff auch synonym für die Assembler-Sprache verwendet.



Assembler-Sprache
☞ Abschnitt 11.1
Bezeichnung für eine symbolische Programmiersprache, deren Instruktionswörter eins zu eins auf die Maschinenbefehle des zu Grunde liegenden Mikroprozessors abgebildet werden können.



Auffangregister
☞ Abschnitt 9.1.1
Spezielles Register, das parallel beschrieben und ausgelesen werden kann. Auffangregister dienen damit ausschließlich der Zwischenspeicherung von Datenwörtern und besitzen im Gegensatz zu Schieberegistern oder Zählern keinerlei arithmetischen Eigenschaften.



Barrel-Shifter
☞ Abschnitt 7.9
Schaltnetz zum schnellen Verschieben der Bits innerhalb eines Datenworts und typischer Bestandteil einer arithmetisch-logischen Einheit. Im Gegensatz zu dem klassischen Schieberegister, das ein Datenwort in einem Schritt jeweils nur um ein Bit nach links oder rechts verschiebt, erlaubt der Barrel-Shifter die gleichzeitige Verschiebung um eine beliebige Anzahl in konstanter Zeit.



Basis
☞ Abschnitt 3.1
In einem Stellenwertsystem zur Basis b geht die Ziffer an der i-ten Position mit der Wertigkeit b i in den dargestellten Zahlenwert ein. Darüber hinaus legt die Basis die Größe des Ziffernvorrats fest. So ist das Binärsystem ein Zahlensystem zur Basis 2 mit dem Ziffernvorrat 0 und 1 und das uns vertraute Dezimalsystem ein Zahlensystem zur Basis 10 mit dem Ziffernvorrat 0 , , 9.



Befehlssatz
☞ Abschnitt 11.1.1
Bezeichnung für die Gesamtheit aller Maschinenbefehle, die ein Mikroprozessor verarbeiten kann.



BCD-Code
☞ Abschnitt 3.3
Spezieller Code, der eine Dezimalzahl ziffernweise repräsentiert, indem jede Dezimalziffer mit vier Bit dargestellt wird. BCD ist die Abkürzung für Binary Coded Decimal.



Bevorrechtigte Eingänge
☞ Abschnitt 8.1.4
Bezeichnung für eine Reihe von zusätzlichen Eingangssignalen, die das Verhalten eines Schaltnetzes oder Schaltwerks mit hoher Priorität beeinflussen. Die meisten Standardschaltungen besitzen mit dem Reset-Signal einen typischen bevorrechtigten Eingang. Wird die Reset-Leitung aktiviert, so werden alle Speicherelemente in ihren Initialzustand zurückgesetzt – unabhängig vom Wert der anderen Signale.



Benchmark
☞ Abschnitt NA
Fest definiertes Referenzprogramm, das der Leistungsmessung eines Rechnersystems dient. Wird nicht nur ein einziges, sondern mehrere solcher Programme zur Leistungsmessung eingesetzt, so sprechen wir auch von einer Benchmark-Kollektion.



Big-Endian
☞ Abschnitt 3.2.1
Spezielle Speicherordnung, in der das höchstwertige Byte zuerst und das niedrigstwertige Byte zuletzt im Speicher abgelegt wird.



Binärcode
☞ Abschnitt 3.3
Code, dessen Codewörter c 1 , ,c n ausschließlich aus Bitvektoren bestehen (c 1 , ,c n ∈{ 0 , 1 } * ). Ein Code der festen Länke k liegt vor, wenn alle Codewörter aus derselben Anzahl von Bits gebildet werden (c 1 , ,c n ∈ { 0 , 1 } k ). Der BCD-Code ist ein Binärcode fester Länge.



Binärsystem
☞ Abschnitt 3.1
Stellenwertsystem zur Basis 2 mit dem Ziffernvorrat 0 und 1. Das Binärsystem ist das wichtigste Zahlensystem der technischen Informatik, da heute nahezu alle modernen Computerarchitekturen intern mit dem Binärsystem arbeiten.



Binäres Entscheidungsdiagramm
☞ Abschnitt 4.4.3
Spezielles Entscheidungsdiagramm auf Basis des Shannon’schen Entwicklungssatzes.



Bindungsenergie
☞ Abschnitt 2.1.1
Energiemenge, die aufgebracht werden muss, um ein Elektron von seinem Atom zu lösen und zu einem freien Leitungselektron werden zu lassen. In elektrischen Leitern ist die Bindungsenergie gering, in guten Isolatoren dagegen sehr hoch.



Bipolartransistor
☞ Abschnitt 2.2.2
Spezieller Transistor, der durch den Zusammenschluss von drei dotierten Halbleitergebieten entsteht. In Abhängigkeit der Dotierungsreihenfolge entsteht ein npn- oder ein pnp-Transistor. Bipolartransistoren besitzen drei Anschlüsse (Basis, Kollektor und Emitter). Ein schwacher Stromfluss auf der Basis-Emitter-Strecke verursacht einen starken Stromfluss auf der Kollektor-Emitter-Strecke.



Bit
☞ Abschnitt 3.1
Ein Bit ist die kleinstmögliche Informationseinheit und kann die Werte 0 (falsch) und 1 (wahr) annehmen. Bits sind die Ziffern des Binärsystems. Je acht Bit werden zu einem Byte zusammengefasst. Bit ist die Abkürzung für Binary Digit.



Blockmultiplikation
☞ Abschnitt 10.1.1
Verfahren zur Multiplikation zweier Binärzahlen, das auf der blockweisen Zerlegung der Operanden beruht. Die Laufzeit und der Flächenbedarf eines Blockmultiplikationswerks stellen einen Kompromiss zwischen dem flächenintensiven Parallelmultiplizierer und dem langsamen seriellen Multiplizierer dar.



Boolesche Algebra
☞ Abschnitt 4.1
Eine Menge V zusammen mit zwei Funktionen
+ : V × V → V ∙ : V × V → V
heißt boolesche Algebra, wenn die vier Huntington’schen Axiome erfüllt sind. Eine spezielle boolesche Algebra, die für die technische Informatik eine bedeutende Rolle spielt, ist die Schaltalgebra.



Boolescher Ausdruck
☞ Abschnitt 4.2
Aus booleschen Konstanten, Variablen und Operatoren rekursiv aufgebaute Zeichenkette zur Beschreibung boolescher Funktionen. Jeder boolesche Ausdruck lässt sich eins zu eins in ein Schaltnetz überführen.



Boolesche Funktion
☞ Abschnitt 4.1.2
Abbildung der Form { 0 , 1 } n →{ 0 , 1 } und die mathematische Grundlage zur Beschreibung von Hardware-Schaltungen. Neben der Darstellung als boolescher Ausdruck lässt sich eine boolesche Funktion mit Hilfe einer Wahrheitstabelle oder in Form eines Entscheidungsdiagramms repräsentieren.



Boolesche Konstanten
☞ Abschnitt 4.1.2
Bezeichnung für die beiden Wahrheitswerte 0 (falsch) und 1 (wahr).



Bus
☞ Abschnitt 11.1
Gemeinsam genutzter Transportweg zwischen verschiedenen Funktionseinheiten. In einem klassischen Von-Neumann-Rechner kommuniziert der Mikroprozessor über den Adressbus, den Datenbus und den Steuerbus mit den restlichen Funktionseinheiten.



Byte
☞ Abschnitt 3.1
Bezeichnung für die Zusammenfassung von 8 Bit. Nahezu alle modernen Computerarchitekturen legen Daten im Speicher byteweise ab. In anderen Worten: Jedes Byte besitzt eine eigene Adresse im Speicher und kann somit direkt angesprochen werden.



Cache-Speicher
☞ Abschnitt NA
Kleiner, aber sehr schneller Speicher, der zwischen den Mikroprozessor und den Hauptspeicher ( Speicher) geschaltet wird. Transferierte Daten werden im Cache zwischengespeichert und bei einem erneuten Zugriff direkt von dort übertragen. Der Einsatz von Caches führt in der Praxis zu einer drastischen Erhöhung der Datentransferrate zwischen Prozessor und Hauptspeicher.



Carry-look-ahead-Addierer
☞ Abschnitt 7.5.3
Spezieller Addierer für die besonders schnelle Addition zweier Binärzahlen. Das Addierwerk besteht aus einer Reihe von Volladdierern sowie spezieller Logik zur parallelen Berechnung der Übertragsbits. Die Übertragslogik ist als zweistufiges Schaltnetz ausgelegt und die Addition zweier Zahlen hierdurch in konstanter Zeit möglich.



Carry-ripple-Addierer
☞ Abschnitt 7.5.2
Einfacher Addierer, der durch die serielle Zusammenschaltung mehrerer Volladdierer entsteht. Fläche und Laufzeit des Carry-ripple-Addierers steigen linear mit der Bitbreite der Operanden.



Carry-save-Addierer
☞ Abschnitt 7.5.5
Spezieller Addierer, der immer dann eingesetzt wird, wenn mehrere Binärzahlen auf einen Schlag addiert werden müssen. Hierzu werden die Zwischenergebnisse im Carry-save-Format gespeichert, das eine besonders effiziente Addition ermöglicht. Im letzten Schritt wird die Summe mit Hilfe eines gewöhnlichen Addierers in das Binärsystem zurückkonvertiert.



Carry-save-Format
☞ Abschnitt 7.5.5
Jedes Tupel ( x,y ) ist eine Carry-save-Darstellung von z = x + y. Zahlen im Carry-save-Format lassen sich besonders schnell addieren, da die zeitraubende Propagierung des Übertragsbits entfällt. Eingesetzt wird diese Art der Darstellung im Carry-save-Addierer und dem Carry-save-Multiplizierer.



Carry-save-Multiplizierer
☞ Abschnitt 7.5.5
Spezieller Parallelmultiplizierer, der zwei n-Bit-Zahlen in logarithmischer Zeit multipliziert. Den Kern der Schaltung bildet ein Carry-save-Addierer zur Addition der n Partialprodukte.



Charakteristik
☞ Abschnitt 3.2.2
Spezielles Format zur Speicherung des Exponenten einer Gleitkommazahl. Die Charakteristik C entsteht aus dem Exponenten E durch die Addition einer Konstanten k. Hierdurch wird der Wertebereich von E vollständig in den positiven Zahlenbereich verschoben und kann ganz einfach als vorzeichenlose Binärzahl abgespeichert werden.



Charakteristische Funktion
☞ Abschnitt 5.3.2
Boolesche Funktion zur Beschreibung des funktionalen Verhaltens eines Schaltnetzes und Grundlage der relationalen Formelsynthese. Die charakteristische Funktion f ( x 1 , ,x n ,y 1 , ,y m ) beschreibt ein Schaltnetz mit den Eingängen x 1 , ,x n und den Ausgängen y 1 , ,y m und ist genau dann gleich 1, wenn die Eingangswerte x 1 , ,x n die Ausgangswerte y 1 , ,y m erzeugen.



CISC
☞ Abschnitt NA
Complex Instruction Set Computer verfügen über einen umfangreichen und leistungsfähigen Befehlssatz und unterstützen in der Regel eine Vielzahl an Adressierungsarten. Komplexe Algorithmen lassen sich daher mit einem vergleichsweise kompakten Assembler-Programm formulieren. Im Gegensatz zu RISC-Prozessoren können CISC-CPUs die meisten Befehle nicht mehr in einem einzigen Takt ausführen. Viele CISC-Prozessoren setzen intern ein mikroprogrammiertes Steuerwerk ein.



CMOS-Technik
☞ Abschnitt 5.1.2
Schaltkreisfamilie, deren Verknüpfungsglieder sowohl mit n-Kanal- als auch mit p-Kanal- Feldeffekttransistoren aufgebaut sind. Die CMOS-Technik ist die heute vorherrschende Basistechnologie für die Konstruktion integrierter Schaltkreise. Entsprechende Schaltungen lassen sich in sehr hoher Integrationsdichte herstellen und zeichnen sich durch eine vergleichsweise geringe Leistungsaufnahme auf.



Code
☞ Kapitel 3
Abbildung, die jedem Zeichen einer Ursprungsmenge eindeutig ein Zeichen einer Zielmenge zuordnet. In der technischen Informatik spielen insbesondere die Binärcodes eine hervorgehobene Rolle. Alternativ wird der Begriff auch synonym für den Quelltext eines Computerprogramms verwendet.



Dadda-Tree-Multiplizierer
☞ Abschnitt 7.8.4
Spezieller Parallelmultiplizierer, der sich eng an das Konstruktionsprinzip des Wallace-Tree-Multiplizierers anlehnt, jedoch eine andere Anordnung der Halb- und Volladdierer innerhalb der Reduktionszelle einsetzt. Während der Wallace-Tree-Multiplizierer eine möglichst frühe Zusammenfassung der Koeffizientenbits anstrebt, verdichtet der Dadda-Tree-Multiplizierer die Koeffizientenmatrix so spät wie möglich.



Datenbus
☞ Abschnitt 11.1
Spezieller Bus, der in einem Von-Neumann-Rechner den Mikroprozessor mit dem Hauptspeicher ( Speicher) verbindet. Während eines Speicherzugriffs wird das ausgelesene oder zu schreibende Datenwort auf diesem Bus übertragen.



Definitorische Form
☞ Abschnitt 5.3
Spezielle Form eines booleschen Ausdrucks zur kompakten Darstellung von Schaltnetzen. Die Größe des definitorischen Ausdrucks ist stets proportional zur Größe des Schaltnetzes, unabhängig von etwaig vorhandenen Rekonvergenzen.



Demultiplexer
☞ Abschnitt 7.2
Hardware-Komponente mit einem einzigen Dateneingang, n Steuereingängen und 2 n Datenausgängen. Abhängig von der Belegung der Steuereingänge schaltet der Demultiplexer den Dateneingang auf genau einen der Datenausgänge durch. Demultiplexer werden immer dann eingesetzt, wenn ein Datenstrom auf eine von mehreren Datensenken verteilt werden muss.



Dezimalsystem
☞ Abschnitt 3.1
Das uns vertraute Dezimalsystem (Zehnersystem) hat seinen Ursprung in Indien und fand durch die Araber den Weg nach Europa. Mathematisch gesehen ist das Dezimalsystem ein Stellenwertsystem zur Basis 10 mit dem Ziffernvorrat 0 , , 9. Bei der Konvertierung von Dezimalzahlen in das Binär-, Oktal- und Hexadezimalsystem ist Vorsicht geboten! Nicht alle Zahlen lassen sich verlustfrei zwischen den Systemen konvertieren.



Diode
☞ Abschnitt 2.2.1
Elektronisches Bauelement, das den Stromfluss in nur eine Richtung erlaubt. In Durchlassrichtung verhält sich die Diode neutral, in Sperrichtung wie ein Isolator. Das Schaltverhalten lässt sich durch das Zusammenfügen zweier komplementär dotierter Halbleiterkristalle erzeugen. Um den pn- Übergang bildet sich eine Sperrschicht aus, die den Ladungstransport in eine Richtung zulässt, in die andere jedoch blockiert.



Disjunktive Minimalform
☞ Abschnitt 4.4.1
Ein boolescher Ausdruck ϕ liegt in disjunktiver Form vor, wenn er als eine Disjunktion von Konjunktionen aufgebaut ist:
ϕ=(L11∧...∧ L1i)∨ ...∨(Ln1∧ ...∧Lnk)
Jedes der Literale L ij steht entweder für eine nicht negierte oder eine negierte Variable. Eine disjunktive Minimalform liegt vor, wenn es keine andere disjunktive Form gibt, die die gleiche boolesche Funktion mit weniger Literalen darstellt. Die disjunktive Minimalform ist im Allgemeinen nicht eindeutig.



Disjunktive Normalform
☞ Abschnitt 4.4.1
Spezielle Normalformdarstellung einer booleschen Funktion. Ein boolescher Ausdruck liegt in disjunktiver Normalform vor, wenn er als eine Disjunktion von paarweise verschiedenen Mintermen aufgebaut ist. Die disjunktive Normalform enthält für jedes Element der Einsmenge der dargestellten Funktion einen Minterm, so dass die Formelgröße im Allgemeinen exponentiell mit der Anzahl der freien Variablen zunimmt.



Displacement
☞ Abschnitt NA
Konstanter Wert, der zur Angabe einer Adressdistanz bei der Adressierung einer Speicherzelle dient. Viele der komplexeren Adressierungsarten erlauben die Angabe eines Displacements und verwenden diesen Wert als Offset zur Bestimmung der effektiv adressierten Speicherzelle.



Don’t-Care-Belegung
☞ Abschnitt 6.2.1
Variablenbelegung, für die der Funktionswert einer booleschen Funktion keine Rolle spielt.



Dotierung
☞ Abschnitt 2.1.3
Die elektrische Leitfähigkeit eines Halbleiterkristalls lässt sich durch das gezielte Einbringen von Fremdatomen erheblich verbessern. Der Vorgang der Verunreinigung wird als Dotierung und die entstehende Kristallstruktur als dotierter Halbleiter bezeichnet. Wird ein Silizium- oder Germaniumkristall mit Elementen der dritten bzw. der fünften Hauptgruppe dotiert, so entsteht ein Elektronenmangelleiter (p-Gebiet) bzw. ein Elektronenüberschussleiter (n-Gebiet).



DRAM
☞ Abschnitt 9.3
Dynamisches RAM. Die einzelnen Bits werden auf einem Kondensator gespeichert, der durch einen Transistor von den Schreib/Leseleitungen der Speichermatrix entkoppelt ist. Da die Kondensatoren einer permanenten Entladung unterliegen, müssen die Speicherbänke eines DRAM-Speichers periodisch ausgelesen und neu beschrieben werden. Im Vergleich mit der alternativen Technik des SRAM-Speichers ist der DRAM-Speicher deutlich platzsparender und billiger herzustellen, besitzt aber eine erhöhte Zugriffszeit. Der DRAM-Speicher wird insbesondere zum Aufbau des Hauptspeichers ( Speicher) eingesetzt.



Dualitätsprinzip
☞ Abschnitt 4.2.4
Fundamentale Gesetzmäßigkeit, die in jeder booleschen Algebra gilt. Ist eine boolesche Aussage ausschließlich aus den Elementaroperatoren aufgebaut, so wird die duale Aussage durch das gleichzeitige Vertauschen der Operationen und sowie der booleschen Konstanten 0 und 1 erzeugt. Das Dualitätsprinzip besagt, dass aus der Gültigkeit einer Aussage stets auch die Gültigkeit der dualen Aussage folgt.



Dynamischer Hazard
☞ Abschnitt 5.5.2
Liegt vor, wenn der Signalpegel beim Wechsel seines Werts zunächst mehrfach fluktuiert, bevor der Ausgangswert stabil eingenommen wird. Ein dynamischer Hazard-Impuls kann durch einen Logik-Hazard oder einen Funktions-Hazard verursacht werden.



Endlicher Automat
☞ Abschnitt 8.2.1
Mathematisches Modell zur Beschreibung von Schaltwerken. Entsprechend ihrer Funktionsweise werden endliche Automaten in Akzeptoren und Transduktoren eingeteilt.



Einerkomplement
☞ Abschnitt 3.1
Spezielles Zahlenformat zur Darstellung ganzer, vorzeichenbehafteter Zahlen. Im Einerkomplement wird eine Zahl durch die Invertierung sämtlicher Bits negiert.



EM64T
☞ Abschnitt NA
64-Bit- CISC- Instruktionsarchitektur der Firma Intel. EM64T ist eine abwärtskompatible Erweiterung der IA-32-Architektur und wurde erstmals mit dem Pentium 4 (Prescott) eingeführt. EM64T ist nicht zu verwechseln mit der IA-64-Architektur, die nur sehr eingeschränkt abwärtskompatibel zu dem De-facto-Standard IA-32 ist.



Einsmenge
☞ Abschnitt 4.4.1
Menge aller Variablenbelegungen, für die eine gegebene boolesche Funktion gleich 1 ist.



Elementaroperatoren
☞ Abschnitt 4.2.1
Bezeichnung für die Operatorenmenge , , ∨}. Die Elementaroperatoren bilden ein vollständiges Operatorensystem.



Entscheidungsdiagramm
☞ Abschnitt 4.4.3
Datenstruktur zur Repräsentation boolescher Funktionen. In der Vergangenheit wurden viele verschiedene Diagrammtypen entwickelt. Zu den wichtigsten Vertretern gehören das Binäre Entscheidungsdiagramm sowie das Funktionale Entscheidungsdiagramm. Entscheidungsdiagramme gehören heute zu den wichtigsten Datenstrukturen zur Repräsentation boolescher Funktionen. Im Gegensatz zu booleschen Ausdrücken handelt es sich um eine Normalform, so dass sich die Äquivalenz zweier Ausdrücke besonders einfach feststellen lässt. Im Vergleich zur Wahrheitstabelle, die ebenfalls die Normalformeigenschaft besitzt, können boolesche Funktionen mit Hilfe von Entscheidungsdiagrammen im Allgemeinen deutlich kompakter dargestellt werden.



Exponent
☞ Abschnitt 3.2.2
Zentraler Bestandteil einer Zahl im Gleitkommaformat. Der Wert des Exponenten bestimmt die Position des Kommas innerhalb der Mantisse. Eine Erhöhung bzw. Erniedrigung um eins bewirkt eine Verschiebung des Kommas um eine Stelle nach rechts bzw. links. Damit verleiht erst der Exponent dem Zahlenformat die Eigenschaft, die Position des Kommas „gleiten“ zu lassen. Während die Bitbreite der Mantisse die Auflösungsgenauigkeit des Zahlenformats beeinflusst, bestimmt die Bitbreite des Exponenten maßgeblich die Größe des darstellbaren Wertebereichs.



Fehlererkennender Code
☞ Abschnitt 3.3.2
Ein Code ist n-fehlererkennend, wenn der Empfänger einer Nachricht stets entscheiden kann, ob ein Codewort durch Kippen von bis zu n Bit verfälscht wurde. Die Fehlererkennungseigenschaft eines Codes wird durch die Hamming-Distanz der einzelnen Codewörter bestimmt.



Fehlerkorrigierender Code
☞ Abschnitt 9.3.3
Ein Code ist n-fehlerkorrigierend, wenn der Empfänger einer Nachricht stets entscheiden kann, ob ein Codewort durch Kippen von bis zu n Bit verfälscht wurde, und das gesendete Codewort aus der empfangenen Bitfolge rekonstruieren kann. Die Fehlerkorrektureigenschaft eines Codes wird durch die Hamming-Distanz der einzelnen Codewörter bestimmt.



Feldeffekttransistor
☞ Abschnitt 2.2.3
Spezieller Transistor, der im Bereich der integrierten Schaltungstechnik eine bedeutende Rolle spielt. Feldeffekttransistoren besitzen drei Anschlüsse (Gate, Drain und Source). Im Gegensatz zu Bipolartransistoren fließt kein Strom über den Steueranschluss ab. Stattdessen wird der Stromfluss auf der Source-Drain-Strecke durch ein am Gate angelegtes elektrisches Feld beeinflusst. Zu den wichtigsten Feldeffekttransistoren gehören der JFET und der MOSFET.



Festkommaformat
☞ Abschnitt 3.2.2
Neben dem Gleitkommaformat eines der wichtigsten Zahlenformate zur Darstellung rationaler Zahlen. Eine Festkommazahl setzt sich aus dem Vorzeichenbit Vz und der Mantisse M zusammen und repräsentiert den folgenden Zahlenwert:
 Vz z = (- 1) ⋅0,M (1)
Im Vergleich mit dem Gleitkommaformat fällt der im Festkommaformat abgedeckte Zahlenbereich drastisch kleiner aus, wird aber dafür mit einer konstanten Auflösungsgenauigkeit versehen. Des Weiteren lassen sich Festkommaoperationen vergleichsweise einfach und damit kostengünstig in Hardware implementieren.



Flipflop
☞ Abschnitt 8.1.3
Bezeichnung für ein taktflankengesteuertes Speicherelement. Reagiert das Element nur auf die steigende oder die fallende Flanke, so sprechen wir von einem positiv bzw. negativ gesteuerten Flipflop. Reagiert das Element hingegen auf beide Flanken, so sprechen wir von einem zweiflankengesteuerten Flipflop. Während der positiven bzw. negativen Taktphase kann – im Unterschied zu einem Latch – kein Zustandswechsel erfolgen.



Flynn-Taxonomie
☞ Abschnitt NA
Die Taxonomie nach Flynn ordnet jede Rechnerarchitektur anhand der eingesetzten Daten- und Befehlsparallelität in eine der folgenden Klassen ein:
  • SISD: Single Instruction, Single Data
  • SIMD: Single Instruction, Multiple Data
  • MISD: Multiple Instruction, Single Data
  • MIMD: Multiple Instruction, Multiple Data
Obwohl die Taxonomie für die Beurteilung moderner Rechnerstrukturen nur noch bedingt geeignet ist, gehört sie immer noch zu den am häufigsten eingesetzten Rechnerklassifikationen.



Formelsynthese
☞ Abschnitt 5.3
Bezeichnet die Umsetzung eines Schaltnetzes in einen booleschen Ausdruck. Die Formelsynthese kann funktional oder relational erfolgen. Durch die Verwendung einer definitorischen Form lässt sich jedes Schaltnetz in einen booleschen Ausdruck gleicher Größe übersetzen.



Funktionales Entscheidungsdiagramm
☞ Abschnitt 4.4.3
Spezielles Entscheidungsdiagramm auf Basis der positiven oder negativen Davio-Entwicklung. Funktionale Entscheidungsdiagramme bieten sich für die Darstellung verschiedener Funktionsklassen an, die sich mit Hilfe Binärer Entscheidungsdiagramme nur sehr aufwendig repräsentieren lassen.



Funktions-Hazard
☞ Abschnitt 5.5.2
Liegt vor, wenn der Wechsel mehrerer Eingangssignale kurzzeitig zu einem Wechsel eines Ausgangssignals führt, obwohl der Wert des Schaltnetzausgangs nach den Regeln der booleschen Algebra konstant bleiben müsste. Der kurzzeitige Wechsel des Ausgangssignals wird als Störimpuls (Glitch) bezeichnet und wird im Allgemeinen durch Laufzeitdifferenzen der verschiedenen Signalwege verursacht. Funktions-Hazards können in einem Schaltnetz selbst dann auftreten, wenn es vollständig frei von Logik-Hazards ist.



Gatter
☞ Abschnitt 5.2
Funktionales Hardware-Modell eines logischen Verknüpfungsglieds. Jede boolesche Formel lässt sich eins zu eins in ein Schaltnetz übersetzen, indem jeder boolesche Operator mit Hilfe eines funktional äquivalenten Logikgatters implementiert wird.



Gleitkommaformat
☞ Abschnitt 3.2.2
Zusammen mit dem Festkommaformat das wichtigste Zahlenformat zur Darstellung rationaler Zahlen. Eine Gleitkommazahl setzt sich aus dem Vorzeichenbit V z, dem Exponenten E sowie der Mantisse M zusammen. Im Vergleich mit dem Festkommaformat lassen sich deutlich größere Zahlen darstellen, da der Zahlenbereich zu den Rändern mit absteigender Auflösungsgenauigkeit überdeckt wird. Die Gleitkommadarstellung einer Zahl ist nicht eindeutig. Abhilfe schafft das Prinzip der Normalisierung.



Halbaddierer
☞ Abschnitt 7.5.1
Der Halbaddierer berechnet die Summe zweier Binärziffern. Im Gegensatz zum Volladdierer berücksichtigt der Halbaddierer keinen Übertrag.



Halbleiter
☞ Abschnitt 2.1
Festkörper, deren Bindungsenergie zwischen der eines Isolators und jener eines elektrischen Leiters liegt. In Abhängigkeit der Temperatur können Halbleiter sowohl als Isolator wie auch als elektrischer Leiter auftreten. Für die Produktion integrierter Schaltkreise sind vor allem die Halbleiterelemente Silizium und Germanium von Bedeutung. Die Technik der Dotierung erlaubt es, die elektrischen Eigenschaften in weiten Grenzen zu beeinflussen.



Hamming-Distanz
☞ Abschnitt 3.3.2
Zwei Codewörter gleicher Länge besitzen die Hamming-Distanz n, wenn sie sich in genau n Bit unterscheiden.



Harvard-Architektur
☞ Abschnitt 11.1.1
Architekturprinzip, das die Trennung von Code und Daten forciert. Im Gegensatz zur Von-Neumann-Architektur werden Maschinenbefehle und Daten in unterschiedlichen Speichern abgelegt, die jeweils über einen separaten Bus an den Mikroprozessor angebunden sind. Die Probleme des Von-Neumann-Flaschenhalses werden durch die Mehrfachauslegung der Busse weitgehend vermieden.



Hazard
☞ Abschnitt 5.5.2
Ungewollte Störimpulse aufgrund von Laufzeitunterschieden auf zwei oder mehreren Signalwegen. Störimpulse werden entsprechend ihrer Auftrittscharakteristik in statische Hazards und dynamische Hazards und entsprechend ihrer Ursache in Logik-Hazards und Funktions-Hazards eingeteilt.



Hexadezimalsystem
☞ Abschnitt 3.1
Stellenwertsystem zur Basis 16 mit dem Ziffernvorrat 0 , , 9, A, ,F. Binärzahlen lassen sich besonders einfach in das Hexadezimalsystem wandeln, indem je vier Binärziffern zu einer Hexadezimalziffer zusammengefasst werden.



Huffman-Normalform
☞ Abschnitt 8.2.2
Spezielle Implementierungsform eines Schaltwerks. Ein Schaltwerk in Huffman-Normalform besteht aus drei Komponenten:
  • eine Reihe von Registern, die den Zustand des Schaltwerks repräsentieren,
  • ein Schaltnetz zur Implementierung der Zustandsübergangsfunktion sowie
  • ein Schaltnetz zur Implementierung der Ausgabefunktion.
Die Huffman-Normalform entspricht in direkter Weise der Hardware-Implementierung eines endlichen Automaten.



Huntington’sche Axiome
☞ Abschnitt 4.1
Die folgenden Gesetze werden als die Axiome von Huntington bezeichnet:
  • Kommutativgesetz
  • Distributivgesetz
  • Neutrale Elemente
  • Inverse Elemente
Sind alle Axiome erfüllt, so liegt eine booleschen Algebra vor.



Ingot
☞ Abschnitt 2.3.1
Zylinderförmiger Einkristall, der aus einer flüssigen Siliziumschmelze gezogen wird. Im nächsten Herstellungsschritt wird der Ingot in dünne Scheiben zersägt und diese mit einer ebenen Oberfläche versehen. Die entstandenen Scheiben werden als Wafer bezeichnet.



IA-32-Architektur
☞ Abschnitt NA
32-Bit- CISC- Instruktionsarchitektur der Firma Intel. IA-32 ist eine abwärtskompatible Erweiterung der x86-Architektur und wurde erstmals mit dem 80386-Prozessor eingeführt. Die IA-32 Architektur ist heute der De-facto-Standard im Bereich der Personal-Computer und wird aufgrund ihrer Nähe zur älteren x86-Architektur auch als x86-32 bezeichnet.



IA-64-Architektur
☞ Abschnitt NA
64-Bit- CISC- Instruktionsarchitektur der Firma Intel, die mit dem Itanium-Prozessor eingeführt wurde. Aufgrund der sehr eingeschränkten Abwärtskompatibilität zu den De-facto-Standards IA-32 und x86 blieb die Marktakzeptanz jedoch hinter den Erwartungen zurück. IA-64 ist nicht zu verwechseln mit EM64T, mit der Intel eine rückwärtskompatible 64-Bit-Erweiterung der IA-32-Architektur schuf.



IEEE 754
☞ Abschnitt 3.2.2
Definiert mehrere Gleitkommaformate zur Darstellung rationaler Zahlen. Die wichtigsten Formate sind das 32 Bit breite Single-precision-Format und das 64 Bit breite Double-precision-Format.



Inkrementierer
☞ Abschnitt 7.6
Spezialfall eines Addierers, optimiert auf die Addition von eins.



Instruktionsarchitektur
☞ Abschnitt NA
Oberbegriff für die Beschaffenheit des Befehlssatzes, der Register sowie der Speicher- und I/O-Anbindung eines Mikrorechners. Auf der obersten Ebene lassen sich die Instruktionsarchitekturen in RISC- und CISC-Architekturen unterteilen. Im Bereich der Personal-Computer sind heute insbesondere die x86-, die IA-32- sowie die EM64T-Architektur von Bedeutung.



Instruktionsdecoder
☞ Abschnitt 11.2
Teil des Steuerwerks eines Mikroprozessors. Der Instruktionsdecoder ist der eigentlichen Steuerlogik vorgeschaltet und dient der Analyse und Decodierung der eingehenden Maschinenbefehle. Neben der Implementierung als festverdrahtetes Schaltnetz kann ein Instruktionsdecoder auf einfache Weise in Form eines ROMs realisiert werden.



Instruktionszähler
☞ Abschnitt 11.1.2
Spezielles Hilfsregister eines Mikroprozessors. Das Instruktionsregister speichert die Adresse des nächsten auszuführenden Maschinenbefehls und wird für die sequenzielle Befehlsabarbeitung eines Von-Neumann-Rechners verwendet. Sobald ein Befehl abgearbeitet ist, wird der Inhalt des Instruktionsregisters auf den Adressbus gelegt und der ausgewählte Befehl über den Datenbus in die CPU übertragen. Anschließend wird der Inhalt des Instruktionszählers erhöht oder – im Falle eines Sprungbefehls – mit der Sprungadresse überschrieben.



Integrationsdichte
☞ Abschnitt 2.3.2
Maß für die Anzahl von Transistoren pro Flächeneinheit. Gemessen wird die Integrationsdichte zumeist in Form der Strukturbreite, die mit der Kanallänge eines einzelnen Transistors identisch ist.



ISO 8859
☞ Abschnitt 3.4.2
Definiert insgesamt 15 verschiedene 8-Bit-Erweiterungen des ASCII-Codes. Für den westeuropäischen Raum ist insbesondere der Latin-1-Zeichensatz der ISO 8859-1 von großer Bedeutung, da hier unter anderem die deutschen Umlaute sowie der scharfe ß-Laut definiert sind. Alle Zeichensätze der ISO 8859 stimmen in den ersten 128 Zeichen vollständig mit dem ASCII-Code überein.



Kanallänge
☞ Abschnitt 2.3.2
Entspricht dem Abstand zwischen dem Drain-und dem Source-Gebiet eines einzelnen Transistors. Die Angabe der Kanallänge lässt einen direkten Rückschluss auf die Integrationsdichte eines Mikrochips zu.



Kerbensystem
☞ Abschnitt 3.1
Ist das älteste bekannte Zahlensystem. Die Zahl n wird durch n Kerben oder Striche auf einem Knochen oder einem Stück Holz repräsentiert. Mathematisch gesehen fällt das Kerbensystem, das auch als Strichsystem bezeichnet wird, in die Klasse der Additionssysteme.



Kofaktor
☞ Abschnitt 4.4.3
Entsteht aus einer booleschen Funktion f ( x 1 , ,x n ), indem eine der freien Variablen x i durch einen konstanten Wert ersetzt wird. Je nachdem, ob die Variable x i durch die Konstante 1 oder die Konstante 0 ersetzt wird, sprechen wir von dem positiven Kofaktor f x i =1 oder dem negativen Kofaktor f x i =0 .



Komparator
☞ Abschnitt 7.3
Spezielles Schaltnetz zur Durchführung der Vergleichsoperation und typischer Bestandteil einer arithmetisch-logischen Einheit. Eingangsseitig nimmt der Komparator zwei Binärzahlen x und y entgegen und signalisiert mit Hilfe von drei Ausgangsleitungen die Gültigkeit bzw. Ungültigkeit der drei Ordnungsbeziehungen x < y, x = y und x > y.



Konjunktive Minimalform
☞ Abschnitt 4.4.1
Ein boolescher Ausdruck ϕ liegt in konjunktiver Form vor, wenn er als eine Konjunktion von Disjunktionen aufgebaut ist:
y=(L11∨ ...∨ L1i)∧ ...∧(Ln1∨...∨Lnk)
Jedes der Literale L ij steht entweder für eine nicht negierte oder eine negierte Variable. Eine konjunktive Minimalform liegt vor, wenn es keine andere disjunktive Form gibt, die die gleiche boolesche Funktion mit weniger Literalen darstellt. Die disjunktive Minimalform ist im Allgemeinen nicht eindeutig.



Konjunktive Normalform
☞ Abschnitt 4.4.1
Spezielle Normalformdarstellung einer booleschen Funktion. Ein boolescher Ausdruck liegt in konjunktiver Normalform vor, wenn er als Konjunktion von paarweise verschiedenen Maxtermen aufgebaut ist. Die konjunktive Normalform enthält für jedes Element der Nullmenge der dargestellten Funktion einen Maxterm, so dass die Formelgröße im Allgemeinen exponentiell mit der Anzahl der freien Variablen zunimmt.



Kostenfunktion
☞ Abschnitt 6.1
Kostenfunktionen werden im Zuge der Schaltungsminimierung zur Beschreibung der Minimierungsziele eingesetzt. Jede Schaltung wird hierbei auf einen Wert abgebildet, der kleiner ist, je präziser die Minimierungsziele erfüllt sind.



Karnaugh-Veitch-Diagramm
☞ Abschnitt 6.2
Mit Hilfe von Karnaugh-Veitch-Diagrammen können boolesche Funktionen auf grafische Weise minimiert werden. Durch die Blocküberdeckung der Eins-bzw. der Nullmenge kann eine minimierte Schaltungsdarstellung sowohl in disjunktiver Minimalform als auch in konjunktiver Minimalform erzeugt werden.



Latch
☞ Abschnitt 8.1.1
Bezeichnung für ein taktzustandsgesteuertes Speicherelement. Synchrone, positiv gesteuerte Latch-Elemente bewahren während der negativen Phase des Taktsignals ihren Zustand. Ein Zustandswechsel kann – im Unterschied zu Flipflops – während der gesamten positiven Taktphase erfolgen.



Literal
☞ Abschnitt 4.4.1
Spezieller boolescher Ausdruck, der entweder aus einer Variablen (x i ) oder einer negierten Variablen ( x i ) besteht.



Little-Endian
☞ Abschnitt 3.2.1
Spezielle Speicherordnung, in der das niedrigstwertige Byte zuerst und das höchstwertige Byte zuletzt im Speicher abgelegt wird.



Load-Store-Architektur
☞ Abschnitt NA
Bezeichnung für das Arbeitsprinzip eines RISC-Prozessors. Der Datenaustausch zwischen Mikroprozessor und Speicher erfolgt stets unter Beteiligung eines Registers. Soll der Inhalt einer Speicherstelle an eine andere Stelle im Speicher verschoben werden, sind immer zwei Schritte notwendig. Zunächst wird der Inhalt des Quellregister in eines der CPU-Register geladen (Load) und erst anschließend in das Zielregister geschrieben (Store).



Logik-Hazard
☞ Abschnitt 5.5.2
Liegt vor, wenn der Wechsel eines einzigen Eingangssignals kurzzeitig zu einem Wechsel eines Ausgangssignals führt, obwohl der Wert des Schaltnetzausgangs nach den Regeln der booleschen Algebra konstant bleiben müsste. Der kurzzeitige Wechsel des Ausgangssignals wird als Störimpuls (Glitch) bezeichnet und im Allgemeinen durch Laufzeitdifferenzen der verschiedenen Signalwege verursacht. Logik-Hazards können mit Hilfe von KV-Diagrammen erkannt und behoben werden.



Logikpolarität
☞ Abschnitt 5.1
Definiert, mit welchem elektrischen Pegelzustand (Low, High) die beiden booleschen Wahrheitswerte 0 und 1 dargestellt werden. In Abhängigkeit der Zuordnung unterscheiden wir positive Logik und negative Logik.



Mantisse
☞ Abschnitt 3.2.2
Bestandteil einer Zahl, die im Festkommaformat oder im Gleitkommaformat dargestellt wird. Die Mantisse repräsentiert die Nachkomma-Bits der dargestellten Zahl. Damit definiert die Bitbreite der Mantisse maßgeblich die Auflösungsgenauigkeit des zu Grunde liegenden Zahlenformats.



Maschinenbefehl
☞ Abschnitt 11.1.1
Bezeichnung für eine Anweisung, die ein Mikroprozessor direkt verarbeiten kann. Maschinenbefehle bilden die elementaren Bestandteile eines Assembler-Programms.



Master-Slave-Flipflop
☞ Abschnitt 8.1.2
Bezeichnung für zwei im Gegentakt zusammengeschaltete Speicherelemente. Mit Hilfe dieses Prinzips lassen sich zwei zustandsgesteuerte Latches zu einem flankengesteuerten Flipflop kombinieren.



Matrixmultiplizierer
☞ Abschnitt 7.8.1
Spezieller Parallelmultiplizierer, der die Partialprodukte nacheinander aufaddiert. Die Tiefe des entstehenden Schaltnetzes steigt dadurch linear mit der Bitbreite der Operanden an.



Maxterm
☞ Abschnitt 4.4.1
Spezieller boolescher Ausdruck, der für genau eine Belegung der Eingangsvariablen gleich 0 ist. Ein Maxterm einer n-stelligen Funktion besteht aus n konjunktiv verknüpften Literalen.



Mealy-Automat
☞ Abschnitt 8.2.1
Endlicher Automat, der die Ausgabe sowohl aus dem aktuellen Zustand als auch aus der aktuellen Eingabe berechnet. Aufgrund dieser Eigenschaft werden Mealy-Automaten auch als Übergangsautomaten bezeichnet.



Mikroprogrammierung
☞ Abschnitt 10.2
Allgemeines Verfahren zur Implementierung eines Steuerwerks. Statt die Schaltfunktion fest zu verdrahten, wird ein mikroprogrammiertes Steuerwerk programmgesteuert betrieben. Hierzu besitzt das Steuerwerk eine universelle Ausführungseinheit sowie einen ROM-Speicher, der das Mikroprogramm enthält.



Mikroprozessor
☞ Kapitel 11
Herzstück eines Von-Neumann-Rechners. Der Mikroprozessor ist eine befehlsgesteuerte Verarbeitungseinheit, die neben der Programmausführung auch die Koordination der externen Funktionseinheiten übernimmt. Klassische Mikroprozessoren gliedern sich intern in ein Rechenwerk und ein Steuerwerk. Die Anbindung der externen Funktionseinheiten erfolgt in der Regel dezentral über spezielle Busse. Abhängig von der Instruktionsarchitektur lassen sich RISC-und CISC-Prozessoren voneinander unterscheiden.



Minimierung
☞ Kapitel 6
Bezeichnet die Suche nach einer reduzierten Darstellung einer booleschen Funktion. In diesem Buch werden mit dem Karnaugh-Veitch-Diagramm und dem Quine-Mc Cluskey-Verfahren zwei wichtige Techniken zur Erzeugung eines reduzierten zweistufigen Schaltnetzes eingeführt.



Minterm
☞ Abschnitt 4.4.1
Spezieller boolescher Ausdruck, der für genau eine Belegung der Eingangsvariablen gleich 1 ist. Ein Minterm einer n-stelligen Funktion besteht aus n disjunktiv verknüpften Literalen.



Mnemonic
☞ Abschnitt 11.1
Englischer Ausdruck für eine Merkregel oder Eselsbrücke. In der Informatik werden die einzelnen Befehle einer Assembler-Sprache als Mnemonics bezeichnet.



Moore-Automat
☞ Abschnitt 8.2.1
Endlicher Automat, der die aktuelle Ausgabe ausschließlich aus dem aktuellen Zustand berechnet. Aufgrund dieser Eigenschaft werden Moore-Automaten auch als Zustandsautomaten bezeichnet.



Moore’sches Gesetz
☞ Kapitel 1
Bezeichnung für die im Jahre 1965 von Gordon Moore postulierte Gesetzmäßigkeit über das exponentielle Wachstum der Chip-Komplexität. Obwohl das Moore’sche Gesetz auf rein empirischen Daten beruht und keine Gesetzmäßigkeit im naturwissenschaftlichen Sinne darstellt, hat es bis heute nichts von seiner Gültigkeit verloren.



MOS-Technik
☞ Abschnitt 5.1.2
Metal-Oxide-Semiconductor-Technik. Die MOS-Technik begründet mehrere Schaltkreisfamilien, deren Verknüpfungsglieder mit MOSFETs aufgebaut sind. In PMOS- bzw. NMOS-Technik gefertigte Schaltungen bestehen ausschließlich aus p-Kanal-bzw. n-Kanal-Transistoren. In der stromsparenden CMOS-Technik kommen dagegen beide Transistor-Varianten zum Einsatz.



MOSFET
☞ Abschnitt 2.2.3
Metal Oxide Semiconductor Field Effect Transistor. Spezieller Feldeffekttransistor, der im Bereich der integrierten Schaltungen die mit Abstand größte Rolle spielt. Mit Hilfe der Planartechnik lassen sich MOSFETs mit einer sehr hoher Integrationsdichte fertigen.



Multiplexer
☞ Abschnitt 7.2
Hardware-Komponente mit 2 n Dateneingängen, n Steuereingängen und einem einzigen Datenausgang. Abhängig von der Belegung der Steuereingänge schaltet der Multiplexer genau einen der Dateneingänge auf den Datenausgang durch. Multiplexer gehören zu den am häufigsten verwendeten Standardkomponenten und werden immer dann eingesetzt, wenn Datenströme aus verschiedenen Quellen zusammengeführt werden müssen.



Multiplizierer
☞ Abschnitt 7.8
Spezielles Schaltwerk zur Durchführung der binären Multiplikation und eine Grundkomponente des Rechenwerks eines jeden Mikroprozessors. Neben dem seriell arbeitenden Multiplizierwerk ist insbesondere der Parallelmultiplizierer aufgrund seiner hohen Laufzeiteffizienz von großer praktischer Bedeutung.



Negative Logik
☞ Abschnitt 5.1
Spezielle Logikpolarität, die den Wahrheitswert 0 mit dem High-Pegel und den Wahrheitswert 1 mit dem Low-Pegel des elektrischen Signals darstellt.



NMOS-Technik
☞ Abschnitt 5.1.2
Schaltkreisfamilie, deren Verknüpfungsglieder ausschließlich mit n-Kanal-p-Kanal- Feldeffekttransistoren aufgebaut sind. NMOS-Schaltungen werden mit einer geringeren Betriebsspannung betrieben als Schaltungen in PMOS-Technik. Der höheren Schaltgeschwindigkeit steht eine reduziertere Störsicherheit entgegen.



Normalform
☞ Abschnitt 3.2.2
Eindeutige Darstellungsform eines zu repräsentierenden Objekts. Im Bereich der technischen Informatik spielen unter anderem die disjunktive Normalform und die konjunktive Normalform eine zentrale Rolle. Durch die Reduktion einer Darstellung auf deren Normalform lässt sich unter anderem die Gleichheit zweier Objekte überprüfen. So repräsentieren zwei boolesche Ausdrücke genau dann die gleiche boolesche Funktion, wenn ihre disjunktive oder konjunktive Normalform identisch ist. Andere wichtige Normalformen für boolesche Funktionen sind die Reed-Muller-Normalform, die Wahrheitstabelle sowie das binäre und funktionale Entscheidungsdiagramm.



Normalisierung
☞ Abschnitt 3.2.2
Bezeichnet den Vorgang, eine im Gleitkommaformat dargestellte Zahl in eine eindeutige Darstellung zu überführen. Hierzu wird der Exponent in der Regel so angepasst, dass die erste Eins an eine feste Position verschoben wird. Eine Zahl heißt vor- bzw. nachkommanormalisiert, falls die erste Eins direkt vor bzw. direkt hinter das Komma geschoben wird.



Nullmenge
☞ Abschnitt 4.4.1
Menge aller Variablenbelegungen, für die eine gegebene boolesche Funktion gleich 0 ist.



O-Kalkül
☞ Abschnitt 5.4
Mathematischer Beschreibungsformalismus für die Komplexität einer Funktion. Das O-Kalkül beurteilt ausschließlich die asymptotische Komplexität einer Funktion f ( n ), d. h. die Entwicklung der Funktionswerte für sehr große n. Die abgeleiteten Komplexitätsklassen abstrahieren von sämtlichen konstanten Faktoren in einer Funktion und eignen sich daher sowohl zur implementierungsunabhängigen Beschreibung der Laufzeit als auch des Platzverbrauchs einer Hardware-Schaltung.



Oktalsystem
☞ Abschnitt 3.1
Stellenwertsystem zur Basis 8 mit dem Ziffernvorrat 0 , , 7. Binärzahlen lassen sich besonders einfach in das Oktalsystem umwandeln, indem je vier Binärziffern zu einer Oktalziffer zusammengefasst werden.



One-Hot-Code
☞ Abschnitt 3.3.2
Spezieller Binärcode, dessen Codewörter aus Bitsequenzen bestehen, die genau eine 1 enthalten. Die One-Hot-Codierung erzeugt eine Hamming-Distanz von 2 und gehört damit in die Klasse der 1- fehlerkorrigierenden Codes.



Operationswerk
☞ Abschnitt 10.1.1
Neben dem Steuerwerk die zweite zentrale Schaltungskomponente eines mit Hilfe des Register-Transfer-Entwurfs erzeugten Schaltwerks. Das Operationswerk enthält alle Funktionseinheiten für die Verarbeitung der Eingabedaten. Die Ablaufsteuerung ist kein Bestandteil des Operationswerks und stattdessen im Steuerwerk implementiert.



Packaging
☞ Abschnitt 2.3.1
Einer der letzten Verarbeitungsschritte in der Chip-Produktion. Die Chip-Kerne (Dies) werden in das Gehäuse eingepasst und die internen Anschlüsse mit den externen Pins verbunden. Das Wire-Bond-Verfahren überbrückt die Kontakte mit filigranen Golddrähten. Im moderneren Flip-Chip-Verfahren werden die Golddrähte durch Lötkontakthügel ersetzt, die eine direkte Verbindung mit den externen Pins herstellen.



Parallelmultiplizierer
☞ Abschnitt 7.8
Spezielles Schaltnetz zur Durchführung der Multiplikation zweier Binärzahlen. Parallelmultiplizierer sind deutlich schneller als seriell arbeitende Multiplikationseinheiten, benötigen jedoch deutlich mehr Fläche. Die beiden wichtigsten Vertreter sind der Matrixmultiplizierer und der Carry-save-Multiplizierer. Eine flächensparendere Alternative zur vollständig parallel ausgeführten Multiplikation stellt die geringfügig langsamere Blockmultiplikation dar.



Partielle Funktion
☞ Abschnitt 6.2.1
Bezeichnung für eine boolesche Funktion, die über mindestens eine Don’t-Care-Belegung verfügt.



Pipeline-Hazard
☞ Abschnitt NA
Ein Pipeline-Hazard tritt immer dann auf, wenn der nächste auszuführende Befehl noch nicht bestimmt werden kann oder aufgrund einer missglückten Vorhersage die falschen Befehle in die Pipeline eingespeist wurden. Eine Quelle von Pipeline-Hazards sind bedingte Sprünge, da der nächste auszuführende Befehl erst nach der Auswertung der Sprungbedingung eindeutig bestimmt werden kann.



Pipeline
☞ Abschnitt NA
In einem Pipeline-Prozessor existieren für alle Ausführungsphasen eines Befehls separate Verarbeitungseinheiten, die zur selben Zeit verschiedene Befehle abarbeiten können. Hierdurch wird die Ausführung eines Befehlsstroms hochgradig parallelisiert und die mittlere Ausführungsgeschwindigkeit eines einzelnen Befehls nähert sich der Ausführungsgeschwindigkeit der langsamsten Verarbeitungseinheit an. Durch Steuerflussabhängigkeiten können Pipeline-Hazards entstehen, die zum Ausbremsen der Befehlsverarbeitung führen. Durch eine ausgefeilte Sprungvorhersage lassen sich die Effekte in der Praxis jedoch deutlich abmildern.



Planartechnik
☞ Abschnitt 2.3.1
Der am häufigsten eingesetzte Prozess für die Fertigung integrierter Schaltkreise. In mehreren Verarbeitungsschritten werden Transistoren, Leiter und Isolatoren schichtenweise hergestellt. Die Planartechnik basiert auf wenigen Basistechniken, die wechselweise angewendet werden. Hierzu gehören insbesondere die Beschichtung-, Belichtungs-, Ätz- und Dotierungstechnik.



PMOS-Technik
☞ Abschnitt 5.1.2
Schaltkreisfamilie, deren Verknüpfungsglieder ausschließlich mit p-Kanal-p-Kanal- Feldeffekttransistoren aufgebaut sind. Die PMOS-Technik ist für den Bau störsicherer Schaltungen geeignet. In Bezug auf die Schaltgeschwindigkeit der einzelnen Verknüpfungsglieder ist sie der NMOS-Technik und der CMOS-Technik unterlegen.



pn- Übergang
☞ Abschnitt 2.2.1
Werden ein p-dotiertes und ein n-dotiertes ( Dotierung) Halbleiterkristall zusammengefügt, so rekombinieren die freien Ladungsträger im Übergangsbereich. Es bildet sich eine isolierende Grenzschicht aus, die durch eine angelegte Spannung vergrößert oder verkleinert werden kann.



Positive Logik
☞ Abschnitt 5.1
Spezielle Logikpolarität, die den Wahrheitswert 0 mit dem Low-Pegel und den Wahrheitswert 1 mit dem High-Pegel des elektrischen Signals darstellt.



Präfix-Addierer
☞ Abschnitt 7.5.4
Spezielle Implementierungsvariante eines Addierers. Der Präfix-Addierer berechnet die Übertragsbits mit Hilfe eines separaten Schaltnetzes und arbeitet damit nach dem gleichen Grundprinzip wie der Carry-look-ahead-Addierer. Die Übertragslogik ist jedoch nicht als zweistufiges Schaltnetz, sondern in Form von Präfix-Logik realisiert. Hierdurch ist der Präfix-Addierer nur geringfügig langsamer, aber deutlich platzsparender als der Carry-look-ahead-Addierer.



Präfix-Logik
☞ Abschnitt 7.4
Schaltnetz zur Berechnung einer bestimmten Klasse rekursiv aufgebauter Logikfunktionen. Die Verwendung von Präfix-Logik ist immer dann von Vorteil, wenn eine entsprechende boolesche Funktion f n ( x 0 , ,x n ) nicht nur für eine feste Bitbreite n, sondern auch für alle Präfixe f i ( x 0 , ,x i ) mit 0 i < n berechnet werden soll. Direkte Anwendung findet die Präfix-Logik in Form des Präfix-Addierers.



Programmierbare Logik
☞ Abschnitt 7.11
Programmable Logic Device, kurz PLD. Konfigurierbare Hardware-Komponente, die vor der ersten Verwendung individualisiert wird. Ein klassisches Beispiel eines PLDs ist der ROM-Speicher.



Quine-Mc Cluskey-Verfahren
☞ Abschnitt 6.3
Das Quine-Mc Cluskey-Verfahren (QMCV) geht auf die Arbeiten der beiden Amerikaner Willard Van Orman Quine und Edward J. Mc Cluskey zurück und dient der Vereinfachung boolescher Funktionen. Im Gegensatz zur grafischen Minimierung mit Hilfe von Karnaugh-Veitch-Diagrammen lässt sich das Verfahren gut automatisieren und bewältigt auch vielstellige Funktionen.



Quantor
☞ Abschnitt 5.3.3
Der boolesche Existenzquantor und der boolesche Allquantor sind wie folgt definiert:
(∃xi : f) = (fxi=1 ∨ fxi=0) (∀xi : f) = (fxi=1 ∧ fxi=0)
Unter anderem werden die booleschen Quantoren in der relationalen Formelsynthese eingesetzt. Sie bilden die Grundlage zur Erzeugung einer definitorischen Form.



RAM
☞ Abschnitt 9.3
Random Access Memory. Speicher, der sowohl gelesen als auch beschrieben werden kann. Abhängig von der gewählten Implementierung sprechen wir von statischem Speicher ( SRAM) oder dynamischem Speicher ( DRAM).



Rechenwerk
☞ Abschnitt 11.1.2
Bezeichnung für das Operationswerk eines Mikroprozessors. Die Komplexität des Rechenwerks unterscheidet sich zwischen verschiedenen CPUs erheblich und reicht von einfachen Addierern bis hin zu komplexen arithmetisch-logischen Einheiten.



Reed-Muller-Normalform
☞ Abschnitt 4.4.2
Spezielle Normalformdarstellung eines booleschen Ausdrucks auf Basis der Antivalenz-Funktion (XOR).



Register
☞ Abschnitt 9.1
Aus einer Reihe von Speicherelementen aufgebautes Schaltwerk, das zur Zwischenspeicherung vollständiger Datenwörter dient und je nach Ausprägung über zusätzliche arithmetische oder logische Verknüpfungseigenschaften verfügt. In diesem Buch werden die folgenden Registertypen behandelt: Typische Mikroprozessoren enthalten neben einer Reihe von Allzweckregistern spezielle Hilfsregister. Von zentraler Bedeutung sind das Stapel- und das Statusregister sowie der Instruktionszähler.



Register-Transfer-Ebene
☞ Abschnitt 10.1
Beschreibungsebene für Hardware-Schaltungen, die von einzelnen Bits und Logikgattern abstrahiert. An die Stelle boolescher Signale und einzelner Signalleitungen treten Datenwörter und gebündelte Signalpfade. Separate Logikgatter werden durch komplexe Funktionseinheiten wie Multiplexer, Demultiplexer, Zähler, Addierer oder Multiplizierer ersetzt.



Register-Transfer-Entwurf
☞ Abschnitt 10.1
Methode für den Entwurf von Schaltwerken auf Register-Transfer-Ebene. Der Register-Transfer-Entwurf, kurz RT-Entwurf, verfolgt den Ansatz, die Logik einer Hardware-Schaltung in Rechenwerk und Operationswerk aufzuteilen. Die Zweiteilung führt zu einer deutlichen Vereinfachung des Schaltungsentwurfs, da sich beide Komponenten nahezu separat voneinander entwickeln lassen.



Rekonvergenz
☞ Abschnitt 5.3.1
Spezielle Verbindungsstruktur in einem Schaltnetz. Wir sprechen von einer Rekonvergenz, wenn eine Signalleitung verzweigt und die unterschiedlichen Signalwege in einem nachfolgenden Gatter wieder zusammengeführt werden.



Reset
☞ Abschnitt 8.1.4
Signalleitung, mit der sich die betreffende Hardware-Komponente in ihren Initialzustand zurücksetzen lässt. Reset-Leitungen sind zum Betrieb eines Schaltwerks nahezu unvermeidlich, da sich die Speicherelemente nach ihrer Aktivierung in einem beliebigen Zustand befinden können.



RISC
☞ Abschnitt NA
Reduced Instruction Set Computer verfügen über einen vergleichsweise primitiven Befehlssatz und unterstützen kaum mehr als die elementaren Adressierungsarten. Aufgrund dieser Einschränkungen können RISC-Prozessoren besonders effizient arbeiten und benötigen für die Ausführung der meisten Befehle nur einen einzigen Takt. Ein zentrales Merkmal der RISC-Technik ist die Load-Store-Architektur, die sie deutlich von der konkurrierenden CISC-Technik abgrenzt.



ROM
☞ Abschnitt 7.11
Read-Only Memory. Vorprogrammierter Speicher, der gelesen, aber nicht beschrieben werden kann.



Römische Zahlen
☞ Abschnitt 3.1
Im antiken Römischen Reich entwickeltes Additionssystem.



Schaltalgebra
☞ Abschnitt 4.1.2
Die Schaltalgebra ist eine spezielle boolesche Algebra, mit deren Hilfe sich der Aufbau und die Funktionsweise digitaler Schaltungen mathematisch beschreiben lässt. Auf der Menge der beiden Wahrheitswerte 0 und 1 definiert die Schaltalgebra die Elementaroperatoren ¬, und wie folgt:
 ¬x = 1 ⇔ x= 0 x∧ y= 1 ⇔ x= 1 und y = 1 x∨ y= 1 ⇔ x= 1 oder y= 1




Schaltkreis
☞ Abschnitt 5.1
Elektronische Schaltung, die aus einer Zusammenschaltung logischer Grundbausteine einer bestimmten Schaltkreisfamilie entsteht.



Schaltkreisfamilie
☞ Abschnitt 5.1
Bezeichnung für eine Menge logischer Grundbausteine, die in der gleichen Basistechnologie gefertigt sind. Zu den wichtigsten Basistechnologien gehört neben der Transistor-Transistor-Logik (TTL) und der Emitter Coupled Logic (ECL) insbesondere die Metal-Oxide-Semiconductor-Technologie (MOS).



Schaltnetz
☞ Abschnitt 5.2
Funktionales Modell einer Hardware-Schaltung. Schaltnetze sind aus Gattern aufgebaut und besitzen keine Speicherelemente. Die an den Ausgängen anliegenden Signalwerte berechnen sich damit ausschließlich aus den aktuell an den Eingängen anliegenden Signalwerten.



Schaltungssynthese
☞ Abschnitt 5.2
Bezeichnet die Umsetzung eines abstrakten Modells in eine konkrete Hardware-Schaltung.



Schaltwerk
☞ Abschnitt 5.2
Funktionales Modell einer Hardware-Schaltung. Im Gegensatz zu Schaltnetzen sind zusätzliche Speicherelemente vorhanden, die den Zustand des Schaltwerks definieren. Mathematisch gesehen können Schaltwerke mit Hilfe von endlichen Automaten beschrieben werden. Die direkte Umsetzung eines Automaten in eine Hardware-Schaltung führt zu einer Schaltwerksimplementierung in Huffman-Normalform.



Schieberegister
☞ Abschnitt 9.1.2
Spezielles Register mit der Eigenschaft, die gespeicherten Bits um eine Stelle nach links oder rechts schieben zu können. Unter anderem können Schieberegister zur Serialisierung paralleler Datenströme, zur Parallelisierung serieller Datenströme oder zur Durchführung arithmetischer Operationen eingesetzt werden.



Sequencer
☞ Abschnitt 11.2
Spezielles Schaltwerk, mit dessen Hilfe der Takt zeitversetzt auf mehrere Taktleitungen verteilt wird. Die auch als Mehrphasentaktgeber bezeichnete Komponente ist Bestandteil vieler mikroprogrammierter Steuerwerke.



Shannon’scher Entwicklungssatz
☞ Abschnitt 4.4.3
Besagt, dass sich jede boolesche Funktion mit Hilfe ihrer negativen und positiven Kofaktoren darstellen lässt. Durch die rekursive Anwendung des Shannon’schen Entwicklungssatzes auf alle freien Variablen einer booleschen Funktion lässt sich diese auf direktem Weg in ihr Binäres Entscheidungsdiagramm überführen.



Speicher
☞ Abschnitt 9.3
Hardware-Komponente zur persistenten Speicherung von Daten und zentraler Bestandteil eines jeden Rechnersystems. Der Hauptspeicher eines Computers kann als statischer SRAM-Speicher oder als dynamischer DRAM-Speicher implementiert werden. In einem klassischen Von-Neumann-Rechner ist der Hauptspeicher über den Adress- und Datenbus mit dem Mikroprozessor verbunden. Die Speicherordnung gibt an, in welcher Reihenfolge die einzelnen Bytes eines Datenworts im Speicher abgelegt werden.



Speicherelement
☞ Abschnitt 8.1
Hardware-Komponente, die im Gegensatz zu einem Gatter über einen internen Zustand und damit über eine Art Gedächtnis verfügt. Synchrone Speicherelemente koppeln den Wechsel des Zustands an einen Takt. Abhängig von der Art der Taktsteuerung sprechen wir von Latches oder Flipflops.



Speicherhierarchie
☞ Abschnitt NA
Bezeichnung für die verschiedenen Speicherebenen eines Mikrocomputers. In der Speicherhierarchie sind die Ebenen in absteigender Geschwindigkeit und aufsteigender Speichergröße geordnet. Am oberen Ende der Speicherhierarchie steht mit den Registern des Prozessors der kleinste, aber schnellste Speicher. Am unteren Ende befindet sich mit dem virtuellen Speicher der größte, aber langsamste Speicher. Die Zwischenebenen der Speicherhierarchie werden durch den Hauptspeicher ( Speicher) und die verschiedenen Varianten der Cache-Speicher gebildet.



Speicherordnung
☞ Abschnitt 3.1
Legt fest, in welcher Reihenfolge die einzelnen Bytes eines Datenworts im Speicher abgelegt werden. In Abhängigkeit der Anordnung sprechen wir von einer Little-Endian- oder einer Big-Endian-Architektur.



Sprungvorhersage
☞ Abschnitt NA
Technik zur Verringerung der in einem Mikroprozessor auftretenden Pipeline-Hazards. Hierzu wird das Verhalten der bedingten Sprungbefehle eines Programms statisch oder dynamisch analysiert und das Ergebnis zur Vorhersage des zukünftigen Sprungverhaltens verwendet.



SRAM
☞ Abschnitt 9.3
Statisches RAM. Die einzelnen Bits werden mit Hilfe von Latches oder Flipflops gespeichert. Im Vergleich mit der alternativen Technik des DRAMs ist der SRAM-Speicher schneller, aber auch deutlich flächenintensiver. SRAM-Speicher wird insbesondere zum Aufbau von Cache-Speichern eingesetzt.



Stapelregister
☞ Abschnitt 11.1.2
Spezielles Hilfsregister eines Mikroprozessors, das zur Verwaltung von Unterprogrammaufrufen dient. Der Inhalt des Registers fungiert als Schreib-/Lesezeiger auf den Stapelspeicher (Stack). Hierbei handelt es sich um einen speziellen Bereich des Hauptspeichers ( Speicher), der die Rücksprungadressen der getätigten Unterprogrammaufrufe sichert.



Statischer Hazard
☞ Abschnitt 5.5.2
Liegt vor, wenn der Signalpegel aufgrund eines Störimpulses für kurze Zeit wechselt. Ein statischer Hazard-Impuls kann die Ursache eines Logik-Hazards oder eines Funktions-Hazards sein.



Statusbit
☞ Abschnitt 11.1.2
Bezeichnung eines einzelnen Bits des Statusregisters. Zu den Statusbits gehören unter anderem das Carry-Bit C, das Zero-Bit Z und das Negative-Bit N.



Statusregister
☞ Abschnitt 11.1.2
Spezielles Hilfsregister eines Mikroprozessors, dessen einzelne Statusbits über das Ergebnis der letzten arithmetischen Operation bzw. den aktuellen Wert des Akkumulators Auskunft geben. Über das Statusregister findet ein Informationsaustausch zwischen Rechenwerk und Steuerwerk statt.



Stellenwertsystem
☞ Abschnitt 3.1
Ein Stellenwertsystem ist ein spezielles Zahlensystem, das zur Bestimmung des dargestellten Werts nicht nur die verwendeten Ziffern, sondern auch deren absolute Position innerhalb der Ziffernfolge in Betracht zieht. Neben dem uns vertrauten Dezimalsystem sind das Binärsystem, das Oktalsystem sowie das Hexadezimalsystem die wichtigsten Stellenwertsysteme der technischen Informatik.



Steuerbus
☞ Abschnitt 11.1
Neben dem Adressbus und dem Datenbus der dritte zentrale Bus eines Von-Neumann-Rechners. Der Bus verbindet den Mikroprozessor mit den anderen Funktionseinheiten und dient der Übertragung von Kontroll- und Steuersignalen.



Steuerflussabhängigkeit
☞ Abschnitt NA
Bezeichnung für die semantischen Abhängigkeiten zwischen zwei Befehlen. Jeder bedingte Sprung erzeugt eine Steuerflussabhängigkeit, da die Auswertung der Sprungbedingung über den nächsten auszuführenden Befehl entscheidet. Steuerflussabhängigkeiten können zu Pipeline-Hazards führen, da die frühen Verarbeitungseinheiten bereits mit der Bearbeitung eines Folgebefehls beschäftigt sind, bevor die Sprungbedingung vollständig ausgewertet ist.



Steuerwerk
☞ Abschnitt 10.1.2
Neben dem Operationswerk die zweite zentrale Komponente eines Schaltwerks, das mit Hilfe des Register-Transfer-Entwurfs erzeugt wurde. Das Steuerwerk implementiert die Ablaufsteuerung des Schaltwerks und ist direkt mit den Steuerleitungen der Funktionseinheiten im Operationswerk verbunden. Die Datenverarbeitung selbst findet vollständig im Operationswerk statt.



Strukturbreite
☞ Abschnitt 2.3.2
Anderer Begriff für die Kanallänge eines einzelnen Transistors. Die Angabe der Strukturbreite lässt einen direkten Rückschluss auf die Integrationsdichte eines Mikrochips zu.



Strukturelle Induktion
☞ Abschnitt 4.2.3
Variante der vollständigen Induktion, mit der sich viele Aussagen über boolesche Ausdrücke beweisen lassen. Hierzu wird die Aussage zunächst für alle atomaren booleschen Ausdrücke explizit bewiesen und anschließend gezeigt, dass sich die Gültigkeit der Aussage auf zusammengesetzte Ausdrücke überträgt. Formal entspricht die strukturelle Induktion einem vollständigen Induktionsbeweis, dem als Induktionsparameter n die Formellänge zu Grunde liegt.



Subtrahierer
☞ Abschnitt 7.7
Spezielles Schaltwerk zur Durchführung der binären Subtraktion. Ein Subtrahierer kann auf einfache Weise aus einem Addierer erzeugt werden, indem der zweite Operand zunächst in das Zweierkomplement übersetzt wird.



Superpipelining
☞ Abschnitt NA
Erweiterung des Pipelining-Prinzips, die die Befehlsausführung in noch feinere Teilschritte zerlegt. Hierdurch werden die in einer einzigen Verarbeitungseinheit durchgeführten Operationen sukzessive vereinfacht, so dass die Ausführungsgeschwindigkeit einer einzelnen Pipeline-Stufe deutlich gesteigert werden kann. Das Superpipelining-Prinzip ist orthogonal zur Superskalartechnik und lässt sich mit dieser nahtlos kombinieren.



Superskalartechnik
☞ Abschnitt NA
Erweiterung des Pipelining-Prinzips, die den Befehlsdurchsatz durch die Mehrfachauslegung der Verarbeitungseinheiten erhöht. Hierdurch wird es möglich, in jedem Taktzyklus mehrere Instruktionen in die Befehls-Pipeline einzuspeisen. Die Superskalartechnik ist orthogonal zum Prinzip des Superpipelinings und lässt sich mit diesem nahtlos kombinieren.



Takt
☞ Abschnitt 8.1.2
Binäres Rechtecksignal, das in periodischen Abständen zwischen den beiden Signalwerten 0 und 1 wechselt. Der Takt wird durch einen speziellen Generatorbaustein erzeugt und gibt gewissermaßen die Schlagzahl eines Schaltwerks vor. Ist ein Schaltwerk taktzustandsgesteuert, so erfolgt ein Zustandswechsel innerhalb der positiven bzw. der negativen Taktphase. Ist ein Schaltwerk taktflankengesteuert, erfolgt ein Zustandswechsel stets zeitgleich mit der positiven bzw. negativen Taktlanke.



Tautologie
☞ Abschnitt 4.2.2
Boolescher Ausdruck, der für alle Variablenbelegungen gleich 1 ist. Tautologien werden auch als allgemeingültige Aussagen bezeichnet.



Transduktor
☞ Abschnitt 8.2.1
Spezieller endlicher Automat, der zur Modellierung von Schaltwerken eingesetzt wird. Transduktoren bestehen aus einer Menge von Zuständen sowie einem Ein- und einem Ausgabealphabet. In jedem Verarbeitungsschritt nimmt der Automat ein Eingabezeichen entgegen, produziert ein Ausgabezeichen und nimmt einen neuen Zustand ein. Abhängig von der Form der Ausgabefunktion werden Transduktoren weiter in Mealy-Automaten und Moore-Automaten unterschieden.



Transistor
☞ Abschnitt 2.2
Das wichtigste Halbleiterbauelement im Bereich der Computertechnik. Transistoren können dazu verwendet werden, ein elektrisches Signal zu verstärken oder im Falle einer digitalen Ansteuerung ein- oder auszuschalten. Auf der obersten Ebene werden Bipolartransistoren und Feldeffektransistoren unterschieden. Mit Hilfe der Planartechnik lassen sich Millionen mikroskopisch kleiner Transistoren auf einem einzelnen Siliziumträger herstellen.



Übergangstabelle
☞ Abschnitt 8.2.2
Spezielle Wahrheitstabelle zum systematischen Entwurf von Schaltwerken. Neben der Ausgabefunktion des zu Grunde liegenden endlichen Automaten beschreibt die Tabelle die Beziehung zwischen dem aktuellen Zustand und dem Folgezustand. Aus der Übergangstabelle lässt sich die Übergangsfunktion mit konventionellen Mitteln der booleschen Algebra ableiten und hieraus eine Implementierung des Schaltwerks in Huffman-Normalform erzeugen.



Unicode
☞ Abschnitt 3.4.3
Universelle Zeichensatztabelle zum Verfassen multilingualer Texte. Der Unicode gliedert sich in 17 Bereiche, von denen die sogenannte Basic Multilingual Plane (BMP) in der Praxis die größte Rolle spielt. Die ersten 256 Zeichen der BMP sind mit den Zeichen der ISO 8859-1 identisch.



Universalregister
☞ Abschnitt 9.1.3
Spezielles Register, das die Eigenschaften des Auffangregisters mit denen des Schieberegisters in sich vereint.



Virtueller Speicher
☞ Abschnitt NA
Zur Vergrößerung des Hauptspeichers ( Speicher) wird die Speicherhierarchie am unteren Ende durch den Sekundärspeicher erweitert. Der Hauptspeicher übernimmt damit die Rolle eines schnellen Cache-Speichers, der sich zwischen dem Mikroprozessor und dem Sekundärspeicher befindet.



Volladdierer
☞ Abschnitt 7.5.1
Berechnet die Summe aus drei Binärziffern. Durch die Verwendung des dritten Bits als Übertragsbit lässt sich ein vollständiger Addierer durch die kaskadierte Zusammenschaltung mehrerer Volladdierer aufbauen ( Carry-ripple-Addierer). Ein einzelner Volladdierer kann auf einfache Weise mit Hilfe zweier Halbaddierer und eines zusätzlichen ODER-Gatters aufgebaut werden.



Vollständige Induktion
☞ Abschnitt 4.2.3
Neben dem direkten und dem indirekten Beweis ist die vollständige Induktion die dritte klassische Beweistechnik der Mathematik. Das Beweisprinzip ist immer dann anwendbar, wenn eine parametrisierte Aussage A ( n ) für alle natürlichen Zahlen n bewiesen werden soll. Ein Induktionsbeweis erfolgt in drei Schritten: Zunächst wird im Induktionsanfang die Aussage für einen oder mehrere Basisfälle bewiesen. Im nächsten Schritt erfolgt die Annahme, dass die Aussage für ein gewisses n und alle kleineren Werte bewiesen sei (Induktionsannahme). Gelingt im Anschluss der Beweis, dass aus der Gültigkeit von A ( n ) stets die Gültigkeit von A ( n +1) folgt, so ist die Aussage für alle n bewiesen. Eine mit der vollständigen Induktion verwandte Beweistechnik ist die strukturelle Induktion, mit deren Hilfe sich zahlreiche Aussagen der booleschen Algebra beweisen lassen.



Vollständiges Operatorensystem
☞ Abschnitt 4.3.3
Jede Menge M von booleschen Operatoren bildet ein Operatorensystem. M ist vollständig, wenn sich jede boolesche Funktion durch einen booleschen Ausdruck beschreiben lässt, der ausschließlich Operatoren aus M enthält.



Von-Neumann-Architektur
☞ Abschnitt 11.1
Architekturprinzip des Von-Neumann-Rechners. Die Von-Neumann-Architektur wurde 1965 durch John von Neumann postuliert und ist bis heute die dominierende universelle Rechnerarchitektur. Eine Alternative stellt die weniger flexible, aber effizientere Harvard-Architektur dar, die heute insbesondere im Bereich digitaler Signalprozessoren weit verbreitet ist.



Von-Neumann-Flaschenhals
☞ Abschnitt 11.1
Plakative Bezeichnung für den Bus eines Von-Neumann-Rechners und Hinweis auf ein zentrales Problem der Von-Neumann-Architektur. Da die gesamte Kommunikation zwischen dem Mikroprozessor und den restlichen Funktionseinheiten über einen einzigen Bus abgewickelt wird, wird dieser schnell zum limitierenden Faktor für die maximal erreichbare Systemleistung.



Von-Neumann-Rechner
☞ Abschnitt 11.1
Herzstück des Von-Neumann-Rechners ist ein programmgesteuerter, sequenziell arbeitender Mikroprozessor, der über verschiedene Busse mit den restlichen Funktionseinheiten kommuniziert. Ein wesentliches Merkmal eines Von-Neumann-Rechners ist die prinzipielle Gleichbehandlung von Programminstruktionen und Datenwörtern. Insbesondere werden Programme zusammen mit den zu verarbeitenden Daten in einem gemeinsamen Speicher abgelegt. Auf diese Weise ist ein einziger Daten- und Adressbus für die Kommunikation zwischen Hauptspeicher und Mikroprozessor ausreichend, was den Bau eines Von-Neumann-Rechners deutlich vereinfacht.



Vorzeichenbitdarstellung
☞ Abschnitt 3.1
Spezielles Zahlenformat zur Darstellung ganzer, vorzeichenbehafteter Zahlen. Ein festgelegtes Bit bestimmt das Vorzeichen und die restlichen Bits den Betrag der repräsentierten Zahl.



Wafer
☞ Abschnitt 5.2
Zur Steigerung der Produktionseffizienz werden Mikrochips stets im Verbund auf großen Siliziumscheiben – den sogenannten Wafern – hergestellt. Die einzelnen Chips werden erst sehr spät in der Produktionskette aus dem Wafer herausgetrennt und separat weiterverarbeitet.



Wahrheitstabelle
☞ Abschnitt 4.1.2
Tabellarische Darstellung einer booleschen Funktion. Die Wahrheitstabelle einer n-stelligen booleschen Funktion besteht aus 2 n Zeilen, die jede für sich eine eindeutige Belegung der freien Variablen charakterisieren. Die Größe einer Wahrheitstabelle steigt exponentiell mit der Anzahl der freien Variablen an und ist für die Darstellung vielstelliger boolescher Funktionen daher nicht geeignet. Genau wie das binäre oder funktionale Entscheidungsdiagramm ist die Wahrheitstabelle eine Normalformdarstellung.



Wallace-Tree-Multiplizierer
☞ Abschnitt 7.8.3
Spezieller Parallelmultiplizierer, der nach dem Schema des Carry-save-Multiplizierers arbeitet und sich lediglich im Aufbau der Reduktionszelle unterscheidet. Die Verdichtung der Koeffizientenmatrix findet in nacheinander durchlaufenen Stufen statt, die in einem iterativen Prozess konstruiert werden. Im direkten Vergleich mit dem Carry-save-Multiplizierer zeichnet sich der Wallace-Tree-Multiplizierer durch eine kompaktere Reduktionszelle aus, wenngleich sich die asymptotische Flächen- und Laufzeitkomplexität nicht ändert.



Wartezyklus
☞ Abschnitt NA
Künstlich verursachte Verzögerung, um eine Steuerflussabhängigkeit aufzulösen. Wartezyklen können entweder prozessorseitig mit einer speziellen Verzögerungslogik oder softwareseitig durch das Einfügen von NOP-Befehlen über den Compiler erzeugt werden.



x86-Architektur
☞ Abschnitt NA
16-Bit- CISC- Instruktionsarchitektur der Firma Intel. Die x86-Architektur wurde bereits 1978 mit dem 8086-Prozessor eingeführt und begründete das Zeitalter der Personal-Computer. Die x86-Architektur wurde im Laufe der Zeit durch die IA-32- und die EM64T-Architektur abgelöst. Aufgrund der hohen Marktdurchdringung wurden alle Nachfolgearchitekturen abwärtskompatibel ausgelegt, so dass die x86-Architektur auch heute noch allgegenwärtig ist.



Zahlenformat
☞ Abschnitt 3.1
Definiert, wie ein Zahlenwert im Speicher eines Computers auf Bitebene repräsentiert wird. Zur Darstellung ganzer, vorzeichenbehafteter Zahlen besitzen die Vorzeichenbitdarstellung, das Einerkomplement sowie das Zweierkomplement eine praktische Relevanz. Rationale Zahlen werden entweder im Festkommaformat oder im Gleitkommaformat dargestellt.



Zahlensystem
☞ Abschnitt 3.1
Besteht aus einem Ziffernvorrat sowie einer Berechnungsvorschrift, die jeder Ziffernfolge einen Zahlenwert zuordnet. Abhängig von der zu Grunde liegenden Berechnungsvorschrift sprechen wir von einem Additionssystem oder einem Stellenwertsystem.



Zähler
☞ Abschnitt 9.2
Spezielles Schaltwerk zum Abzählen von Impulsen. Zählerbausteine werden anhand ihrer Implementierung (asynchron, synchron, gemischt), ihrer Zählrichtung (vorwärts, rückwärts, bidirektional) sowie des verwendeten Zahlenformats ( Binärsystem, BCD-Code, ...) unterschieden.



Zeitdiagramm
☞ Abschnitt 8.1.2
Grafische Darstellung des von einem Schaltwerk erzeugten Signalverlaufs. Die Zeit wird auf der x-Achse und die überwachten Signale werden auf der y-Achse aufgetragen.



Zustandsvariable
☞ Abschnitt 8.1
Variable, die den aktuellen Zustand eines Speicherelements beschreibt. Die Werte aller Zustandsvariablen definieren zusammengenommen den Zustand eines Schaltwerks.



Zweierkomplement
☞ Abschnitt 3.1
Spezielles Zahlenformat zur Darstellung ganzer, vorzeichenbehafteter Zahlen. Im Zweierkomplement wird eine Zahl negiert, indem zunächst das Einerkomplement gebildet und der Ergebniswert anschließend um eins erhöht wird.



Zweistufiges Schaltnetz
☞ Abschnitt 5.2.1
Ein Schaltnetz heißt n-stufig, wenn ein Signal von den Eingängen bis zu den Ausgängen maximal n Logikgatter durchläuft. Jede boolesche Funktion lässt sich in ein zweistufiges Schaltnetz überführen, indem zunächst die konjunktive Minimalform oder die disjunktive Minimalform erzeugt und diese anschließend in ein Schaltnetz synthetisiert wird.