zur vorherigen Seite   zum Inhaltsverzeichnis   zur nächsten Seite

Halten Sie es für möglich, dass Zeichen wichtig genug sind, um einer von den acht primitiven Datentypen zu sein?

Antwort:

Ja.

Der primitive Datentyp char

Zeichendaten sind in der Programmierung sehr gebräuchlich. Der dafür verwendete primitive Datentyp hat den Namen char, um Tipparbeit zu sparen. Der char-Typ verwendet 16 Bit für die Darstellung der Zeichen. In vielen Programmiersprachen werden nur 8 Bit für diesen Zweck verwendet. Java verwendet 16 Bit, um auch die Schriftzeichen anderer Sprachen als der Englischen darstellen zu können. Die dafür verwendete Methode wird Unicode genannt.

Zum Beispiel, hier ist ein 16-Bit Muster:

0000000001100111

Wenn Sie wissen, dass diese 16 Bit vom Datentyp char sind, dann könnten Sie in einer Tabelle nachsehen und feststellen, dass sie das Zeichen 'g' darstellen. Wenn Sie ein wirklich gutes Gedächtnis besitzen, könnten Sie sich daran erinnern, dass die gleichen 16 Bit die Ganzzahl 103 darstellen, wenn sie als Datentyp short betrachtet werden. Es ist notwendig den Datentyp eines Musters zu kennen, um ihm einen Sinn verleihen zu können.

Groß- und Kleinbuchstaben werden durch unterschiedliche Muster dargestellt. Interpunktion und Sonderzeichen sind ebenfalls char-Daten. Es gibt auch Sonderzeichen wie das Leerzeichen, das Worte trennt.

Steuerzeichen sind Bitmuster, die das Zeilenende oder den Seitenumbruch anzeigen. Andere Steuerzeichen stellen mechanische Aktionen alter Kommunikationsgeräte (wie Fernschreiber) dar, die heutzutage selten verwendet werden, aber beibehalten werden müssen.

Der primitive Typ char repräsentiert ein einzelnes Zeichen. Er enthält keinerlei Information über den Font. Wenn Sie mehr als ein Zeichen gleichzeitig handhaben möchten (fast immer), müssen Sie Objekte verwenden, die aus char-Daten konstruiert werden.

FRAGE 13:

Ist jedes der folgenden ein unterschiedliches Zeichen?

0       O         o