Halten Sie es für möglich, dass Schriftzeichen wichtig genug sind, um einer von den acht primitiven Datentypen zu sein?
Ja.
char
Schriftzeichen sind in der Programmierung sehr gebräuchlich.
Der dafür verwendete primitive Datentyp hat den Namen char
, um Tipparbeit zu sparen.
Der char
-Typ verwendet 16 Bit für die Darstellung der Zeichen.
In vielen Programmiersprachen werden nur 8 Bit für diesen Zweck verwendet.
Java verwendet 16 Bit, um auch die
Schriftzeichen anderer Sprachen als der Englischen darstellen zu können.
Die dafür verwendete Methode wird Unicode genannt.
Zum Beispiel, hier ist ein 16-Bit Muster:
0000000001100111
Wenn Sie wissen, dass diese 16 Bit vom Datentyp char
sind,
dann könnten Sie in einer Tabelle nachsehen und feststellen, dass
sie das Zeichen 'g' darstellen.
Wenn Sie ein wirklich gutes Gedächtnis besitzen, könnten Sie sich
daran erinnern, dass die gleichen 16 Bit die Ganzzahl 103 darstellen,
wenn sie als Datentyp short
betrachtet werden.
Es ist notwendig den Datentyp eines Musters zu kennen,
um ihm einen Sinn verleihen zu können.
Groß- und Kleinbuchstaben werden durch unterschiedliche Muster dargestellt.
Interpunktion und Sonderzeichen sind ebenfalls char
-Daten.
Es gibt auch Sonderzeichen wie das Leerzeichen, das Worte trennt.
Steuerzeichen sind Bitmuster, die das Zeilenende oder den Seitenumbruch anzeigen. Andere Steuerzeichen stellen mechanische Aktionen alter Kommunikationsgeräte (wie Fernschreiber) dar, die heutzutage selten verwendet werden, aber beibehalten werden müssen.
Der primitive Typ char
repräsentiert ein einzelnes Zeichen.
Er enthält keinerlei Information über den Font.
Wenn Sie mehr als ein Zeichen gleichzeitig handhaben möchten (fast immer),
müssen Sie Objekte verwenden, die aus
char
-Daten konstruiert werden.