zurück   Home   weiter

Haltet Ihr es für möglich, dass Zeichen wichtig genug sind, um einer von den acht primitiven Datentypen zu sein?

Antwort:

Ja.

Der primitive Datentyp char

Zeichen Daten (alles was über die Tastatur eingegeben werden kann) sind in der Programmierung sehr gebräuchlich. Der englische Begriff dafür ist character data Der dafür verwendete primitive Datentyp hat den Namen char, um Tipparbeit zu sparen. Der char-Typ verwendet 16 Bit für die Darstellung der Zeichen. In vielen Programmiersprachen werden nur 8 Bit für diesen Zweck verwendet. Java verwendet 16 Bit, um auch die Schriftzeichen anderer Sprachen als der Englischen darstellen zu können. Die dafür verwendete Methode wird Unicode genannt.

Zum Beispiel, hier ist ein 16-Bit Muster:

0000000001100111

Wenn wir wissen, dass diese 16 Bit vom Datentyp char sind, dann könnten wir in einer Tabelle nachsehen und feststellen, dass sie das Zeichen 'g' darstellen. Wenn wir ein wirklich gutes Gedächtnis besitzen, könnten wir uns daran erinnern, dass die gleichen 16 Bit die Ganzzahl 103 darstellen, wenn sie als Datentyp short betrachtet werden. Es ist notwendig den Datentyp eines Musters zu kennen, um ihm einen Sinn verleihen zu können.

Groß - und Kleinbuchstaben werden durch unterschiedliche Muster dargestellt. Interpunktion und Sonderzeichen sind ebenfalls char-Daten. Es gibt auch Sonderzeichen wie das Leerzeichen, das Worte trennt.

Steuerzeichen sind Bitmuster, die z.B. das Zeilenende anzeigen. Andere Steuerzeichen stellen mechanische Aktionen alter Kommunikationsgeräte (wie Fernschreiber) dar, die heutzutage selten verwendet werden, aber beibehalten werden müssen.

Der primitive Typ char repräsentiert ein einzelnes Zeichen. Er enthält keinerlei Information über den Font.

Wenn wir mehr als nur ein Zeichen gleichzeitig handhaben möchten (fast immer), müssen wir Objekte verwenden, die aus char-Daten konstruiert werden.

Frage 13:

Ist jedes der folgenden ein unterschiedliches Zeichen?

0       O         o