char (C#-Referenz)
Das char-Schlüsselwort wird verwendet, um eine Instanz der System.Char-Struktur zu deklarieren, der .NET Framework verwendet, um ein Unicode-Zeichen darzustellen.Der Wert eines - Objekts Char ist ein numerischer (Ordnungszahlen) 16-Bit-Wert.
Unicode-Zeichen werden verwendet, um die meisten Schriftsprachen weltweit darzustellen.
Typ |
Bereich |
Größe |
.NET Framework-Typ |
---|---|---|---|
char |
U+0000 bis U+FFFF |
16-Bit-Unicode-Zeichen |
Literale
Konstanten vom Typ char können als Zeichenliterale, als hexadezimale Escapesequenz oder in Unicode-Darstellung geschrieben werden.Sie können auch eine Typumwandlung der ganzzahligen Zeichencodes durchführen.Im folgenden Beispiel werden vier char-Variablen mit dem gleichen Zeichen X initialisiert:
char[] chars = new char[4];
chars[0] = 'X'; // Character literal
chars[1] = '\x0058'; // Hexadecimal
chars[2] = (char)88; // Cast from integral type
chars[3] = '\u0058'; // Unicode
foreach (char c in chars)
{
Console.Write(c + " ");
}
// Output: X X X X
Konvertierungen
Ein char kann implizit konvertiert werden in ushort, int, uint, long, ulong, float, double oder decimal.Es finden jedoch keine impliziten Konvertierungen von anderen Datentypen in den char-Typ statt.
Der System.Char-Typ stellt mehrere statische Methoden zum Arbeiten mit char-Werten bereit.
C#-Programmiersprachenspezifikation
Weitere Informationen finden Sie in der C#-Sprachspezifikation. Die Sprachspezifikation ist die verbindliche Quelle für die Syntax und Verwendung von C#.
Siehe auch
Referenz
Tabelle ganzzahliger Typen (C#-Referenz)
Tabelle integrierter Typen (C#-Referenz)
Tabelle für implizite numerische Konvertierungen (C#-Referenz)
Tabelle für explizite numerische Konvertierungen (C#-Referenz)
Typen, die NULL-Werte zulassen (C#-Programmierhandbuch)