Zeichencodierung lernen
worum geht es?
Computer arbeiten mit Zahlen, auf der tiefsten Ebene mit 0 und 1, nicht mit “A”, “ß” oder “😊”. Zeichencodierung beschreibt, wie wir Zeichen als Zahlen festlegen, damit alle Geräte sie gleich verstehen und speichern.
PIXEL Code
Binärsystem
Hexadezimalsystem
ASCII Code
UTF-8 Code
RGB Farbcode
Was wir behandeln
- Pixel-Code: Ein Bild als Raster aus Pixeln (z. B. 16×16). Gut für Grafiken, ungeeignet für Zeichen, weil Form, Schriftart und Größe variieren.
- Binärcode: Die kleinste Ebene – Folgen aus 0 und 1. Alle Codes enden hier.
- Hexadezimalcode: Kompakte Schreibweise für Binärwerte (Basis 16), praktisch zum Lesen und für Technik-Dokumentation.
- RGB-Farbcode: Wie Farben eines Pixels als Rot-Grün-Blau-Werte (oft hex) gespeichert werden.
- ASCII-Code: Früher Standard für englische Zeichen (0–127). Begrenzt – keine Umlaute, keine Emojis.
- UTF-8: Heutiger Standard. Variabel 1–4 Bytes pro Zeichen, deckt praktisch alle Sprachen und Emojis ab, abwärtskompatibel zu ASCII.
Warum Zeichen nicht als Pixel speichern?
- Nicht eindeutig: Ein „A“ sieht je nach Schriftart, Größe oder Fettschrift anders aus. Welches davon wäre “das” A?
- Speicherfresser: Ein 16×16-Pixel-Glyph mit 24-Bit-Farben:
16×16×3 Byte = 768 Byte – für ein Zeichen.
ASCII: 1 Byte, UTF-8: 1–4 Byte.
Für Texte wäre Pixel-Speicherung hundert- bis tausendfach größer. - Schlecht durchsuchbar/vergleichbar: Pixel sind Bilddaten; “A” als Zahlencode ist vergleichbar und sortierbar.
Merksatz
Wir speichern Bedeutung als Code (ASCII/UTF-8), nicht Aussehen als Pixel. Pixel- und RGB-Codes brauchen wir für Bilder, Hexadezimale Werte helfen beim Lesen von Binärwerten – und am Ende läuft alles auf 0 und 1 hinaus.