Zeichencodierung lernen 
worum geht es?

Computer arbeiten mit Zahlen, auf der tiefsten Ebene mit 0 und 1, nicht mit “A”, “ß” oder “😊”. Zeichencodierung beschreibt, wie wir Zeichen als Zahlen festlegen, damit alle Geräte sie gleich verstehen und speichern.

PIXEL Code

Binärsystem

Hexadezimalsystem

ASCII Code

UTF-8 Code

RGB Farbcode

Was wir behandeln

  • Pixel-Code: Ein Bild als Raster aus Pixeln (z. B. 16×16). Gut für Grafiken, ungeeignet für Zeichen, weil Form, Schriftart und Größe variieren.
  • Binärcode: Die kleinste Ebene – Folgen aus 0 und 1. Alle Codes enden hier.
  • Hexadezimalcode: Kompakte Schreibweise für Binärwerte (Basis 16), praktisch zum Lesen und für Technik-Dokumentation.
  • RGB-Farbcode: Wie Farben eines Pixels als Rot-Grün-Blau-Werte (oft hex) gespeichert werden.
  • ASCII-Code: Früher Standard für englische Zeichen (0–127). Begrenzt – keine Umlaute, keine Emojis.
  • UTF-8: Heutiger Standard. Variabel 1–4 Bytes pro Zeichen, deckt praktisch alle Sprachen und Emojis ab, abwärtskompatibel zu ASCII.

Warum Zeichen nicht als Pixel speichern?

  • Nicht eindeutig: Ein „A“ sieht je nach Schriftart, Größe oder Fettschrift anders aus. Welches davon wäre “das” A?
  • Speicherfresser: Ein 16×16-Pixel-Glyph mit 24-Bit-Farben:
    16×16×3 Byte = 768 Byte – für ein Zeichen.
    ASCII: 1 Byte, UTF-8: 1–4 Byte.
    Für Texte wäre Pixel-Speicherung hundert- bis tausendfach größer.
  • Schlecht durchsuchbar/vergleichbar: Pixel sind Bilddaten; “A” als Zahlencode ist vergleichbar und sortierbar.

Merksatz

Wir speichern Bedeutung als Code (ASCII/UTF-8), nicht Aussehen als Pixel. Pixel- und RGB-Codes brauchen wir für Bilder, Hexadezimale Werte helfen beim Lesen von Binärwerten – und am Ende läuft alles auf 0 und 1 hinaus.

Weitere Apps zum Üben und Spielen