Embeddings (Einbettungen) sind ein zentrales Konzept in der modernen KI, bei dem Wörter, Sätze oder ganze Texte in numerische Vektoren — also Listen von Zahlen — umgewandelt werden. Diese Zahlendarstellungen fangen die Bedeutung und die Beziehungen zwischen Wörtern ein. Ähnliche Wörter wie „Katze" und „Hund" haben ähnliche Vektoren, während unverwandte Wörter wie „Katze" und „Mathematik" weit voneinander entfernt liegen.
Für Grundschullehrkräfte sind Embeddings im Hintergrund vieler nützlicher KI-Funktionen aktiv, auch wenn man sie nicht direkt sieht. Wenn ein KI-Tool versteht, dass „Grundschüler" und „Kinder in der Primarstufe" dasselbe meinen, liegt das an den Embeddings. Wenn eine Suchfunktion in einem Bildungs-Tool auch dann relevante Ergebnisse liefert, wenn man nicht den exakten Suchbegriff verwendet, arbeiten Embeddings im Hintergrund. Auch die semantische Suche in Materialdatenbanken basiert auf dieser Technologie.
Ein anschaulicher Vergleich für den Schulkontext: Stellen Sie sich vor, jedes Wort bekommt einen Platz auf einer riesigen Landkarte. Wörter, die ähnliche Bedeutungen haben, stehen nah beieinander — „Addition" und „Zusammenzählen" wären fast Nachbarn, während „Addition" und „Wasserfarbe" weit entfernt wären. KI nutzt diese „Bedeutungslandkarte", um Sprache zu verstehen und sinnvolle Antworten zu erzeugen.