Ich bin dem Skalarprodukt (englisch: dot product) in verschiedenen Kontexten begegnet - in der Physik, beim Machine Learning, in Grafik-Engines. Die algebraische Definition als “Vektoren komponentenweise multiplizieren und aufsummieren” ist einfach genug. Interessant wird es erst durch die verschiedenen geometrischen und praktischen Interpretationen.
[Mehr]Das 5-Euro-Experiment: KI-Entwicklung auf Wegwerf-Servern
Oder: Wie ich Claude auf einem fremden Rechner austoben lasse
Die Paranoia-freie Zone
Wir alle kennen das: Claude Code lokal installiert, aber ständig dieses mulmige Gefühl - was, wenn die KI durchdreht und mein System zerschießt? Was, wenn sie Dateien löscht, Konfigurationen durcheinanderbringt oder einfach mal spontan rm -rf / ausführt?
Die spielerische Lösung: Warum nicht eine eigene Manege mieten für die KI-Akrobatik?
[Mehr]KI-basiertes Journaling: Mein Workflow mit SuperWhisper und Claude
Ich experimentiere aktuell mit einem neuen Journaling-Workflow – KI-gestützt und sprachbasiert.
Dieser Ansatz hilft mir, Informationen schneller festzuhalten und sie später leichter wiederzufinden – besonders in neuen, komplexen Projekten.
[Mehr]CLI-KI-Assistenten 2025: Claude Code und die neuesten Alternativen für Entwickler
Die Revolution der KI-gestützten Entwicklungstools hat längst die Kommandozeile erreicht. Während früher komplexe Aufgaben mühsam recherchiert und programmiert werden mussten, können Entwickler heute direkt im Terminal mit intelligenten Assistenten interagieren. Hier ist ein Überblick über die wichtigsten CLI-KI-Tools des Jahres 2025.
[Mehr]Platonische Embeddings und die universelle Geometrie semantischer Räume
Einleitung
In der Welt der Sprachmodelle spielen Embeddings eine zentrale Rolle. Sie übersetzen Texte in mathematische Vektoren, die semantische Bedeutung codieren. Eine neue Publikation auf arXiv bringt Bewegung in dieses Gebiet – nicht nur theoretisch, sondern auch mit Blick auf die Sicherheit von Vektordatenbanken.
Was sind Embeddings?
Sprachmodelle wie GPT zerlegen Texte in sogenannte Tokens. Jedes Token wird durch ein festgelegtes Verfahren in einen Vektor transformiert – ein sogenanntes Embedding. Wenn ein Satz aus \(N\) Tokens besteht, erhält man eine Matrix der Größe \(N \times M\), wobei \(M\) die Dimension des Embedding-Raums ist.
[Mehr]KI & LLM-Wissensspeicher
Herzlich willkommen zur KI & LLM-Serie
Diese Serie bietet einen umfassenden Überblick über die Entwicklung von Large Language Models (LLMs), deren theoretische Grundlagen, praktische Anwendungen und nützliche Tools. In dieser strukturierten Reihe findest du Informationen zu allen wichtigen Aspekten moderner KI-Technologien.
[Mehr]Realismus vs. realistisch – Was Außenpolitik wirklich meint
Aus Anlass des Artikels von Frank Sauer in der Zeit habe ich mir nochmal von ChatGPT den Begriff Realismus (mit großem ‘R’) und realistisch (mit kleinem ‘r’) erläutern lassen:
[Mehr]Vibe Coding: Quellen zu den zentralen Aussagen des FAZ-Artikels
Der FAZ-Artikel „Vibe Coding: Die KI programmiert sich selbst“ von Marcus Schwarze beleuchtet den aktuellen Stand KI-gestützter Softwareentwicklung. Hier eine kleine Quellensammlung zu den zentralen Aussagen und erwähnten Technologien:
[Mehr]Next-Gen KI-Entwicklung: Cursor, Windsurf, Lovable, Bolt und All-Hands im Überblick
Gradio vs. NotebookLM – Zwei unterschiedliche Ansätze mit KI
Einführung
In diesem Beitrag werfen wir einen Blick auf zwei moderne Tools aus dem KI-Bereich: Gradio und NotebookLM von Google. Obwohl beide Technologien auf KI setzen, verfolgen sie unterschiedliche Ziele und richten sich an verschiedene Zielgruppen.
[Mehr]