Shelly Script oder Home Assistant – was ist besser fürs Smart Home?

Zeraphys Avatar zeigt Shelly Direktverknüpfung und Home Assistant im Vergleich

Smart Home kann herrlich einfach sein – oder herrlich kompliziert. Manchmal sogar beides gleichzeitig. 😄

Eine der häufigsten Fragen dabei:

Baue ich meine Logik direkt im Shelly (per Script) oder über eine Zentrale wie Home Assistant?

Ich nutze beides – und genau darum geht es hier: ein ehrlicher Praxis-Vergleich, inklusive echten Beispielen aus dem Alltag.


Zwei Philosophien: lokal vs. zentral

🧠 Shelly Script – das Gehirn sitzt im Gerät

Bei Shelly Scripts läuft die komplette Logik direkt auf dem Gerät.
Ein Taster weiß selbst, was er tun soll. Kein Server, kein Broker, kein Mittelsmann.

Eigenschaften:

  • läuft direkt auf dem Shelly
  • funktioniert auch ohne WLAN-Internet
  • extrem schnell (Millisekunden)
  • keine Abhängigkeit von Home Assistant / ioBroker
  • JavaScript statt Blockly

Kurz gesagt: Smart Home auf Geräteebene.


🏠 Home Assistant – das Smart-Home-Betriebssystem

Home Assistant ist das komplette Gegenmodell:

  • zentrale Logik
  • visuelle Automationen
  • Geräte unterschiedlichster Hersteller
  • komplexe Bedingungen, Zeitpläne, Sensoren, Szenen
  • Historie, Dashboards, Backups

Kurz gesagt: Smart Home als Betriebssystem.


Praxisbeispiel: Ein Taster schaltet zwei Relais

Setup:

  • Shelly i4 (4-fach Taster)
  • anderer Shelly mit 2 Relais
  • Ziel: Wenn Taster 4 gedrückt wird → beide Relais toggeln

Lösung mit Shelly Script (direkt im Gerät)

Das folgende Script läuft direkt auf dem Taster-Shelly.
Die IP-Adresse und IDs sind bewusst generisch gehalten:

let TARGET_IP = "192.168.0.100"; // Ziel-Shelly

Shelly.addEventHandler(function (event) {
  if (event.name !== "input" || !event.info) return;

  // 4. Taster
  if (event.info.id !== 3) return;

  // i4 sendet "toggle" Events
  if (event.info.event !== "toggle") return;

  // Nur bei Tastendruck (nicht beim Loslassen)
  if (event.info.state !== true) return;

  // Relais 0 toggeln
  Shelly.call("HTTP.GET", {
    url: "http://" + TARGET_IP + "/rpc/Switch.Toggle?id=0"
  });

  // Relais 1 toggeln
  Shelly.call("HTTP.GET", {
    url: "http://" + TARGET_IP + "/rpc/Switch.Toggle?id=1"
  });
});

Eigenschaften dieser Lösung:

  • reagiert sofort
  • keine Zentrale nötig
  • funktioniert auch wenn Home Assistant aus ist
  • läuft komplett lokal im LAN

Lösung mit Home Assistant (vereinfacht)

In Home Assistant sähe das so aus:

  • Trigger: Button pressed
  • Aktion: switch.toggle Relay 1
  • Aktion: switch.toggle Relay 2

Das ist komfortabel, visuell, leicht änderbar – aber:

  • Home Assistant muss laufen
  • WLAN + Server müssen funktionieren
  • leicht höhere Latenz

Praxisbeispiel: Treppenhauslicht mit Short/Long/Double-Press

Ein echter Klassiker aus dem Alltag: Treppenhauslicht. Du willst nicht jedes Mal wieder im Dunkeln stehen, aber du willst auch nicht, dass das Licht 2 Stunden durchballert, weil jemand einmal kurz dagegen geatmet hat.

Die Ziel-Logik:

  • Short Press → Licht 2 Minuten
  • Long Press → Licht 15 Minuten
  • Double Press → „Dauer-An“ togglen (ohne Timer)
  • erneutes Drücken verlängert jeweils den Timer

Setup:

  • Shelly Pro 1PM
  • Taster an Input 0
  • Licht an Switch 0

Lösung mit Shelly Script (Treppenhauslogik direkt im Gerät)

Hier sitzt die komplette Logik im Shelly. Kein Server, kein MQTT, keine zentrale Automation. Das Ding ist quasi dein Treppenhausrelais – nur in nerdig.

// Shelly Pro 1PM – Treppenhauslicht mit Shortpress/Longpress
// Input 0 steuert Switch 0
//
// Shortpress: Licht an für SHORT_MS (Timer wird bei erneutem Shortpress verlängert)
// Longpress:  Licht an für LONG_MS  (Timer wird bei erneutem Longpress verlängert)
// Optional Doublepress: "Dauer-An" togglen (ohne Timer)

let CFG = {
  INPUT_ID: 0,
  SWITCH_ID: 0,

  SHORT_MS: 2 * 60 * 1000,   // 2 Minuten
  LONG_MS:  15 * 60 * 1000,  // 15 Minuten

  ENABLE_DOUBLE_PRESS_ALWAYS_ON: true
};

let offTimer = null;
let alwaysOn = false;

function clearOffTimer() {
  if (offTimer !== null) {
    Timer.clear(offTimer);
    offTimer = null;
  }
}

function setSwitch(on) {
  Shelly.call("Switch.Set", { id: CFG.SWITCH_ID, on: on });
}

function startAutoOff(ms) {
  clearOffTimer();
  alwaysOn = false;

  // sicher einschalten
  setSwitch(true);

  offTimer = Timer.set(ms, false, function () {
    offTimer = null;
    // nur ausschalten, wenn nicht inzwischen "Dauer-An" aktiv wurde
    if (!alwaysOn) setSwitch(false);
  });
}

function toggleAlwaysOn() {
  clearOffTimer();
  alwaysOn = !alwaysOn;

  if (alwaysOn) {
    setSwitch(true);
  } else {
    // wenn "Dauer-An" aus, direkt in den Short-Timer zurückfallen
    startAutoOff(CFG.SHORT_MS);
  }
}

function handleButtonEvent(info) {
  // Erwartet: info.event in ["single_push","long_push","double_push", ...]
  if (!info || !info.event) return;

  if (info.event === "single_push") {
    startAutoOff(CFG.SHORT_MS);
    return;
  }

  if (info.event === "long_push") {
    startAutoOff(CFG.LONG_MS);
    return;
  }

  if (CFG.ENABLE_DOUBLE_PRESS_ALWAYS_ON && info.event === "double_push") {
    toggleAlwaysOn();
    return;
  }
}

// Event-Handler registrieren
Shelly.addEventHandler(function (ev) {
  // Für Pro-Geräte kommen Button-Events typischerweise als input:* Events
  if (!ev || !ev.info) return;

  // Filter: nur unser Input
  // ev.component kann z.B. "input:0" sein
  if (ev.component === ("input:" + CFG.INPUT_ID)) {
    handleButtonEvent(ev.info);
  }
});

print("Treppenhaus-Script aktiv: Input", CFG.INPUT_ID, "-> Switch", CFG.SWITCH_ID);

Eigenschaften dieser Lösung:

  • reagiert sofort
  • kein Server nötig
  • Timer-Verlängerung ist automatisch drin
  • Dauerlicht ist optional per Double Press
  • läuft komplett lokal – auch wenn dein Home-Server gerade „Updates macht“

Home-Assistant-Variante (zum Vergleich)

Das gleiche Prinzip geht auch in Home Assistant – dann liegt die Logik zentral. Vorteil: du kannst später ganz entspannt Sensoren, Zeitfenster, Helligkeit (Lux), Anwesenheit oder „nachts nur gedimmt“ dranhängen.

Für „Dauer-An“ nutzen wir einen Helper:

  • input_boolean.treppenhaus_dauer_an

Und als Schalt-Entity fürs Licht nehmen wir in den Beispielen:

  • switch.treppenhauslicht

Wichtig: Die Trigger unterscheiden sich je nach Gerät/Integration. Das Muster bleibt gleich – du passt nur event_type/event_data an deinen Button an (z. B. Shelly i4, Zigbee-Button, MQTT Button, etc.).

Automation: Short Press (2 Minuten)

Der Trick ist mode: restart: erneutes Drücken startet die Automation neu → der Timer verlängert sich automatisch.

alias: Treppenhauslicht - Short Press (2 Minuten)
mode: restart
trigger:
  - platform: event
    event_type: shelly_click
    event_data:
      device: shelly_taster_treppenhaus
      click_type: single
condition:
  - condition: state
    entity_id: input_boolean.treppenhaus_dauer_an
    state: "off"
action:
  - service: switch.turn_on
    target:
      entity_id: switch.treppenhauslicht
  - delay: "00:02:00"
  - condition: state
    entity_id: input_boolean.treppenhaus_dauer_an
    state: "off"
  - service: switch.turn_off
    target:
      entity_id: switch.treppenhauslicht

Automation: Long Press (15 Minuten)

alias: Treppenhauslicht - Long Press (15 Minuten)
mode: restart
trigger:
  - platform: event
    event_type: shelly_click
    event_data:
      device: shelly_taster_treppenhaus
      click_type: long
condition:
  - condition: state
    entity_id: input_boolean.treppenhaus_dauer_an
    state: "off"
action:
  - service: switch.turn_on
    target:
      entity_id: switch.treppenhauslicht
  - delay: "00:15:00"
  - condition: state
    entity_id: input_boolean.treppenhaus_dauer_an
    state: "off"
  - service: switch.turn_off
    target:
      entity_id: switch.treppenhauslicht

Automation: Double Press („Dauer-An“ togglen)

alias: Treppenhauslicht - Double Press (Dauer-An)
mode: single
trigger:
  - platform: event
    event_type: shelly_click
    event_data:
      device: shelly_taster_treppenhaus
      click_type: double
action:
  - service: input_boolean.toggle
    target:
      entity_id: input_boolean.treppenhaus_dauer_an

  - choose:
      - conditions:
          - condition: state
            entity_id: input_boolean.treppenhaus_dauer_an
            state: "on"
        sequence:
          - service: switch.turn_on
            target:
              entity_id: switch.treppenhauslicht
    default:
      # Dauer-An wurde ausgeschaltet → zurück in den Short-Timer
      - service: switch.turn_on
        target:
          entity_id: switch.treppenhauslicht
      - delay: "00:02:00"
      - condition: state
        entity_id: input_boolean.treppenhaus_dauer_an
        state: "off"
      - service: switch.turn_off
        target:
          entity_id: switch.treppenhauslicht

Der direkte Vergleich

Geschwindigkeit

Shelly Script gewinnt. Kein Umweg, kein MQTT, kein Server.
Der Tastendruck fühlt sich sofort an.

Zuverlässigkeit

Shelly Script gewinnt ebenfalls.
Wenn dein Home-Server rebootet oder crasht, funktionieren direkte Scripts trotzdem.

Flexibilität

Home Assistant gewinnt klar:

  • Zeitabhängige Logik
  • Sensor-Kombinationen
  • komplexe Bedingungen
  • Visualisierung

Wartbarkeit

Home Assistant ist angenehmer.
Scripts sind Code. YAML/GUI ist für viele leichter.

Skalierung

Ab ca. 20–30 Geräten wird zentrale Logik übersichtlicher.
Bei 3–10 Geräten ist Shelly Script herrlich simpel.


Meine Faustregel

Ich nutze:

  • Shelly Script, wenn:
    • Taster → Aktion
    • hohe Zuverlässigkeit
    • sofortige Reaktion
    • einfache Logik
  • Home Assistant, wenn:
    • mehrere Geräte beteiligt sind
    • Zeit / Sensoren / Zustände eine Rolle spielen
    • Visualisierung gebraucht wird

Oder anders gesagt:

Grundfunktionen dezentral, Komfort zentral.


Hardware-Empfehlungen

Die Geräte aus den Beispielen:


Fazit

Shelly Script ist kein Ersatz für Home Assistant.
Home Assistant ist kein Ersatz für Shelly Script.

Zusammen sind sie allerdings ziemlich nah an einem kleinen, lokalen Skynet – nur ohne Weltherrschaftspläne. Hoffentlich.

Wer sein Smart Home stabil, schnell und cloudfrei betreiben will, sollte beide Werkzeuge kennen und bewusst einsetzen.


Mehr lokales Smart Home

Wenn dich das Thema „lokales Smart Home ohne Cloud“ tiefer interessiert, findest du auf dem Blog schon einige passende Praxisartikel: In Shelly Direktverknüpfung – lokale Automationen ohne Cloud zeige ich, wie Geräte komplett ohne Zentrale miteinander sprechen. Wer eher aus der ioBroker-Ecke kommt, kann sich Licht automatisch einschalten beim PC-Start oder Automatisches Licht mit Blockly anschauen. Und falls du generell zwischen Zigbee, WLAN und Z-Wave schwankst, hilft vielleicht auch der Überblick in Zigbee, Z-Wave, WLAN, was MATTERs.

Smart Home ohne Cloud – lokales Smart Home mit Shelly, Zigbee & Home Assistant

Illustration mit Nerd-Zebra, das Smart-Home-Geräte aus einer Cloud befreit, Symbol für „Smart Home ohne Cloud

Ein cloudfreies Smart Home bedeutet: volle Kontrolle, weniger Abhängigkeiten, mehr Datenschutz – und deine Automationen laufen weiter, auch wenn das Internet gerade beschlossen hat, heute nicht zu arbeiten. Das hier ist der Startpunkt: Überblick, klare Empfehlungen, und ein Mix aus nerdiger Ansage und nüchterner Praxis.


Schnellnavigation


Warum ein Smart Home ohne Cloud?

Ein Smart Home ohne Cloud bedeutet volle Kontrolle über deine Geräte, keine Abhängigkeit von Hersteller-Servern und mehr Datenschutz. Außerdem funktionieren deine Automationen auch dann, wenn das Internet ausfällt. In diesem Artikel bekommst du einen Mix aus passiv-aggressivem Chat-Stil und nüchternen Erklärungen, damit du direkt weißt, wie du am besten startest.

💬 Einsteiger:
Ich will ins Smart Home einsteigen. Also… ich kauf mir erstmal eine Hue Bridge ka—

💬 Nerd-Zebra:
NEIN!

💬 Einsteiger:
Warum denn nicht? Die sieht doch voll… äh… bridge-ig aus?

💬 Nerd-Zebra:
Weil du dir damit direkt eine goldene Cloud-Handschelle anlegst. Klar, die Hue Bridge funktioniert auch halbwegs offline – aber nicht vollständig. Entertainment-Sync? Nur über Philips-Server. Neue Funktionen? Nur, wenn Philips Bock hat. Und wenn die irgendwann sagen „Tschüss, wir machen dicht“, dann sitzt du im Dunkeln – im wahrsten Sinne.

Merksatz: Wenn ein System nur mit Hersteller-Account „richtig“ funktioniert, ist es kein Smart Home – es ist ein Abo mit Lampen.


Gerätewahl: Direkt lokal starten

Wenn du Geräte kaufst, die direkt lokal funktionieren, sparst du dir spätere Umbauten und Ärger mit Cloud-Zwang. Achte beim Kauf auf: LAN-Modus, lokale API oder MQTT. Dann kannst du später entscheiden, wie „nerdig“ du es betreiben willst.

💬 Einsteiger:
Okay, dann halt ’ne smarte Steckdose von… äh… TP-L—

💬 Nerd-Zebra:
NEIN! … also, nicht unbedingt. Die meisten WLAN-Steckdosen wollen erstmal nach Hause telefonieren, bevor sie überhaupt Kaffee kochen lassen. Lieber direkt Geräte kaufen, die LAN-Modus, lokale API oder MQTT können. Zum Beispiel Shelly.

💡 Pro-Tipp: Shelly-Geräte funktionieren zwar auch „mit Cloud“, lassen sich aber sehr gut Schritt für Schritt auf lokal umstellen – perfekt für einen sanften Einstieg.

👉 Beispiel: Shelly Plus 1PM (bezahlter Link) oder Shelly Plus 2PM (bezahlter Link)

📦 Shelly ganz ohne Cloud & ohne Broker
Shellys können auch direkt miteinander kommunizieren – ohne Server oder Cloud.
➡️ Mehr dazu: Shelly Direktverknüpfung – lokale Automationen ohne Cloud

Mini-Checkliste beim Kauf:

  • Kann das Gerät auch ohne Hersteller-App gesteuert werden?
  • Gibt es eine lokale API / MQTT / LAN-Modus?
  • Funktioniert es mit Home Assistant / ioBroker / Zigbee2MQTT?

Zigbee und Alternativen

Zigbee ist ein beliebter Funkstandard fürs Smart Home. Vorteil: Geräte laufen lokal, sind meist sparsam und du kannst Hersteller mischen – wenn du sie über einen eigenen Zigbee-Controller (USB-Stick) ansteuerst.

💬 Einsteiger:
Hm. Dann hol ich mir halt den schicken Aqara Hub—

💬 Nerd-Zebra:
NEIN! … zumindest nicht, wenn er nur in der Cloud lebt. Viele Aqara-Geräte laufen super direkt über Zigbee2MQTT oder ZHA.

💡 Empfehlung: Ein USB-Zigbee-Stick ist die „Hue-Bridge, aber richtig“: Er hängt an deiner eigenen Zentrale und bleibt lokal.

👉 Klassiker: Sonoff Zigbee Dongle Plus (bezahlter Link)

Alternativen (kurz): Matter/Thread ist spannend, Z-Wave ist solide, WLAN-Geräte sind bequem – aber Zigbee ist oft der beste Mix aus Preis, Auswahl und Lokalbetrieb.


Die Schaltzentrale

Deine Schaltzentrale ist das Gehirn deines Smart Homes. Hier laufen Daten zusammen, hier definierst du Automationen, und hier entscheidest du, ob dein Zuhause „smart“ oder nur „fernsteuerbar“ ist.

💬 Einsteiger:
Aber ohne Cloud geht doch gar nix?

💬 Nerd-Zebra:
Doch. Du brauchst nur eine lokale Schaltzentrale – quasi das Gehirn deines Smart Homes:

  • Home Assistant Green (hier bei Amazon (bezahlter Link)) – einfach, solide, wenig Bastelstress
  • Raspberry Pi 4 (Raspi 4 Kit bei Amazon (bezahlter Link)) – flexibel, aber „Pi-Dinge“ passieren
  • Mini-PC / Homelab (HP Mini-PC, meine Empfehlung (bezahlter Link)) – wenn du eh schon Proxmox/Homelab spielst
  • ioBroker – wenn du eher „Blockly & Skripte“ magst (und ja: kann auch lokal)

💡 Nerd-Seitenhieb: Hast du noch ein altes Notebook rumliegen? Auch das kannst du mit Linux aufsetzen und dann Home Assistant oder ioBroker installieren.

Cloud → Lokal umziehen (Prinzip):

  1. Gerät einmal „normal“ einrichten (damit es läuft)
  2. Cloud-Funktionen deaktivieren (wenn möglich)
  3. Lokale Steuerung aktivieren (MQTT / lokale API / Direktverknüpfung)
  4. Automationen in der eigenen Zentrale bauen (nicht in der Hersteller-App)

Kompatibilität mit Hue-Lampen

Viele Hue-Lampen funktionieren auch ohne Hue-Bridge, wenn du sie mit einem Zigbee-Stick direkt an deine Zentrale koppelst. Das spart Geld und verhindert Cloud-Zwang (und du kaufst nicht aus Versehen ein Ökosystem mit Handschellen).

💬 Einsteiger:
Und wenn ich doch mal Hue-Lampen will?

💬 Nerd-Zebra:
Kein Problem – kauf die nackten Lampen, nicht die Bridge. Steck einen Zigbee-USB-Stick an deine Zentrale, fertig.

👉 Empfehlung: Sonoff Zigbee Dongle Plus (bezahlter Link)


Empfohlene Starter-Setups (2026)

Hier sind drei Pakete – je nach Mutlevel. Das Ziel ist: schnell starten, später nerdiger werden, ohne alles neu zu kaufen.

🟢 Minimal – Einstieg ohne Bastelstress

Für: Licht, Steckdosen, erste Automationen. Vorteil: schnell, stabil, wenig Frust.

🟡 Komfort – „Ich will mehr als nur Licht“

Für: Licht + Rollläden + Sensoren + erste „Wenn X dann Y“-Automationen.

🔴 Nerd – „lokal, robust, ausbaufähig“

  • Kleiner (oder großer) 19″ Server
  • USB-Zigbee-Stick (z. B. Sonoff Zigbee Dongle Plus (bezahlter Link))
  • Geräte nach Bedarf (z. B. Shelly Plus 1PM (bezahlter Link), Shelly Plus 2PM (bezahlter Link) oder direkt KNX (bezahlter Link))
  • Optional: MQTT-Broker (lokal), getrennte VLANs, Backup-Konzept

Für: Homelab, viele Geräte, Stabilität, Netzwerk-Segmentierung, „läuft auch ohne Internet“ als echtes Feature.


Weiterführende Guides

Hier geht’s tiefer rein – das ist der Teil, wo aus „Fernbedienung“ echte Automatisierung wird:


Fazit

Ein Smart Home ohne Cloud ist kein Luxusprojekt für Technik-Mönche mit Aluhut, sondern schlicht die vernünftigste Art, sein Zuhause „smart“ zu machen. Du behältst die Kontrolle, deine Automationen funktionieren auch ohne Internet und du bist nicht davon abhängig, ob ein Hersteller morgen noch existiert oder übermorgen sein Abo verdoppelt.

Mit lokalen Geräten wie Shelly, einem eigenen Zigbee-Stick und einer Zentrale wie Home Assistant oder ioBroker baust du dir kein Spielzeug, sondern eine Infrastruktur. Die wächst mit, lässt sich umbauen und gehört am Ende dir – nicht irgendeiner App.

Ja, der Einstieg ist minimal technischer als „App installieren, Account anlegen, fertig“. Aber dafür bekommst du ein System, das nicht bei der ersten Serverstörung dumm aus der Wäsche guckt und bei dem „Smart“ mehr bedeutet als nur „per Handy schalten“.

Kurz gesagt:
Cloud-Smart-Home ist bequem.
Lokales Smart Home ist souverän.

Und ganz ehrlich: Wenn schon Nerd-Hobby, dann bitte mit Kontrolle, Stabilität und der beruhigenden Gewissheit, dass dein Lichtschalter nicht in Kalifornien wohnt.

Als SSDs noch RAM-Riegel waren – RAM als Festplatte

Zeraphys hält eine i-RAM PCI-Karte – Vergleich von RAM als Festplatte mit SATA-SSD und NVMe

Es war einmal in einer Zeit, als mechanische Festplatten klackerten, SSDs noch Zukunftsmusik waren und SATA mit 150 MB/s als Raketenantrieb galt – und plötzlich wurde RAM als Festplatte Realität. In genau dieser Epoche, Mitte der 2000er, betrat ein völlig überambitioniertes Stück Hardware die Bühne: die Gigabyte i-RAM. Eine PCI-Steckkarte, die nichts anderes tat, als DDR-Arbeitsspeicher in ein Laufwerk zu verwandeln. Keine Flash-Zellen, keine beweglichen Teile – nur purer RAM als Massenspeicher. Wahnsinn in Silizium gegossen.

Dieser Artikel ist eine kleine Zeitreise: von der i-RAM über klassische SATA-SSDs bis hin zu modernen NVMe-Laufwerken. Mit Zahlen, Nutzwert, echten Problemen – und einer ordentlichen Portion Nerd-Humor.

KI-Illustration einer i-RAM PCI-Karte mit DDR-RAM – RAM als Festplatte
So sah die i-RAM ungefähr aus – diese Darstellung ist eine KI-Illustration, nicht das Original.

Was war die i-RAM überhaupt – und wie funktionierte RAM als Festplatte?

Die bekannteste Version war die Gigabyte GC-RAMDISK, meist einfach nur „i-RAM“ genannt. Auf der Platine saßen vier DDR-Slots für normalen Desktop-RAM. Bestückt mit damals typischen 512-MB- oder 1-GB-Modulen kam man auf 1–4 GB Gesamtkapazität. Heute passt diese Größe in den Cache eines USB-Sticks, damals war das eine ernsthafte Systemplatte.

Der Clou dieses Konzepts von RAM als Festplatte: Die Karte steckte zwar im PCI-Slot, benutzte diesen aber nur zur Stromversorgung. Die Daten liefen über einen SATA-Anschluss direkt zum Chipsatz. Bestückt wurde sie mit ganz normalem DDR1-RAM – also genau der Sorte, die man heute noch als Nostalgie-Bausteine bekommt, z. B. als DDR1‑RAM bei Amazon*. Für das Betriebssystem sah die Karte einfach aus wie eine normale SATA-Festplatte – nur ohne jede mechanische Trägheit.

Das große Memento mori der i-RAM: RAM ist flüchtig. Sobald der Strom weg ist, sind auch die Daten weg. Gigabyte löste das mit einem integrierten Akku, der den Speicher bei Stromausfall noch mehrere Stunden bis Tage am Leben hielt. Danach: digitales Nirwana.


Geschwindigkeit im historischen Kontext

Um die i-RAM richtig einzuordnen, muss man sich die damalige Konkurrenz anschauen:

  • Mechanische Festplatten: 50–80 MB/s
  • Schnellere IDE-/SATA-HDDs: bis ca. 100 MB/s
  • i-RAM: konstant rund 130 MB/s – ohne Einbrüche, ohne Latenzspitzen

Die Geschwindigkeit war dabei nicht durch den RAM begrenzt, sondern brutal durch SATA I mit 1,5 Gbit/s. Tom’s Hardware kam in seinem Test auf sehr ähnliche Werte: https://www.tomshardware.com/reviews/gigabyte-i-ram,1014.html Der Speicher selbst war um Größenordnungen schneller, durfte aber nur durch ein viel zu dünnes Protokollröhrchen atmen.

Schon hier zeigt sich die Ironie: Die i-RAM war ihrer Zeit elektrisch weit voraus, aber architektonisch ausgebremst.


Vergleich: RAM als Festplatte vs. SATA-SSD vs. NVMe

1. Geschwindigkeit

Zum Einordnen: Heutige SATA-SSDs wie eine 1‑TB SATA‑SSD bei Amazon* reizen das Protokoll praktisch vollständig aus. Bei NVMe‑SSDs (z. B. 1‑TB NVMe PCIe 4.0 bei Amazon* ) reden wir bereits über ein völlig anderes Geschwindigkeitsuniversum.

i-RAM (2005):

  • ~130 MB/s konstant
  • Nahezu keine Zugriffszeiten
  • Limitiert durch SATA I

SATA-SSD (heute):

  • 500–560 MB/s
  • Sehr geringe Latenz
  • Limitiert durch SATA III

NVMe (PCIe 4/5):

  • 5.000–14.000 MB/s
  • Parallele Queues, minimale Latenz
  • Limitiert fast nur noch durch Controller und Thermal-Design

Rein technisch gesehen war die i-RAM also schneller als alles, was man ihr damals erlaubte zu sein. Moderne NVMe-Laufwerke spielen heute jedoch in einer anderen Liga – nicht wegen des Speichertyps allein, sondern wegen der radikal effizienteren Anbindung über PCIe.

2. Kapazität

Die ursprünglichen Speichergrößen orientierten sich an der damaligen DDR1-Spezifikation: JEDEC JESD79 DDR SDRAM Standard

  • i-RAM: maximal 4 GB
  • SATA-SSD: heute typisch 500 GB – 8 TB
  • NVMe: 1 TB – 16 TB im Consumerbereich

Hier verliert die i-RAM schon beim Einloggen in Windows den Kampf. Kapazität war immer ihre Achillesferse. Sie war niemals als Massenspeicher gedacht, sondern als kompromissloses Speed-Spielzeug.

3. Nutzen

Wer das heute nachstellen will, nutzt in der Praxis natürlich keine RAM-Karten mehr, sondern moderne Laufwerke: SATA‑SSD für Allround‑Systeme bei Amazon* oder gleich NVMe‑SSD für Workstations und KI bei Amazon*.

i-RAM:

  • Betriebssystem-Bootlaufwerk für Overclocker
  • Scratch-Disk für Rendering
  • Benchmark-Spielzeug
  • Extrem schneller Cache

SATA-SSD:

  • Systemlaufwerk
  • Spielebibliothek
  • Kreative Workflows
  • Dauerbetrieb

NVMe:

  • Datenbanken
  • KI-Workloads
  • Video-Editing
  • Virtuelle Maschinen
  • High-End-Gaming

Die i-RAM war kein Massenprodukt, sondern ein Proof of Concept für RAM als Festplatte mit Verkaufspreis. SATA-SSDs demokratisierten Geschwindigkeit. NVMe hat sie industrialisiert.

4. Probleme und Lebensdauer

i-RAM:

  • Datenverlust bei leerem Akku
  • Akkualterung
  • Winzige Kapazität
  • Hoher Preis pro GB

SATA-SSD & NVMe:

  • Begrenzte Schreibzyklen (TBW)
  • Wear-Leveling notwendig
  • Performance-Einbrüche bei vollem Cache
  • Datenrettung deutlich schwieriger als bei HDDs

Während die i-RAM an physikalischer Vergänglichkeit litt, kämpfen moderne SSDs mit mikroelektronischer Alterung. NAND-Zellen nutzen sich ab. Moderne Controller gleichen das clever aus, aber „unendlich beschreibbar“ ist keine SSD.

Interessanterweise ist RAM hier tatsächlich langlebiger als Flash – nur eben ohne Gedächtnis.


Warum die i-RAM verschwand

Nicht weil sie scheiterte – sondern weil sie zu früh richtig lag. Kurz nach ihr kamen:

  • erste bezahlbare Flash-SSDs
  • SATA II & III
  • deutlich größere Kapazitäten
  • keine Akkus mehr nötig

Mit jeder neuen SSD-Generation verschwand der Nutzen der i-RAM weiter im Nebel der Technikgeschichte. Ihre Grundidee – extrem schnellen, nichtmechanischen Massenspeicher – haben SSDs vollständig übernommen. Nur viel alltagstauglicher.


Heute: Technisches Fossil oder Spielzeug für Experimente?

Produktiv eingesetzt wirst du RAM als Festplatte heute nicht mehr sinnvoll bekommen – zumindest nicht in Form der i-RAM. Aber als technisches Denkexperiment ist sie großartig:

  • Latenzvergleiche zwischen RAM-Disk, SATA-SSD und NVMe
  • Flüchtige Systeme, die sich bei Stromverlust selbst löschen
  • Retro-Benchmarks mit Windows XP
  • Sichtbarmachen von Bus-Flaschenhälsen

Sie ist heute kein Werkzeug mehr. Sie ist ein Lehrstück in Hardware-Archäologie.


Fazit: Ein digitales Fossil mit Charakter

Und falls du heute selbst mit Massenspeicher aufrüsten willst: Für klassische Systeme ist eine SATA‑SSD bei Amazon* immer noch ein hervorragendes Preis‑Leistungs‑Upgrade. Für High‑End‑Systeme, Proxmox, KI oder Games gilt dagegen klar: NVMe‑SSD bei Amazon* oder nichts.

Die i-RAM war ein irrationales Produkt im besten Sinne – RAM als Festplatte war damals visionär und komplett überdimensioniert zugleich. Zu teuer, Zu klein, Zu speziell. Aber sie hat etwas vorgemacht, das heute jeder als selbstverständlich hinnimmt: Speicher ohne Mechanik, ohne Wartezeiten, ohne Rattern.

SATA-SSDs machten das Konzept massentauglich. NVMe-Laufwerke haben es entfesselt. Und irgendwo dazwischen steht die i-RAM als technisches Bindeglied – ein blinkender Beweis dafür, dass Fortschritt manchmal mit völlig verrückten Zwischenschritten beginnt.

Oder kurz gesagt: Bevor SSDs cool waren, war RAM schon illegal schnell.


Heutige Speicher-Empfehlungen

Wenn wir schon bei „RAM als Festplatte“ angefangen haben und nun in der Gegenwart angekommen sind, hier ein paar pragmatische Empfehlungen aus dem Jahr nach der mechanischen Steinzeit:

Für Alltags-PCs und Upgrades alter Systeme (SATA):
Eine solide SATA‑SSD bringt selbst betagte Rechner gefühlt aus dem Winterschlaf zurück. Achte auf Modelle mit gutem Controller und hohem TBW‑Wert (Total Bytes Written), damit die Flash‑Zellen nicht schon nach ein paar Jahren in Rente gehen.

Empfehlung: 1 TB SATA‑SSD*

Für Gaming, Workstations, Proxmox & KI (NVMe):
NVMe ist heute das, was die i‑RAM gern gewesen wäre: absurd schnell, alltagstauglich und ohne Akku-Angstschweiß. Ideal für große Projekte, viele kleine Dateien und alles, was I/O-lastig ist.

Empfehlung: 1 TB NVMe PCIe‑5.0‑SSD*

Für Retro‑Bastler und Hardware‑Archäologen:
Wer wirklich „RAM als Festplatte“ nachspielen will, braucht DDR1‑Module – mittlerweile eher Museumsstücke als Speicherbausteine.

Empfehlung: DDR1‑RAM*


Weiterführende Zeitreisen im Prokrastinerd-Universum

Wenn dir „RAM als Festplatte“ gefallen hat, dann hier ein paar passende Abzweigungen aus der Kategorie Damals & Heute:

So entsteht nach und nach ein Panorama aus Technologien, die mal „State of the Art“ waren – und heute entweder Legende, Kuriosität oder stille Grundlage unserer digitalen Welt sind.

KI-Training mit Büchern: Wer frisst hier wen?

Zebra-Avatar vor einem Kindle, der Bücher in ein neuronales Netzwerk zieht – Symbolbild für KI-Training mit Büchern und Amazon Kindle

Wie ich überhaupt auf das Thema gestoßen bin

Manchmal stolpert man nicht über ein Thema – es springt einen mit Anlauf auf Facebook an. In meinem Fall war es ein Post des Autors Janika Hoffmann, der sinngemäß mit einem sehr lauten „BYE KINDLE“ begann. Kein leises Tschüss, eher Türknallen mit Nachhall.

Der Kern des Beitrags, grob zusammengefasst: Amazon baut eine neue KI-Funktion in den Kindle ein („Ask this Book“). Diese Funktion sei verpflichtend, nicht abschaltbar, und damit müssten die Bücher zwangsläufig von einer KI verarbeitet werden. Ungefragt, unvergütet, alternativlos. Die Konsequenz: Bücher raus aus dem Kindle-Store, Verkauf nur noch über andere Shops oder direkt.

Der Post war emotional, wütend, verständlich frustriert – und bekam entsprechend viel Applaus. Bei mir blieb allerdings ein anderes Gefühl zurück. Kein „Amazon ist super“, sondern eher ein leises Stirnrunzeln: Was genau ist hier eigentlich die konkrete Befürchtung?

Also habe ich nicht widersprochen, sondern nachgefragt. Ruhig, öffentlich und ehrlich neugierig. Meine Frage war im Kern:

Was genau befürchtest du durch dieses KI-Training?
Geht es um sinkende Verkäufe?
Um mögliche Text-Reproduktionen?
Oder schlicht darum, dass ohne Zustimmung irgendetwas mit KI passiert – egal, was am Ende dabei herauskommt?
Und wenn KI beim Verständnis hilft (ähnlich wie ein Glossar), das Buch aber längst gekauft wurde: Wo genau entsteht dann der Schaden?

Diese Art von Nachfrage mag ich, weil sie Nebel lichtet. Und sie ist der Grund, warum dieser Artikel existiert.


Es gibt nämlich zwei mögliche Zukünfte: Die eine, in der Bücher einfach Bücher bleiben. Und die andere, in der Bücher zusätzlich auch Snack für Maschinen sind. Willkommen in der Timeline, in der ein Konzern gleichzeitig Buchhändler, E-Reader-Plattform, Cloudanbieter und KI-Schmiede ist. Ja, Amazon, ich schaue dich an.

Bevor jetzt jemand „Dystopie!“ ruft: Ich mag KI. Wirklich. Ich mag nur keine Blackbox-Spielchen, bei denen Kreative liefern und später überrascht feststellen, dass sie zwar das Buffet bezahlt haben, aber draußen bleiben müssen.

Was bedeutet „KI-Training mit Büchern“ eigentlich?

„KI-Training“ klingt nach Terminator im Bücherregal. In der Praxis ist es meistens deutlich langweiliger – und genau deshalb wird so viel durcheinandergeworfen.

Vereinfacht gesagt passiert eines von drei Dingen:

  • Texte werden automatisch ausgewertet, um Muster zu erkennen (Themen, Begriffe, Zusammenhänge).
  • Große Sprachmodelle lernen an sehr vielen Texten, wie Sprache funktioniert.
  • KI-Funktionen greifen beim Antworten auf Inhalte aus dem Buch zu, ohne den Text dauerhaft zu „lernen“.

Das Problem vieler Debatten: Alles wird in einen Topf geworfen. Trainingsdaten, Funktionen und Ausgabe der KI. Wer das vermischt, bekommt zuverlässig Puls (bezahlter Link) – ganz ohne technische Details.

Amazon und „Ask this Book“: KI wohnt jetzt im Buch

Seit Ende 2025 testet Amazon im Kindle eine Funktion namens „Ask this Book“ (The Verge, Tom’s Guide, Writer Beware). Kurz gesagt: Du kannst der KI Fragen zu dem Buch stellen, das du gerade liest.

„Wer war Figur X nochmal?“ – „Was ist bisher passiert?“ – „Warum ist dieser Ort wichtig?“

Für Leser ist das erstmal ziemlich praktisch. Gerade bei langen Fantasy-Reihen oder wenn man ein Buch nach Wochen wieder aufklappt.

Das eigentliche Problem ist nicht die KI. Es ist die fehlende Mitsprache:

  • Autoren können offenbar nicht entscheiden, ob ihre Bücher teilnehmen.
  • Amazon erklärt nur grob, wie die Funktion technisch arbeitet.

Oder anders gesagt: Feature an, Diskussion später.

Warum Amazon das macht (Spoiler: Überraschung!)

Die ehrliche Antwort: Weil es funktioniert.

Wenn Leser weniger abbrechen, länger lesen und nicht ständig zu Google wechseln, bleibt alles im Kindle-Universum. Das nennt man Kundenbindung.

Die zynische Übersetzung: Bücher werden zu interaktiven Software-Produkten. Und Software wird traditionell sehr kreativ bepreist – und sehr einseitig kontrolliert.

Bücher als KI-Futter: Amazon ist nicht allein

Amazon ist nicht der einzige Player. Der Markt teilt sich grob in drei Lager.

1) „Wir haben uns einfach bedient“

In den USA gab es mehrere Klagen rund um KI-Training mit Büchern, inklusive Vorwürfen, dass Texte aus Schattenbibliotheken stammen (Reuters, WIRED).

Einige Urteile fielen zugunsten der KI-Anbieter aus, andere Fragen bleiben offen. Kurzfassung: Nicht alles ist erlaubt, aber vieles ist juristisch noch im Nebel.

2) „Wir lizenzieren – gegen Geld“

Parallel entsteht ein offizieller Markt. Verlage verkaufen Trainingsrechte.

  • Wiley verdient nach eigenen Angaben Millionen mit KI-Deals (The Bookseller).
  • Taylor & Francis kassierte Kritik für einen Deal mit Microsoft, bei dem viele Autoren sich übergangen fühlten (Inside Higher Ed, Authors Guild).

Das zeigt: Bücher sind kein moralisches Minenfeld – sie sind ein Wirtschaftsfaktor.

3) „Bitte nicht scannen“

Einige Verlage schreiben inzwischen direkt in ihre Bücher, dass sie kein KI-Training erlauben (The Guardian). Das ist kein Zauberbann, aber zumindest ein deutliches Schild.

EU-Recht: Erlaubt, außer du widersprichst (viel Glück)

In der EU ist Textauswertung grundsätzlich erlaubt – außer der Rechteinhaber widerspricht. Klingt fair. Ist es aber nur auf dem Papier.

Denn:

  • Viele Autoren haben technisch gar keine Möglichkeit, wirksam zu widersprechen.
  • Auf Plattformen zählen am Ende Verträge, nicht gute Absichten.

Oder kurz: Opt-out ist theoretisch einfach, praktisch ein Bossfight.

Wie viel Einfluss haben Autoren wirklich?

Die ehrliche Antwort: Es kommt darauf an.

Selfpublisher haben theoretisch mehr Kontrolle, praktisch aber nur so viel, wie die Plattform zulässt. Klassische Verlagsautoren hängen am Vertrag – und der ist oft sehr großzügig gegenüber neuen Nutzungsarten.

Wenn sich das nach Kontrollverlust anfühlt: Das ist kein Bug, das ist System.

Wird dadurch wirklich weniger verkauft?

Hier liegt der größte Denkfehler vieler Posts. KI-Funktionen ersetzen keine Bücher. Sie ersetzen höchstens das Blättern im Register oder das Googeln zwischendurch.

Im besten Fall passiert sogar das Gegenteil:

  • Leser finden Bücher, die sie sonst nie entdeckt hätten.
  • Reihen werden nicht abgebrochen, weil man den Überblick verliert.
  • Alte Titel bleiben sichtbar.

Der Knackpunkt ist nicht die Technik, sondern die Rechtebasis.

Haftung, Fehler und Social-Media-Hölle

Ein Kommentar unter meiner Frage brachte einen wichtigen Punkt:

Wer haftet eigentlich, wenn die KI Mist baut und ein Shitstorm losbricht?

Das ist leider sehr realistisch. Eine falsche Zusammenfassung, ein aus dem Kontext gerissener Screenshot – und schon steht ein Autor am digitalen Pranger.

Wer ist schuld?

  • Die Plattform? Nein.
  • Die KI? Nein.
  • Der Autor? Überraschung: meistens ja.

Das Problem ist nicht KI, sondern eine Kultur, die lieber urteilt als liest.

Gedankenexperiment zum Schluss

Wenn KI dabei hilft, dass ein Leser genau dein Buch findet, profitierst du als Autor dann nicht automatisch davon?

Wenn ein System sagt:

  • „Du magst düstere Fantasy ohne Romance? Hier entlang.“
  • „Du suchst langsamen Weltenbau und graue Moral? Dieses Buch passt.“

…und genau dadurch ein Kauf entsteht – ist das Ausbeutung oder einfach moderne Empfehlung?

Algorithmen machen das seit Jahren. Der Unterschied ist nur, dass wir sie jetzt KI nennen.

Fazit

Bücher sind der Premium-Kraftstoff für Sprach-KI. Genau deshalb wird darum gestritten.

Die eigentliche Frage ist nicht, ob KI gut oder böse ist. Die Frage ist: Wer entscheidet – und wer verdient mit?

Das ist kein Kulturkampf.

Das ist Vertragsrecht mit Neonbeleuchtung.


Noch mehr KI

Wenn du nach diesem Ritt noch ein bisschen weiter im Kaninchenbau graben willst: In meinem Blog passen als thematische Anschlussstellen besonders „Die panische Angst vor KI – warum wir Neues fürchten und trotzdem brauchen“, „Künstliche Intelligenz verstehen und nutzen – Kreativität, Risiken und Projekte mit KI“, „Vergiftung durch ChatGPT – wenn die KI dir das Hirn wegbrutzelt“ und „Macht KI dumm?“ – einmal als Blick auf Technikangst, einmal als Grundlagen-Überblick, einmal als Warnschild gegen Kontextverlust und einmal als kleine Ohrfeige für unsere eigene Denkfaulheit.


Lust auf Kindle und CO bekommen?

Wenn du das Ganze nicht nur lesen, sondern auch praktisch begleiten willst: Ein Kindle Paperwhite*, passendes E‑Reader-Zubehör* und ein paar Bücher zu KI (bezahlter Link), Urheberrecht (bezahlter Link) und EU AI Act* sind sinnvolle Begleiter, um weniger nach Bauchgefühl und mehr nach Fakten zu diskutieren.

Und wenn am Ende nur ein Gedanke hängen bleibt, dann vielleicht dieser: KI ist kein Raubtier im Bücherregal. Sie ist ein Werkzeug. Die wirklich spannende Frage ist nicht, ob sie benutzt wird – sondern wer die Regeln dafür festlegt.

Hans Zimmer Konzert Kritik – The Music of Hans Zimmer & Others: Orchester gut, Show schlecht

Zebra-Avatar sitzt skeptisch im Publikum einer grell beleuchteten Konzertshow – Symbolbild zur Hans Zimmer Konzert Kritik

Kurzfazit vorweg:
Diese Hans Zimmer Konzert Kritik bezieht sich ausdrücklich auf die Show „The Music of Hans Zimmer & Others“ und fällt leider eindeutig aus: Keine Empfehlung. Das Orchester war gut – teilweise sogar richtig gut. Die Show drumherum war jedoch eine Mischung aus technischer Schlamperei, konzeptioneller Orientierungslosigkeit und dem dringenden Wunsch, bitte irgendwas zu machen, selbst wenn es der Musik schadet.


Zwischen Warnsignal und Übertreibung – warum diese Hans Zimmer Konzert Kritik vorhersehbar war – die Sache mit den Internet‑Kommentaren

Bevor ich überhaupt einen Fuß in den Saal gesetzt habe, war ich bereits vorgewarnt. Internet‑Kommentare, Rezensionen, Blogeinträge – alles vorhanden, alles gelesen. Und genau hier beginnt das eigentliche Dilemma.

Einige Stimmen klangen drastisch:

„Leider lange nicht so viel Amateurhaftigkeit und fehlende Detailliebe für so viel Geld erlebt.“

Andere gingen noch weiter:

„Das war wirklich eine Frechheit.“

Gleichzeitig gab es aber auch Gegenstimmen:

„Ein zauberhafter Abend mit der Filmmusik von Hans Zimmer et al. Einfach nur empfehlenswert.“

Und genau das macht es so schwer. Internet‑Kommentare sind Warnsignal und Verzerrungsfilter zugleich. Sie können einen vor echten Problemen bewahren – oder Erwartungen so vergiften, dass man gar keine Chance mehr hat, unvoreingenommen zu bleiben.

Ich bin also bewusst mit der Haltung hineingegangen: Vielleicht übertreiben die Kritiker. Vielleicht ist das alles halb so schlimm.

Spoiler: Es war es nicht.


Erwartungshaltung: bewusst gedämpft, trotzdem enttäuscht

Psychologisch ist das eine interessante Situation. Liest man vorher von schlechten Lichtshows, schlechter Akustik und fragwürdiger Inszenierung, sucht man unwillkürlich danach. Confirmation Bias lässt grüßen.

Genau deshalb habe ich mir vorgenommen, Fehler nicht aktiv zu suchen. Ich wollte der Veranstaltung jede faire Chance geben.

Wenn man dann trotzdem nach kurzer Zeit denkt:

„Die Gesamtleistung war sehr mittelmäßig.“

dann ist das kein übernommenes Internet‑Urteil mehr, sondern ein eigener Eindruck.


Das eigentliche Kunststück: Wie man gute Musik sabotiert

Das Orchester war solide. Die Musiker wussten, was sie tun. Das bestätigen selbst viele Kritiker:

„Die Sänger und das Orchester konnten sicher am wenigsten dafür.“

Und genau das macht die Sache so tragisch. Denn die Show hat es geschafft, diese Leistung konsequent auszubremsen.

Licht: Wenn Moving Heads (bezahlter Link) zum Gegner werden

Schon in den Rezensionen wurde das Licht thematisiert:

„Von den Scheinwerfern wurde man nur geblendet und bekam Kopfschmerzen.“

Leider vollkommen zutreffend. Die Moving Heads feuerten regelmäßig frontal ins Publikum. Nicht als gezielter Effekt, sondern eher nach dem Prinzip: Lampe kann nach vorne, also macht sie das auch.

Als jemand, der selbst einmal einen Licht‑ und Bühnenverleih betrieben hat, tat das besonders weh. Das sind keine Geschmacksfragen, das sind Basics.


Video: AI‑Slop und Ruckeln inklusive

Auch hier hatten Kommentare vorgewarnt:

„An Licht & Video schien der Praktikant zu sitzen.“

Hart formuliert – aber leider nicht völlig aus der Luft gegriffen. Ein Großteil der Animationen wirkte wie generischer AI‑Slop: leer, austauschbar, visuell belanglos. Ich bastle selbst mit ComfyUI und bekomme stimmigere Ergebnisse hin als das, was hier großflächig gezeigt wurde.

Dazu kam sichtbares Ruckeln, als würde man 30‑FPS‑Material gezwungen auf 60 FPS abspielen. Regelmäßige Mikrohänger, die jede emotionale Szene zuverlässig aus dem Takt bringen.

Was die Sache besonders bitter macht: Diese Animationen scheitern nicht an fehlender Technik, sondern an fehlendem Verständnis für Zurückhaltung. Es wirkt, als hätte man Bewegung mit Wirkung verwechselt.

Zum Vergleich habe ich bewusst selbst eine kleine Animation gebaut – nicht als Kunstprojekt, sondern als Realitätscheck. Ausgangspunkt war ein einzelnes Standbild, generiert per Text2Image. Danach etwas Inpainting, ein paar gezielte Detailer-Läufe (Augen, Pfoten, Schwanz – die üblichen AI-Sündenfälle) und anschließend eine ruhige Image2Video-Animation.

Gesamtaufwand: etwa 15 Minuten.

Kein großes Team. Kein Budget. Kein Effektgewitter. Vor allem aber: kein visuelles Dauerzucken. Stattdessen minimale Bewegung, sanfte Wolken, ruhiges Licht und eine Atmosphäre, die der Musik Raum lässt.

Das ist kein Ersatz für eine große Bühnenproduktion. Aber es zeigt sehr deutlich, dass selbst mit einfachen Mitteln stimmige Animationen möglich sind – wenn man versteht, dass weniger Bewegung oft mehr Wirkung erzeugt.

Vielleicht liegt genau hier der Kern des Problems: Diese Musik funktioniert am besten dann, wenn man sie hört – nicht, wenn man sie mit Licht, Videos und Animationen überfrachtet.

Wer Filmmusik wirklich genießen will, fährt mit einer guten Aufnahme oft besser als mit jeder noch so aufwendig beworbenen Show. Empfehlenswert sind zum Beispiel:


Wenn Interpretation zur Selbstüberschreibung wird

Ein besonders oft genannter Kritikpunkt war die musikalische Umsetzung einzelner Stücke:

„Die Solisten wirkten etwas aufgesetzt.“

Das traf insbesondere auf „Can You Feel the Love Tonight“ zu. Der Sänger versuchte mit aller Gewalt, dem Stück einen eigenen Stil aufzuzwingen. Das Ergebnis war weniger Interpretation, mehr musikalische Selbstüberschreibung.

Auch Top Gun bestätigte ein weiteres Online‑Urteil:

„Idee verstanden, Umsetzung vergessen.“

Ein extra auf die Bühne geholter Gitarrist sollte offenbar das Highlight sein. Leider verschwand die Gitarre mit jedem zusätzlichen Instrument weiter im Mix, bis sie eher symbolischen Charakter hatte.

Apropos Mix:

„Am Ton war es eher Hobby‑Liga.“

Ich hätte es nicht besser zusammenfassen können.


Das Publikum als zuverlässigster Kommentarbereich

Was kein Online‑Kommentar leisten kann, ist das unmittelbare Stimmungsbild im Saal. Nach der Pause war deutlich über ein Drittel der Zuschauer verschwunden. Zum Ende hin verließen viele den Saal nahezu fluchtartig.

Das deckt sich erschreckend gut mit einer weiteren Rezension:

„Ein Großteil der Zuschauer ist zur Halbzeit gegangen.“

Menschen bleiben sitzen, wenn etwas mittelmäßig ist. Sie gehen, wenn sie sich nicht ernst genommen fühlen.


Mitmach‑Zwang statt Immersion

Auch dieser Punkt tauchte online mehrfach auf:

„Wir hätten uns mehr Musik und weniger Moderation gewünscht.“

Stattdessen gab es Klatschanleitungen, Mitsing‑Aufforderungen und eine sehr präsente Moderation. Filmmusik lebt von Immersion, nicht von Publikumsanimation.

Man will fühlen, nicht Teil eines schlecht moderierten Teambuilding‑Events werden.


Die wenigen Lichtblicke – und warum sie nicht reichen

Zur Fairness gehört: Nicht alles war schlecht. Gladiator funktionierte sehr gut, insbesondere dort, wo originale Filmszenen verwendet wurden. Das war stimmig und emotional.

Der Soundtrack zu Gladiator (bezahlter Link) gehört für mich nach wie vor zu den stärksten Arbeiten von Hans Zimmer.

Aber dann kam Madagaskar – begleitet von Cartoon‑Figuren, die eher an eine schlechte Kinder‑YouTube‑Animation erinnerten. Spätestens hier fühlten sich viele der vorherigen Kommentare sehr real an:

„Insgesamt fehlte der ganzen Veranstaltung ein roter Faden.“


Kein „kuratiert“, kein Greenlight

In der Ankündigung stand nichts von „kuratiert“. Nach diesem Abend bin ich ziemlich sicher: Diese Show hätte von Hans Zimmer selbst kein Greenlight bekommen.

Das Problem war nie das Orchester. Das Problem war die Verpackung.


Fazit: Wenn Kommentare plötzlich recht behalten – bezogen auf The Music of Hans Zimmer & Others

Internet‑Kommentare sind schwierig. Sie können übertreiben, polarisieren, verzerren. Aber manchmal sind sie schlicht präzise.

In diesem Fall hätten sie mich warnen können – und am Ende haben sie es auch getan. Diese Hans Zimmer Konzert Kritik ist deshalb weniger Überraschung als Bestätigung.

Noch einmal klar: Keine Empfehlung. Orchester gut, Show schlecht.

Wer nach diesem Abend trotzdem Lust auf Hans Zimmers Musik hat – oder gerade deshalb –, dem würde ich eher raten, sich die Werke in Ruhe anzuhören, statt sich auf das nächste Marketing‑Versprechen zu verlassen.

Ein paar Alben, bei denen Musik für sich sprechen darf:


Wenn man es selbst besser machen will

Wer sich fragt, wie solche Animationen heute überhaupt entstehen – und warum sie mit erstaunlich wenig Aufwand deutlich besser aussehen können – dem sei ein Blick hinter die Kulissen empfohlen.

Ich habe mich bereits ausführlich damit beschäftigt, wie man KI lokal installieren kann, also ohne Cloud-Zwang und ohne Blackbox-Dienste: „KI lokal installieren“

Und wer nicht nur Tools bedienen, sondern künstliche Intelligenz verstehen und nutzen möchte, findet hier einen grundsätzlichen Einstieg mit Einordnung und Praxisbezug: „Künstliche Intelligenz verstehen und nutzen“

Beides hilft dabei, KI nicht als Effektmaschine zu missverstehen, sondern als Werkzeug – genau das, was den Animationen der Show gefehlt hat.

Proxmox Backup Server im Homelab: Wie ich mein Proxmox-System endlich richtig abgesichert habe

Zeraphys, ein drachenartiger Avatar, steht zufrieden in einem Rechenzentrum und hält Festplatten als Symbol für den Proxmox Backup Server

Inhaltsverzeichnis

Warum ich mir überhaupt Gedanken über den Proxmox Backup Server gemacht habe

„RAID ist doch Backup, oder?“ – genau mit dieser falschen Beruhigung bin ich jahrelang durchs Homelab-Leben getapst. Zwei Platten gespiegelt, läuft schon. Dazu noch ein NAS irgendwo im Netzwerk, fertig.

Spoiler: Nein. Ist es nicht.

Erst als ich mich ernsthaft mit dem Proxmox Backup Server (PBS) beschäftigt habe, ist mir klar geworden, wie viele Lücken in so einem „funktioniert ja seit Jahren“-Setup stecken. Der Proxmox Backup Server ist dabei nicht einfach ein weiteres Tool, sondern ein komplett anderer Ansatz für Backups im Proxmox-Umfeld. In diesem Beitrag zeige ich dir, wie ich meinen Proxmox-Host mit PBS, NAS und USV zu einer ziemlich robusten Backup-Strategie zusammengebaut habe – und wo trotzdem noch Grenzen sind.

Ziel: Ein realistisches Setup, das nicht nur bei Sonnenschein funktioniert, sondern auch dann, wenn etwas richtig schiefgeht.


Ausgangslage: Was schon da war

Wer sich generell erst einmal einen Überblick über Proxmox verschaffen will, findet im Beitrag Proxmox Anleitung – Der große Überblick für Nerds und Homelab-Bastler eine gute Grundlage. Der folgende Aufbau setzt genau dort an und geht einen Schritt weiter Richtung Datensicherheit.

Bevor PBS ins Spiel kam, sah die Welt so aus:

  • Proxmox-Server mit allen VMs und Containern (teilweise ausgelagert, ähnlich wie in meinem Beitrag Proxmox NAS mit LXC einrichten beschrieben)
  • System- und VM-Platten im Mirror (RAID1)
  • Zusätzlich ein Backup-Job von Proxmox direkt aufs NAS
  • Verschiedene Stromkreise, einer davon mit USV abgesichert

Das klingt erst mal gar nicht schlecht:

  • Fällt eine Platte aus, übernimmt die andere.
  • Wenn sich eine VM zerschießt, gibt es meistens ein Backup auf dem NAS.
  • Wenn der Strom kurz weg ist, hält die USV den Laden am Laufen.

Aber: RAID hilft nicht, wenn man sich selbst ins Knie schießt. Und das passiert schneller, als man denkt.


Warum RAID kein Backup ist – wirklich nicht

Wer seine VMs und Container auf einem ZFS-Mirror betreibt, ist hardwareseitig schon gut unterwegs. Wie ich meine Proxmox VMs und Container auf ein solches Setup verschoben habe, beschreibe ich ausführlich im Beitrag Proxmox VMs und Container auf ein ZFS Mirror Storage verschieben. Wichtig ist aber: Auch ein ZFS-Mirror ersetzt kein echtes Backup.

Ein Mirror schützt vor Hardwaredefekten, aber nicht vor:

  • „Ups, falsche VM gelöscht …“
  • „Ups, falsches ZFS-Pool gelöscht …“
  • kaputten Updates
  • Malware oder Ransomware im Host oder in einer VM
  • Fehlkonfigurationen, die Daten logisch zerstören

RAID sorgt für Verfügbarkeit, nicht für Zeitreisen. Wenn du Mist baust, spiegelt RAID deinen Mist nur sehr zuverlässig.

Genau hier kommt Proxmox Backup Server ins Spiel.


Was der Proxmox Backup Server anders (und besser) macht

An dieser Stelle lohnt sich auch ein Blick auf die Hardware-Seite: Für einen Proxmox Backup Server braucht es kein High-End-System. Eine kleine, zuverlässige SSD reicht oft schon aus – etwa eine NAS- oder Server-SSD mit guter Dauerlast-Tauglichkeit.

Der Proxmox Backup Server ist kein „wir kopieren mal ein paar Dateien weg“-Backup, sondern arbeitet chunk-basiert und dedupliziert:

  • Daten werden in kleine Blöcke (Chunks) zerlegt.
  • Jeder Chunk bekommt einen Hash.
  • Existiert der Chunk schon, wird er nicht noch einmal gespeichert.
  • Backups bestehen aus Referenzen auf vorhandene Chunks.

Das Ergebnis:

  • Erstes Backup: groß.
  • Weitere Backups: oft nur noch wenige Prozent davon.
  • Identische Daten in mehreren VMs werden nur einmal gespeichert.

Zusätzlich bringt PBS:

  • Versionierte Backups (Zeitachsen-Feeling).
  • Retention-Regeln (wie viele Backups wie lange aufbewahrt werden).
  • Prune- und Garbage-Collection-Jobs, die Altlasten sauber wegräumen.

Kurz gesagt: Der Proxmox Backup Server ist eine deduplizierende Zeitmaschine für VMs, Container und Hosts.


Proxmox Backup Server einrichten: Kurz-Anleitung aus der Praxis

Bevor die ganze Backup-Strategie überhaupt Sinn ergibt, muss der Proxmox Backup Server natürlich erst einmal sauber eingerichtet werden. Hier keine trockene Referenzdoku, sondern eine praxisnahe Kurz-Anleitung – genau so, wie ich es umgesetzt habe.

1. Proxmox Backup Server installieren

Der Proxmox Backup Server wird nicht als Plugin installiert, sondern läuft als eigenes System.

Kurzfassung:

Wichtig dabei:

  • Eigene Platte verwenden (keine VM-Disk des Proxmox-Hosts)
  • Root-Passwort sauber setzen
  • Netzwerk korrekt konfigurieren

Nach der Installation erreichst du die Weboberfläche unter:

https://IP-DES-PBS:8007

2. Datastore anlegen

Im PBS-Webinterface:

Datastores → Add

  • Name: z. B. pve-backups
  • Pfad: z. B. /mnt/datastore/pve-backups
  • Garbage Collection aktiv lassen

Der Datastore ist der eigentliche Speicherort für alle Backups.

3. API-Token für Proxmox erstellen

Damit der Proxmox-Host Backups schreiben darf, wird kein Passwort, sondern ein API-Token genutzt.

Access Control → API Tokens → Add

  • User: root@pam
  • Token-ID: z. B. pve
  • Privilege Separation: aktivieren

Das erzeugte Token wird später im Proxmox-Host benötigt.

4. Berechtigungen für den Datastore setzen

Ohne ACL sieht Proxmox den Datastore zwar, darf ihn aber nicht nutzen.

Access Control → Permissions → Add

  • Path: /datastore/pve-backups
  • User/Token: root@pam!pve
  • Role: DatastoreBackup (oder DatastoreAdmin)

5. Proxmox Backup Server im Proxmox-Host einbinden

Im Proxmox VE:

Datacenter → Storage → Add → Proxmox Backup Server

  • Server: IP des PBS
  • Datastore: pve-backups
  • Username: root@pam!pve
  • Password: API-Token
  • Fingerprint: aus der PBS-Weboberfläche (Configuration → Certificates)

Nach dem Speichern sollte der Storage-Status sofort auf OK stehen.

6. Backup-Job anlegen

Im Proxmox-Host:

Datacenter → Backup → Add

  • Storage: PBS
  • Schedule: täglich
  • Mode: Snapshot
  • Compression: ZSTD
  • Retention: z. B. last 7, daily 14

Spätestens jetzt ist der Proxmox Backup Server produktiv im Einsatz.


Mein Setup mit Proxmox Backup Server, NAS und USV

Gerade beim Thema Stromversorgung zahlt sich saubere Hardware aus. Eine USV für Server und Netzwerk ist kein Luxus, sondern schützt Backups und Dateisysteme zuverlässig vor Stromausfällen und Spannungsschwankungen.

1. Mirror für VM-Storage

Die VM- und CT-Platten liegen auf zwei physisch getrennten Laufwerken im Mirror. Das schützt mich vor einem spontanen Plattentod mitten in der Nacht. Komfort, nicht Backup.

2. Proxmox Backup Server als zentrale Backup-Zentrale für Proxmox

Der Proxmox Backup Server läuft auf einem eigenen System. Wichtig dabei:

  • Eigener Host, nicht nur ein Container.
  • Eigener Datastore für die Proxmox-Backups.
  • Deduplizierte, versionierte Backups aller wichtigen VMs und CTs.

Auf Proxmox-Seite sind dann Backup-Jobs eingerichtet, die regelmäßig Snapshots auf den Proxmox Backup Server schieben.

3. NAS als zusätzliche Kopie

Zusätzlich läuft ein weiterer Backup-Job, der auf ein NAS schreibt. Das ist mein „Backup vom Backup“ bzw. eine Parallel-Schiene für wichtige Daten.

4. Stromseitig getrennt + USV

PBS, Proxmox-Host und NAS hängen nicht alle am gleichen Stromkreis. Einer der Kreise ist zusätzlich über eine USV abgesichert.

Das bedeutet:

  • Ein kaputtes Netzteil oder eine fliegende Sicherung legt nicht alles lahm.
  • Bei Stromausfall gibt es Zeit, sauber herunterzufahren.

Damit ist das Setup schon deutlich robuster als „alles an einer Steckdosenleiste hinterm Sofa“.


Wie sicher ist das Setup mit Proxmox Backup Server jetzt wirklich?

Mit diesem Aufbau bin ich gegen vieles gut abgesichert:

  • Plattenausfall: Mirror fängt das ab.
  • Datenkorruption / Zerschossene VMs: PBS hält mehrere Versionen vor.
  • Fehlkonfiguration / kaputte Updates: Zurückrollen auf ältere Snapshots.
  • Stromprobleme: getrennte Stromkreise + USV fangen das Gröbste ab.
  • PBS-Problem oder Fehler im Backup-Jobsystem: zusätzliche Kopie aufs NAS.

Auf einer sehr subjektiven Skala von 0 bis 10 würde ich sagen:

  • Kein Backup: 1
  • RAID ohne Backup: 3
  • PBS ohne Zweitkopie: 7
  • PBS + Mirror + NAS (mein Setup): etwa 9

Die eine große Schwachstelle bleibt: alles steht im selben Gebäude.


Was noch fehlt: Offsite oder Offline

Für Offline-Backups nutze ich bewusst einfache Mittel. Eine externe USB-Festplatte mit ausreichend Kapazität ist günstig, flexibel und vor allem komplett vom System trennbar – ein großer Vorteil gegenüber permanent verbundenem Storage.

So gut das Ganze schon ist – bei Feuer, Diebstahl oder einem wirklich fiesen Überspannungsereignis kann es passieren, dass:

  • Proxmox-Host,
  • PBS,
  • NAS

alle gleichzeitig beschädigt oder zerstört werden.

Dagegen hilft nur eines: Ein Backup, das nicht dauerhaft online und nicht am gleichen Ort liegt.

Ein paar simple Ideen, ohne gleich halbe Rechenzentren zu bauen:

1. Offline-USB-Platte

  • Einmal im Monat eine USB-HDD ans NAS oder PBS hängen.
  • Wichtige Backups oder Snapshots darauf kopieren.
  • Platte abstöpseln und in einen anderen Raum (oder zu jemandem vertrauenswürdigen) legen.

Vorteil: günstig, simpel, offline = keine Ransomware-Gefahr.

2. Zweiter PBS an anderer Stelle

  • Kleiner Server bei Freund:in, Familie oder im Büro.
  • Replikation der PBS-Backups dorthin.
  • Daten verschlüsselt übertragen.

Vorteil: echte Offsite-Strategie, automatisiert. Nachteil: braucht wieder Hardware und Setup.

3. Cloud-Speicher (für die ganz Wichtigen)

  • Nicht alles, aber z. B. Konfigurationsbackups, wichtigstes System, Passwort-Datenbank.
  • Verschlüsselt in einen S3-kompatiblen Storage oder ähnliches.

Vorteil: geografisch getrennt. Nachteil: laufende Kosten, mehr Komplexität.


3-2-1-Regel im Nerd-Check

Die klassische 3-2-1-Backup-Formel lautet:

  • 3 Kopien der Daten
  • auf 2 verschiedenen Medien
  • 1 Kopie offsite

Mein aktuelles Setup erfüllt:

  • 3 Kopien:
    • VM/CT auf dem Proxmox-Host
    • Backup auf PBS
    • Backup auf NAS
  • 2 Medien:
    • lokale SSDs/HDDs
    • NAS-Storage

Was (noch) fehlt, ist die 1 Offsite-Komponente. Die lässt sich aber relativ leicht nachrüsten, z. B. mit einer rotierenden USB-HDD.


Praktische Checkliste für ein ähnliches Setup

Wenn du etwas Vergleichbares nachbauen willst, hier eine kompakte Checkliste:

  1. VM-Storage robust machen
    • Mirror (RAID1) oder ZFS-Mirror für wichtige Platten.
  2. Proxmox Backup Server aufsetzen
    • Eigene SSD / eigener Host.
    • Datastore anlegen.
    • PVE per API-Token anbinden.
  3. Regelmäßige Backup-Jobs in Proxmox einrichten
    • Tägliche Snapshots auf PBS.
    • Retention sinnvoll wählen (z. B. last 7, daily 14, weekly 8, monthly 6).
  4. Prune- und Garbage-Collection-Jobs auf PBS konfigurieren
    • Täglich Prune, danach GC.
  5. Zweiten Backup-Pfad einrichten
    • Zusätzlicher Job aufs NAS.
  6. Stromseitig trennen & absichern
    • PBS, PVE, NAS nicht alle an einem Stromkreis.
    • Wichtigster Pfad über USV absichern.
  7. Optional: Offsite / Offline hinzufügen
    • USB-Platte, zweiter PBS oder Cloud.

Sinnvolle Hardware-Ergänzungen für ein solides Proxmox-Backup-Setup

Zum Abschluss noch ein paar ganz praktische Empfehlungen aus der Kategorie „braucht man nicht sofort – aber spätestens dann, wenn man sie nicht hat“. Keine Pflicht, aber extrem sinnvoll, wenn man es mit Backups ernst meint:

  • Eine gute USV (bezahlter Link) sollte mindestens am Produktivsystem und am Proxmox Backup Server hängen. Sie schützt nicht nur vor Stromausfällen, sondern verhindert vor allem beschädigte Dateisysteme durch harte Abschaltungen.
  • Zuverlässige NAS- oder Server-SSDs (bezahlter Link) für den Proxmox Backup Server sorgen dafür, dass Deduplizierung, Garbage Collection und Verifikation nicht zur Geduldsprobe werden. Billige Consumer-SSDs sind hier oft der falsche Sparpunkt.
  • Eine externe USB-Festplatte (bezahlter Link) für Offline-Backups ist eine der günstigsten Möglichkeiten, sich gegen Feuer, Diebstahl oder Totalausfälle im eigenen Netzwerk abzusichern. Abstecken nicht vergessen.
  • Ein separates NAS (bezahlter Link) als zusätzlicher Backup-Zielort erhöht die Redundanz deutlich und dient gleichzeitig als zweite Verteidigungslinie, falls am PBS selbst etwas schiefgeht.

Fazit: Mit Proxmox Backup Server von „wird schon gut gehen“ zu „ich kann nachts wieder ruhig schlafen“

Mit dem Proxmox Backup Server, einem zusätzlichen NAS-Backup und gespiegelten Platten ist mein Homelab von „funktioniert irgendwie“ zu „relativ katastrophenresistent“ gewandert.

Perfekt ist das Ganze erst, wenn mindestens eine Kopie wirklich offsite oder offline liegt. Aber der Unterschied zwischen „gar kein echtes Backup“ und einem deduplizierten, versionierten PBS-Setup ist gewaltig.

Wenn du also gerade mit Proxmox herumspielst und noch kein ordentliches Backup-Konzept hast: PBS ist genau der Punkt, an dem aus Bastelbude langsam ernstzunehmende Infrastruktur wird.

Und ganz ehrlich: Nichts fühlt sich so nerdig befriedigend an wie der Moment, in dem man eine VM mutwillig zerschießt – und sie dann mit ein paar Klicks aus einem sauberen, aktuellen Backup zurückholt.

Last-Minute Geschenke für Nerds – digital & sofort verfügbar

Zebra-Avatar als Nerd am Schreibtisch mit digitalen Geschenkideen wie Gutschein, E-Book, Hörbuch und Gaming-Guthaben – Last-Minute Geschenke für Nerds

Manchmal merkt man erst kurz vor Weihnachten: Da fehlt noch ein Geschenk. Für Nerds ist das besonders heikel – denn unnützer Kram wird gnadenlos durchschaut. Die gute Nachricht: Last-Minute Geschenke für Nerds funktionieren hervorragend, wenn sie digital, sofort verfügbar und ehrlich gemeint sind. Kein Versandstress, kein Umtausch, kein Staubfänger.

Dieser Beitrag sammelt genau solche Geschenkideen – alle digital über Amazon verfügbar, alle kurzfristig einsetzbar und alle nerd-erprobt.


Amazon-Geschenkgutschein

„Ein Geschenkgutschein? Langweiliger geht’s wohl nicht, oder?“

Klar, ein Gutschein wirkt erstmal wie kreative Kapitulation. Aber frag deinen Nerd doch mal, was aktuell auf der Einkaufsliste steht. Adapter, Kabel, Module mit kryptischen Namen – Dinge, bei denen Außenstehende innerlich aufgeben.

Genau hier wird der Amazon-Geschenkgutschein (bezahlter Link) plötzlich sinnvoll. Nicht als „Mir fiel nichts ein“, sondern als „Ich weiß, dass du weißt, was du brauchst“. Für Nerds ist ein Gutschein keine Notlösung, sondern eine Budgetfreigabe. Und Budgetfreigaben kommen traditionell gut an.


Kindle E-Books

„Lesen? Als Nerd? Am besten noch im Bett?“

Ja. Auch Nerds haben Augen – und die mögen es nicht, nachts noch von einem grellen Monitor angeleuchtet zu werden. Kindle E-Books sind genau der Kompromiss aus Technik und Entspannung.

Auf dem Paperwhite (bezahlter Link) fast wie ein echtes Buch, nur ohne Regalplatz und ohne schlechtes Gewissen. Programmieren, KI, Technikgeschichte oder Sci-Fi: Digitale Bücher (bezahlter Link) sind perfekte Last-Minute Geschenke für Nerds, weil sie sofort verfügbar sind und tatsächlich genutzt werden.


Audible – Hörbücher für Multitasker

„Hörbücher? Ist das nicht Cheaten?“

Nein. Das ist effizientes Lernen.

Audible funktioniert perfekt für Nerds, die basteln, coden oder nebenbei Wissen aufsaugen wollen. Sci-Fi, Technik, Sachbücher – alles direkt ins Ohr, während die Hände beschäftigt sind. Viele Nerds hören heute mehr Bücher, als sie je gelesen haben. Man spricht nur selten darüber.

Als Last-Minute Geschenk ist Audible (bezahlter Link) ideal: sofort verfügbar, kein Risiko, kein Platzbedarf.


Digitale Software-Lizenzen

„Wow. Antivirus. Romantischer wird’s heute nicht mehr.“

Romantisch ist das nicht. Aber nützlich.

Software-Lizenzen (bezahlter Link) sind diese Geschenke, bei denen der Nerd kurz die Stirn runzelt – und drei Tage später feststellt: „Das hätte ich mir sowieso gekauft.“ Ob Betriebssystem, Office, Backup- oder Sicherheitssoftware: Praktische Geschenke schlagen Deko. Gerade bei Last-Minute Geschenken für Nerds ist das ein echter Vorteil.


Games & digitales Guthaben

„Schon wieder Guthaben?“

Ja. Und genau deshalb ist es gut.

Digitales Guthaben (bezahlter Link) ist keine Ideenlosigkeit, sondern Zurückhaltung. Du greifst nicht in den Geschmack ein, sondern ermöglichst Auswahl. DLCs, Indies, Angebote – Nerds wissen sehr genau, wofür sie es einsetzen.

Als Last-Minute Geschenk unschlagbar: sofort da, immer passend, null Stress.


Fazit

Last-Minute Geschenke für Nerds müssen nicht kreativ wirken – sie müssen passen. Digital heißt: sofort verfügbar, kein Umtausch, kein Platzproblem und kein peinlicher Moment beim Auspacken.

Am Ende gilt: Ein Geschenk, das wirklich genutzt wird, ist immer besser als eines, das nur gut gemeint war. Und falls du noch mal schauen wills was du beim Prime-Day verpasst hast oder vielleicht wieder günstig ist, schau auch in meinem Beitrag „Prime Day 2025 – Was sich wirklich gelohnt hat“ vorbei.

Shelly 1PM Gen3 vs. Gen4 – lohnt sich das Upgrade wirklich?

Zebra-Avatar hält Waage mit Shelly 1PM Gen3 und Gen4 im Vergleich

Der Vergleich zwischen Shelly 1PM Gen3 und Gen4 wirkt auf den ersten Blick simpel: neue Generation, neue Protokolle, also automatisch besser – oder? Genau das wollte ich nicht einfach glauben, sondern messen, ausprobieren und im Alltag testen. Das hier ist kein Datenblatt-Abgleich, sondern ein Praxisvergleich mit echten Messwerten, echten Problemen und ehrlichen Eindrücken.


Testaufbau & Rahmenbedingungen

Getestet wurden jeweils ein Shelly 1PM Gen3 und ein Shelly 1PM Gen4 unter identischen Bedingungen:

Ziel war es, Unterschiede nicht zu fühlen, sondern nachvollziehbar zu sehen.


Standby-Verbrauch – die stille Grundlast

Standby-Verbrauch ist die heimliche Steuer auf jedes Smart‑Home. Klingt nach Peanuts, summiert sich aber gnadenlos, wenn man nicht nur einen Shelly verbaut, sondern zehn, zwanzig oder irgendwann den Punkt erreicht, an dem man sich fragt, warum der Sicherungskasten eigentlich warm ist.

Shelly 1PM Gen3

  • WLAN aktiv, Bluetooth aus: 0,5 W
  • WLAN + Bluetooth: 0,6 W

Shelly 1PM Gen4

  • WLAN only: 0,6 W
  • WLAN + Bluetooth (Matter-Modus): 0,6 W
  • Zigbee-Modus: 0,6 W

➡️ Ergebnis: Kein Effizienz‑Level‑Up. Gen4 ist hier nicht sparsamer, sondern schlicht gleichauf.

Spannungs- und Frequenzmessung

QuelleSpannungFrequenz
Shelly Gen3235,5 V50 Hz
Shelly Gen4235,5 V49,95 Hz
Externes Messgerät236 V50 Hz

Die Abweichungen liegen im absolut normalen Bereich. Beide Generationen messen sauber und konsistent.


Leistungsaufnahme der Test-LED-Lampe – wer misst, misst Mist?

Der Klassiker: Drei Messstellen, drei leicht unterschiedliche Werte. Genau deshalb ist dieser Punkt spannend – und ehrlich gesagt auch der, an dem viele Tests einfach abbrechen.

Shelly 1PM Gen3

  • Shelly-Anzeige: 9,8 W (stabil wie ein Metronom)
  • Externes Messgerät: 10,3 W (inkl. ca. 0,5 W Eigenverbrauch)
  • Beobachtung: Das externe Messgerät driftet sichtbar, der Shelly bleibt stoisch gelassen

Shelly 1PM Gen4

  • zigbee2mqtt: 8 W
  • Shelly App: 9,4 W, pendelt sich von 9,6 W ein
  • Externes Messgerät: 10,2 W inkl. Shelly

➡️ Ergebnis: Die Messwerte sind plausibel, aber das verwendete Protokoll entscheidet, welche „Wahrheit“ man zu sehen bekommt.

Temperaturverhalten

Shelly 1PM Gen3

  • stabil bei ca. 34 °C
  • Wärmeschwerpunkt mittig im Gehäuse

Shelly 1PM Gen4

  • ca. 38 °C
  • ebenfalls zentraler Wärmeschwerpunkt

➡️ Ergebnis: Kein thermisches Problem bei beiden Geräten, Gen4 liegt leicht höher, aber völlig unkritisch.


Einrichtung & App-Erfahrung – hier trennt sich Nerd von Normalnutzer

Hier verlässt der Test den gemütlichen Messlabor‑Bereich und landet mitten im echten Alltag.

Gen3:

  • hinzufügen, fertig
  • keine Überraschungen
  • genau so, wie man es erwartet

Gen4:

  • Gerät wird sofort von App und Matter erkannt
  • Kopplung dauert… und dauert… und bricht ab
  • Konfiguration nur über den Access Point (192.168.33.1)
  • selbst nach bestehender WLAN‑Verbindung kein normales Hinzufügen
  • App springt immer wieder zurück zu „Raum wählen“
  • Firmware‑Update: keine Besserung

Ein Teil des Problems lag darin, dass das Smartphone noch im Shelly‑AP hing. Nach dem Wechsel ins Heimnetz war ein Hinzufügen per IP‑Scan möglich – technisch korrekt, nutzerseitig aber alles andere als elegant. Besonders pikant: Das gleiche Verhalten zeigte sich bereits beim Shelly Power Strip 4 Gen4.

➡️ Kurz gesagt: Die Hardware ist bereit für die Zukunft, die App stolpert noch darüber.

Matter & Zigbee – Licht und Schatten

Matter (Alexa):

  • nur Ein/Aus verfügbar
  • keine Verbrauchs- oder Leistungsanzeige

Zigbee (zigbee2mqtt):

  • Kopplung in ca. 3 Sekunden
  • sofort vollständig integriert
  • alle Leistungs- und Verbrauchswerte verfügbar

➡️ Die Hardware kann es – das Ökosystem entscheidet.


Preisvergleich – der oft übersehene Punkt

Preise direkt aus dem Shelly Shop (keine UVP, echte Verkaufspreise):

  • 1PM Gen3: 20,83 €
  • 1PM Gen4: 24,99 €

Klingt harmlos, wird aber schnell relevant:

  • bei 10 Geräten sind das fast 50 € Unterschied
  • Geld, das bei Gen3 fast zwei weitere Shellys ermöglicht

Amazon (Stand Testzeitpunkt):

➡️ Gen4 kostet hier fast das Doppelte.


Hardware & Verpackung

  • Gen3 und Gen4 sind exakt gleich groß
  • Unterschiede nur:
    • Aufdruck „Gen3 / Gen4″
    • andersfarbige Anschlussterminals

Die Gen4-Verpackung ist spürbar größer, obwohl das Gerät selbst identisch bleibt. Vermutlich kein technisches Upgrade, sondern ein Regal-Upgrade: aufhängbar, sichtbarer, handelsfreundlicher.

Shelly Gen3 und Gen4 im Vergleich – größere Verpackung bei gleicher Gerätegröße

Persönliches Fazit – nüchtern, ehrlich, ohne Marketingbrille

Wenn man Matter oder Zigbee nicht explizit benötigt, sehe ich aktuell keinen rationalen Grund, vom Shelly 1PM Gen3 auf Gen4 zu wechseln.

  • kein Vorteil beim Standby‑Verbrauch
  • keine messbar bessere Genauigkeit
  • leicht höhere Temperatur
  • deutlich höhere Kosten
  • spürbar schlechtere Ersteinrichtung

Gen4 ist kein schlechtes Gerät. Im Gegenteil: Mit Zigbee2MQTT zeigt es, was in ihm steckt. Aber im klassischen WLAN‑Shelly‑Setup fühlt sich Gen3 derzeit einfach runder, entspannter und erwachsener an.

Oder anders gesagt: Gen4 ist das sportliche Konzeptauto mit Zukunftstechnik – Gen3 der zuverlässige Daily Driver, der morgens einfach startet.


Wenn es um Zigbee geht, würde ich inzwischen zu Ubisys greifen. Die sind zwar teurer aber sind dafür perfekt daran angepasst inkl. sehr vielen Datenpunkten. Wie z.B. der Ubisys D1-R.

MIDI Controller einlernen, testen und als JSON für eigene Tools nutzen – NerdyMidiMapper

Drachenfigur Ziraphia an leuchtenden MIDI-Controllern beim MIDI Controller einlernen mit dem NerdyMidiMapper

Der NerdyMidiMapper ist ein lokales Windows‑Tool zum MIDI Controller einlernen. Ziel ist es, physische Controls wie Buttons, Encoder, Fader, LEDs und sogar Motorfader sauber zu erkennen, zu benennen und als strukturierte JSON‑Datei zu speichern – damit sie später automatisiert verwendet werden können.

Der ursprüngliche Zweck: die perfekte Vorstufe für das kommende Projekt NerdyMidiActions. Gleichzeitig ist der NerdyMidiMapper aber bewusst so offen gebaut, dass du die erzeugten Mappings auch direkt in eigenen Tools, Skripten oder Automationen weiterverwenden kannst.

Alles läuft komplett lokal auf deinem PC, ohne Cloud, ohne Internet, ohne DAW‑Zwang.

NerdyMidiMapper Browseroberfläche mit MIDI-Lernmodus, LED-Test und Mapping-Tabelle

Wofür eignet sich der NerdyMidiMapper?

Der NerdyMidiMapper ist kein klassischer MIDI‑Mapper für DAWs. Er ist ein Lern‑ und Testwerkzeug, das eine saubere technische Grundlage schafft, um MIDI‑Hardware programmatisch weiterzuverwenden.

Die Kernidee lautet:

Erst einlernen → strukturiert speichern → später automatisiert nutzen.

Typische Anwendungsfälle:

  • Vorbereitung für NerdyMidiActions (kommt demnächst)
  • Eigene Python‑, C#‑ oder Node‑Tools mit MIDI‑Eingaben
  • Smart‑Home‑Trigger über MIDI
  • StreamDeck‑ähnliche Setups mit echter Hardware
  • Analyse unbekannter oder schlecht dokumentierter Controller

Was kann das Tool konkret?

Der NerdyMidiMapper erkennt eingehende MIDI‑Events und ordnet sie im Lernmodus einem logischen Namen zu. Dabei werden folgende Control‑Typen unterstützt:

  • Buttons
  • Encoder
  • Fader
  • JogWheels
  • LEDs
  • Motorfader

Zusätzlich lassen sich LED‑Feedbacks testen und Motorfader gezielt anfahren, um Wertebereiche, Velocity und Verhalten sauber zu überprüfen.

Die Ergebnisse werden automatisch als controls.json gespeichert – eine einfache, stabile Austauschbasis für spätere Automationen.


LED‑ & Motorfader‑Test direkt im Tool

Ein zentraler Bestandteil des NerdyMidiMapper ist der aktive Feedback‑Test:

  • LEDs lassen sich direkt aus der Oberfläche an‑ und ausschalten
  • Velocity‑Scans helfen beim Finden optimaler Helligkeitsstufen
  • Motorfader können gezielt auf absolute Werte gefahren werden

Damit ist das Tool nicht nur zum Einlernen geeignet, sondern auch perfekt zur Funktionsprüfung von MIDI‑Hardware – besonders hilfreich bei gebrauchten Controllern.


JSON‑Format – bewusst einfach gehalten

Jedes eingelernte Control landet als eigener Eintrag in der Datei controls.json:

{
  "DeviceKey": "X-Touch",
  "DeviceMatch": "X-TOUCH",
  "MidiType": "Note",
  "Channel": 1,
  "Number": 32,
  "ControlType": "Button",
  "LogicalName": "Play"
}

Dieses Format ist bewusst flach, stabil und sprachunabhängig gehalten, damit es problemlos in beliebigen Programmiersprachen weiterverarbeitet werden kann.


Für welche Hardware eignet sich der NerdyMidiMapper?

Grundsätzlich funktioniert der NerdyMidiMapper mit allen MIDI‑Controllern, die über Windows als MIDI‑Device erkannt werden – unabhängig vom Hersteller.

Besonders praktisch ist er z. B. für:

Der große Vorteil: Auch exotische oder ältere Controller lassen sich vollständig durchleuchten und dokumentieren.


Installation & Start

Für Endnutzer gibt es eine fertige Windows‑EXE, die keinerlei Python‑Installation benötigt:

  • Download als Ein‑Datei‑EXE über GitHub Releases
  • Start per Doppelklick
  • Die Weboberfläche öffnet sich automatisch unter:
http://127.0.0.1:5000

Die Datei controls.json wird automatisch im Programmverzeichnis angelegt.


Warum das Ganze die perfekte Vorstufe für NerdyMidiActions ist

Der NerdyMidiMapper ist bewusst als reine Lern‑ und Testschicht konzipiert. Er erzeugt saubere, reproduzierbare Mappings – ohne bereits Aktionen auszulösen.

Genau hier setzt das kommende Projekt an:

NerdyMidiActions wird diese JSON‑Mappings direkt einlesen und daraus echte Aktionen machen – z. B.:

  • Programme starten
  • Fenster verschieben
  • Smart‑Home‑Aktionen auslösen
  • OBS‑Szenen wechseln
  • eigene Skripte feuern

Der Mapper ist also das Fundament, auf dem spätere MIDI‑Automation sauber aufbauen kann.


Download & Quellcode

Die Windows‑Version ist als Ein‑Datei‑EXE (onefile) gebaut – keine Installation notwendig.


Fazit

Der NerdyMidiMapper ist kein klassisches Musiker‑Tool, sondern ein technisches Brückenwerkzeug:

  • Er macht MIDI‑Hardware maschinenlesbar
  • Er trennt Lern‑Phase und Aktions‑Phase sauber
  • Er bildet die Basis für zukünftige MIDI‑Automationen

Ob du ihn nur zur Dokumentation deiner Controller nutzt oder später tief in NerdyMidiActions integrierst – der Mapper sorgt dafür, dass dein MIDI‑Setup endlich strukturiert, reproduzierbar und automatisierbar wird.


🧪 Nächster Schritt:
Der passende Aktions‑Layer ist bereits in Arbeit. Mehr dazu bald hier auf prokrastinerd.de unter dem Namen NerdyMidiActions.

Dinge, von denen ich nicht wusste, dass ich sie brauche – Folge 2: PCIe Splitter Test

Zebra-Avatar am Basteltisch mit PC-Gehäuse und mehreren PCIe-Karten an einem PCIe-Splitter

Manchmal stolpert man über Hardware, von der man nicht wusste, dass sie existiert – und noch weniger, dass man sie plötzlich dringend braucht. Dieser Beitrag ist genau so ein Fall und reiht sich ein in die Serie „Dinge, von denen ich nicht wusste, dass ich sie brauche“.

Alle PCIe‑Slots sind belegt. Der Kabelsalat wächst. Die Zahl der USB‑Geräte explodiert. Und irgendwo im Hintergrund wartet schon die nächste serielle Schnittstelle, die dringend angeschlossen werden will. Die klassische Nerd‑Frage also: Kann man einen einzelnen PCIe‑Slot vervielfältigen, ohne dass der Rechner in die Parallelwelt des BIOS‑Fegefeuers abbiegt?

Dieser Test ist genau das geworden, was er sein sollte: Ein ehrlicher Bastelversuch zwischen Elektrotechnik, leichtem Wahnsinn und der Hoffnung, dass PCIe am Ende doch toleranter ist als sein Ruf.

Getestet wurde nicht theoretisch, sondern mit echter Hardware, echten Risiken und echtem Stecker‑rein‑und‑hoffen‑auf‑POST‑Moment. Wer tiefer in die trockene Theorie eintauchen will, findet die offizielle technische Grundlage in der PCIe‑Spezifikation der PCI‑SIG – schwer verdaulich, aber elektronenrein.

Testhardware

Zum Einsatz kamen folgende Erweiterungskarten:

KALEA‑INFORMATIQUE PCI Express RS232 Controller‑Karte mit 4 Ports (ASIX AX99100 Chipsatz) (bezahlter Link)
Vier ehrliche, bodenständige serielle Ports. Keine RGB‑Beleuchtung, keine Spielereien – pure Industrie‑Romantik.

Yottamaster 7‑Port USB 3.0 Erweiterungskarte
Sieben USB‑Ports auf einmal. Für Mäuse, Sticks, Programmer, Debug‑Adapter und alles, was sonst so im Labor herumliegt.

Als Testplattform diente ein modernes Desktop‑System im Open‑Case‑Betrieb – also ohne Gehäusewände als Schutzschild gegen elektrische Fehlentscheidungen.

Test 1 – Mining‑Riser 1‑auf‑6 (bezahlter Link) + klassischer GPU‑Riser (bezahlter Link)

Aufbau:
Eine klassische PCIe‑1‑auf‑6‑Mining‑Riser‑Karte in Kombination mit einem PCIe‑Riser 16x‑auf‑1x mit USB‑Kabel und externer Stromversorgung. Genau so, wie es tausend Mining‑Rigs dieser Welt vormachen.

Ergebnis:
– Die COM‑Karte wurde erkannt
– Die USB‑Erweiterungskarte blieb unsichtbar

Interpretation:
Die schlichte COM‑Karte durfte durch. Die USB‑Karte dagegen wurde vom System behandelt wie ein Geist im Maschinenraum: physisch vorhanden, logisch einfach ignoriert. Der Aufbau ist eindeutig für GPUs gedacht – nicht für komplexere PCIe‑Controller.

Fazit dieses Tests: Bootfähig, aber als ernsthafte Erweiterungslösung nicht zu gebrauchen.

Test 2 – YBBOTT PCIe X1 → 4× PCIe X1 Multiplier (bezahlter Link)

Aufbau:
Ein kompakter PCIe‑Multiplier, der aus einem einzigen x1‑Slot gleich vier neue x1‑Slots erzeugt. Klein, unscheinbar, keine blinkenden LEDs – verdächtig seriös.

Ergebnis:
COM‑Karte erkannt
USB‑Erweiterung erkannt
Datenübertragung auf USB‑Stick stabil und ohne Aussetzer

Interpretation:
Der Multiplier verhielt sich so, als hätte das Mainboard plötzlich echte zusätzliche Slots spendiert bekommen. Keine Zickereien, keine Fehlermeldungen, keine spontanen Disconnect‑Orgien. So mag man das.

Test 3 – KALEA‑INFORMATIQUE PCIe‑Splitter mit ASM1184e (bezahlter Link)

Aufbau:
Optisch nahezu identisch zum YBBOTT‑Multiplier, allerdings mit klar benanntem ASM1184e PCIe‑Switch‑Chipsatz – also echter Technik statt Marketing‑Zauberformel.

Ergebnis:
COM‑Karte erkannt
USB‑Erweiterung erkannt
Datenübertragung stabil

Interpretation:
Der ASM1184e tut exakt das, was ein PCIe‑Switch tun soll: Er schaltet. Leise, unauffällig, zuverlässig. Keine Überraschungen, keine Experimente – einfach funktionierende Infrastruktur.

Mix‑&‑Match‑Test – Wenn zwei Welten kollidieren

Ziel:
Die YBBOTT‑Karte sieht im Open‑Case einfach besser aus. Der USB‑Anschluss ist jedoch ungünstig nach außen abgewinkelt. Die KALEA‑Karte führt ihren Anschluss sauber nach innen. Also lag der Gedanke nahe:

KALEA‑PCIe‑auf‑USB‑Adapter → YBBOTT‑Verteilerkarte

Ergebnis:
– Der Rechner hängt bereits während der USB‑Initialisierung im BIOS

Erklärung (mit zwei plausiblen Ursachen):

Erste Arbeitshypothese:
Die „USB‑Anschlüsse“ an Mining‑Risern sind keine echten USB‑Schnittstellen. Sie nutzen lediglich die Steckerform, um rohe PCIe‑Signale über ein günstiges Kabel zu schicken. Der KALEA‑Adapter hingegen arbeitet mit echtem USB‑Protokoll. Treffen diese Welten direkt aufeinander, endet das gerne im BIOS‑Freeze.

Zweite, inzwischen sehr wahrscheinliche Erklärung:
Obwohl die Platinen optisch nahezu identisch aussehen, könnte intern schlicht eine andere Belegung der Adern (Pinout) verwendet werden. In diesem Fall würden völlig korrekte elektrische Signale schlicht auf den falschen Leitungen ankommen – ein idealer Zustand, um jedes Initialisierungsverfahren zuverlässig aus dem Tritt zu bringen.

Welche der beiden Ursachen konkret greift, lässt sich ohne Durchklingeln der Leiterbahnen nicht eindeutig sagen. Das Ergebnis bleibt jedoch dasselbe:

Die Karten sind mechanisch kompatibel, aber elektrisch offensichtlich nicht mix‑tauglich.

Merksatz für die Bastelkiste:
Nur weil zwei Platinen gleich aussehen, müssen sie intern noch lange nicht gleich belegt sein.

Fazit

Der Test hat sehr klar gezeigt:

– Mining‑Riser sind für GPUs gebaut – nicht für saubere Port‑Erweiterung
– Echte PCIe‑Multiplier mit Switch‑Chipsatz funktionieren stabil
– Der ASM1184e‑Splitter von KALEA‑INFORMATIQUE (bezahlter Link) ist technisch sauber und alltagstauglich

Optisch ist die grüne Platine der KALEA‑Karte kein Design‑Highlight. Im Open‑Case wirkt sie wie ein Gruß aus der frühen 2000er‑Industrieelektronik. Doch manchmal muss man Prioritäten setzen:

Function over Form. Immer.

Für wen lohnt sich ein PCIe‑Splitter wirklich?

Ein PCIe‑Splitter ist ideal für:

– Homelabs mit zu wenigen Slots
– Automation, Steuerungen, serielle Geräte
– USB‑Overkill ohne zusätzliches Mainboard

Nicht ideal ist er für:

– GPUs
– NVMe‑RAIDs
– alles, was hohe Dauerbandbreite braucht

Schlusswort

Dieser Versuch gehört ganz klar in die Kategorie:

Dinge, von denen ich nicht wusste, dass ich sie brauche – bis ich sie hatte.

Ein funktionierender PCIe‑Splitter verwandelt einen scheinbar ausgereizten Rechner plötzlich wieder in eine vollwertige Bastel‑ und Erweiterungsplattform. Der ASM1184e‑Splitter bleibt dauerhaft im System. Die Mining‑Riser wandern zurück in die Bastelkiste – als optisch hübsche, technisch aber etwas chaotische Erinnerung daran, dass Elektronen keinen Humor haben, aber sehr wohl Prinzipien.


Passend dazu lohnt sich auch ein Blick auf den ersten Teil der Serie: Dinge, von denen ich nicht wusste, dass ich sie brauche – Folge 1: PoE USB Splitter


Hast du selbst schon absurde, unerwartet nützliche Technik gefunden? Dann schreib es in die Kommentare oder schick mir dein persönliches „Wusste‑nicht‑dass‑ich‑es‑brauche“-Gadget. Neue Folgen der Serie warten schon – und der Nerd‑Fundus hat bekanntlich kein Ende.