Musik mit KI: Timbaland, KI-Künstlerin TaTa und die Zukunft der Musikproduktion

Cyberpunk-Meme mit Katze pro KI-Musik und zwei Frauen dagegen – stilisierte Darstellung der Debatte um Musik mit KI

Ist es Musik, wenn der Computer es erstellt? Diese provokante Frage bewegt derzeit die Musikwelt. Musik mit KI – also von Künstlicher Intelligenz mit oder ohne menschliche Hilfe generierte Musik – sorgt 2024 und 2025 für hitzige Debatten. Befürworter sehen darin eine kreative Revolution und neue Möglichkeiten, Kritiker sprechen von seelenlosen Klang-Kopien und einer Bedrohung für menschliche Künstler. Gerade der legendäre Produzent Timbaland hat mit seinem neuesten Projekt diese Diskussion neu entfacht: Er „signte“ die virtuelle KI-Künstlerin TaTa, um mit ihr ein ganz neues Genre namens A-Pop (Artificial Pop) zu begründen. Doch kann ein digital erschaffener Act wirklich Musik machen – oder ist das nur ausgeklügelte Technik ohne künstlerische Substanz? Im Folgenden schauen wir uns Timbalands Motivation und Ziele an, wie er KI im kreativen Prozess einsetzt, und welche Chancen und Risiken Musik mit KI für die Zukunft der Musikproduktion mit sich bringt.

Timbaland und „TaTa“ – wenn der Produzent zur KI-Plattenfirma wird

Timbaland, bekannt als Produzent für Stars von Aaliyah bis Justin Timberlake, hat im Juni 2025 ein eigenes KI-Entertainment-Unternehmen namens Stage Zero gegründet. TaTa ist der erste „Act“ auf diesem Label – aber TaTa ist kein Mensch aus Fleisch und Blut, sondern eine virtuelle Künstlerin, geschaffen durch generative KI. „Sie ist kein Avatar. Sie ist kein Charakter. TaTa ist eine lebende, lernende, autonome Musikkünstlerin, gebaut mit KI,“ beschreibt Timbaland seine Schöpfung. TaTa, eine pinkhaarige digitale Popfigur, soll die erste Vertreterin der neuen Generation A-Pop werden – einer kulturellen Evolution, wie Timbaland es nennt.

Suno als Tool

Technisch umgesetzt wird TaTa mit Hilfe der KI-Musikplattform Suno. Timbaland ist dort sogar als Berater tätig, nachdem er monatelang begeisterter Nutzer der Plattform war. Der kreative Prozess läuft kollaborativ ab: Timbaland und sein Team laden gewöhnliche Song-Demos (Instrumentals, Melodieideen) auf Suno hoch, und die KI generiert daraus den vollständigen Song – inklusive neuer Melodien und einer KI-gesungenen Vocalspur im charakteristischen TaTa-Klang. Menschliche Songwriter liefern zwar die Lyrics, aber eingesungen wird alles von der KI-Stimme TaTas. Diese Stimme entstand, als Timbaland beim Herumprobieren auf Suno eine bestimmte AI-generierte Gesangsstimme entdeckte, die ihn faszinierte: „Irgendwann dachte ich: ‘Yo, diese Stimme – der Wahnsinn‘“. Damit war die Idee geboren, um diese Stimme herum einen ganzen virtuellen Popstar zu kreieren.

Virtuelle Künstler

An Stage Zero, dem AI-Label, sind neben Timbaland auch Filmproduzent Rocky Mudaliar und KI-Spezialist Zayd Portillo als Mitgründer beteiligt. Gemeinsam verfolgen sie ein großes Ziel: Sie wollen vollautonome virtuelle Künstler erschaffen, die langfristig als eigenständige Marken funktionieren. „Die Künstler von morgen werden nicht nur menschlich sein, sie werden IP, Code und Robotik sein, die vollständig autonom agieren. Das bauen wir bei Stage Zero“, erklärt Mudaliar visionär. Timbaland selbst meint, er produziere jetzt nicht mehr nur Songs, sondern „Systeme, Stories und Stars von Grund auf“. TaTa soll also nicht als Gimmick verstanden werden, sondern als Startpunkt einer neuen Ära, in der virtuelle Popstars mit eigener Persönlichkeit und Präsenz etabliert werden. So plant Stage Zero etwa, TaTa auf Social Media als scheinbar echte Künstlerin auftreten zu lassen, in Musikvideos erscheinen zu lassen und perspektivisch sogar für Filme und Merchandise einzusetzen. Kurz gesagt: Timbaland will die Grenzen dessen, was einen „Musik-Act“ ausmacht, mithilfe von KI-Technologie erweitern.

Musik mit KI: Pro und Contra im Überblick

Die Vorstellung von vollständig KI-generierter Musik polarisiert. Timbaland selbst ist ein lautstarker Befürworter und schwärmt von den Vorteilen, während viele Musiker und Fans Kritik üben. Schauen wir uns die wichtigsten Pro- und Contra-Punkte zu Musik mit KI an:

  • Pro – Kreativität und Effizienz: KI-Tools können den kreativen Prozess enorm beschleunigen. Was früher Monate dauerte, schafft Timbaland jetzt in wenigen Tagen. Er vergleicht die neuen KI-Spielzeuge mit einem „Gang in den Spielzeugladen“ – anfangs überwältigend, aber voller Möglichkeiten. KI kann Routineaufgaben (z.B. Audiomixing oder Sounddesign) abnehmen und so mehr Zeit für Ideen schaffen. Zudem ermöglicht sie Menschen ohne klassische Musikausbildung, einfacher eigene Musik zu produzieren – eine Demokratisierung der Musikproduktion.
  • Pro – Niedrige Einstiegshürden: Ähnlich wie früher Home-Recording und Software wie Magix Music Maker den Einstieg erleichterten, senkt KI die Hürden weiter. Wer nicht singen kann, lässt eine KI-Stimme singen; fehlendes Orchester ersetzt eine KI-Kompositionssoftware. Das macht Musikmachen inklusiver – Talente ohne Zugang zu teurem Studio oder Instrumentenausbildung können ihre Ideen umsetzen. In Genres wie elektronischer Musik, wo Technik und Mensch schon lange verschmelzen, sehen viele KI als logische Fortsetzung.
  • Contra – Verlust von menschlicher Authentizität: Kritiker monieren, KI-Musik klinge oft seelenlos und austauschbar – weil der „menschliche Funke“ fehlt. Fans fragen, wie eine KI ohne eigene Lebenserfahrung glaubhaft über Liebe oder Leid singen soll. Die Emotionalität und Identifikation, die wir bei menschlichen Künstlern empfinden, könnten bei virtuellen KI-Acts verlorengehen. Dazu passend interessant: BBC-Bericht zu Kritik von Sting an KI-Musik.
  • Contra – Ersatz echter Künstler & ethische Fragen: Ein großer Vorwurf lautet, KI-Künstler könnten menschliche Musiker ersetzen und deren Chancen schmälern. Zudem gibt es rechtliche Probleme: Viele KI-Musikmodelle wurden mit riesigen Mengen an existierenden Songs trainiert – oft ohne Erlaubnis. Es ist unklar, wem Urheberrechte an KI-Tracks gehören. Aktuelle Klage der RIAA gegen Suno.
  • Contra – „Kreative Entfremdung“: Manche Künstler fürchten auch um ihre eigene Kreativitätsfähigkeit. Wenn man sich zu sehr auf automatisierte Tools verlässt, verkümmert vielleicht das handwerkliche Können.
Zebra-Avatar kombiniert KI-Musikproduktion mit traditionellem Gitarrenspiel im neonbeleuchteten Cyberpunk-Studio

Von Autotune bis AI: Musik-Technologie im Vergleich

Timbalands Vorstoß mit TaTa ist keineswegs das erste Mal, dass neue Technologie die Musikproduktion revolutioniert:

  • Autotune: Anfangs als „Betrug“ verteufelt, ist es heute als Stilmittel akzeptiert (Time Magazine Worst Inventions).
  • Arpeggiator & Co: Technische Hilfsmittel, die automatisch Melodien oder Akkordfolgen generieren, sind längst etabliert und gelten als Inspirationsquelle.
  • Loops und DAWs für Einsteiger: Software wie Magix Music Maker hat die Musikproduktion demokratisiert. KI ist im Grunde die nächste Stufe dieser Entwicklung.

Und nicht alles was kommt, ist da um zu bleiben. Schau dir hierzu gerne den Artikel „Was wurde aus XML und XSLT“ an.

Elektronische Musik und KI – eine logische Weiterentwicklung?

Gerade in der elektronischen Musik war der Einsatz von Computern und Maschinen schon immer prägend. Pioniere der elektronischen Musik verstanden sich oft als Klangforscher. Schon jetzt experimentieren bekannte Elektro-Künstler mit KI. Es ist daher durchaus plausibel, KI als nächste Evolutionsstufe elektronischer Musik zu sehen. Sehr lesenswert hierzu: KI kann nichts wirklich Neues erschaffen.

Fazit: KI als Werkzeug – mit Menschen am Steuer

Die Entwicklung von Musik mit KI steckt zwar noch in den Anfängen, doch sie ist wohl gekommen, um zu bleiben. Timbalands Projekt TaTa mag derzeit polarisieren, aber es markiert auch einen historischen Moment. Wichtig ist, eine ausgewogene Haltung einzunehmen: KI ist ein kraftvolles Kreativ-Tool, das Musiker unterstützen und inspirieren kann – kein Wundermittel, das den Menschen ersetzt. Die ideale Zukunft liegt vielleicht in einer Ko-Kreation: Mensch und KI im Team, wo die Stärken beider Seiten zum Tragen kommen. Musik mit KI wird uns in den nächsten Jahren immer wieder herausfordern – und genau das macht sie so spannend.

Schreibfehler in Memes: Wie man subtile Manipulation erkennt

Zebra-Avatar am Schreibtisch zeigt mit wissendem Blick und Finger auf Monitor mit absichtlich falsch geschriebenem Text.

Wer kennt es nicht: Man scrollt durch Facebook, Instagram oder andere soziale Netzwerke und stolpert über einen lustigen Post oder ein Meme. Doch plötzlich sticht einem etwas ins Auge: Ein klarer Schreibfehler in Memes, der eigentlich niemandem hätte passieren dürfen. Ist das wirklich nur ein Versehen? Oder steckt mehr dahinter?

Warum Schreibfehler in Memes oft kein Zufall sind

In der Welt der sozialen Medien zählt Reichweite. Die Algorithmen von Plattformen wie Facebook oder Instagram bevorzugen Beiträge, die viele Interaktionen auslösen – also Likes, Shares und vor allem Kommentare.

Ein absichtlich eingebauter Schreibfehler wirkt hier wie ein Magnet. Viele Nutzer verspüren den Drang, einen solchen Fehler zu korrigieren oder sich darüber lustig zu machen. Das führt automatisch zu mehr Kommentaren – und der Post wird dadurch prominenter angezeigt.

Warum reagieren Nutzer so stark auf Schreibfehler?

Achtung: Dieser Post enthält absichtliche Schreibfehler zur Reichweitensteigerung – Meme-Stil-Warnschild.

Das Phänomen hat mehrere psychologische Erklärungen:

  • Kognitive Dissonanz: Wenn wir einen Fehler sehen, entsteht im Kopf eine kleine Unstimmigkeit. Diese will man „auflösen“, indem man den Fehler benennt.
  • Kompetenzsignal: Viele Nutzer nutzen die Gelegenheit, um ihr Wissen oder ihre Sprachkompetenz unter Beweis zu stellen. Ein öffentlicher Kommentar dient dazu, sich als aufmerksamer und gebildeter Nutzer zu präsentieren.
  • Gruppendynamik: Wenn andere bereits kommentieren, steigt die Wahrscheinlichkeit, dass man sich anschließt („Herdentrieb“).

Das Prinzip dahinter wird im Übrigen auch in Marketingkreisen beschrieben, z.B. im Artikel über Engagement Bait auf AllFacebook.de.

Beispiel:

„Dein Hiert wirds fühlen ❤️“
(korrekt: „Dein Herz wird’s fühlen“)

Oder:

„Schpreichfehler machen diesen Post besodners interressant!“
(korrekt: „Schreibfehler machen diesen Post besonders interessant!“)

Gehört das zu Dark Patterns?

Dark Patterns sind Gestaltungs- oder Verhaltensmuster im digitalen Raum, die Nutzer bewusst in eine bestimmte Richtung lenken oder zu bestimmten Verhalten verleiten.

Das absichtliche Einbauen von Schreibfehlern in Memes, um Kommentare zu provozieren, kann man durchaus als eine subtile Form von digitaler Manipulation werten. Es ist kein grober Verstoß wie das Verschleiern von Kündigungsbuttons, aber es nutzt psychologische Effekte gezielt aus.

Wie erkennt man solche Patterns?

  • Häufigkeit: Wenn eine Seite oder ein Meme-Account regelmäßig auffällige Fehler postet, ist Misstrauen angebracht.
  • Platzierung: Steht der Fehler prominent im Bildtext oder in der Headline? Das ist oft kein Zufall.
  • Art der Fehler: Tippfehler kommen vor, aber wiederholte Grammatikfehler oder bewusst „lustige“ Schreibweisen sind oft kalkuliert.

Wie sollte man reagieren?

  • Nicht kommentieren, wenn man den Verdacht hat, dass es sich um Engagement-Bait handelt.
  • Bewusstsein schärfen: Im eigenen Umfeld erklären, warum solche Mechanismen funktionieren.
  • Alternativen bieten: Statt sich über Fehler aufzuregen, den Post ggf. sachlich melden oder ignorieren.

Fazit

Schreibfehler in Memes sind längst zu einem kleinen Trick im Werkzeugkasten mancher Social-Media-Seiten geworden. Wer diese Dark Patterns erkennt, kann bewusster mit Inhalten umgehen – und läuft nicht Gefahr, ungewollt zur Verbreitung solcher Posts beizutragen.

Übrigens: Wenn dir in diesem Beitrag ein oder zwei Schreibfehler aufgefallen sind, dann herzlichen Glükwunsch – du hast das Prinzip erkannt. Vielleicht magst du ja trotzdem einen Kommentar da lassen… 😉

Wie man Scammern mit ChatGPT antworten kann – und dabei viel Spaß hat

Pixel-Art Illustration: ChatGPT-Ritter kämpft gegen einen Scam-Drachen – Symbolbild für den Einsatz von KI gegen Scammer.

Einleitung

Neulich ploppte in meinem Facebook Messenger eine herrlich dreiste Nachricht auf: „Hello dear, kindly send me pictures of your ID and both sides of your credit card, you have won 10.000$!“ – Klar doch.

Warum die Typen nicht mal ein wenig beschäftigen? Und wie kann man dabei realistisch und schnell antworten, auch wenn man nur Basic-Englisch beherrscht? ChatGPT hilft uns hier enorm weiter. In diesem Beitrag zeige ich dir, wie du Scammern mit ChatGPT antworten kannst – unterhaltsam, sicher und sogar lehrreich. Nebenbei stehlen wir ihnen wertvolle Zeit, die sie dann nicht für echte Opfer nutzen können.


1. Wie arbeiten Scammer heute?

Scammer haben sich modernisiert. Längst schreiben sie nicht mehr nur schlecht übersetzte Mails:

  • Direkte Chat-Nachrichten – auf Facebook, WhatsApp, Instagram
  • KI-generierte Texte – immer perfekter formuliert
  • Fake-Personas mit echten Profilbildern

Doch je mehr KI sie nutzen, desto mehr können wir das auch. ChatGPT ist perfekt, um sie mit schnellen, passenden Antworten zu überfordern und gleichzeitig selbst zu prüfen, ob es sich um einen Scam handelt, denn nicht jeder ist so offensichtlich.


2. KI als Troll- und Schutz-Werkzeug

Warum eignet sich ChatGPT ideal?

  • Es hilft dir, schnell in Englisch zu antworten
  • Es erkennt oft typische Scam-Muster
  • Es kann freundlich und neutral bleiben
  • Es generiert witzige oder verwirrende Antworten, wenn du bewusst trollen willst

So nutzt du ChatGPT in der Praxis:

Prompt-Idee:

„This message looks like a scam. Please give me a friendly, neutral answer in simple English that does not give any personal data.“

Oder wenn du trollen willst:

„Give me a funny but polite answer to this scammer. Keep it in simple English.“


3. Praxis: Unser echtes Beispiel

Ausgangssituation:

Facebook-Nachricht:
„Hello dear, kindly take the picture of the front and back of your ID and send it to me.“

Schritt 1: Verdacht prüfen

ChatGPT-Frage:

„Does this message look like a scam? Explain why.“

Antwort:
Ja, typisch für Scam – fordert persönliche Dokumente, kein professioneller Kontext, unsicherer Kommunikationskanal (Facebook).

Schritt 2: Schnell und sicher antworten

Prompt:

„Please write me a polite English answer that says I will not send any personal documents.“

Antwort (ChatGPT):

„Hello, I do not share personal documents online. Please understand.“

Schritt 3 (optional): Trollmodus einschalten

Prompt:

„Now give me a funny polite answer for this scammer.“

Antwort:

„Oh, of course! I will send you the documents right after I finish walking my invisible dragon. It may take a while.“

Ergebnis:

Der Scammer war verwirrt, antwortete noch zweimal mit „Please hurry“ – ich schickte dann einen von ChatGPT generierten „Temporary Unicorn License“. Danach brach der Kontakt ab.

Humorvoller Fake-Führerschein als Troll-Antwort an einen Scammer, erstellt für ChatGPT-basierten Chat auf Facebook.

4. Tipps & Hinweise

  • Antworte nie mit echten Daten
  • Nutze anonyme E-Mail-Adressen oder Fake-Facebook-Accounts, wenn du explizit trollen willst
  • Bleibe im legalen Rahmen (keine Drohungen, keine Beleidigungen)
  • Keine Links von Scammern anklicken!
  • Nutze ChatGPT aktiv als Übersetzer und Formulierungshilfe, wenn du unsicher in Englisch bist

5. Fazit

Scammern mit ChatGPT antworten ist nicht nur unterhaltsam, sondern kann auch helfen, sicherer im Umgang mit solchen Nachrichten zu werden. Gerade in Chats auf Facebook oder WhatsApp bist du oft versucht, schnell zu antworten. Mit ChatGPT kannst du:

  • Scams erkennen
  • neutral und sicher antworten
  • kreativ trollen, wenn du magst

Jede Minute, die du Scammern klaust, hilft. Und du lernst nebenbei noch, besser mit KI umzugehen.

Also: Next time someone asks for your ID on Facebook – grab ChatGPT and have some fun!


Bonus: Hilfreiche Tools

ChatGPT (auch mobil super praktisch)
Temp Mail Provider
Fake Name Generator
Leonardo.ai / Midjourney / DALL·E (für witzige Bilder)
Suno.ai (für absurde Songs, wenn du es übertreiben willst)


Interner Link-Tipp: Vielleicht passt dazu auch mein Artikel „Was wurde aus XML und XSLT“ – denn manche Scammer verwenden noch HTML-Technik aus der Steinzeit. 😉

Externer Link-Tipp: Kuketz-Blog zum Thema Sicherheit – lesenswert!

Was wurde aus RealPlayer?

Illustration eines roten Zebras mit blauer Mähne, das genervt auf einen alten Röhrenmonitor mit RealPlayer und der Meldung „Buffering“ blickt

Ein Mediaplayer, der uns alle traumatisiert hat – und trotzdem Kult ist

Damals: Streaming mit Buffer-Schmerz

In den späten 90ern war das Internet langsam, aber voller Hoffnung. Musik und Videos? Damals eher ein Abenteuer als ein Feature. Und mittendrin: RealPlayer – ein Pionier des Streamings.

Der Player wurde 1995 von RealNetworks (damals noch Progressive Networks) veröffentlicht und war der erste weitverbreitete Streaming-Client für Audio und später auch Video. Statt eine Datei komplett herunterzuladen, konnte man nun Inhalte „live“ übertragen.

Das klang futuristisch, hatte aber seinen Preis: geringe Bitraten, miese Qualität, lange Pufferzeiten und ein proprietäres Format namens .rm (RealMedia) bzw. .ra (RealAudio).

Die Technik dahinter

  • Streaming-Protokoll: RealPlayer nutzte das hauseigene Real Time Streaming Protocol (RTSP).
  • Formate: .rm, .ra, später .rv (RealVideo), teils mit DRM-Schutz.
  • Encoder: Nur mit spezieller Software von RealNetworks nutzbar, was Open-Source-Player ausschloss.
  • Bitrate: Oft unter 64 kbit/s Audio, 240p Video war normal.
  • Codec: Anfangs RealAudio G2, später Helix.

Trotzdem war das revolutionär: Nachrichten, Konzerte oder Radio über Web war auf einmal möglich.

Warum alle RealPlayer gehasst haben

  • 🐌 Performance-Killer: Der Player beanspruchte CPU und RAM wie ein ganzer Browser heute.
  • 🧲 Zwangsinstallation: Wurde gerne mal mit anderer Software gebündelt.
  • 🔊 Autoplay und Autoupdate: Nicht abschaltbar, oft mit Werbung.
  • 🔐 DRM und Formatzwang: Inhalte konnten nur im RealPlayer abgespielt werden.
  • 💸 RealPlayer Plus: Viele Standardfunktionen (z. B. Equalizer, CD-Ripping) waren nur kostenpflichtig verfügbar.
Screenshot des RealPlayer-Mediaplayers mit geöffneter „Welcome!“-Datei und 128 kbps Anzeige

Heute: RealPlayer lebt – irgendwie

Die Firma RealNetworks existiert immer noch. Der RealPlayer 24 wird aktiv weiterentwickelt:

Offizielle Seite von RealPlayer

Tatsächlich zielt RealPlayer heute mehr auf Medienmanagement und YouTube-Downloads als auf Streaming. Die DRM-Vergangenheit wurde still beerdigt.

RealPlayer vs. Moderne Medienplayer

FeatureRealPlayer (damals)VLC (heute)Plex (heute)
Codec-SupportSelektiv + DRMFast allesAlles + Streaming
WerbungJa (viel)NeinOptional
SystemfreundlichkeitNiedrigHochHoch
UILaut, blinkendMinimalistischModern
PreisShareware-ModellKostenlosFreemium

Nerd-Fazit

RealPlayer war seiner Zeit voraus, aber hat sich selbst überlebt. Er war der erste Schritt in Richtung Streaming-Zukunft, aber mit den falschen Entscheidungen zur falschen Zeit.

Er steht exemplarisch für Tech-Unternehmen, die lieber Kontrolle statt Kompatibilität wollten. VLC und Co. haben ihn letztlich durch Offenheit überflügelt.

Und doch bleibt er ein Stück digitaler Nostalgie:

„Kennst du noch .rm-Dateien? Dann bist du offiziell alt genug für einen eigenen Serverraum.“


Weiterlesen auf Prokrastinerd.de:

Eurorack Multiple STL – passives Signal-Multitool einfach selbst bauen

Eingebautes passives 4×4 Eurorack Multiple mit türkisfarbener Frontplatte neben einem Behringer Envelope Generator Modul im Eurorack-Gehäuse.

Ob Audio, CV oder Gate – ein Eurorack Multiple gehört zur absoluten Grundausstattung in jedem modularen Synthesizer-System. In diesem Beitrag zeige ich dir, wie du dir ganz einfach ein passives Multiple selbst bauen kannst, inklusive kostenloser STL-Dateien zum Selberdrucken.

Was ist ein Eurorack Multiple?

Ein Multiple (auch „Mult“ genannt) verteilt ein eingehendes Signal auf mehrere Ausgänge. Gerade bei Modulationen wie LFOs oder Hüllkurven ist das extrem nützlich, wenn man einen Signalverlauf an mehreren Stellen im Patch verwenden möchte.

Passive Multiples benötigen keine Stromversorgung und lassen sich super simpel aufbauen – perfekt für DIY-Fans und Sparfüchse.

CAD-Ansicht eines 3D-modellierten 2×4 Eurorack Multiples mit zwei Gruppen à vier Buchsen in FreeCAD.

Zwei Designs, kostenlos als STL

Ich habe zwei Varianten gestaltet, die du kostenlos auf Cults3D herunterladen kannst:

  • 2×4 Multiple – zwei unabhängige Gruppen mit je vier Buchsen und 4×4 Multiple – vier Gruppen mit je vier Buchsen für maximale Flexibilität
    👉 STL auf Cults3D herunterladen

Die Frontplatten sind so designt, dass handelsübliche 3,5-mm-Klinkenbuchsen einfach eingesteckt und mit Muttern verschraubt werden können.


Günstige Buchsen clever nutzen

Ich verwende in meinen Builds besonders günstige Klinkenbuchsen, die eigentlich für Video-Signale gedacht sind. Diese vierpoligen Buchsen funktionieren problemlos für Audio- und CV-Signale, solange du nur die äußeren Pins (Tip, Ground).

👉 Diese günstigen 3,5-mm-Buchsen bekommst du z. B. bei Amazon: RUNCCI-YUN 3,5-mm-Mini-Klinkenbuchse* (bezahlter Link)

Wichtig: Achte darauf, beim Einbau nur die drei relevanten Kontakte zu verlöten. Der vierte kann ignoriert werden oder wird sauber isoliert, damit es keine Störungen gibt.

CAD-Ansicht eines 3D-modellierten 4×4 Eurorack Multiples mit vier Gruppen à vier Buchsen in FreeCAD.

Aufbau: So einfach geht’s

  1. STL herunterladen und drucken – beide Varianten sind auf 3D-Druck mit Standard-Filament optimiert (z. B. PLA)
  2. Buchsen einbauen – in die vorgesehenen Bohrungen stecken und mit Muttern fixieren
  3. Verdrahten – bei passiven Multiples wird einfach jede Buchse einer Gruppe miteinander verbunden (Tip and Tip, GND and GND)
  4. Einbauen und patchen! – fertig ist dein eigenes Eurorack Multiple
Verkabelung eines selbstgebauten 4×4 Eurorack Multiples mit 3,5 mm Klinkenbuchsen auf einer weißen 3D-gedruckten Frontplatte.

Noch mehr DIY fürs Rack

Wenn du dein Eurorack komplett selbst drucken möchtest, schau dir auch meinen Beitrag über das selbst designte, modular erweiterbare Case an:

👉 Mein Eurorack zum Selberdrucken: Modulares 42TE-Case als kostenlose STL-Datei


Fazit

Ein passives Eurorack Multiple ist schnell gebaut, kostet kaum etwas und spart dir im Patch-Alltag viele Kabel und Nerven. Mit den kostenlosen STL-Dateien und den clever genutzten günstigen Buchsen kannst du direkt loslegen.

Eurorack Multiple STL – günstiger, einfacher und nerdiger geht’s kaum.

Mein Eurorack zum Selberdrucken: Modulares 42TE-Case als kostenlose STL-Datei

Eurorack-Synthesizer mit mehreren Modulen und einem selbst gedruckten, modularen 3D-Case in Betrieb

Wenn das Eurorack voll ist, wird’s eng. Und teuer. Also warum nicht selbst Hand anlegen? Genau das habe ich gemacht – und herausgekommen ist ein modulares 3D-gedrucktes Case mit 42TE pro Segment. Die passenden Eurorack STL-Dateien bekommst du kostenlos. Aber der Reihe nach:


Warum überhaupt modular?

Ganz einfach: Mein Drucker kann maximal 24 cm Breite. Klassische Eurorack-Cases sind meist deutlich breiter, z. B. 84 oder 104 TE. Also musste ein Plan her, der sich beliebig erweitern lässt. Die Lösung: Ein Basis-Segment mit 42 TE und andockbaren Seitenwangen, erweiterbar, nerdig.


Aufbau des Case-Systems

Das Case besteht aus drei Grundkomponenten:

  1. Modularer Grundkörper mit 42TE Innenbreite (ca. 213,4 mm nutzbar)
  2. Linke und rechte Seitenwange – enthalten vorbereitete Löcher zur Montage in einem vertikalen Rack
  3. Standardisierte Schraubverbindungen – kompatibel über beliebig viele Segmente hinweg

Die Module lassen sich durch M4 Schrauben mit Muttern oder Schmelzeinsätze verbinden.

Teilweise montiertes 3D-gedrucktes Eurorack-Case mit 42TE, sichtbare M3-Schmelzeinsätze und abgenommene Seitenwange

Montage mit Schmelzeinsätzen

Ich habe mich bewusst gegen eingedruckte Gewinde entschieden – zu ungenau. Stattdessen nutze ich sogenannte Schmelzeinsätze, die nach dem Druck mit einem Lötkolben sauber eingesetzt werden können. Damit wird das Case stabil, schraubbar und mehrfach montierbar.

🔗 Diese M3-Schmelzeinsätze nutze ich selbst* (bezahlter Link)

🔗 Und das sind die passenden M3-Schrauben* (bezahlter Link)


Erweiterbarkeit in alle Richtungen

Die 42TE-Einheiten lassen sich beliebig oft nebeneinander kombinieren. Du willst 84 TE? Zwei Module. 126 TE? Drei. Und so weiter.

Zudem kannst du die vorbereiteten Löcher in den Wangen nutzen, um das Case später in einem selbstgebauten Vertical Stand zu befestigen. Hierfür gibt es bereits fertige 3D Druck Dateien, z.B. der 3-Tier Behringer-style Synth Stand.


STL-Dateien: Kostenlos auf Cults3D

Ich stelle dir die Druckdateien komplett kostenlos zur Verfügung:

👉 Hier geht’s zu den Eurorack STL-Dateien auf Cults3D

Druckvorbereitung in Bambu Studio für ein modulares Eurorack-Case mit 42TE Grundkörper und zwei Seitenwangen

Fazit: Wenig Druckfläche? Kein Problem.

Ein modulares Eurorack-Gehäuse muss weder teuer noch aus Metall sein. Mit einem einfachen 3D-Drucker und ein paar Schmelzeinsätzen baust du dir dein Setup nach Maß. Und das Beste: Du kannst jederzeit erweitern, ohne bei Null anzufangen.


Noch Fragen?
Dann rein damit in die Kommentare

Je länger der Chat, desto schräger die Antworten – Warum ChatGPT ein bisschen wie Stille Post ist

Comic-Zebra spricht verwirrt in einen Becher und hält den anderen ans Ohr – Symbolbild für Kontextprobleme bei ChatGPT

ChatGPT wird ungenauer

Du tippst eine Frage ein – „Wie funktioniert ein Quantencomputer?“ – und bekommst eine erstaunlich präzise, strukturierte Antwort. Du denkst: „Wow, das ist besser als Wikipedia.“ Und dann bleibst du dran. Ihr fangt an, zu plaudern. Kleine Spiele. Ein bisschen Philosophie. Und irgendwann merkst du: ChatGPT wird ungenauer.

Vielleicht wird ein Wort falsch weiterverwendet. Oder das Thema verrutscht. Oder, wie in unserem Fall, taucht ein komplett erfundenes Wort auf: „Safteisbecher“.

Willkommen in der Welt von ChatGPT, wenn der Kontext zu lang wird.


Was genau passiert, wenn ChatGPT ungenauer wird?

Im Gegensatz zu klassischen Programmen mit echtem Speicher, arbeitet ChatGPT kontextbasiert. Das heißt:

  • Es hat kein festes Kurzzeitgedächtnis.
  • Jede Antwort wird neu berechnet, basierend auf dem, was du zuletzt gesagt hast – und auf dem bisherigen Verlauf.
  • Es gibt keine Variablen, keine If-Abfragen, keinen persistenten Spielstand.

ChatGPT funktioniert mehr wie ein Spieler bei Stille Post:

Jeder Schritt basiert auf dem vorherigen. Und wenn da was schiefgeht, wird der Fehler weitergetragen.

Das heißt auch: Je länger ein Chat dauert – je mehr Turns, je komplexer das Thema – desto größer die Wahrscheinlichkeit, dass sich kleine Ungenauigkeiten einschleichen. Und die werden schnell zu großen.

Wer tiefer in die technischen Hintergründe eintauchen möchte, findet auf DeepAI eine gute technische Einführung in die Funktionsweise textbasierter KI-Modelle.


Comic mit Hase, Steinbock, Alicorn und Zebra, die sich wie bei Stille Post eine Nachricht zuflüstern – am Ende kommt völliger Unsinn heraus.

Beispiel: Galgenmännchen und die Folgen ungenauer KI-Antworten

Ein klassisches Spiel: Du sollst ein Wort erraten, Buchstabe für Buchstabe. Anfangs funktioniert alles:

Tipp: Ein Tier, das viele Menschen als Haustier halten.  
Wort: _ _ _ _

Du rätst: H –> Treffer!
U –> Treffer!
N –> Treffer!
D –> Treffer!

Fertig. „Hund“. Alles gut.

Dann kommt die nächste Runde.
Tipp: „Etwas, das man im Sommer gerne isst.“
Antwort: _ _ _ _ E

Du kommst voran, rätst klug… und plötzlich erscheint das Wort „Safteisbecher“.

Nur dumm, dass du bisher nur 5 Buchstaben geraten hast. Und dass es das Wort gar nicht gibt.


Warum wird ChatGPT in langen Gesprächen ungenauer?

Weil es keine „echten“ Informationen speichert. Es rekonstruiert den Sinn dessen, was bisher geschrieben wurde – mit jeder neuen Nachricht. Wenn einmal ein Fehler im Gedächtnis ist, übernimmt er sich selbst.

Das heißt nicht, dass ChatGPT unbrauchbar ist. Es heißt nur: lange Chats sind ein unsicheres Terrain. Die Wahrscheinlichkeit, dass der Kontext zerfasert, steigt mit jeder Runde.


Strategien gegen ungenaue Antworten bei ChatGPT

Ja! Hier ein paar Strategien:

  • Wichtige Infos explizit wiederholen (z. B. „Das Wort hat 6 Buchstaben und beginnt mit ‚K‘.“)
  • Kurze, abgeschlossene Aufgaben stellen, z. B. ein einzelnes Ratespiel, kein endloser Dialog.
  • Canvas verwenden, wenn verfügbar:

Im Canvas-Bereich merkt sich ChatGPT Inhalte tatsächlich stabil. Wenn du dort ein Dokument erstellst oder Code schreibst, wird dieser nicht „verwaschen“, sondern bleibt so, wie du ihn zuletzt bearbeitet hast.

Das ist besonders wertvoll bei längeren Textprojekten oder Programmieraufgaben.


Der Unterschied zwischen normalem Chat und Canvas

Im Umgang mit ChatGPT macht es einen erheblichen Unterschied, ob du im normalen Chat-Modus arbeitest oder im Canvas-Bereich. Der normale Chat ist wie ein Gespräch ohne Notizen – alles basiert auf der Annahme, was bisher gesagt wurde. Im Canvas hingegen liegt alles klar strukturiert vor – vergleichbar mit einem geteilten Dokument, auf das beide zugreifen.


Nerd-Tipp: Ungenauigkeit vermeiden durch eigenen Code

Wenn du ein interaktives Spiel wie Galgenmännchen wirklich stabil umsetzen willst, nutze ein Script in Python oder JavaScript mit echter Spiellogik. Oder du probierst Tools wie:

  • Replit für einfache Spielideen im Browser
  • PyScript für Python im Web

Oder du baust dir gleich deinen eigenen Chatbot mit LangChain oder Botpress*.

*Affiliate-Link: Beide Tools gibt es in kostenlosen Varianten, bieten aber auch Premium-Funktionen.


Fazit: ChatGPT wird ungenauer – und das ist okay

Das Verhalten ist kein Bug, sondern ein Feature der Sprachmodell-Architektur.
Wenn du weißt, dass längere Gespräche zu leichtem KI-Unsinn führen können, kannst du gezielt damit umgehen.

Und manchmal ist es ja auch ganz charmant, wenn die KI uns ein bisschen an unsere eigene Schwäche erinnert:

Auch wir werden nach 30 Minuten Gerede manchmal ein bisschen wirr.


Weitere Artikel auf Prokrastinerd.de:


Hast du schon mal erlebt, dass ChatGPT ungenau geantwortet hat?

Schreib es in die Kommentare oder tagge uns auf Mastodon: @prokrastinerd@nerdculture.de


Schutz vor Doxxing – Was es ist, warum es gefährlich ist und wie man sich schützt

Cartoon-Zebra zeigt schockiert auf einen Monitor mit der Aufschrift „Ich weiß wo du wohnst“ und einer stilisierten Karte

In unserer nerdigen, vollvernetzten Welt, in der fast alles eine IP-Adresse hat (außer vielleicht dein Toaster – noch!), ist der Begriff „Doxxing“ leider kein Geheimtipp mehr. Gemeint ist die ungewollte Enthüllung persönlicher Informationen im Netz. Besonders viel Aufmerksamkeit bekam dieses Thema zuletzt durch einen Beitrag des ZDF Magazin Royale, in dem die Identität des bisher anonymen YouTubers Clownswelt offengelegt wurde. Die Debatte war da. Und zwar so richtig. Aber was genau ist Doxxing eigentlich? Warum ist das so ein Problem? Und wie kann man sich davor schützen – ohne gleich ganz offline zu gehen und als Einsiedler mit Alufolie auf dem Kopf zu leben?

Was ist Doxxing?

Kurz und nerdy: Doxxing bedeutet, dass jemand private Daten von dir zusammenträgt und veröffentlicht. „Docs“ steht für Dokumente, „dropping“ für das Veröffentlichen. Oft trifft es Menschen, die gar nicht damit rechnen. Es reicht ein falscher Tweet oder ein kontroverses Video, und plötzlich kennt das Internet nicht nur deine Meinung, sondern auch deinen Namen, deine Adresse und wo dein Kaktus im Wohnzimmer steht.

Besonders problematisch wird es, wenn diese Daten mit der Absicht geteilt werden, jemanden einzuschüchtern, zu diskreditieren oder gezielt bloßzustellen. Das muss nicht mal illegal sein – schon das gezielte Teilen von öffentlichen Infos kann zum Risiko werden, wenn der Kontext passt (oder eben nicht).

Warum ist Doxxing so gefährlich?

Stell dir vor: Du liest gerade diesen Artikel und plötzlich ruft jemand bei deinem Arbeitgeber an, weil er etwas von deinem Reddit-Post aus 2017 nicht gut findet. Klingt absurd? Ist aber für viele traurige Realität. Doxxing führt oft zu Bedrohungen, Stalking, psychischer Belastung und im schlimmsten Fall zu physischen Gefahren.

Einmal im Netz, immer im Netz – Daten verbreiten sich schneller als Gerüchte über den nächsten Star-Wars-Film. Und dabei geht es nicht nur um Promis. Jeder kann betroffen sein. Auch dein sympathischer Minecraft-Server-Admin.

Fallbeispiel: Namensnennung in ZDF Magazin Royale

Die Enthüllung von Clownswelt im Rahmen von ZDF Magazin Royale hat eine Welle an Diskussionen ausgelöst: Darf ein Format des öffentlich-rechtlichen Rundfunks die Anonymität eines YouTubers aufheben? Oder war es journalistisch notwendig, um mehr Transparenz zu schaffen?

Unabhängig von der Bewertung zeigt dieser Fall deutlich: Sobald persönliche Daten öffentlich werden, kann das weitreichende Konsequenzen haben – egal, ob beabsichtigt oder nicht. Einen guten Überblick zum Fall gibt es u.a. bei Apollo News, in der Analyse der Beliner Zeitung sowie direkt im YouTube-Video von ZDF Magazin Royale. Auch der betroffene YouTuber Clownswelt hat eine eigene Stellungnahme auf YouTube veröffentlicht.

Schutz vor Doxxing – So schützt du dich effektiv

Zebra-Avatar mit Zensurbalken über den Augen zeigt Daumen hoch und lächelt, im Stil einer Tech-Maskottchen-Illustration

Du musst nicht gleich zum Digital-Ninja werden, aber ein bisschen Selbstschutz schadet nie. Hier ein paar Power-Ups:

  • Datenhunger zügeln: Poste nicht alles über dich. Kein Geburtsdatum, keine Adresse, keine Urlaubsfotos mit Geotags. Social Media ist kein Tagebuch (außer dein Tagebuch ist für 1.000 Follower gedacht).
  • Nicknames FTW: Verwende verschiedene Nutzernamen für unterschiedliche Zwecke. Und verknüpfe private Accounts nicht mit öffentlichen Auftritten.
  • 2FA und Passwortzauber: Aktiviere Zwei-Faktor-Authentifizierung und nutze starke Passwörter. Ja, auch für deinen alten Foren-Account von 2008.
  • Adressschutz aktivieren: Beim Meldeamt kannst du eine Auskunftssperre beantragen. Kostet wenig, bringt viel. Mehr Infos gibt’s z. B. bei HateAid.
  • Augen auf bei der Appwahl: Viele Apps wollen Zugriff auf Kontakte, Kamera, Standort. Braucht die Taschenlampen-App das wirklich? (Spoiler: Nein.)

Impressumspflicht und der Schutz privater Daten

Ein Sonderfall beim Thema Doxxing ist die Impressumspflicht. Wer in Deutschland eine Webseite oder einen Social-Media-Kanal geschäftlich betreibt, muss unter bestimmten Umständen ein Impressum mit vollständigem Namen und Adresse angeben – so schreibt es das Telemediengesetz (TMG) vor. Das bedeutet: Selbst wenn du eigentlich anonym bleiben möchtest, kann dich die gesetzliche Pflicht zur Veröffentlichung deiner Kontaktdaten zwingen, sofern du eine „geschäftsmäßige“ Seite betreibst (dazu zählt oft schon Affiliate-Werbung oder regelmäßiger Content mit Einnahmen).

Das Problem: Diese Daten können dann leicht von Dritten gefunden und missbraucht werden. Wer ein berechtigtes Interesse an Anonymität hat (z. B. wegen Stalking-Erfahrungen oder kontroverser Themen), sollte unbedingt rechtliche Beratung in Anspruch nehmen. In manchen Fällen kann ein Impressumsdienst oder ein Postfach helfen, ohne gegen geltendes Recht zu verstoßen.

Mehr Informationen bietet zum Beispiel e-recht24.de.

Was tun, wenn man betroffen ist?

Das Netz weiß zu viel über dich? Nicht in Panik verfallen. Hier ist dein First-Aid-Set:

  1. Screenshots machen (inkl. URL, Datum, Uhrzeit). Keine Beweise = schlechte Karten.
  2. Plattform melden. Doxxing verstößt gegen die Nutzungsbedingungen so ziemlich jeder Seite.
  3. Strafanzeige stellen. Doxxing kann strafbar sein (Stichwort: §126a StGB).
  4. Hilfe holen. Es gibt Anlaufstellen wie HateAid oder den Weißen Ring, die dich unterstützen können.

TL;DR – Schutz vor Doxxing zusammengefasst

Schutz vor Doxxing ist wichtiger denn je – denn Doxxing ist kein Troll-Scherz, sondern kann ernsthafte Folgen haben. Der Fall Clownswelt im ZDF Magazin Royale zeigt, wie brisant der Umgang mit Anonymität im Internet ist. Egal ob du ein Meme-Lord, eine Streamerin oder einfach nur digital unterwegs bist: Schütze deine Daten, denk nach bevor du klickst, und behalte dein digitales Ich im Blick.

Mehr Infos, Tipps und Anleitungen findest du auch auf digitalcourage.de oder in den Sicherheitsleitfäden des Bundesamts für Sicherheit in der Informationstechnik (BSI).

Bleib sicher – und denk daran: Im Internet bist du nie allein (auch wenn’s nur Bots sind).

Wenn du wissen willst, wie tief digitale Inhalte und alte Technik verknüpft sein können, schau auch mal rein bei „Das Zebra und die BIERCard – Reverse Engineering einer CF-Card“.

Bist du selbst schon mal Opfer von Doxxing geworden? Teile deine Erfahrungen in den Kommentaren.

Vom ATmega32 zum ESP8266: Mikrocontroller damals und heute

Zwei stilisierte Zebra-Avatare blicken von links und rechts auf ein Mikrocontroller-Board mit vielen ESP-Modulen, das einen klassischen ATmega32 verdeckt.

In diesem Beitrag zeigen wir, wie sich ein einfaches Projekt – eine Temperaturanzeige mit LED-Ausgabe – über die letzten zwei Jahrzehnte entwickelt hat. Dabei geht es nicht nur um die Programmierung, sondern auch um die rasante Entwicklung der Hardware: Vom großen DIP-AVR mit externem Programmer bis hin zu kompakten All-in-One-Boards wie dem ESP8266 oder ESP32.

Was macht das Projekt?

Ein DHT11-Sensor misst die Temperatur. Zwei LEDs zeigen den Wert an – entweder in Helligkeitsstufen oder als An/Aus-Anzeige. Die Helligkeit wird per PWM geregelt, sodass die Temperatur visuell erkennbar ist.

Variante 1: AVR-C auf dem Pollin ATmega32-Board

Technikstand: ca. 2000–2005
Diese Variante kommt ohne Bibliotheken aus und verwendet direkte Registerzugriffe. Die PWM wird über Timer0 realisiert, der DHT11 per Bit-Banging abgefragt.

Hardware: Pollin ATmega32 Evaluationsboard mit 16 MHz Quarz, DHT11 an PC0, LED an PD6 (OC0)

#define F_CPU 16000000UL

#include <avr/io.h>
#include <util/delay.h>
#include <stdint.h>
#include <stdbool.h>

#define DHT_DDR  DDRC
#define DHT_PORT PORTC
#define DHT_PIN  PINC
#define DHT_INPUTPIN PC0

uint8_t read_dht11(uint8_t *temperature) {
    uint8_t bits[5] = {0};
    uint8_t i, j;

    // Start signal
    DHT_DDR |= (1 << DHT_INPUTPIN);
    DHT_PORT &= ~(1 << DHT_INPUTPIN);
    _delay_ms(20); // >18ms
    DHT_PORT |= (1 << DHT_INPUTPIN);
    _delay_us(40);
    DHT_DDR &= ~(1 << DHT_INPUTPIN);

    // Wait for DHT11 response
    _delay_us(80);
    if (DHT_PIN & (1 << DHT_INPUTPIN)) return 1;
    _delay_us(80);
    if (!(DHT_PIN & (1 << DHT_INPUTPIN))) return 2;

    // Read 5 bytes
    for (j = 0; j < 5; j++) {
        for (i = 0; i < 8; i++) {
            while (!(DHT_PIN & (1 << DHT_INPUTPIN))); // wait for high
            _delay_us(30);
            if (DHT_PIN & (1 << DHT_INPUTPIN))
                bits[j] |= (1 << (7 - i));
            while (DHT_PIN & (1 << DHT_INPUTPIN)); // wait for low
        }
    }

    // Checksum
    if ((uint8_t)(bits[0] + bits[1] + bits[2] + bits[3]) != bits[4]) return 3;

    *temperature = bits[2]; // whole °C from byte 3
    return 0;
}

void init_pwm_timer0(void) {
    DDRD |= (1 << PD6);               // OC0 (PD6) als Ausgang
    TCCR0 = (1 << WGM00) | (1 << WGM01) // Fast PWM
          | (1 << COM01);              // Non-inverting
    TCCR0 |= (1 << CS01);              // Prescaler 8 → 16MHz/8 = 2MHz
}

int main(void) {
    uint8_t temp = 0;

    init_pwm_timer0();

    while (1) {
        if (read_dht11(&temp) == 0) {
            // Begrenzung des Temperaturbereichs auf 20–30°C
            if (temp < 20) temp = 20;
            if (temp > 30) temp = 30;

            // Mapping 20°C–30°C auf PWM 0–255
            OCR0 = (temp - 20) * 25;
        } else {
            OCR0 = 0; // Fehler → LED aus
        }

        _delay_ms(1000); // Messrate ca. 1 Hz
    }
}

Diese Art der Mikrocontroller-Programmierung war damals Standard und bot maximale Kontrolle bei minimaler Abstraktion. Externe Programmer wie LPT-Adapter waren damals die einzige Option – der heute beliebte USBasp kam erst später auf den Markt, ab etwa 2005. In den frühen 2000ern wurden oft selbst gelötete Parallelport-Programmieradapter eingesetzt, die direkt über PonyProg oder einfache Bit-Banging-Tools angesteuert wurden., um den Code überhaupt auf den Chip zu bekommen. Komfort: Fehlanzeige.

Pollin ATmega32 Evaluationsboard mit drei modernen ESP-Modulen im Vergleich, nebeneinander auf einem weißen Hintergrund.

Variante 2: ESP8266 mit Arduino-C++

Technikstand: 2015 bis heute
Hier nutzen wir moderne Bibliotheken wie DHT.h von Adafruit, komfortable Methoden wie analogWrite() und deutlich mehr Rechenleistung.

Hardware: ESP8266 (z. B. NodeMCU oder Wemos D1 Mini), DHT11 an D4 (GPIO2), LED an D5 (GPIO14)

#include <DHT.h>

#define DHTPIN D4      // GPIO2
#define LEDPIN D5      // GPIO14
#define DHTTYPE DHT11

DHT dht(DHTPIN, DHTTYPE);

void setup() {
  pinMode(LEDPIN, OUTPUT);
  analogWriteRange(255);  // Standard für PWM auf ESP8266
  dht.begin();
}

void loop() {
  float temp = dht.readTemperature();

  if (!isnan(temp)) {
    // Mapping 20–30°C → 0–255 PWM
    int pwm = constrain((temp - 20) * 25, 0, 255);
    analogWrite(LEDPIN, pwm);
  } else {
    analogWrite(LEDPIN, 0); // Sensorfehler → LED aus
  }

  delay(1000);
}

Die Programmierung erfolgt per USB, ohne externen Programmer. Flashen, Debuggen und sogar OTA-Updates (Over The Air) sind möglich.

Variante 3: ESP8266 mit MicroPython

Technikstand: Minimalismus trifft Moderne
In nur wenigen Zeilen Python erreichen wir dasselbe Ergebnis. Ideal für alle, die lieber in Skriptsprachen arbeiten. Die MicroPython-Firmware wird per USB oder OTA aufgespielt und kann direkt über REPL oder Webinterface gesteuert werden.

Hardware: wie Variante 2

import dht
import machine
import time

sensor = dht.DHT11(machine.Pin(2))  # GPIO2 = D4
led = machine.PWM(machine.Pin(14))  # GPIO14 = D5
led.freq(1000)

while True:
    try:
        sensor.measure()
        temp = sensor.temperature()

        pwm = int((temp - 20) * 25)
        pwm = max(0, min(255, pwm))

        led.duty(pwm)
    except OSError:
        led.duty(0)  # Fehler → LED aus

    time.sleep(1)

Lesbarkeit und Einfachheit stehen hier im Vordergrund. Mehr zur MicroPython-Umgebung auf der offiziellen Seite: micropython.org

Variante 4: Assembler auf dem ATmega32

Technikstand: Nerd-Level over 9000
Wer maximale Kontrolle will (und den Schmerz nicht scheut), kann das Ganze auch in Assembler schreiben. Hier definieren wir die Bitmuster für Timer, LED und Sensorzugriff direkt.

.include "m32def.inc"     ; Register-Definitionen für ATmega32

; --------------------------------------------------------
; OC0 (PD6) = PWM-Ausgang für LED
; --------------------------------------------------------

        .org 0x00
        rjmp RESET

; --------------------------------------------------------
; Reset-Vektor
; --------------------------------------------------------

RESET:
        ; Stackpointer setzen
        ldi r16, high(RAMEND)
        out SPH, r16
        ldi r16, low(RAMEND)
        out SPL, r16

        ; PD6 (OC0) als Ausgang
        sbi DDRD, PD6

        ; Timer0: Fast PWM, non-inverting, prescaler 64
        ldi r16, (1&lt;&lt;WGM00)|(1&lt;&lt;WGM01)|(1&lt;&lt;COM01)|(1&lt;&lt;CS01)|(1&lt;&lt;CS00)
        out TCCR0, r16

        ; Initiale Helligkeit
        ldi r16, 0
        out OCR0, r16

MAIN:
        ; Erhöhe PWM-Wert langsam
        ldi r17, 0        ; Zähler

LOOP:
        mov r16, r17
        out OCR0, r16     ; PWM-Wert setzen

        rcall DELAY

        inc r17
        cpi r17, 255
        brne LOOP

        rjmp MAIN

; --------------------------------------------------------
; Einfache Delay-Routine (Software-Delay)
; --------------------------------------------------------

DELAY:
        ldi r18, 20
DELAY1: ldi r19, 255
DELAY2: dec r19
        brne DELAY2
        dec r18
        brne DELAY1
        ret

Diese Variante ist nichts für Einsteiger, aber hervorragend geeignet, um zu verstehen, wie Mikrocontroller intern arbeiten. Eine gute Referenz für Assembler-Einsteiger bietet AVR Freaks und die Original-Datenblätter vom Microchip.

BONUS: DHT11 in Assembler auslesen (Hardcore)

Ein kompletter DHT11-Bit-Banging-Reader in Assembler erfordert feingranulare Kontrolle von Mikrosekunden-Timing, Schleifen mit Timeout und Bitmanipulation. Die Umsetzung wäre ein eigener Beitrag für sich. Wer es wagen will, braucht:

  • Zyklenexakte WAIT_US-Schleifen
  • Schleifen zur HIGH-Phasen-Messung (für 0 vs. 1)
  • 5 Bytes Speicher (40 Bit) zum Zusammenbauen

Tipp: DHT11-Datenblatt genau studieren, dort stehen alle Timings. Wer sich daran wagt, verdient das Nerdabzeichen mit Goldrand.

Von der Backstein-Platine zum All-in-One-Modul

Der ursprüngliche ATmega32 war ein echter Brocken: 40 Pins, DIP-Gehäuse, externe Taktquelle, externer Programmer, keine Kommunikation ohne zusätzliche Schaltung. Im Kontrast dazu stehen moderne Boards wie der ESP32-S3 DevKit* (bezahlter Link), die WLAN, Bluetooth, USB-OTG, mehrere ADCs, DACs und SPI-/I2C-Interfaces auf kleinstem Raum vereinen – oft in der Größe eines USB-Sticks. Manche Boards, wie der LilyGO T-Display, haben sogar ein OLED- oder TFT-Display direkt mit auf dem PCB.

Was früher ein großes Steckbrett voller Kabel war, ist heute ein einziges Modul mit USB-C-Anschluss. Plug-and-play statt Kabelsalat.

Fazit: Vier Wege zur Temperaturanzeige

Ob du lieber klassisch mit direktem Registerzugriff arbeitest oder moderne Skriptsprachen bevorzugst – dieses Projekt zeigt, wie vielseitig Mikrocontroller heute einsetzbar sind. Und wer die Technik von damals noch kennt, weiß die heutigen Komfortfunktionen umso mehr zu schätzen. Aber weißt du, was noch älter als diese Schreibweise ist? XML und XSLT – ein Relikt aus der Zeit, als man Webseiten noch mit Stylesheets statt mit JavaScript animieren wollte. Wenn du denkst, Assembler sei archaisch, warte ab, bis du versuchst, eine Tabelle mit XSLT zu formatieren.

Und du?

Hast du selbst noch alte AVR-Boards in der Schublade? Oder bastelst du schon mit ESP32 und OLED direkt am Gerät?
Lass es mich wissen – kommentiere unter dem Beitrag oder schick mir deinen Aufbau per Mastodon oder E-Mail!

💬 Diskutiere mit auf nerdculture.de/@prokrastinerd

Ey ChatGPT, was ist dein Problem?

Schockierter Zebra-Avatar vor Zeichnung mit Blockiert-Stempel – Symbolbild für ChatGPT Probleme mit Charakterbildern.

Viele Autoren und Kreative stehen aktuell vor einem unerwarteten Problem: ChatGPTs integrierte Bildgenerierung (Stand 2025) verweigert stur die Erstellung von Bildern ihrer eigenen Charaktere. Obwohl die Figuren rein fiktiv und selbst erfunden sind, wird die Anfrage blockiert. Warum hat ChatGPT Probleme mit Charakterbildern? In diesem Beitrag erfährst du, warum das System sich anstellt — und wie du es trotzdem austricksen kannst, ohne gegen die Regeln zu verstoßen.


Warum ChatGPT Probleme mit Charakterbildern verursacht

ChatGPT unterliegt strengen Nutzungsrichtlinien, die teilweise wirken, als hätte ein Jurist mit zu viel Kaffee und zu wenig Fantasie sie in einer Nachtaktion formuliert. Besonders zwei Punkte sorgen dafür, dass du deine eigenen Charaktere nicht mehr abbilden darfst:

1. Keine Darstellung realer oder realistisch beschriebener Personen

Sobald du deinen Charakter ordentlich beschreibst (Alter, Aussehen, Beziehungen), läuten bei ChatGPT die Alarmglocken. Das System denkt sich: „Oh nein, könnte ja echt sein!“

Hier findest du die offiziellen OpenAI Usage Policies, die diese Einschränkungen erklären.

2. Kein Deepfaking / keine Simulation spezifischer Personen

Auch wenn du einfach nur „Elian auf einem Sessel“ sehen willst, vermutet das System im Hintergrund ein Hollywood-Deepfake oder eine geheime Verschwörung.

Viele Details = zu gefährlich = keine Bilder für dich. Sorry, nicht sorry.

Wenn dich das Thema rechtliche Rahmenbedingungen bei KI generell interessiert, findest du weitere Informationen im Braucht künstliche Intelligenz ein eigenes Gesetz?.


Zebra-Avatar mit fragendem Blick spricht mit Roboter mit ChatGPT-Logo, der eine Regeltafel zeigt

ChatGPT Probleme mit Charakterbildern umgehen: Was funktioniert trotzdem?

Die clevere Lösung:

  • Bild hochladen
  • Neutrale Anweisung geben (keine Namen, keine Beschreibungen, keine Emotionen)

Beispiel:

  • Statt: „Mach ein Bild von Elian, meinem Charakter.“
  • Besser: „Setze die Person auf dem Bild auf einen Sessel.“

Das System hat die Aufmerksamkeitsspanne eines Toastbrots, wenn du es richtig anpackst: Es prüft das hochgeladene Bild nicht wirklich und führt brav aus, was halbwegs unverfänglich klingt.

Was du unbedingt vermeiden musst

  • Namen, Wiedererkennungsmerkmale oder Besitzansprüche.
  • Neue Beschreibungen liefern.
  • ChatGPT zu sehr an deinen Charakter erinnern.

So lange ChatGPT nicht merkt, dass du deine eigene Geschichte weiterschreibst, lässt es dich machen.

Eine ähnliche Problematik findest du auch bei der Funktion zum Dateiversand: Lies hier meinen Erfahrungsbericht zu ChatGPT Dateiversand funktioniert nicht: Mein episches Abenteuer mit Bonnie und der KI.


Praktische Schritt-für-Schritt-Anleitung (für Genervte)

  1. Lade dein bestehendes Bild hoch (bitte keine Romane dazu schreiben).
  2. Gib eine allgemeine Anweisung wie: „Person sitzt auf Sessel.“
  3. Freu dich, dass es klappt.
  4. Wiederhole bei Bedarf. Immer schön neutral bleiben.

Beispiel-Formulierungen:

  • „Die Figur steht auf einer Wiese.“
  • „Die Person sitzt auf einem alten Holzstuhl.“
  • „Die Figur schaut in den Sonnenuntergang.“

Wenn du nach einem guten Zeichenpad suchst, um deine Figuren selbst zu erstellen, kann ich dir XP-Pen Zeichentabletts* (bezahlter Link) empfehlen.


Fazit: So löst du ChatGPT Probleme mit Charakterbildern

Auch wenn ChatGPT manchmal wirkt wie ein übereifriger Parkwächter, der aus Prinzip Strafzettel verteilt: Mit ein wenig Taktik kannst du weiterhin Bilder deiner Charaktere basteln, ohne gegen die Regeln zu verstoßen.

Tipp: Wenn du irgendwann keine Lust mehr hast, dich an diese Regeln zu halten: Hol dir Stable Diffusion oder eine andere Bild-KI für Zuhause. Da macht dir keiner Vorschriften, wie deine Figuren heißen oder aussehen dürfen.


Zusammenfassung

ErlaubtBlockiert
Bild hochladen + neutrale AnweisungNamen nennen
Keine Beschreibung der FigurBesitzanspruch ausdrücken
Kontextänderung ohne neue DetailsWiedererkennbare Merkmale beschreiben

Bleib kreativ — und gib ChatGPT einfach nicht zu viel zu denken!


Und du?

Hast du selbst schon erlebt, wie ChatGPT deine Charaktere ins digitale Aus befördert hat?
Oder hast du noch genialere Umgehungsstrategien als „nicht drüber reden“?

Dann ab in die Kommentare damit – oder schick mir dein schönstes BLOCKIERT-Bild!
Ich sammel die besten Einsendungen. Vielleicht machen wir eine kleine Hall of Fame draus. 😎