Uhrzeit in KI-Bildern – Warum KI-generierte Uhren (fast) nie die richtige Zeit anzeigen

Cartoonfigur mit Dampf über dem Kopf schaut wütend auf Monitor mit KI-generierten Uhren

KI-Bildgeneratoren wie DALL·E oder Stable Diffusion verblüffen mit ihrer Fähigkeit, realistisch wirkende Bilder aus Textbeschreibungen zu erzeugen. Doch sobald es um die Uhrzeit in KI-Bildern geht, wird es seltsam: Wer eine analoge Uhr mit einer bestimmten Uhrzeit – etwa 8:15 Uhr – erzeugen möchte, bekommt fast immer 10:10 angezeigt. Warum ist das so? Wer sich generell fragt, wie sehr wir KI vertrauen können, findet hier einen passenden Beitrag über Verantwortung und Identität in der KI-Welt.


Die 10:10-Falle: Ein Erbe der Werbefotografie

Wenn man „analoge Uhr“ in einen Bildgenerator eingibt, zeigt das Ergebnis fast immer die Zeit 10:10. Das hat einen ganz einfachen Grund:

In der Werbefotografie ist 10:10 die Standard-Zeit. Diese Stellung der Zeiger ist symmetrisch, wirkt wie ein „Lächeln“ und verdeckt weder Logo noch Datumsanzeige. Dadurch findet sich 10:10 auf einem überwältigenden Anteil der Trainingsdaten der KI.

Analoge Uhr, von einer KI generiert, zeigt 10:10 Uhr trotz Prompt für 8:15

Prompting hilft – aber nicht immer

Selbst wenn man präzise Prompts wie folgenden verwendet:

„A realistic analog clock, hour hand pointing slightly past the 8, minute hand pointing exactly at the 3, showing 8:15.“

… bekommt man in den meisten Fällen trotzdem eine Uhr mit 10:10 oder eine wild falsche Zeigerstellung. Die KI orientiert sich stärker an gelernten Bildmustern als an mathematischer Logik.


Stiländerung als Trick: Skizzen statt Realismus

Interessanterweise funktioniert die korrekte Darstellung der Uhrzeit in KI-Bildern besser, wenn der Stil weniger realistisch ist. Bei handgezeichneten oder cartoonhaften Uhren sind keine typischen Werbemuster verankert. Dadurch wird der Prompt wörtlicher genommen, und 8:15 sieht tatsächlich wie 8:15 aus.

Das zeigt: Die Trainingsdaten beeinflussen nicht nur das Aussehen, sondern auch die Interpretation von Textangaben.

Handgezeichnete analoge KI Uhr, zeigt korrekt 8:15 Uhr, per KI erzeugt

Wie man es trotzdem hinbekommt

Für alle, die tiefer ins Thema Prompting einsteigen möchten, lohnt sich ein Blick auf den Prompting Guide für DALL·E und Stable Diffusion – dort findest du praxisnahe Tipps zu Stilwahl, Zeigerpositionen und mehr.

✅ Variante 1: Exakte geometrische Beschreibung

Statt „8:15“ hilft oft die Beschreibung der Zeigerstellung:

„hour hand halfway between 8 and 9, minute hand pointing at 3“

Ergänzt um Stilwünsche wie „studio lighting“, „clear dial“ und „no glass reflection“.

✅ Variante 2: Bild als Vorlage

Wenn man der KI eine handgezeichnete Uhr mit der gewünschten Zeigerstellung zeigt, kann sie diese als Inspiration nutzen. Allerdings ist auch hier nicht garantiert, dass die Zeit exakt übernommen wird – besonders bei realistischen Umsetzungen.

💪 Die beste Methode: Stable Diffusion + ControlNet

Mit ControlNet lässt sich eine Skizze als Strukturvorgabe nutzen. Das Modell hält sich exakt an die Zeigerstellung und erzeugt ein stilistisch beliebiges Bild.

Tipp: Wer sich mit ControlNet auseinandersetzen möchte, findet hilfreiche Einstiegsvideos auf YouTube oder kann direkt mit einem leistungsstarken PC und einer passenden GPU loslegen. Eine gute Einsteiger-Grafikkarte ist zum Beispiel die NVIDIA GeForce RTX 3060* (bezahlter Link), kombiniert mit einem soliden Monitor wie dem BenQ PD2705Q* (bezahlter Link) für präzise Farbdarstellung.

Wer lieber mobil arbeitet: Auch ein Zeichentablett wie das XP-Pen Deco 02* (bezahlter Link) kann bei der Erstellung von Skizzen für ControlNet hilfreich sein.


Fazit: KI ist (noch) kein Uhrmacher

Wer eine Uhrzeit in ein Bild bringen will, merkt schnell: KI denkt nicht wie ein Mensch. Sie sieht keine Logik, sondern Muster. Und wenn 10:10 in 95 % der Uhrenbilder vorkommt, dann ist das für die KI die „richtige“ Uhrzeit.

Aber mit den richtigen Tricks – oder etwas Bildbearbeitung – kann man der KI trotzdem die richtige Zeit beibringen. Man muss es ihr nur zeigen. Wort für Wort. Zeiger für Zeiger.


🗨️ Und jetzt bist du dran: Hast du schon mal versucht, eine bestimmte Uhrzeit per KI zu erzeugen? Welchen Prompt würdest du ausprobieren? Schreib’s mir in die Kommentare!

Sind KI-Inhalte gefährlich? – Zwischen Innovation, Identität und Verantwortung

Cyberpunk-Illustration eines halb menschlichen Gesichts und halb Monitor, verbunden durch ein neuronales Netzwerk

Die Stimmen klingen vertraut, fast zu vertraut. Immer mehr KI-Systeme imitieren echte Sprecherinnen und Sprecher – und das ohne deren Zustimmung. Doch das ist nur ein Beispiel von vielen: Bilder, Musik, Texte – künstliche Intelligenz kann längst kreative Werke erschaffen. Aber sind diese KI-Inhalte gefährlich? Und wenn ja – für wen?


📢 Sind KI-Stimmen gefährlich? – Der Aufschrei der Synchronsprecher

In aktuellen Medienberichten mehren sich die Stimmen (Wortspiel beabsichtigt), die gegen KI-generierte Sprecher protestieren. Viele Synchronsprecher mussten feststellen, dass ihre Stimme in Trainingsdaten gelandet ist – ohne jemals eine Erlaubnis erteilt zu haben. KI-Modelle haben gelernt, ihre Tonlage, Sprechweise und Intonation nachzuahmen.

Die Angst: Wer braucht mich noch, wenn man meine Stimme einfach simulieren kann?

➤ Mehr zum Thema Deep-Fakes und rechtliche Unsicherheit findest du in diesem Beitrag vom Bundesamt für Sicherheit in der Informationstechnik.

➡️ Was passiert, wenn man einer KI einfach alles erlaubt – mein Erfahrungsbericht mit Bonnie und ChatGPT


🧰 Sind KI-Inhalte nur Werkzeuge? – Der Unterschied zu klassischen Tools

Ein Taschenrechner nimmt eine Eingabe (z. B. 2+2) und gibt ein vorhersehbares Ergebnis aus. Ein Synthesizer erzeugt Klangwellen nach physikalischen Regeln. Beide tun exakt das, was man ihnen sagt – nicht mehr, nicht weniger.

Eine KI dagegen generiert Inhalte, die neu erscheinen, aber auf Millionen bestehender Werke basieren. Sie lernt aus Mustern, Sprache, Stilen und Stimmen. Und oft – das ist der Knackpunkt – lernt sie aus Werken realer Menschen.

ToolArbeitsweiseProblematisch?
TaschenrechnerRechnet deterministischNein
SynthesizerModuliert Klang nach RegelnNein
KI-StimmgeneratorImitiert echte PersonenJa, wenn ohne Zustimmung

🔍 Sind KI-Deepfakes gefährlich? – Menschliche Fakes vs. Maschinen

Was ist mit einem Künstler, der ein extrem realistisches Bild malt? Oder einem Imitator, der Stimmen perfekt nachmacht? Ist das nicht auch ein „Deepfake“?

Ja – aber mit wichtigen Unterschieden:

  • Der Mensch leistet bewusste, kreative Arbeit.
  • Das Ergebnis ist ein Einzelstück.
  • Die Verantwortung liegt klar bei der handelnden Person.

Eine KI hingegen:

  • Imitiert automatisch und skalierbar.
  • Produziert auf Knopfdruck Millionen Varianten.
  • Entzieht sich oft einer klaren Verantwortungszuschreibung.

📚 Womit soll die KI lernen, ohne gefährlich zu werden?

Das wohl wichtigste Argument: „Womit soll KI denn lernen, wenn nicht mit echten Daten?“

Richtig. Eine KI kann nicht aus dem Nichts lernen. Sie braucht Beispiele, Strukturen, Vorbilder.

Doch: Lernen bedeutet nicht automatisch, dass man auch kommerzialisieren darf, was man gelernt hat. Ein Musikstudent darf Beethoven hören und analysieren – aber nicht unter seinem Namen veröffentlichen.


🎤 KI-Inhalte und Identität – Gehört uns unser Talent wirklich?

Wenn ich meine Stimme, mein Bild oder meinen Musikstil ins Netz stelle – gehören sie dann mir? Oder sind sie frei für alle nutzbar, inklusive KI-Systeme?

Philosophisch: Unser Talent gehört uns, bis wir es der Welt zeigen. Danach beginnt ein Spannungsfeld zwischen öffentlicher Sichtbarkeit und persönlichem Schutz.

Deshalb wird diskutiert:

  • Brauchen wir neue Rechte auf „digitale Identität“?
  • Sollten Stimmprofile, Schreibstile oder Bildhandschriften geschützt werden wie Markenzeichen?

🎼 Wer ist verantwortlich für gefährliche KI-Inhalte? – Der Mensch mit dem Prompt

Ich kann Beethovens 9. Sinfonie perfekt lernen und aufführen. Das ist legal. Problematisch wird es erst, wenn ich diese Aufführung als „neues Werk von Beethoven“ ausgebe oder Rechte daran beanspruche.

Und genauso ist es bei KI:

  • Sie imitiert, verarbeitet, generiert.
  • Sie selbst verkauft nichts, behauptet nichts.
  • Die Verantwortung trägt immer der Mensch, der sie einsetzt.

Die KI ist nicht der Schuldige – sie ist das Orchester. Der Mensch mit dem Prompt ist der Dirigent.


Illustration eines Monitors mit KI-generierten Gesichtern in endloser Wiederholung, symbolisch für Deepfake-Technologie und digitale Identität.

🌍 Fazit: Sind KI-Inhalte gefährlich?

Nicht per se. Aber sie können es werden – wenn sie:

  • Menschen täuschen,
  • Rechte verletzen,
  • Verantwortung verschleiern.

Deshalb brauchen wir Regeln für den Umgang:

  • Zustimmungspflicht für personenbezogenes Training
  • Lizenzmodelle für fairen Dateneinsatz
  • Transparenz, wer was erzeugt hat

Denn KI kann kreativ sein, unterstützen, inspirieren. Aber niemals auf Kosten derer, die ihr erst das Denken beigebracht haben.


💡 Buch: Ethik künstlicher Intelligenz: Eine Topographie zur praktischen Orientierung* (bezahlter Link)

🎧 Für Musiker: Ein gutes Mikrofon für eigene Samples statt KI-Nutzung findest du z. B. Shure Super 55 Deluxe Vocal* (bezahlter Link)