Unterabschnitte von Visuelles (WIP)

Unterabschnitte von Museen und Ausstellungen (WIP)

Unterabschnitte von Unbewegt (WIP)

Unterabschnitte von KI Bildgenerierung (WIP)

The Wall 2061

Auch wenn ich mich in den letzten Jahren eher selten für größere Live-Rollenspiele vor die Türe wage, war das Jahr 2061… ich meine das Jahr 2018 doch eine Ausnahme. Die kreativen Köpfe hinter dem The Wall 2061 Citygame hatten tief in die Taschen der dystopischen Trickkiste und der modernen Erzählkunst gegriffen und mal eben ganz Berlin gute 40 Jahre in die Zukunft katapultiert. Neben vielen über die ganze Stadt verstreuten Locations gab es auch viele stationäre Spieler (ich nenne sie hier NSCs, auch wenn das Spielprinzip etwas anders war), die ihr bestes taten, um die Spieler halbwegs am Plot entlang zu führen - mal mit mehr, mal mit weniger Erfolg.

Ich hatte eigentlich vorgehabt, als normaler, mobiler Spieler teilzunehmen, doch kurz vor dem Stichtag bekam ich über einen Freund die Anfrage, ob ich nicht Lust hätte, einen Hacker zu mimen, der eine Untergrundbar betrieb und nebenher seine Kasse mit Informationshandel aufbesserte. Wie konnte ich da nein sagen? Ich warf mich in Schale und holte mir meine Instruktionen ab. Viele waren es nicht und so nutzte ich die verbleibenden Tage, um die Location zu dekorieren und an einer spannenden Background-Story zu arbeiten, denn ein stumpfer Datenhehler würde weder mir noch den Spielern Spaß machen.

Am Tag des Events freundete ich mich mit einer Jungen Frau an, die sich mit zwei weiteren Spielern an meinen Rockzipfel hängte - sie wurden quasi zum Barpersonal und zu Teilzeit-Runnern, die halb Spieler und halb inoffizielle (weil nicht von der Spielleitung als solche eingesetzte) NSCs/stationäre Spieler waren.

Ich mache es kurz: Wir vier hatten einen Heidenspaß. Zwischen PCs, Laptops, Monitoren, VR-Brillen, Nebelmaschinen und diversen leuchtenden und piepsenden Deko-Elementen, die teilweise sogar von der c-base kurzfristig bereitgestellt wurden, schafften wir es, eine einmalige und dichte Atmosphäre zu kreieren. Die Spieler, die sich zu uns verirrten, vermissten eigentlich nur eins: Einen echten Barbetrieb, den die Spielleitung leider nicht noch einrichten konnte. Mit 150 Spielern, die potenziell jederzeit überall aufschlagen konnten, war das vermutlich aber auch eine größere Herausforderung als ich mir gerade ausmalen kann.

Bilder vom Event & KI-Umsetzung

Leider habe ich den Kontakt zu meiner neuen Bekannten verloren, daher kann ich sie leider nicht um Erlaubnis bitten, unsere gemeinsamen Fotos unverfälscht hier hochzuladen. Die Bilder hat Stefan Frank im Nachgang der Veranstaltung gemacht, als wir etwas Ruhe für das Shooting hatten. Leider waren meine beiden anderen Mitstreiter schon gegangen und so mimten wir zu zweit die Hacktivisten.

Hacking… Hacking… Fiat Lux! Fiat Lux! Enlightened Enlightened

Mittels Stable Diffusion und ein wenig Kreativität wurden die folgenden Bilder daraus:

Hacking… Hacking… Fiat Lux! Fiat Lux! Enlightened Enlightened

Ein ganz anderer Flair, aber mir gefällt’s. :)

Die ganze Bilderflut

Gamestorm Berlin hat auf deren Facebook-Account eine Menge Bilder der Veranstaltung und der entsprechenden Locations online gestellt. Dort findet ihr mit Sicherheit noch das eine oder andere spannende Zeugnis dieses denkwürdigen Tags.

By the way, The Wall 2061 lief für die meisten wohl nicht so gut. Die Bewertungen waren katastrophal, wie einer der Erfinder, Kevin Blank, in einem Youtube-Video (EN) sehr selbstkritisch erklärt. Ich glaube, uns in unserer Hackerbar hat die Tatsache gerettet, dass wir ein Kommunikationsknotenpunkt waren - und wenn zu wenig los war, haben wir unseren eigenen Parallelplot gesponnen. Und das kam offenbar auch bei den wenigen Besuchern ganz gut an. Wir jedenfalls hatten unseren Spaß.

Stardew Valley

Es gibt Tage, an denen versinke ich stundenlang in Stardew Valley . Ein Spiel, das von nur einem Entwickler (Eric Barone a.k.a. ConcernedApe) hauptverantwortlich entwickelt wird, auch wenn seit ca. 2018 weitere Entwickler unter anderem das Multiplayer-Framework, die Portierung auf weitere Plattformen und weitere Funktionen übernommen haben.

Was mich so an dem Spiel reizt? Trotz seiner repetetiven Kernstruktur (Tag beginnt, man schaut nach den Feldern, den Viechern und ggf. schaut man noch bei den Nachbarn vorbei, kauft ein, schlägt Holz oder haut Monster in den Minen platt, danach ins Bett und noch mal von vorn) bietet es gerade im gemoddeten Zustand unzählige Variationen, es gibt viel zu entdecken und kein (Spiel-)Tag ist wie der andere.

Auch stehe ich total auf das pixelig-schöne Kunstwerk, das ConcernedApe mit unglaublich gutem Blick für Details geschaffen hat. Es macht Spaß, Blaubeeren zu ernten, die dabei verpixelt mit einem satten PLOPP in hohem Bogen von den Büschen hüpfen. Die niedlich dahinwackelnden Pixel-NPCs mit ihren durch Symbol-Sprechblasen ausgedrückten Gefühlen (und den Textpassagen, die für Dialoge auftauchen) fast lebendig wirken. Die wunderschön gestaltete Welt aus Feldern, Wäldern, Bergen, Minen, Abwassersystemen, Meeren und Wüsten, die zu ausgedehnten Erkundungstouren einladen (mittels Mods wird diese Welt teils unglaublich viel größer und es kommen ganze Städte und Landstricht hinzu). Und dann sind da noch die liebevoll gezeichneten, leicht verpixelten Charakterbilder, die in den Dialogen auftauchen.

Trotz meiner Freude an der Pixelgrafik packt es mich ab und zu doch und ich versuche, mir die Charaktere vorzustellen, wie sie wohl im echten Leben und nicht nur auf einem 50x50 Pixel-Fensterchen aussehen würden. Das sagt sich leicht, so ohne sonderlich ausgeprägtes bildliches Vorstellungsvermögen. Bis vor kurzem war das Ganze also eine ziemlich hohe Hürde für mich, die ich nie geschafft habe.

Auftritt Stable Diffusion

Wer mich etwas kennt wird sicher mitbekommen haben, dass ich mich in den letzten Monaten und Jahren viel mit KI-Bildgenerierung beschäftgt habe. Anfangs hauptsächlich mit den rechtlichen und technischen Aspekten (Was für Bilder sind in die Modelle eingeflossen? Besteht Urheberrecht und wie ist das, wenn die Bildinformationen in einem neuronalen Netz verwursten wurden? Was braucht man, um so ein KI-Modell zu betreiben, welche Alternativen gibt es, wie sieht es mit Datenschutz aus, etc.), doch mit der Anschaffung des neuen PCs waren die Tore für die lokale Bildgenerierung weit offen. Und 24GB Arbeitsspeicher auf der Grafikkarte sollen ja auch nicht verstauben.

Machen wir einen Sprung in die inzwischen vergangene Jetztzeit - in diesem Fall0 Anfang Juli 2024. Ich hatte gerade das 1&1-Desaster ) hinter mir und ein paar Tage Urlaub genommen, um mal ein wenig abzuschalten. Also: Folker schaltet ab und den PC an. KI-Bildgenerierung mittes Stable Diffusion über ComfyUI ist mittlerweile kinderleicht und es braucht nur ein paar Minuten, um sich die aktuellen Quellen herunterzuladen, mittels Python eine virtuelle Umgebung (venv, virtual environment) zu erstellen und alle Abhängigkeiten automatisch installieren zu lassen. Dann noch die Lieblings-Checkpoints (so heißen die KI-Modelle) wie z.B. Dreamshaper XL herunterladen und es kann losgehen.

Naja, jedenfalls fast. Im Gegensatz zum stabilen, aber etwas unflexiblen stable-diffusion-webui ist Comfy erst einmal… naja, erschlagend. Die Oberfläche ist komplett modular aufgebaut und man kann wie bei analogen Synthesizern die einzelnen Elemente miteinander verknüpfen und so komplexe Abläufe definieren. Zum Glück hatte ich mich schon ein wenig damit beschäftigt und wusste grundlegend, was ich brauche und erreichen möchte. Dennoch artete es in ein stundenlanges Basteln und Finetuning aus, bis das grundlegende Framework stand.

Die restlichen Stunden verbrachte ich dann mit dem sogenannten Prompt Engineering, also dem Anpassen und Optimieren der Anfragen an das KI-Modell, um das gewünschte Ergebnis herauszukitzeln.

Einige Außenstehende mögen sich jetzt (vollkommen zu Recht) fragen, wie das denn geht, wenn man mit ADHS doch dauernd Konzentrationsschwankungen hat und von einem Thema zu anderen springt. Das ist das Kuriose an ADHS - bei vielen Tätigkeiten ist das auch genau so. Bei den allermeisten sogar. Aber es gibt ein paar wenige Dinge, bei denen wir Betroffenen stundenlang am Ball bleiben können, weil uns das Thema so fesselt. Wir nennen das Hyperfokus, manche können das nach langem Üben sogar gezielt steuern. Davon bin ich leider noch weit entfernt, denn so ein Hyperfokus sorgt unter anderem auch dafür, dass ich mich abends mit einem Thema beschäftige und vom klingelnden Wekcer daran erinnert werde, dass ich gefälligst geschlafen haben sollte und jetzt zur Arbeit muss. Die Zeit nehme ich während eines Hyperfokus nahezu gar nicht wahr, noch weniger als sonst schon.

Erste Resultate

Egal wie, ich hatte ja Urlaub und Zeit spielte nur eine untergeordnete Rolle. Als nach etlichen Stunden die ersten Bilder auf dem Bildschirm materialisierten, war ich hin und weg. So sähen die Charaktere des Spiels also in der echten Welt aus. Könnten sie jedenfalls. Oder vielleicht doch ganz anders? Das Finetuning ging weiter und nach noch ein paar Stunden hatte ich die ersten drei Charaktere Abigail , Emily und Sophia halbwegs zu meiner Zufriedenheit modelliert:

Abigail Abigail Emily Emily Sophia Sophia.

Ich werde mit der Zeit (wenn mich das Interesse nicht wieder vorzeitig verlässt wie üblich, doch Stardew Valley und KI-Bildgenerierung sind bisher immer nach ein paar Wochen wieder in den Fokus gerückt) vermutlich noch weitere Charaktere aus diesem Spiel in die hochauflösende KI-Welt holen. Und solange es keine gegenteilige Bitte seitens ConcernedApe gibt, werde ich sie hier veröffentlichen - auf KI-generierte Kunst gibt es sowieso kein Copyright, es könnte höchstens um die Rechte an den Charakteren ansich gehen. Und ich hoffe, das ist durch die Kunstfreiheit abgedeckt.

Unterabschnitte von Bewegt (WIP)