Stardew Valley
Es gibt Tage, an denen versinke ich stundenlang in Stardew Valley . Ein Spiel, das von nur einem Entwickler (Eric Barone a.k.a. ConcernedApe) hauptverantwortlich entwickelt wird, auch wenn seit ca. 2018 weitere Entwickler unter anderem das Multiplayer-Framework, die Portierung auf weitere Plattformen und weitere Funktionen übernommen haben.
Was mich so an dem Spiel reizt? Trotz seiner repetetiven Kernstruktur (Tag beginnt, man schaut nach den Feldern, den Viechern und ggf. schaut man noch bei den Nachbarn vorbei, kauft ein, schlägt Holz oder haut Monster in den Minen platt, danach ins Bett und noch mal von vorn) bietet es gerade im gemoddeten Zustand unzählige Variationen, es gibt viel zu entdecken und kein (Spiel-)Tag ist wie der andere.
Auch stehe ich total auf das pixelig-schöne Kunstwerk, das ConcernedApe mit unglaublich gutem Blick für Details geschaffen hat. Es macht Spaß, Blaubeeren zu ernten, die dabei verpixelt mit einem satten PLOPP in hohem Bogen von den Büschen hüpfen. Die niedlich dahinwackelnden Pixel-NPCs mit ihren durch Symbol-Sprechblasen ausgedrückten Gefühlen (und den Textpassagen, die für Dialoge auftauchen) fast lebendig wirken. Die wunderschön gestaltete Welt aus Feldern, Wäldern, Bergen, Minen, Abwassersystemen, Meeren und Wüsten, die zu ausgedehnten Erkundungstouren einladen (mittels Mods wird diese Welt teils unglaublich viel größer und es kommen ganze Städte und Landstricht hinzu). Und dann sind da noch die liebevoll gezeichneten, leicht verpixelten Charakterbilder, die in den Dialogen auftauchen.
Trotz meiner Freude an der Pixelgrafik packt es mich ab und zu doch und ich versuche, mir die Charaktere vorzustellen, wie sie wohl im echten Leben und nicht nur auf einem 50x50 Pixel-Fensterchen aussehen würden. Das sagt sich leicht, so ohne sonderlich ausgeprägtes bildliches Vorstellungsvermögen. Bis vor kurzem war das Ganze also eine ziemlich hohe Hürde für mich, die ich nie geschafft habe.
Auftritt Stable Diffusion
Wer mich etwas kennt wird sicher mitbekommen haben, dass ich mich in den letzten Monaten und Jahren viel mit KI-Bildgenerierung beschäftgt habe. Anfangs hauptsächlich mit den rechtlichen und technischen Aspekten (Was für Bilder sind in die Modelle eingeflossen? Besteht Urheberrecht und wie ist das, wenn die Bildinformationen in einem neuronalen Netz verwursten wurden? Was braucht man, um so ein KI-Modell zu betreiben, welche Alternativen gibt es, wie sieht es mit Datenschutz aus, etc.), doch mit der Anschaffung des neuen PCs waren die Tore für die lokale Bildgenerierung weit offen. Und 24GB Arbeitsspeicher auf der Grafikkarte sollen ja auch nicht verstauben.
Machen wir einen Sprung in die inzwischen vergangene Jetztzeit - in diesem Fall0 Anfang Juli 2024. Ich hatte gerade das 1&1-Desaster ) hinter mir und ein paar Tage Urlaub genommen, um mal ein wenig abzuschalten. Also: Folker schaltet ab und den PC an. KI-Bildgenerierung mittes Stable Diffusion über ComfyUI ist mittlerweile kinderleicht und es braucht nur ein paar Minuten, um sich die aktuellen Quellen herunterzuladen, mittels Python eine virtuelle Umgebung (venv, virtual environment) zu erstellen und alle Abhängigkeiten automatisch installieren zu lassen. Dann noch die Lieblings-Checkpoints (so heißen die KI-Modelle) wie z.B. Dreamshaper XL herunterladen und es kann losgehen.
Naja, jedenfalls fast. Im Gegensatz zum stabilen, aber etwas unflexiblen stable-diffusion-webui ist Comfy erst einmal… naja, erschlagend. Die Oberfläche ist komplett modular aufgebaut und man kann wie bei analogen Synthesizern die einzelnen Elemente miteinander verknüpfen und so komplexe Abläufe definieren. Zum Glück hatte ich mich schon ein wenig damit beschäftigt und wusste grundlegend, was ich brauche und erreichen möchte. Dennoch artete es in ein stundenlanges Basteln und Finetuning aus, bis das grundlegende Framework stand.
Die restlichen Stunden verbrachte ich dann mit dem sogenannten Prompt Engineering, also dem Anpassen und Optimieren der Anfragen an das KI-Modell, um das gewünschte Ergebnis herauszukitzeln.
Einige Außenstehende mögen sich jetzt (vollkommen zu Recht) fragen, wie das denn geht, wenn man mit ADHS doch dauernd Konzentrationsschwankungen hat und von einem Thema zu anderen springt. Das ist das Kuriose an ADHS - bei vielen Tätigkeiten ist das auch genau so. Bei den allermeisten sogar. Aber es gibt ein paar wenige Dinge, bei denen wir Betroffenen stundenlang am Ball bleiben können, weil uns das Thema so fesselt. Wir nennen das Hyperfokus, manche können das nach langem Üben sogar gezielt steuern. Davon bin ich leider noch weit entfernt, denn so ein Hyperfokus sorgt unter anderem auch dafür, dass ich mich abends mit einem Thema beschäftige und vom klingelnden Wekcer daran erinnert werde, dass ich gefälligst geschlafen haben sollte und jetzt zur Arbeit muss. Die Zeit nehme ich während eines Hyperfokus nahezu gar nicht wahr, noch weniger als sonst schon.
Erste Resultate
Egal wie, ich hatte ja Urlaub und Zeit spielte nur eine untergeordnete Rolle. Als nach etlichen Stunden die ersten Bilder auf dem Bildschirm materialisierten, war ich hin und weg. So sähen die Charaktere des Spiels also in der echten Welt aus. Könnten sie jedenfalls. Oder vielleicht doch ganz anders? Das Finetuning ging weiter und nach noch ein paar Stunden hatte ich die ersten drei Charaktere Abigail , Emily und Sophia halbwegs zu meiner Zufriedenheit modelliert:
Ich werde mit der Zeit (wenn mich das Interesse nicht wieder vorzeitig verlässt wie üblich, doch Stardew Valley und KI-Bildgenerierung sind bisher immer nach ein paar Wochen wieder in den Fokus gerückt) vermutlich noch weitere Charaktere aus diesem Spiel in die hochauflösende KI-Welt holen. Und solange es keine gegenteilige Bitte seitens ConcernedApe gibt, werde ich sie hier veröffentlichen - auf KI-generierte Kunst gibt es sowieso kein Copyright, es könnte höchstens um die Rechte an den Charakteren ansich gehen. Und ich hoffe, das ist durch die Kunstfreiheit abgedeckt.