Stable Diffusion

stable diffusionstable diffusion

Ich habe mir mal Stable Diffusion auf meinen ältesten und „schlechtesten“ Rechner geladen, den ich nur im Büro und auf Reisen benutze (weil er klein ist): Intel(R) Core(TM) i3-7020U CPU @ 2.30GHz 2.30 GHz mit 8 GB RAM. Der braucht für ein Bild mehr als eine Viertelstunde, und natürlich ist es nicht so gut wie von Midjourney gemacht. Ich wollte es nur ausprobieren und habe keinen anspruchsvollen Prompt benutzt. Mal sehen, was mein Gamer-PC mit Linux dazu sagt…

image_pdfimage_print

Kommentare

6 Kommentare zu “Stable Diffusion”

  1. ... der Trittbrettschreiber am Juli 14th, 2023 2:33 pm

    ;-)… nur mit schnell wirkenden Substanzen rezipierbar, möchte ich hier und überhaupt JEVERkünden.

    ab 0:56:
    https://cdn.spielfilm.de/trailer/6447/9646_30332.mp4

  2. ... der Trittbrettschreiber am Juli 14th, 2023 2:40 pm

    Sorry – hier der funktionierende Link zum Trailer

    ab 0:56:
    https://www.youtube.com/watch?v=cX53cl8T3qk

  3. nh am Juli 14th, 2023 4:12 pm

    Fang mal mit nem ZX81 an und dann über C64 ff hochskalieren.
    Es tun sich wunderbare Welten auf.
    Neuerdings tun sie so, als ob das Entpacken durch ne fette GPU und direktes Schreiben von Daten ins RAM der neueste Brüller wäre (https://www.heise.de/news/Ratchet-Clank-Vorzeigespiel-fuer-PS5-SSD-benoetigt-auf-PC-nur-eine-Festplatte-9216432.html).
    Aufs BS kommt es nicht an, die Hardware muss passen.

  4. Götz am Juli 14th, 2023 10:09 pm

    Ob sich wohl rendern lässt, wie das aussieht, wenn eine zu dicke Frau einfach platzt? Müssen ja keine großen schwarzen Flecken auf dem Rock sein …

  5. pazifist am Juli 15th, 2023 3:36 pm

    Drei Bemerkungen:
    CPU und RAM tragen recht wenig zu Laufzeit bei, GPU-RAM ist die relevanteste Komponente (aber „Gamer-PC“ klingt so als könnte das dort eher passen).

    „natürlich ist es nicht so gut wie von Midjourney“ ist m.E. eine falsche Erwartungshaltung. SD Ergebnisse können sehr vergleichbar oder gar besser sein, wenn man die passenden Basis-Modelle und/oder Extensions (LORAs etc.) verwendet. Technisch gesehen kann man die SD Modelle mit Midjourney Output trainieren und dann sieht der Output dann auch eben entsprechend aus. (Wurde schon gemacht.) Bringt einen aber nicht wirklich weiter. („Können wir auch!“ – „Na und? Ich wechsele höchstens, wenn ihr spürbar _mehr_ könnt.“)
    Einfach mal die Bilder auf Seiten wie Civitai vergleichen (den Hentai Krams muss man halt ebenso wie die NSFW Abteilung überblättern, um eher so etwas wie Qualität zu sehen).

    Erstmal hat immer der die Nase vorne, der die meisten User findet, die kostenfrei das eigene Produkt verbessern. Das ist global immer noch MJ, aber da die m.W. extrem limitieren, _was_ User beitragen können, hat diesbezüglich SD massive Vorteile. Mal sehen, auf welchem Wege die kapitalgetriebene Seite die Open Source Konkurrenz diesmal wegbeissen wird.

  6. Juttipat am Juli 15th, 2023 4:57 pm

    Mal vllig losgelöst von der Leistungsdiskussion (deiner Rechner), probier lieber das hier:

    https://github.com/AUTOMATIC1111/stable-diffusion-webui

    M.M. nach viel leichter in der Bedienung und v.a. eine riesige Modellauswahl via Civit.ai…..

    Das hat – zumindest bei mir – den Einstieg sehr erleichtert.

Schreibe einen Kommentar