Neueste KI zur Bilderzeugung

Bezüglich der täglichen 15 Boostpunkte beim B.I.C. ein Frage in die Runde:

Kommen die Punkte bei Euch auch grundsätzlich zu nicht vorhersehbaren Zeitpunkten? Bei mir manchmal um gegen 9:00 a.m. manchmal erst 11:00 a.m. ... :sad:
 
Gibt es inzwischen KI-generierte Bilder, auf denen Tastaturen korrekt dargestellt werden?
Ist mir bis jetzt noch nicht untergekommen.

Bezüglich der täglichen 15 Boostpunkte beim B.I.C. ein Frage in die Runde:

Kommen die Punkte bei Euch auch grundsätzlich zu nicht vorhersehbaren Zeitpunkten? Bei mir manchmal um gegen 9:00 a.m. manchmal erst 11:00 a.m. ... :sad:
Bei mir variiert das glaube ich auch. Hatte es öfter am Nachmittag / Abend beobachtet.

Was macht ihr eigentlich mit euren Reward-Punkten? Bin bei knapp 2000.
Für Boosts finde ich sie zu schade. Weiter sparen für Amazon Gutschein?
 
1705578237440.png
Witzig. Gestern 20 Mal hintereinander in den Contentfilter gelaufen und konnte trotzdem weitermachen, heute gabs den Warnschuss schon nach dem ersten Mal….
 
Bezüglich der täglichen 15 Boostpunkte beim B.I.C. ein Frage in die Runde:

Kommen die Punkte bei Euch auch grundsätzlich zu nicht vorhersehbaren Zeitpunkten? Bei mir manchmal um gegen 9:00 a.m. manchmal erst 11:00 a.m. ... :sad:
ich habe gestern gar keine bekommen

vielleicht ne Strafe für mehrfachen Content-Verstoss

die sind so elend pingelig... einfache Worte werden im Kontext nicht verstanden ...ein richtiger Robo Cop
dann weisst du nicht unbedingt welches Wort den Verstoss ausgelöst hat und rennst 3x hintereinander in die Falle

Gastank ( im Sinne von Gasoline) bzw. Tank geht nicht...weil es wohl als Panzer interpretiert wird
es ist halt f.....g Microsoft

eine Menschengestalt mit einem "Skull Face" oder einem "Brain Head" macht er auch nicht
dann wirst du bestraft, weil das Ding doof ist.... ich freue mich auf die Zukunft
 
eine Menschengestalt mit einem "Skull Face" oder einem "Brain Head" macht er auch nicht
dann wirst du bestraft, weil das Ding doof ist.... ich freue mich auf die Zukunft

Hmm, also als ich damit rumgespielt habe ging das, Brutalität war fast nie Thema, vielleicht haben die das mittlerweile angepasst. Ich war selbst immer erstaunt, was die KI teilweise für blutige Bilder ausgespuckt hat. Gesperrt wurde ich nie.
 
Ich hab euch gewarnt 😋

Bei mir kam die Contentwarnug schon öfter wahllos. Bei Prompts, die keinerlei anzügliches hatten und ansonsten auch problemlos funktionierten.
Wenn der also Bilder kreiert, die Probleme verursachen (ohne, dass ich das wollte) ist das sein Problem. Denke ich mir dann.

Dennoch – was, wenn das Überhand nimmt ohne, dass ich da Schuld habe?
 
Bezüglich der täglichen 15 Boostpunkte beim B.I.C. ein Frage in die Runde:

Kommen die Punkte bei Euch auch grundsätzlich zu nicht vorhersehbaren Zeitpunkten? Bei mir manchmal um gegen 9:00 a.m. manchmal erst 11:00 a.m. ... :sad:
Da ist mir noch keine bestimmte Uhrzeit aufgefallen.
Habe ehrlich gesagt auch noch nicht drauf geachtet.
Wenn ich aber zb noch 6 übrig hatte, den Browser bzw das Tab offen lasse und am nächsten Tag was neues versuche, wird die Seite neu geladen, das eingegebene promt ist weg (selig wer es je nach länge vorher speicherte) und es stehen wieder 15 neue bereit (vermute mal man kann mit 24 Std seit dem letzten einloggen rechnen?).
Wenn die neuen Punkte verbraucht sind und ich aber noch weitere Ideen habe, lasse ich das Ding im Hintergrund weiter rattern, oder wie weiter oben schonmal erwähnt, breche ich den Vorgang einfach ab und lasse mir anzeigen was bis dahin fabriziert wurde. (edit: was ich damit sagen wollte; deshalb habe ich noch nie genau drauf geachtet)

Apropos Beispiel oben - Schade dass die unverbrauchten Boosts nicht genauso gesammelt werden können wie die Reward Punkte.

Was macht ihr eigentlich mit euren Reward-Punkten? Bin bei knapp 2000.
Für Boosts finde ich sie zu schade. Weiter sparen für Amazon Gutschein?
Bin aktuell bei ca 3500. Für Boosts habe ich aber auch noch keine verwendet. Und auch nicht für irgendwas anderes.
Hatte das zwecks anderweitge Verwendung aber bisher auch noch gar nicht richtig auf dem Schirm.
Schaue ich mir mal an, Danke.
Klicke mich bei Langeweile (bzw wenn es mal wieder länger dauert) ab und zu durch die Rätsel dort.
Wo es ja egal ist ob man irgendwas richtig anklickt. Die Punkte bekommt man trotzdem. :]
Man kann ja nie wissen für was mal es gut ist und man dann doch "dringend Boosts braucht.. (zb für last minute Compilation Cover ; )

die sind so elend pingelig
finde ich auch
 
Habe das Programm grade nochmal kurz angeworfen, Training in 512x512 für SD 1.5 braucht rund 31%, sollte also auf 10-12GB VRAM funktionieren. Die Zeitdauer in der kleinen Auflösung ist knapp unter einer Stunde. Ich lasse das mal jetzt durchlaufen.

Das SDXL Training hat wie oben geschrieben etwas über 3.5h gedauert, also tatsächlich etwa 4x solange für die 4fache Auflösung.

Auslastung und Zeitdauer:
Anhang anzeigen 201670
Anhang anzeigen 201669

Mehr SDXL Bilder:
Anhang anzeigen 201671Anhang anzeigen 201672Anhang anzeigen 201673Anhang anzeigen 201674

Was mich ja jetzt mal interessieren würde, was passiert, wenn man ein Modell absichtlich falsch trainiert. Also zB eines, damit absichtlich total falsche Körperformen entstehen. Und was passiert, wenn man ein Base-Modell einfach nur mit einem Foto trainiert, entsteht dann digitale Glitch-Art oder wie kann man sich das vorstellen?
 
es lohnt sich immer mal die Anleitung von Midjourney zu lesen .

So entdeckte ich da heute die flag --weird und --chaos

Mal ein Vergleich

Code:
a beautiful woman with a classic synthesizer

1705673713642.png

vs

Code:
a beautiful woman with a classic synthesizer --weird 3000

1705673813483.png
 
Zuletzt bearbeitet:
(Anmerkung: Würde man den Bing Generator abbrechen können wie manche vermuten, würde das genau so unscharf aussehen je nachdem wie weit er schon gerechnet hat.)

Ja, bei Stable Diffusion sehe ich ja auch in der Vorschau einmal ein sehr unscharfes Bild, was einen aber schonmal erkennen lässt, ob das in die richtige Richtung geht.

Das Ink Training (Bilder im vorletzten Post) oder das Sparkify Training (letzter Post) ist vom Basismodell komplett losgelöst und wird per Huckepack auf ein bestehendes Modell aufgesetzt (nennt sich LoRa). Der Dateninhalt basiert damit zu 100% auf eigenen Bildern.

LoRas habe ich bisher nur einmal ausprobiert zum Testen, die LoRa aus dem Netz hätte dann aus jedem Bild irgendso ein Anime-Mädchen eines mir nicht bekannten Animes gemacht, aber irgendwie hatte das gar keinen Einfluss auf das Endergebniss. Muss ich mir alles nochmal genauer anschauen.

Hätte ich 60k €, würde ich mir 2 fette Nvidia Karten kaufen und die Nummer von Grund auf selber anlegen, aber eine RTX4090 ist nur Spielzeug in dem Bereich. Für 100000 Bilder müsste ich den Pc einen ganzen Monat rechnen lassen. Die bestehenden Basismodelle wurden mit bis zu 5600000000 aus dem LAION Datensatz trainiert.

Und am Besten dann noch einen ordentlichen Solarpark dazu, damit man das guten Gewissens durchrattern lassen kann.
Man könnte natürlich auch einen Server mieten aber man will ja nicht die eigenen Fotos auslagern, wer weiß wo die landen.

Alleine deswegen ist Stable Diffusion lokal schon so interessant für mich, weil man eigene Fotos damit verwursten kann ohne das irgendjemand das Ursprungsfoto bekommt.
 
Zuletzt bearbeitet:
Mist. Aber auch.

Eigentlich wollte ich nur ein bisschen Sport machen.

Da stand ich plötzlich mittendrin in einer Roboterfabrik.

verlassene_robot_factory.jpg

Hat mich jemand gesehen? Egal. Hauptsache! weg! hier!

Schnell. Weg.

*hechel* *schweißvonderstirnwisch*

(Auch hier war der Grundstein eine vorhandene Situation. Ja.)
 
Das finde ich übrigens am spannendsten: wenn die KI einfach auf Zuruf benötigte Elemente für Composings zuliefert.
Kantine-und-Co_MG_4177.jpg
Die immer wieder spannende Frage ist, welche Elemente schon auf dem Foto bzw. in der Szene waren und welche die KI hinzugedacht hat. :)
Cosmopolis-Robo-Talk-ReFormatC.jpg
Na?

Viele Grüße, aljen
 


News

Zurück
Oben