„kommfft du wohl her!!“
Deswegen sind die Server ständig überlastet
Gerade nen Twitter Account entdeckt der DALL-E Bilder postet: https://twitter.com/weirddalle
Hier ein kleines Best of:
Das ist aber nicht die Mini Version oder? Dafür sehen die Ergebnisse zu gut aus
Doch ist angeblich die Mini Version.
Das große Modell braucht so viel Rechenleistung, dass das außer vllt Google oder Microsoft nur die wenigstens laufen lassen können kann mir deshalb nicht vorstellen, dass die User (Bilder kommen von Reddit) das große Modell nutzen.
Die Voldemort Bilder isnd ja mal mega!
Warum generiert der immer so Alptraumgesichter?
https://thispersondoesnotexist.com/ kann doch schon lange nahezu perfekt realistische Gesichter generieren:
Keine Ahnung wie diese Bilder generiert wurden. Ich gehe stark davon aus, dass die Seite vorgenerierte Bilder random anzeigt, sonst würde das nicht so schnell gehen (das Neuladen dauert gerade mal eine Sekunde oder so).
Das KI Modell hinter DALL-E Mini ist nur eine sehr abgespeckte Version des Originals. Und da dauert es ja bereits 1-2 Minuten bis ein Bild generiert wurde. Das Problem wird sein, dass das große Modell so viel Rechenleistung braucht, dass man das nicht einfach online der Maße zu Verfügung stellen kann. Außerdem macht es aus KI Sicht einen großen Unterschied ob man ein Modell nur auf Gesichter trainiert oder eben auf „Text“ to „Image“. Bei Letztem ist die Bandbreite an „Wissen“ dass das Modell kennen muss deutlich höher. Es muss ja von Gegenständen über Landschaften alles mögliche generieren können.
wollte gerade das gleiche in schlechter formuliert schreiben
Ja, aber nein. Das „Hauptgesicht“ ist doch nahezu perfekt.
Die sind gut, ja. Aber sie sind auch alle sehr ähnlich von der Größe, Position und Rotation. Sowas ist an sich leichter zu trainieren, da du dank Social Media auch ziemlich gut an Gesichtsfotos rankommst. Text to Image ist da bissle komplizierter, wie man ja auch an den Ergebnissen sieht