Der Podcast ist zwar schon aus dem Frühjahr und das KI-Rad dreht sich in wahnsinniger Geschwindigkeit weiter, aber inhaltlich find ich den sehr interessant.: Warum wird KI massenweise Kreative arbeitslos machen
[blog] Freitag ist Ki-Tag :)
-
-
-
-
Interessanter Vergleich, Danke!
Microsoft finanziert OpenAI garantiert nur unter der Auflage, das es schwer gemacht wirds, so böses Verhalten wie rauchen abzubilden. Disney läßt grüßen ? Auch ansonsten deutlich schwächer IMHO.
-
Wurde das zweite Bild mit dem gleichen Prompt generiert? Da finde ich das erste deutlich besser, der Cyberpunk-Akzent kommt mir im Zweiten etwas kurz.
-
-
Genau der Prompt geht nicht, da kommt bei mir nur User_Input und ein Random Bild von Sekrätärin und ähnliches. Vermutlich zu lang.
-
Oh. Das ist ja karriereschaedigend fuer Dall-E, wenn man da gar nicht soviele Details beschreiben kann. Interessant!
-
-
Naja, ich kann das nicht genau beschreien. Laufen tut es ja über die Copilot Funktion von Edge.
-
Da passiert intern viel mehr. Während man zb bei ideogram einfach "etwas" schreibt, kann man sich danach entscheiden, ob der Prompt noch "magic prompt" erhalten soll.
Dann wird aus wenig Text sehr viel Text.
midjourney macht das gefühlt immer. Dall-E mal ja und mal nein.
Vorteil ist dann aber bei ideogram, dass einem die Prompts je Ergebnis auch angezeigt werden
Ich verfasse also einen Beschreibungssatz, wähle ein paar Settings aus, u.a. "Magic Prompt" und erhalte dann vier Ergebnisse, inkl der magisch erzeugten Prompts.Nur so zum Spaß gehe ich auch daher und lasse von Gemini, Co-Pilot und ChatGPT einen Prompt für ideogram erzeugen und deaktiviere dann magic-prompt.
Oder ziehe ein Bild bei ChatGPT rein und lasse es für eine Bilder-Ki beschreiben.
Für solche Sachen muss man aber Fan von dem ganzen Zeug sein. Ist halt schon Zweckfrei, da sich eh alles schneller ändert als man etwas lernen kann.
So oder so ist es für mich in erster Linie eine Inspirationshilfe, die fern ab von Google-Bildersuche funktioniert. -
-
Und auf jeden Fall spannend. Geht es eigentlich auch, dass man KIs Bilder analysieren lassen kann?
So nach dem Motto, ich lade ein Bild hoch und es kommt: Das ist der Eiffelturm in Paris bei Regenwetter im Oktober.
-
-
-
-
Es gab doch auch ein Experiment mit einer Sofortbildkamera. Die hat auf Knopfdruck ein Bild gemacht, dass dann eine KI Bild>Text interpretiert hat und die Interpretation dann in eine andere KI Text > Bild geschickt. Das Ergebnis wurde ausgedruckt.
-
-
Und das hat auch einer weiter getrieben und eine "was davor geschah" Cam gebaut. Man knippst etwas und bekommt ein Bild von einer möglichen Scene davor.
-
Fehlt wieder mal: The hand of the chimpanzee has 5 fingers and one thumb
Könnte man solche Details nicht von einer KI ergänzen lassen?
-
-
Könnte man solche Details nicht von einer KI ergänzen lassen?
Wir sind wohl schon wieder soweit, dass wir eine Technologie nutzen um Probleme zu lösen, die wir ohne sie garnicht hätten.
-
Ich dachte was jetzt passiert, ist das die AI das Internet jetzt so weit infiziert, das wir bald in der Wikipedia nachlesen koennen, das Menschen normalerweise 6 Finger an der Hand haben, und alles andere sind nur Mutationen.
-
-
Das hier hab ich so mal als moegliche Vorlage gefunden... (von https://phys.org/news/2020-01-r…great-lake.html)
Wenn viel von der Bild K.I. so wie ich vermute aus Modifikationen existierender Vorlagen besteht, wie gut/einfach ist es dann eigentlich mit den Tools ein Bild hochzuladen und dann fuer das Bild Modifikationen einzufordern ? Quasi Photoshop on Steroid.
Z.b. Bild von Pilzen "Bitte ersetze die Pilze durch Fliegenpilze". "Mach den Bauch des Mannes auf dem Bild duenner",... also so das uebliche an Anfragen halt...
-
In den Adobe-Creativ-Suites ist genau das möglich. Bzw mit "FireFly" Und so weit ich das sehe, auch in den neuen GooglePixel9 Smartphones.
-> https://www.adobe.com/de/products/fi…txoC8rAQAvD_BwEWobei das immer noch etwas "gemischt" ist.
Die Ki muss das Bild erst einmal selbst erstellen damit es einen "seed"-Wert bekommt.
Und um diesen Wert herum kann dann gearbeitet werden.Ähnlich, aber nicht EXAKT was man will. Das ist jetzt mal eben mit ideogram gemacht. Gleicher prompt und gleicher seed-wert.
Aber auch hier kann ich nicht angeben: "den bären auf diesem Bild in blau". Das ist ein komplett neues Bild - nur mit gleichem Prompt, anderer Farbangabe und gleichem Seed-Wert.Die Adobe-Sachen habe ich noch gar nicht richtig ausprobiert. Aber anscheinend gibt es jetzt auch KI-generierte Vectorbilder bei Adobe.
Das werde ich die Tage mal genauer untersuchen. -
-
Geht mir ja darum bequem photoshop artige operationen an fotos zu machen die ich geknipst habe. Ohne photoshop lernrn zu mussen.
-
-
-
Jetzt mitmachen!
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!