[blog] Freitag ist Ki-Tag :)

  • Das macht Dall-E draus. Ein Affe in Cyberpunkoptik, der in einer futuristischen Umgebung ein Kodinerds Schild hochhält. Der Affe hat 4 Finger und einen Daumen.

    --------------
    Guides nicht mehr verfügbar wegen Youtube unvermögen guten von schlechten Kodi Videos zu unterscheiden.

  • Interessanter Vergleich, Danke!

    Microsoft finanziert OpenAI garantiert nur unter der Auflage, das es schwer gemacht wirds, so böses Verhalten wie rauchen abzubilden. Disney läßt grüßen ?[ap] Auch ansonsten deutlich schwächer IMHO.

  • Genau der Prompt geht nicht, da kommt bei mir nur User_Input und ein Random Bild von Sekrätärin und ähnliches. Vermutlich zu lang.

    --------------
    Guides nicht mehr verfügbar wegen Youtube unvermögen guten von schlechten Kodi Videos zu unterscheiden.

  • Da passiert intern viel mehr. Während man zb bei ideogram einfach "etwas" schreibt, kann man sich danach entscheiden, ob der Prompt noch "magic prompt" erhalten soll.
    Dann wird aus wenig Text sehr viel Text.
    midjourney macht das gefühlt immer. Dall-E mal ja und mal nein.
    Vorteil ist dann aber bei ideogram, dass einem die Prompts je Ergebnis auch angezeigt werden
    Ich verfasse also einen Beschreibungssatz, wähle ein paar Settings aus, u.a. "Magic Prompt" und erhalte dann vier Ergebnisse, inkl der magisch erzeugten Prompts.

    Nur so zum Spaß gehe ich auch daher und lasse von Gemini, Co-Pilot und ChatGPT einen Prompt für ideogram erzeugen und deaktiviere dann magic-prompt.
    Oder ziehe ein Bild bei ChatGPT rein und lasse es für eine Bilder-Ki beschreiben.
    Für solche Sachen muss man aber Fan von dem ganzen Zeug sein. Ist halt schon Zweckfrei, da sich eh alles schneller ändert als man etwas lernen kann.
    So oder so ist es für mich in erster Linie eine Inspirationshilfe, die fern ab von Google-Bildersuche funktioniert.

  • Es gab doch auch ein Experiment mit einer Sofortbildkamera. Die hat auf Knopfdruck ein Bild gemacht, dass dann eine KI Bild>Text interpretiert hat und die Interpretation dann in eine andere KI Text > Bild geschickt. Das Ergebnis wurde ausgedruckt.

  • Ich dachte was jetzt passiert, ist das die AI das Internet jetzt so weit infiziert, das wir bald in der Wikipedia nachlesen koennen, das Menschen normalerweise 6 Finger an der Hand haben, und alles andere sind nur Mutationen.

  • don

    Deren Werbetext macht gute Ki-Bilder :)

    Das hier hab ich so mal als moegliche Vorlage gefunden... (von https://phys.org/news/2020-01-r…great-lake.html)

    Wenn viel von der Bild K.I. so wie ich vermute aus Modifikationen existierender Vorlagen besteht, wie gut/einfach ist es dann eigentlich mit den Tools ein Bild hochzuladen und dann fuer das Bild Modifikationen einzufordern ? Quasi Photoshop on Steroid.

    Z.b. Bild von Pilzen "Bitte ersetze die Pilze durch Fliegenpilze". "Mach den Bauch des Mannes auf dem Bild duenner",... also so das uebliche an Anfragen halt...

  • In den Adobe-Creativ-Suites ist genau das möglich. Bzw mit "FireFly" Und so weit ich das sehe, auch in den neuen GooglePixel9 Smartphones.
    -> https://www.adobe.com/de/products/fi…txoC8rAQAvD_BwE

    Wobei das immer noch etwas "gemischt" ist.
    Die Ki muss das Bild erst einmal selbst erstellen damit es einen "seed"-Wert bekommt.
    Und um diesen Wert herum kann dann gearbeitet werden.

    Ähnlich, aber nicht EXAKT was man will. Das ist jetzt mal eben mit ideogram gemacht. Gleicher prompt und gleicher seed-wert.
    Aber auch hier kann ich nicht angeben: "den bären auf diesem Bild in blau". Das ist ein komplett neues Bild - nur mit gleichem Prompt, anderer Farbangabe und gleichem Seed-Wert.

    Die Adobe-Sachen habe ich noch gar nicht richtig ausprobiert. Aber anscheinend gibt es jetzt auch KI-generierte Vectorbilder bei Adobe.
    Das werde ich die Tage mal genauer untersuchen.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!