DALL-E kann was, aber nicht genug

Der Panther – wie DALL-E 2 ihn mit unserer Anleitung schuf.

Wir haben die erste Strophe von Rilke’s Gedicht ins Textfeld eingegeben und ergänzt um „gemalt im Stil von Walton Ford“.

Bisher waren wir der Meinung, dass die menschliche Kreativität durch künstliche Intelligenz (KI) nicht zu ersetzen ist. Aber stimmt das noch? Im Zuge der Recherchen für unser Buch „Kein Käfer“ haben wir in den letzten Tagen mit DALL-E 2 experimentiert. Das ist eine vom Forschungslabor OpenAI entwickelte KI, die auf Basis von beschreibenden Texten Bilder generiert – Fotos, Illustrationen, Collagen. Wir haben uns gefragt: Wie kreativ ist diese KI heute schon? Die Antworten waren überraschend. Wir stellen hier einige Beispiele unseres Inputs und den Output von DALL-E 2 vor.

Unser Briefing: Snow is falling, The Meiji era got, Further away [Haiku von Nakamura Kusatao], in a Georgia O' Keeffe style

Unser Briefing: A man machine, creating landscapes, writing poems, able to fly, strong and delicate, beautiful and disturbing, digital art

 

Was wir gelernt haben

  1. Die Beispiele zeigen, dass DALL-E 2 die Fähigkeit hat, Verbindungen zu schaffen zwischen Sprache, Stimmungen und existierenden Bildwelten. Die in der Datenbank vorhandenen Motive werden zu etwas Neuem kombiniert. So machen wir es häufig auch im Kreativprozess. Wenn es zum Beispiel darum geht, ein Cover oder ein erzählerisches Format zu konzipieren. Die Datenbank ist in diesem Fall unser Gehirn, es speist sich aus allem, was wir schon mal gesehen, gehört und erlebt haben.

  2. Wenn wir existierende Texte von Dichtern eingeben und wissen, in welchem Stil wir sie illustrieren möchten, sind die Ergebnisse in der Anmutung überraschend gut. D.h. sie könnten Menschen, die weniger visuell denken (denen begegnen wir in unserem beruflichen Alltag immer wieder), einen ersten Eindruck von einer Idee vermitteln. Das kann helfen, auch dabei, den Aufwand zu Beginn des Prozesses gering zu halten – zum Beispiel für Skizzen und alternative Optiken.

  3. Wenn wir existierende Bilder hochladen, können wir mit einem Klick vier Varianten generieren. Dabei scheint DALL-E 2 die grundsätzlichen Anforderungen an Bildaufbau, Licht und Schatten etc. zu beherrschen. Die Varianten haben allerdings kleine und größere Fehler, sie genügen nicht unseren ästhetischen Ansprüchen. Bald lernt die KI vermutlich den Geschmack der Anwenderin und ihren bevorzugten visuellen Stil zu erkennen und passendere Motive vorzuschlagen.

  4. Je präziser wir unsere Vorstellungen mit Sprache ausdrücken können, desto bessere Ergebnisse liefert DALL-E 2. Das gilt im Übrigen auch für uns Menschen: Mit einem klaren Briefing konzipieren wir Produkte, die können, was sie sollen. Es gibt auch Beispiele, die zeigen, dass DALL-E 2 ungewöhnliche Bilder auswirft, selbst wenn nur zwei Worte eingegeben werden. Das kann nützlich sein in der Phase des Brainstormings, in der wir noch möglichst offen für Impulse sein wollen.

  5. Je  mehr die Anwenderin in der visuellen Welt zuhause ist, desto gezielter kann sie DALL-E 2 „briefen“. Das heißt, wenn wir bestimmte Kunstrichtungen und Künstlerinnen kennen, können wir eingeben „im Stil von Andy Warhol/Vermeer/Frida Kahlo“, um Umsetzungen zu bekommen, die wir uns wünschen. Diese flinke Adaption eines originären künstlerischen Stils auf ein neues Motiv muss auf Malerinnen, Fotografinnen und Illustratorinnen erschreckend wirken.

  6. DALL-E 2 sammelt sofort Informationen über uns. Es gibt einen Surpise-Me-Button. Wenn man ihn drückt, wird ein Text vorgeschlagen, zu dem Motive generiert werden sollen. Den haben wir angeklickt, nachdem wir unsere ersten freien 50 Credits schon fast aufgebraucht hatten. Unser Überraschungs-Ei hatte die Textzeile „A painting of a fox in the style of Starry Night“. Der Name Vincent van Gogh, der Starry Night gemalt hat, tauchte nicht auf. Aber DALL-E 2 hat offenbar gecheckt, dass wir uns in Kunstgeschichte ein wenig auskennen – aufgrund unserer vorherigen Eingaben.

  7. Mit DALL-E 2 lassen sich Bilder auch bearbeiten, indem man einzelne Bereiche markiert und beschreibt, was ergänzt und verändert werden soll. Die Ergebnisse dafür wirken allerdings in unserem Fall eher wie sehr grobe Collagen, es ist kein harmonisches Gesamtbild. Vielleicht müssen wir noch am Briefing feilen. Die AI kann Bilder auch erweitern, nach links, rechts, oben unten.

Unser Briefing: Wir haben eine eigene Illustration hochgeladen und um Alternativen gebeten. Einer der DALL-E-Vögel hat drei Füße.

Was wir uns fragen

Alles in allem ist es spannend, sich mit künstlichen Intelligenzen wie DALL-E 2, Midjourney oder Stable Diffusion zu beschäftigen. Es ist ein wenig beunruhigend, wie gut sie schon sind. Und nachdem wir einmal angefangen haben, hat sich schnell eine Art Sucht entwickelt. Wir sind in einen Sog geraten und konnten nicht mehr aufhören. Wie verändern sich die Ergebnisse, wenn wir die sprachliche Beschreibung des Zielbilds verändern? Lernt die KI mehr über uns und liefert genauer zu unseren Vorstellungen passende Ergebnisse? Aber die Iterationen haben in unserem Fall nicht attraktivere Ergebnisse erzeugt. Wir fürchten also noch lange nicht um unsere Jobs. Vielmehr interessieren uns die zusätzlichen Möglichkeiten, die KI im Kreativprozess bietet.

 

Allerdings müssen wir gesamtgesellschaftlich noch viele Fragen in der Anwendung von DALL-E 2 und Co. beantworten. Uns interessiert zum Beispiel: Welche Quellen und Bildmotive wurden für das generierte Bild herangezogen? Wer hat die Urheberrechte an den generierten Bildern? Vermutlich waren die Coder wieder überwiegend weiß, jung und männlich. Wie beeinflusst ihre Wahrnehmung, ihr Denken und ihr Geschmack die Ergebnisse (Bias)? Sind wir schon Künstlerinnen, nur weil wir mit DALL-E 2 halbwegs ansprechende Mash-Ups von existierenden Werken produzieren können? Und müssten Verlage, Medienhäuser und Unternehmen nicht eine Selbstverpflichtung unterschreiben, in ihren Publikationen keine von KI generierten Motive, sondern von Menschen illustrierte, fotografierte, gemalte Arbeiten zu verwenden?

 

Wir bleiben an diesen Themen dran. Ihr könnt auch dranbleiben – und unseren Newsletter abonnieren.

Zurück
Zurück

Überraschend anders

Weiter
Weiter

Unser erstes Buch: „Kein Käfer“