Seite 2 von 2 ErsteErste 12
Ergebnis 11 bis 16 von 16

Thema: KI und Bildgenerierung

  1. #11
    Ist noch neu hier
    Registriert seit
    23.07.2024
    Beiträge
    6
    Danke abgeben
    7
    Erhielt 30 Danke für 5 Beiträge

    Standard

    Zitat Zitat von joeweng Beitrag anzeigen
    Moin,
    bei genauer Betrachtung fehlt die menschliche Asymmetrie, deshalb wirkt das Bild etwas unnatürlich. Mit dem richtigen Prompt lässt sich das aber bestimmt auch realisieren.
    Ich denke, dass die sogenannte KI uns noch viel vom restlichen Leben verderben wird. Sie wird nicht aufzuhalten sein, also müssen wir uns mit ihr arrangieren.

    Ich würde mich freuen, wenn wir hier im Forum einen "offenen" Ansatz verfolgen und diese Entwicklung zulassen und an der richtigen Stelle (vielleicht eine eigene Rubrik, wenn genügend interessierte dahinter stehen)
    einen Raum dafür schaffen. In zukünftige Bildbearbeitungssoftware und Kameras wird ohnehin immer mehr "Intelligenz" einziehen.
    Aus meiner Sicht wäre es gut, eine "freiwillige" Kennzeichnungspflicht zu vereinbaren, wenn wir Bilder mit (beabsichtigtem) KI-Anteil zeigen.

    LG Jörn

    Ich unterstütze die Idee von Jörn und Gladstone, dafür eine Unterrubrik zu schaffen, wo sich beteiligen kann, wer an dem Thema Interesse hat. Wer das nicht tut, braucht es dann ja nicht zu lesen.
    Und Jörn hat Recht, dass die KI nicht aufzuhalten sein wird und jeder rausfinden muss, wie er/sie sich damit arrangiert. Auch - und gerade im Zusammenhang mit der schützenswerten Autentizität unseres geliebten manuellen Altglases.

    Wer mit einem Smartphone der neuesten Generation fotografiert, hat die KI sowieso schon am Hals, ob er will oder nicht, siehe z.B. das Thema Mond-Fakes:
    https://www.theverge.com/2023/3/13/2...-s21-s23-ultra, https://www.reddit.com/r/Android/com...ere/?rdt=60958
    Und nach meiner bescheidenen Erfahrung lassen sich Anmutung und Swirl der einen oder anderen älteren Linse auch immer besser am PC "nachbauen" - das Simulieren von Hintergrundunschärfe ist ja schon standardmäßig als Funktion in Photoshop eingebaut .

    Bei mir ist es so: Nachbearbeitung in Photoshop ist ein normaler Schritt in meinem Workflow, zumindest bei Bildern, die mir wichtig sind, auch mit Altglas. Als Adobe anfing, Firefly in PS zu integrieren, habe ich also natürlich auch erstmal mit der KI herumgespielt. Aber dieser Spieltrieb hat nicht mal 2 Wochen angehalten, dann wurde das Störgefühl immer größer, als mir klar wurde, dass ich meine Identität als Fotograf aufgebe, wenn ich die kreative Arbeit mit der Kamera gegen ein paar eingetippte Befehle an die KI eintausche. Seitdem ist meine Firefly-Nutzung um 95% zurückgegangen und beschränkt auf seltene Fälle, wo ich sie z.B. aus Zeitgründen nutze, um schnell mal kleinere Bildfehler auszumerzen, für deren Beseitigung mit traditionellen PS-„Bordmitteln“ ich sonst viertel-, oder halbe, oder ganze Stunden bräuchte. Will heißen: Sehr häufig sind meine Bilder ooC, aber ich nehme mir auch die Freiheit, Bilder die mir wichtig sind in PS (in der Regel ohne KI) anzupassen, z.B. wenn das Ergebnis, das der Kamerasensor liefert, nicht dem entspricht was mein Auge gesehen und mein Gedächtnis gespeichert hat, wenn wichtige Details nicht so scharf sind wie ich sie gerne hätte, oder Farben falsch, oder Kontrast flau (was bei manchem Altglas ja alles vorkommen soll …), oder wenn ich beim Auslösen mit langer Brennweite verrissen habe und dabei ein kleiner, aber wichtiger Bildteil unabsichtlich abgeschnitten worden ist, etc.

    Wo ist dann die Grenze des „Erlaubten“?
    Und wo ist die Grenze bei weitergehendem KI-Einsatz, wenn ganze Bilder oder Teile davon künstlich erzeugt werden?

    Ich maße mir da kein Urteil an.
    Genau deshalb fände ich es interessant, wenn es im Forum eine kleine Plattform für den Austausch darüber mit interessierten Forumsteilnehmern gäbe – über technische und gerne auch über ethische Aspekte.

    Viele Grüße
    Michael

  2. 3 Benutzer sagen "Danke", MWB :


  3. #12
    Ist oft mit dabei
    Registriert seit
    09.12.2020
    Ort
    Kiel
    Beiträge
    256
    Danke abgeben
    80
    Erhielt 1.007 Danke für 181 Beiträge

    Standard

    Ich finde KI-unterstützte Tools im alltäglichen Berufsalltag durchaus sinnvoll. Gerade bei Altglas kann Topaz Sharpen AI sehr sinnvoll sein und ich möchte die ganzen KI-unterstützten Freistellmasken in Photoshop und CameraRAW nicht mehr missen (was auch mit der Hauptgrund ist, warum ich nicht von Photoshop zu Affinity umziehe).

    Auch Bildgenerierung kann Sinn machen, so kann ich z.B. in narrativen Serien Establisher generieren, die meine Geschichte in einer bestimmten Welt verorten, die ich ohne KI nicht brauchbar umsetzen könnte. Im Falle meiner Wikinger-Geschichte z.B. durch ein brennendes Wikingerdorf. Wie hätte ich das ohne Budget sonst umsetzen sollen?

    Aber es sollte jedem auch klar sein, dass die KI massiv Jobs und Aufträge vernichtet - auf dem Rücken von Künstler:innen, die dafür nicht entschädigt worden sind. Klar, manche Einsätze finden da statt, wo sonst auch niemand beauftragt worden wäre, da kein Budget vorhanden ist - diese Fälle nehmen keine Jobs weg, aber im B2B-Bereich sieht es ganz anders aus, wobei selbst das ein zweischneidiges Schwert ist. Was ist besser? Das neue Mode-Shooting KI generieren zu lassen oder dafür im Winter eine ganze Crew nach Südafrika zu jetten, um es da vor Ort umzusetzen. Es gibt da keine pauschalen Antworten zu.

    Im ersten Heft meiner Gedanken zur Fotografie (die man hier auch kostenlos herunterladen kann), hatte ich ja schon ausgerufen: Die Fotografie ist tot, es lebe die Fotografie!
    Neues Zine: "Gedanken zur Fotografie - 1" // gedruckte Version und kostenloser Download: https://www.schlicksbier.com/gedanken-zur-fotografie-zine

  4. 2 Benutzer sagen "Danke", schlicksbier :


  5. #13
    Ist oft mit dabei
    Registriert seit
    09.12.2020
    Ort
    Kiel
    Beiträge
    256
    Danke abgeben
    80
    Erhielt 1.007 Danke für 181 Beiträge

    Standard

    Zitat Zitat von MWB Beitrag anzeigen
    Und nach meiner bescheidenen Erfahrung lassen sich Anmutung und Swirl der einen oder anderen älteren Linse auch immer besser am PC "nachbauen" - das Simulieren von Hintergrundunschärfe ist ja schon standardmäßig als Funktion in Photoshop eingebaut .
    Dafür würde ich gerne mal Beispiele sehen - und zwar idealerweise mit echten Linsen im Vergleich und der Aufstellung, wie lange das jeweils in PS dauert ...
    Neues Zine: "Gedanken zur Fotografie - 1" // gedruckte Version und kostenloser Download: https://www.schlicksbier.com/gedanken-zur-fotografie-zine

  6. #14
    Förderndes DCC Mitglied Avatar von Crystex
    Registriert seit
    21.08.2012
    Ort
    Sächsische Schweiz
    Alter
    44
    Beiträge
    908
    Bilder
    34
    Danke abgeben
    1.054
    Erhielt 2.576 Danke für 459 Beiträge

    Standard

    Zitat Zitat von schlicksbier Beitrag anzeigen
    Dafür würde ich gerne mal Beispiele sehen - und zwar idealerweise mit echten Linsen im Vergleich und der Aufstellung, wie lange das jeweils in PS dauert ...

    Mit einem Vivo-Smartphone in Kooperation mit Zeiss lassen sich sogar direkt aus der Kamera Bilder mit Biotar-, Sonnar-, Planar- und Distagon-Bokeh-Effekten erstellen – in meinem Fall mit dem Vivo X200 Pro.
    Das funktioniert besser als erwartet.
    Leider kann ich keine direkten Vergleichsbilder machen, da mir kein Originalobjektiv von Carl Zeiss Jena zur Verfügung steht.
    Natürlich fehlen dabei die typischen Abbildungsfehler der jeweiligen Linsendesigns, aber das Bokeh wird wirklich gut simuliert.

    Nichtsdestotrotz bin ich der Meinung, dass die Entwicklung der KI in letzter Zeit enorm schnell vorangeschritten ist – und das nicht nur im Bereich der Bildgenerierung.
    Wir können uns damit arrangieren – und in manchen Fällen müssen wir das sogar.

    LG Alex

  7. #15
    Ist oft mit dabei
    Registriert seit
    09.12.2020
    Ort
    Kiel
    Beiträge
    256
    Danke abgeben
    80
    Erhielt 1.007 Danke für 181 Beiträge

    Standard

    Zitat Zitat von Crystex Beitrag anzeigen
    Mit einem Vivo-Smartphone in Kooperation mit Zeiss lassen sich sogar direkt aus der Kamera Bilder mit Biotar-, Sonnar-, Planar- und Distagon-Bokeh-Effekten erstellen – in meinem Fall mit dem Vivo X200 Pro.
    Das funktioniert besser als erwartet.
    Das ist auf jeden Fall auch spannend :-). Aber mich würde das tatsächlich mal für PS interessieren. Auch bei meinen Weichzeichner-Beiträgen kommt immer wieder die Aussage "ach, warum Filter oder dezidierte Objektive - das kann man doch flexibler / einfacher / schneller in PS machen". Wenn ich dann aber anbiete, eine RAW-Datei zur Verfügung zu stellen, die mit einem modernen Objektiv aufgenommen wurde, damit sie daran ihren Weg zeigen und wir das gleiche Motiv dann mit dem Objektiv / Filter vergleichen können kommt immer das Gleiche: Schweigen im Walde ;-).

    Ich warte also noch immer auf überzeugende Wege in PS, bei denen das Bild am Ende dann einen echten Altglas-Look hat, obwohl es mit modernen Linsen aufgenommen wurde.

    Viele Dinge gehen natürlich. Nassplatten-Simulationen, Cyanotypien. Aber immer werden halt nur Effekte über das Bild gelegt, die es in mancher Hinsicht ähnlich machen. Aber eine Petzval-Simulation mit 3D Pop habe ich da z.B. noch nie gesehen ...
    Neues Zine: "Gedanken zur Fotografie - 1" // gedruckte Version und kostenloser Download: https://www.schlicksbier.com/gedanken-zur-fotografie-zine

  8. 2 Benutzer sagen "Danke", schlicksbier :


  9. #16
    Ist oft mit dabei
    Registriert seit
    11.02.2023
    Beiträge
    211
    Danke abgeben
    35
    Erhielt 928 Danke für 175 Beiträge

    Standard

    Zitat Zitat von schlicksbier Beitrag anzeigen
    Ich finde KI-unterstützte Tools im alltäglichen Berufsalltag durchaus sinnvoll. Gerade bei Altglas kann Topaz Sharpen AI sehr sinnvoll sein und ich möchte die ganzen KI-unterstützten Freistellmasken in Photoshop und CameraRAW nicht mehr missen (was auch mit der Hauptgrund ist, warum ich nicht von Photoshop zu Affinity umziehe).

    Auch Bildgenerierung kann Sinn machen, so kann ich z.B. in narrativen Serien Establisher generieren, die meine Geschichte in einer bestimmten Welt verorten, die ich ohne KI nicht brauchbar umsetzen könnte. Im Falle meiner Wikinger-Geschichte z.B. durch ein brennendes Wikingerdorf. Wie hätte ich das ohne Budget sonst umsetzen sollen?

    Aber es sollte jedem auch klar sein, dass die KI massiv Jobs und Aufträge vernichtet - auf dem Rücken von Künstler:innen, die dafür nicht entschädigt worden sind. Klar, manche Einsätze finden da statt, wo sonst auch niemand beauftragt worden wäre, da kein Budget vorhanden ist - diese Fälle nehmen keine Jobs weg, aber im B2B-Bereich sieht es ganz anders aus, wobei selbst das ein zweischneidiges Schwert ist. Was ist besser? Das neue Mode-Shooting KI generieren zu lassen oder dafür im Winter eine ganze Crew nach Südafrika zu jetten, um es da vor Ort umzusetzen. Es gibt da keine pauschalen Antworten zu.

    Im ersten Heft meiner Gedanken zur Fotografie (die man hier auch kostenlos herunterladen kann), hatte ich ja schon ausgerufen: Die Fotografie ist tot, es lebe die Fotografie!
    Als die Fotografie aufkam erlöste sie nach und nach die Malerei von der stoischen öden Porträtmalerei, sie war auf einem Mal frei und konnte sich weiter entwickeln, ob das in der Form auch passiert wäre ohne die Fotografie?

    Als die digitale Fotografie einsetzte befreite sie die Fotografen von der Arbeit im Labor, kein Ausflecken, kein Abwedeln oder nachbelichten mehr, kein tagelanges Warten wenn es sich um Farbarbeiten aus dem Labor handelte. Z.T. waren sie dann auch noch unbrauchbar weil geschludert wurde. Fehlbelichtungen? Geschichte.
    Die tägliche Brot und Butter Arbeit wurde deutlich vereinfacht und die Fotografen hatten Zeit auch mal etwas zu machen was sie selber wollten.

    Erlöst die KI jetzt die Fotografen von der öden Fotografie für Kataloge und Prospekte? Ist ja schon in vollem Gange und nicht mehr aufzuhalten.
    Vermutlich werden Fotografen, genauso wie im 19. Jahrhundert Porträtmaler, ihre Auskommen verlieren aber ich bin mir sicher das die kreativen kreativen Köpfe in der Lage sein werden Neues zu entwickeln, vielleicht etwas an das wir noch gar nicht denken.
    Die Entwicklung hat gerade angefangen und ich beobachte wie junge Fotografen sich ausprobieren. Ich gebe zu das ich mit vielen Fotos nichts anfangen kann weil sie nichts erzählen, sie sind völlig statisch, alltägliche Dinge werden fotografiert, Wischeimer mit Schrubber, Flaschen von Reinigungsmittel etc., alles 100% scharf und richtig belichtet aber ohne einen Text dazu lassen diese Fotos den Betrachter allein. Diese Texte werden meiner Meinung nach immer länger oder kommt es mir nur so vor.
    Es gibt aber auch junge Fotografen die mich begeistern, sie bauen komplette Welten für ihre Fotos auf, tauchen die Fotos in ein perfekt ausgewähltes Licht, weisen die ausgesuchten Models perfekt an und heraus kommen Fotos die wieder eine Geschichte erzählen und keinen Text mehr brauchen.

    Die Umwälzungen sind in vollem Gange, wer sich die Zeit genommen hat und sich einige der Ausstellungen der EMOP im März in Berlin angesehen hat wird wissen wovon ich spreche.
    Die Frage ob KI oder nicht stellt sich nicht mehr, es wird keine Welt mehr ohne geben.

  10. 4 Benutzer sagen "Danke", arri :


Seite 2 von 2 ErsteErste 12

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •