Ergebnis 1 bis 10 von 16

Thema: KI und Bildgenerierung

Hybrid-Darstellung

  1. #1
    Ist noch neu hier
    Registriert seit
    23.07.2024
    Beiträge
    6
    Danke abgeben
    7
    Erhielt 30 Danke für 5 Beiträge

    Standard

    Zitat Zitat von joeweng Beitrag anzeigen
    Moin,
    bei genauer Betrachtung fehlt die menschliche Asymmetrie, deshalb wirkt das Bild etwas unnatürlich. Mit dem richtigen Prompt lässt sich das aber bestimmt auch realisieren.
    Ich denke, dass die sogenannte KI uns noch viel vom restlichen Leben verderben wird. Sie wird nicht aufzuhalten sein, also müssen wir uns mit ihr arrangieren.

    Ich würde mich freuen, wenn wir hier im Forum einen "offenen" Ansatz verfolgen und diese Entwicklung zulassen und an der richtigen Stelle (vielleicht eine eigene Rubrik, wenn genügend interessierte dahinter stehen)
    einen Raum dafür schaffen. In zukünftige Bildbearbeitungssoftware und Kameras wird ohnehin immer mehr "Intelligenz" einziehen.
    Aus meiner Sicht wäre es gut, eine "freiwillige" Kennzeichnungspflicht zu vereinbaren, wenn wir Bilder mit (beabsichtigtem) KI-Anteil zeigen.

    LG Jörn

    Ich unterstütze die Idee von Jörn und Gladstone, dafür eine Unterrubrik zu schaffen, wo sich beteiligen kann, wer an dem Thema Interesse hat. Wer das nicht tut, braucht es dann ja nicht zu lesen.
    Und Jörn hat Recht, dass die KI nicht aufzuhalten sein wird und jeder rausfinden muss, wie er/sie sich damit arrangiert. Auch - und gerade im Zusammenhang mit der schützenswerten Autentizität unseres geliebten manuellen Altglases.

    Wer mit einem Smartphone der neuesten Generation fotografiert, hat die KI sowieso schon am Hals, ob er will oder nicht, siehe z.B. das Thema Mond-Fakes:
    https://www.theverge.com/2023/3/13/2...-s21-s23-ultra, https://www.reddit.com/r/Android/com...ere/?rdt=60958
    Und nach meiner bescheidenen Erfahrung lassen sich Anmutung und Swirl der einen oder anderen älteren Linse auch immer besser am PC "nachbauen" - das Simulieren von Hintergrundunschärfe ist ja schon standardmäßig als Funktion in Photoshop eingebaut .

    Bei mir ist es so: Nachbearbeitung in Photoshop ist ein normaler Schritt in meinem Workflow, zumindest bei Bildern, die mir wichtig sind, auch mit Altglas. Als Adobe anfing, Firefly in PS zu integrieren, habe ich also natürlich auch erstmal mit der KI herumgespielt. Aber dieser Spieltrieb hat nicht mal 2 Wochen angehalten, dann wurde das Störgefühl immer größer, als mir klar wurde, dass ich meine Identität als Fotograf aufgebe, wenn ich die kreative Arbeit mit der Kamera gegen ein paar eingetippte Befehle an die KI eintausche. Seitdem ist meine Firefly-Nutzung um 95% zurückgegangen und beschränkt auf seltene Fälle, wo ich sie z.B. aus Zeitgründen nutze, um schnell mal kleinere Bildfehler auszumerzen, für deren Beseitigung mit traditionellen PS-„Bordmitteln“ ich sonst viertel-, oder halbe, oder ganze Stunden bräuchte. Will heißen: Sehr häufig sind meine Bilder ooC, aber ich nehme mir auch die Freiheit, Bilder die mir wichtig sind in PS (in der Regel ohne KI) anzupassen, z.B. wenn das Ergebnis, das der Kamerasensor liefert, nicht dem entspricht was mein Auge gesehen und mein Gedächtnis gespeichert hat, wenn wichtige Details nicht so scharf sind wie ich sie gerne hätte, oder Farben falsch, oder Kontrast flau (was bei manchem Altglas ja alles vorkommen soll …), oder wenn ich beim Auslösen mit langer Brennweite verrissen habe und dabei ein kleiner, aber wichtiger Bildteil unabsichtlich abgeschnitten worden ist, etc.

    Wo ist dann die Grenze des „Erlaubten“?
    Und wo ist die Grenze bei weitergehendem KI-Einsatz, wenn ganze Bilder oder Teile davon künstlich erzeugt werden?

    Ich maße mir da kein Urteil an.
    Genau deshalb fände ich es interessant, wenn es im Forum eine kleine Plattform für den Austausch darüber mit interessierten Forumsteilnehmern gäbe – über technische und gerne auch über ethische Aspekte.

    Viele Grüße
    Michael

  2. 3 Benutzer sagen "Danke", MWB :


  3. #2
    Ist oft mit dabei
    Registriert seit
    09.12.2020
    Ort
    Kiel
    Beiträge
    256
    Danke abgeben
    80
    Erhielt 1.007 Danke für 181 Beiträge

    Standard

    Zitat Zitat von MWB Beitrag anzeigen
    Und nach meiner bescheidenen Erfahrung lassen sich Anmutung und Swirl der einen oder anderen älteren Linse auch immer besser am PC "nachbauen" - das Simulieren von Hintergrundunschärfe ist ja schon standardmäßig als Funktion in Photoshop eingebaut .
    Dafür würde ich gerne mal Beispiele sehen - und zwar idealerweise mit echten Linsen im Vergleich und der Aufstellung, wie lange das jeweils in PS dauert ...
    Neues Zine: "Gedanken zur Fotografie - 1" // gedruckte Version und kostenloser Download: https://www.schlicksbier.com/gedanken-zur-fotografie-zine

  4. #3
    Förderndes DCC Mitglied Avatar von Crystex
    Registriert seit
    21.08.2012
    Ort
    Sächsische Schweiz
    Alter
    44
    Beiträge
    908
    Bilder
    34
    Danke abgeben
    1.054
    Erhielt 2.576 Danke für 459 Beiträge

    Standard

    Zitat Zitat von schlicksbier Beitrag anzeigen
    Dafür würde ich gerne mal Beispiele sehen - und zwar idealerweise mit echten Linsen im Vergleich und der Aufstellung, wie lange das jeweils in PS dauert ...

    Mit einem Vivo-Smartphone in Kooperation mit Zeiss lassen sich sogar direkt aus der Kamera Bilder mit Biotar-, Sonnar-, Planar- und Distagon-Bokeh-Effekten erstellen – in meinem Fall mit dem Vivo X200 Pro.
    Das funktioniert besser als erwartet.
    Leider kann ich keine direkten Vergleichsbilder machen, da mir kein Originalobjektiv von Carl Zeiss Jena zur Verfügung steht.
    Natürlich fehlen dabei die typischen Abbildungsfehler der jeweiligen Linsendesigns, aber das Bokeh wird wirklich gut simuliert.

    Nichtsdestotrotz bin ich der Meinung, dass die Entwicklung der KI in letzter Zeit enorm schnell vorangeschritten ist – und das nicht nur im Bereich der Bildgenerierung.
    Wir können uns damit arrangieren – und in manchen Fällen müssen wir das sogar.

    LG Alex

  5. #4
    Ist oft mit dabei
    Registriert seit
    09.12.2020
    Ort
    Kiel
    Beiträge
    256
    Danke abgeben
    80
    Erhielt 1.007 Danke für 181 Beiträge

    Standard

    Zitat Zitat von Crystex Beitrag anzeigen
    Mit einem Vivo-Smartphone in Kooperation mit Zeiss lassen sich sogar direkt aus der Kamera Bilder mit Biotar-, Sonnar-, Planar- und Distagon-Bokeh-Effekten erstellen – in meinem Fall mit dem Vivo X200 Pro.
    Das funktioniert besser als erwartet.
    Das ist auf jeden Fall auch spannend :-). Aber mich würde das tatsächlich mal für PS interessieren. Auch bei meinen Weichzeichner-Beiträgen kommt immer wieder die Aussage "ach, warum Filter oder dezidierte Objektive - das kann man doch flexibler / einfacher / schneller in PS machen". Wenn ich dann aber anbiete, eine RAW-Datei zur Verfügung zu stellen, die mit einem modernen Objektiv aufgenommen wurde, damit sie daran ihren Weg zeigen und wir das gleiche Motiv dann mit dem Objektiv / Filter vergleichen können kommt immer das Gleiche: Schweigen im Walde ;-).

    Ich warte also noch immer auf überzeugende Wege in PS, bei denen das Bild am Ende dann einen echten Altglas-Look hat, obwohl es mit modernen Linsen aufgenommen wurde.

    Viele Dinge gehen natürlich. Nassplatten-Simulationen, Cyanotypien. Aber immer werden halt nur Effekte über das Bild gelegt, die es in mancher Hinsicht ähnlich machen. Aber eine Petzval-Simulation mit 3D Pop habe ich da z.B. noch nie gesehen ...
    Neues Zine: "Gedanken zur Fotografie - 1" // gedruckte Version und kostenloser Download: https://www.schlicksbier.com/gedanken-zur-fotografie-zine

  6. 2 Benutzer sagen "Danke", schlicksbier :


Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •