WR1210 Nassabgespielte Negative

 

Darin: Marquardt International PinholeNERFIESAI-Based Sky ReplacementThis Meeting Never Happened!

Future of Photography: Nerdy NeRF Stuff

Fragen: Bildschirmkalibrierung – iPhone-Zoom – Geld verdienen mit Fotos – Eigenbau-Webcam – Alte Kameras pflegen (Werkstättenbilder: PLZ 0, 1-3, 3-5, 5-8, PLZ 9)  – Croppen oder Brennweite – Dunkelkammerzwang – Objektive objektiv – Akkus und Kriechstrom – Schlechte Lichtbedingungen – Altglas – Notebook-Kameras

Bilderschau: Silent MorningSchlechtes Wetterfog

Fragen? Hierher?

Bilder? Einreichen!

11 Gedanken zu „WR1210 Nassabgespielte Negative

  1. Eric

    Zu den ISO Werten: Wollte meine Frage nicht mit noch mehr Zahlengedöns vollpacken.
    Die Kamera ist eine Fuji X-S10. Die Werte gehen gut und gerne schnell auf ISO 5000-6000, wenn ich etwas abblende bspw. auf Blende 4 auch auf 8000-12000 (da ist dann aber auch Schluss) . Auch bei Kunstlicht in meiner Meinung nach hell beleuteten Räumen bin ich schnell bei +/-10000.
    Hat mich nur überrascht wie schnell die Werte doch in die Höhe schießen.
    Zumindest habe ich ein Antwort: Lichtstärkere Objektive lohnen sich nicht wirklich für diese Zwecke, aber man findet schon Gründe sich doch welche zu kaufen 😉

    Antworten
  2. Michael

    Moin. Kurzer Einwurf zum Thema “Altglas”: angeregt durch irgendeine Happyshooting-Folge hab’ auf dem Trödel ein 135mm f/2.8 m42 gekauft – 15€.
    Adapter m42 auf Canon EOS: 8€.
    Das Teil ist komplett manuell und stellenweise echt anstrengend zu fokussieren
    Aber wenn man sich drauf einlässt wirklich toll.
    Auch gerne mit Gegenlicht wie tierstehender Sonne oder so.
    Bis dahin, weiter so.
    3,2,1Wrint!
    😉

    Antworten
  3. hilti

    Wow, die 3 Youtube-Videos find ich ja gruselig. In der Zukunft kann man eigentlich gar nichts mehr glauben, weils gefakt sein könnte. Und die Vorstellung, dass irgenwie bearbeitete Videos bei der Polizei landen und man plötzlich verdächtig ist macht es nochmal gruseliger.

    Antworten
    1. PP

      Ja man kann sich so manches ‘Horrorszenario’ vorstellen. Die Videos von zB der Greta Ansprache mit Nicolas Cage Kopf find ich auch echt gruselig https://www.youtube.com/watch?v=QzwpfETTiVU.
      Andererseits bleiben die Möglichkeiten der Analyse (zB in der Forensik) ja auch nicht stehen. Man kann also selbst wenn das menschliche Auge/Gehirn nicht mehr unterscheiden kann noch herrausfinden ob ein Video Fake ist oder nicht. Katz und Maus Spiel eben.
      Man könnte sich wesentlich mehr über die technologischen Fortschritte freuen wenn ‘Der Mensch’ mal ein paar seiner negativen Eigenschaften bearbeiten würde. Ich hoffe nur das ‘Der Mensch’ nicht den Fehler macht dies auch durch Technologie zu bewerkstelligen. Wäre dann nämlich ziemlich unethisch.

  4. Rebekka

    Zum Thema Licht und Fuji:
    Hallo Erik, falls du das liest: schreib doch mal deine Einstellungen (inkl. der im Menü vergrabenen Einstellung des Formats, Bildgröße, Ausgabedatei und Bildqualität), welche Kamera und welches Objekt du verwendest sowie ein paar Beispielbilder. Ich würde gern versuchen das Problem zu reproduzieren. Hier kann irgendwas nicht stimmen.
    Ich mache zwar selten Portraits aber verwende für meine Arbeit eine XE-3 zur Dokumentation von Gebäuden, Baustellen etc. …, viele dunkle Ecken (Keller, Dachböden) und ich bin nach knapp 2 Jahren immernoch echt begeistert wie viel bessere und hellere Bilder aus der XE-3 mit verhältnismäßig wenig ISO fallen als aus meiner vorherigen Canon Spiegelreflex (auch mit APSC Sensor). Zusätzliche Beleuchtung bzw. einen Blitz verwende ich nur noch dann, wenn gar keine Beleuchtung vorhanden ist oder ich in einem besonders funzeligen Altbaukeller stehe.
    Ich hoffe du findest eine Lösung!

    Antworten
    1. Michael

      Das hat er bereits, ganz oben, erster Comment. Zumindest seine Kamera, eine Fuji X-S10, hat er erwähnt.

      https://wrint.de/2021/03/24/wr1210-nassabgespielte-negative/#comment-154704

      Ich hab eine Fuji X-T3, die durchaus vergleichbar ist, und hab mal versucht das nachzustellen. An einem sonnigen Tag, ein Fenster, keine direkte Einstrahlung ging der ISO bei Blende 4 bis 5 nicht über 250 hinaus. Bei geschlossenen Jalousie und dadurch ‘nicht gerade tagheller’ Beleuchtung rutschte der ISO auf 1250 – aber das war es. Auf 8000 und höher komme ich höchstens in der Dämmerung oder in meinem Arbeitszimmer, das von einer ziemlich dämmrigen Energiesparlampe erhellt wird.

      Entweder stimmt da etwas in den Einstellungen nicht – beispielsweise, wenn versehentlich eine Programmeinstellung gewählt ist, die eine Mindest-ISO vorschreibt. Oder Eric schätzt die Helligkeit von Räumen nicht gerade gut ein.

  5. Paul

    Moin,
    ich nehm’s jetzt mal als Kompliment, dass ihr euch 5min über den Fussel im Bild ausgelassen habt, weil das bedeutet dass es sonst nicht viel zu kritisieren gab. xD Ich kann euch jetzt auch nicht mehr sagen, warum ich ihn dringelassen habe. Kann sein, dass es eine Kombination auch “Is mir egal” und “Ich habs mit Darktable nicht hingekriegt” war (Darktable ist eine Open-Source-Alternative zu Lightroom, auf die ich zu der Zeit frisch umgestiegen war).
    Ansonsten stimme ich zu: Die Pfähle hätten ein bisschen weiter oben besser ausgesehen. Aber ich habe hier glaube ich versucht zwischen ein paar Faktoren zu balancieren. Ich wollte die Pfähle komplett drauf haben, sodass man sieht wie sie im Nebel verschwinden. Ich wollte nicht, dass der Steg, auf dem ich stand mit drauf ist. Und ich wollte die Struktur des Wassers nicht zu sehr zusammenpressen.
    Insgesamt bin ich aber sehr zufrieden mit dem Bild. =)

    Antworten
  6. Mario

    Hallo,

    was den Akku über die lange Zeit entlädt, das ist einerseits die Schutzschaltung der Lithium-Ionen-Zelle und die Kamera selber.
    Beide Baugruppen haben einen Ruhestrom.
    Ein Kriechstrom ist das hier nicht, den der entsteht durch Verschmutzung auf isolierenden Materialien 😉

    Sony NEX 7 – ja, so eine repariere ich gerade 😉

    Webcams im Laptop – die sind aufgrund ihrer Position für eine Videokonferenz schon ungeeignet.
    (Wer will meinen Kehlkopf sehen? Wer mein Kopf von vorn schräg unten? Bin doch kein Dominator… )
    Warum die Auflösung einer Webcam hoch sein muss, erschließt sich mir nicht.
    Das Video wird ohnehin wieder geschrumpft für die Übertragung.
    Zumal bei der üblichen Konferenz das Video gar nicht notwendig ist…

    An der Baugröße kann die Qualität nicht liegen. Erfahrungsgemäß sind Webcam-Module aus dem Laptop nicht größer oder kleiner als Kamera-Module aus dem Handy.

    Wer darf und hat, kann sein Smartphone als Webcam nutzen. Dann stimmt auch die Höhe zum Kopf.

    Nass scannen geht auch mit dem Flachbettscanner.
    Man sollte nur daran denken, dass das Vorlagenglas zum Gehäuse nicht abgedichtet ist.

    Viele Grüße

    Mario

    Antworten
    1. Matthias

      Beim Thema “Webcam im Laptop” wollte ich in die gleiche Kerbe hauen: Das ist eine Kamera für den absoluten Notfall. Die Perspektive, aus der so eine Kamera prinzipbedingt filmen muss, ist einfach Kacke. Wer sich in einer Videokonferenz auch nur ansatzweise gut präsentieren will, weicht ganz schnell auf eine externe Kamera aus, die von einer ordentlichen Position aus aufnimmt, nämlich auf Augenhöhe, und dann idealerweise noch so ausgerichtet ist, dass sie mit dem Umgebungslicht und dem Hintergrund einigermaßen klarkommt. Die Auflösung ist dabei ziemlich wumpe.

  7. Juna

    Kleiner Hinweis, der Kameraservice Ostkreuz ist inzwischen nach Oberschöneweide gezogen und ist weiter sehr zuverlässig. Wenn er merkt, wie sehr man seine Kamera liebt, ist die Kommunikation übrigens sehr gut. Er schaut sich grundsätzlich erstmal alle (analogen) Kameras an, ob er was machen kann. Das ist doch schon mal was. (Und sein Hund ist auch nett).

    Antworten
  8. Philipp

    Ich bin mir noch nicht so sicher, ob die AI im “kuenstlerischen” so eine grosse Nummer wird.

    Ich naehere mich dem Thema eher von der anderen Seite, mein Beruf ist Software und Video, und an der Kamera bin ich ein absoluter Anfaenger. Aber mich interessiert das Thema natuerlich auch, und ich formulier einfach mal eine Gegenmeinung aus gewagten Hypothesen, ohne “recht haben zu wollen”.

    Realitaet und Taeuschung auseinander zu halten ist eine wichtige Funktion unseres Gehirns. Und die reagiert auf neue Reize extrem gut mit Adaption. Ich glaube nicht, dass Techniken, etwas unechtes echt aussehen zu lassen lange ueberzeugen koennen, da ist irgendwann immer die Luft raus.

    Dieser ganze CGI-Filmkram… manche (wie ich) sind da ja komplett von gelangweilt. Und wenn etwas ueberzeugt, dann nicht wegen dem Hochglanz und nicht allein wegen der korrekten Beleuchtung, sondern weil viel Herzblut in die detailverliebten 3D Modelle geflossen ist. Man spuert halt die Arbeit, und letztendlich ist es egal ob sie am Computer oder im physikalischen Kulissenbau passiert ist.

    AI und Video… Unser Gehirn ist ja selber sehr gut darin, Fehler auszublenden (Stichwort blinder Fleck der Netzhaut). Ich bin recht ueberzeugt von dem Bewusstseinsmodell, das Joscha Bach hier und da erklaert hat: Ob wir nun traeumen oder wach sind, die “Realitaet” ist immer eine vom Gehirn modellierte Illusion. Im Wachzustand laeuft bloss die ganze Zeit ein Korrektur-Algorithmus, der nach Sinneswahrnehmungen sucht, die der Illusion widersprechen. in dem Moment wird das Realitaets-Modell korrigiert. Und: Die Momente, in denen das passiert, erleben wir sicherlich viel intensiver.

    Jetzt funktioniert AI so aehnlich wie unser Gehirn. Liefert zb die selben Ergebnisse, wenn es darum geht, einen blinden Fleck mit Inhalt zu fuellen. Was passiert jetzt, wenn wir uns AI-generierten Content ansehen? Unsere Sinne bekommen genau das zu sehen, was auch die Illusions-Prediktoren im Gehirn vorraussagen. Man schaltet letztlich wegen vorhersagbarem Einheitsbrei auf Durchzug, so aehnlich wie der Langeweile-Koller, wenn man sich zu lange in den selben 4 Waenden aufhaelt.

    Ist nicht verwunderlich, das Woerter wie “unique” heute so oft gebraucht werden. Wir sehnen uns eben nach Eindruecken, die uns rausreissen, die ueberraschend echt wirken. AI wird uns das nicht liefern, nur die Sehnsucht danach groesser machen.

    Klar kann man wahrscheinlich 5-10 Jahre Content auf dem Niveau vom Bullen von Toelz produzieren, indem man alles mit AI-generierten Pixeln zuklatscht. Aber lasst mal unsere Gehirne 5 Jahre diesen Content schauen, dann reagieren wir wahrscheinlich mit so einer Mischung aus Langeweile, Ablehnung und leichter Uebelkeit darauf, genauso wie auf Fotos mit veraltetem Handy-fake-Tiefenunschaerfe Effekt.

    (Ansonsten, Randbemerkung, wer dich fuer deep fakes interessiert und Sassy Justice noch nicht kennt: unbedingt auf YT nachholen!)

    Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.