News Nvidia RTX Video: Mozilla Firefox beherrscht jetzt KI-Upscaling und Auto-HDR im Browser

Weil KI überall Vorteile bringt. Ist die Zukunft. Nur ewiggestrige verstehen das noch nicht.
Bei den Fakenachrichten, der Überwachung, den Phishing, Verbrauchnutzungverhalten, Hausaufgaben, Promotion, usw...
Ja viele Freuen sich schon richtig über KI hilfe...
Es hat auch seine Schattenseiten und macht NICHT alles Besser!
 
Qualitätsstufe 4 verbraucht Unmengen an Strom. Mir reicht 2.
Stufe 4 in 1440p auf UHD haut extrem rein und ergibt in dieser Auflösung auch wenig Sinn. Ich erkenne zumindest hier zwischen 2 und 4 keinen gravierenden Unterschied.
Einfach auf Auto stellen, dann wird die Stufe je nach Auflösung angepasst.
Vom Nutzungsszenario sehe ich es gespalten: Da wo ich es hauptsächlich haben will, würde ich lieber das Video auf meiner Platte haben und es mit hoher Qualität KI-hochskalieren.
Mit dem MPC-BE kannst du Videos mit DLSR abspielen. DLHDR geht auch, benötigt aber ein wenig Fummelei.
Kann aber auch sein, dass das mittlerweile alles nativ implementiert ist. Ist schon ne Weile her, wo ich das manuell einrichtete.
Musst mal danach googeln, bin jetzt gerade zu faul dafür.
 
Zuletzt bearbeitet:
Ich hab mich gewundert warum ich mit Vivaldi teils extremen Verbrauch mit YouTube hatte.

Jetzt dämmert es mir es, ich hatte das Zeug einfach mal irgendwann im Treiber aktiviert und komplett vergessen.
250 Watt für'n Video :daumen2:

Ansicht coole Sache, aber viel zu verschwenderisch.
 
Weil KI überall Vorteile bringt. Ist die Zukunft. Nur ewiggestrige verstehen das noch nicht.
Sehe ich absolut gar nicht so.

Wenn Du z.B. eine KI etwas machen lässt, wofür es bereits mathematisch erwiesensermaßen fehlerfreie Programme mit fixem Code gibt, machst Du einen fatalen Fehler aus meiner Sicht, weil es nur ungenauer und teurer beim Ausführen wird. Deshalb wird KI Prozeduren, die definitiv genau so sind, wie man sie haben will, nie voll ersetzen.

Auch wenn man z.B. in Spielen in einer geringeren Auflösung rendert und dann hochskaliert, kann die Qualität eigentlich nur schlechter/unpräziser werden, als wenn man es nativ in der Zielauflösung rendert. Auch hier wird KI immer nur benutzt werden, um Energie zu sparen.

Bei Videos finde ich dagegen KI-Upscaling hervorragend, weil es eben ganz oft kein Originalmaterial in z.B. 4K oder 8K gibt. Das heißt, es macht tatsächlich in der Summe die Qualität wirklich nur besser, selbst wenn hier und da etwas falsch interpretiert wird, und dadurch eine Narbe oder Pickel auftaucht, wo der Mensch tatsächlich keine hatte - oder eben Unregelmäßigkeiten als Fehler im Bildmaterial gewertet und entfernt werden.
Aus diesem Grund finde ich KI-Upscaling bei Filmen ganz besonders spannend, auch wenn den Anwendungszweck nicht so sehe, dass man langfristig beim Ansehen alles hochskalieren muss.
Ich könnte mir sogar vorstellen, dass es irgendwann Gesetze geben könnte, die Internetportalen vorschreiben, ab einer bestimmten Anzahl von Besuchern im Jahr upgescalte Versionen der Inhalte mit hoher Bildqualität anzubieten, um zu verhindern, dass die Zuschauer es auf ihrem Gerät beim Abruf hochskalieren und somit mehr Strom verbrauchen. (Man könnte ja trotzdem kennzeichnen, welche Datei die originale war.)
 
Zuletzt bearbeitet:
Ich freue mich auf das Feature werd ich die Tage auf jedenfall mal austesten.
Sehe ich absolut gar nicht so.

Wenn Du z.B. eine KI etwas machen lässt, wofür es bereits mathematisch erwiesensermaßen fehlerfreie Programme mit fixem Code gibt, machst Du einen fatalen Fehler aus meiner Sicht, weil es nur ungenauer und teurer beim Ausführen wird. Deshalb wird KI Prozeduren, die definitiv genau so sind, wie man sie haben will, nie voll ersetzen.
Das lässt sich pauschal nicht sagen. KI Modelle können teilweise wesentlich schneller sein und damit durchaus eine Relevanz haben. Schwieriger ist es wenn man zwingend determinismus braucht.
Auch wenn man z.B. in Spielen in einer geringeren Auflösung rendert und dann hochskaliert, kann die Qualität eigentlich nur schlechter/unpräziser werden, als wenn man es nativ in der Zielauflösung rendert. Auch hier wird KI immer nur benutzt werden, um Energie zu sparen.
Das ist nicht richtig. DLSS und FSR2.0 nutzen ein vielfaches an Samples wie es für Nativ notwendig ist und können bei einer guten Modellpräditktion theoretisch deutlich besser sein als ein natives Bild, welches nebenbei bei TAA auch mehrere Samples aus der Vergangenheit mitnutzt.
Du bist halt unpräziser im Vergleich zu einem Bild was mit einer gleichen Samplingzahl abgetastet wird, dass ist aber nicht schlimm, weil die Referenz ein deutlich geringer abgetastetes Bild ist. Da ein gleichwertiges oder evtl. besseres Ergebnis zu erzielen ist dann nicht mehr unmöglich. Ich habe aber bisher auch keine quantitative Analyse gesehen die ein "besser als nativ" oder "schlechter als nativ" beweisen.
 
Bei mir funktioniert das nicht. Neuester Nvidia Treiber ist installiert wie auch Firefox. Wenn ich auf YT nun ein Video abspiele und im Treiber schaue, so ist Super Resolution inaktiv weiterhin.

1716091671036.png


Edit: Ok also mit 720p funktioniert es, ab 1080p nicht mehr. Nutze 1440p daher sollte eigentlich auch noch 1080p hochskaliert werden. Dachte alles unter nativer Auflösung wird hochskaliert?
 
Zuletzt bearbeitet:
Zurück