Jasne, pierwsze skojarzenie (również moje) jest takie, że to kolejna marketingowa ściema, pic na wodę, fotomontaż. Ale tak przeglądając reddit, natknąłem się na taki filmik:

'Fake Frames' vs 'Real Frames' DLSS 3 Marvel's Spider-Man Head-to-Head
https://www.youtube.com/watch?v=2bteALBH2ewDigitalFoundry zrobiło zestawienie klatek wygenerowanych przez AI (frame generator) i tych wygenerowanych standardowo. Klatki generowane przez AI zostały wyodrębnione i to co widzimy po lewej stronie to w 100% tzw. "fake frames". Teraz zadanie: "Corporate needs you to find the difference between this picture and this picture."

To jednak trochę daje do myślenia. Wiadomo, że nie w każdym scenariuszu się to sprawdzi, ale jeśli ten mechanizm generowania klatek "x4" będzie tak samo skuteczny i zakładając, że nie dotyczy to pojedynczego tytułu, to czy faktycznie stwierdzenie, że 5070 da użytkownikowi taką wydajność jaką daje 4090 jest nieprawdziwe? Jeśli finalnie 5070 daje taką samą liczbę klatek na sekundę? Mówimy oczywiście o tytułach w których można z tego skorzystać, a generalnie frame generation jest już powszechne we wszystkim co wychodzi. Jaką to robi wizualnie różnicę czy klatki są generowane "sztucznie" czy standardowo? Pomijając jakiś purystów, chyba niewielką, by nie powiedzieć żadną. I jedne i drugie generuje GPU. Oczywiście, powinni też uczciwie podawać zestawienie wydajności w teście bez DLSS, dla porównania i uświadomienia klientów.
Inna też sprawa czy seria 4XXX z tego dobrodziejstwa multi frame generation nie może skorzystać, bo nie jest to technicznie możliwe, czy raczej, nie jest to ekonomicznie zasadne. Zaraz się okaże, że oni będą wypuszczać praktycznie takie same karty tylko będą opracowywać lepsze generatory klatek i dawać je na wyłączność tylko w najnowszej generacji kart.
