Új hozzászólás Aktív témák

  • Yany

    addikt

    Ezt a videót látva azért rendszeresen felötlő kérdés bennem, hogy hol a frászban van az AMD neurális-háló alapú alternatívája: [Cyberpunk 2077 Patch v1.5 1440p FSR vs DLSS]
    Nincs az a képkocka, ahol megállítva ne lenne egyértelmű a különbség, mozgásban pedig az FPS értékek beszélnek magukért. Az FSR is jobb valami, mint az anno bevezetett förtelmes blurtenger MLAA, de a DLSS-nek perpill nincs igazi alternatívája. Vannak szempontok persze, ahonnan nézve hol egyik, hol másik tűnik jobbnak, de összességében és a képminőséget és teljesítményt előtérbe helyezve megkérdőjelezhetetlen a DLSS egyértelmű fölénye.

    Ki találja ki, melyik melyik? :) (ez egy random képkocka a fenti videóból, szinte végig szemmel látható a különbség):

    Építs kötélhidat  -  https://u3d.as/3078

  • Abu85

    HÁZIGAZDA

    válasz Yany #1 üzenetére

    Ez azért van, mert az FSR az nem alkalmaz saját élsimítás. Azt valamilyen AA-val együtt kell alkalmazni, mert nem helyettesíti az AA-t. Erre külön felhívja a figyelme a kapcsolódó oldal "it works by taking the current anti-aliased frame". [link] - Elfogadja a nem élsimított képkockát is, de nem fog jó eredményt adni.

    Szóval ez az eredmény nem az effekt hibája, hanem a hibás implementációé, ami kikapcsolja az élsimítást FSR mellett, holott ezt nem szabadna megtenni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • b.

    félisten

    válasz Yany #1 üzenetére

    Jobb oldali a DLSS. :P
    Szépen működik benne, egyre jobb amúgy szinte mindenben.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Yany

    addikt

    válasz Abu85 #2 üzenetére

    Felhasználói szemszögből teljesen mindegyek a miértek. A tényeket a képernyőn látja, legyen az tempó, vagy minőségi kérdés. Ennyi. Erre kell(ene) egy alternatíva, amiről voltak is rebesgetések, mostanában már pletykákat sem hallani róla.

    De itt egy másik példa a fenti gondolatomhoz, hogy ne csak a CP rossz(?) megközelítését hozzuk fel kifogásként (itt már nem is karikázok, ordít a különbség):

    [ Szerkesztve ]

    Építs kötélhidat  -  https://u3d.as/3078

  • Abu85

    HÁZIGAZDA

    válasz Yany #4 üzenetére

    Itt miért nem látszik a különbség? [link]

    Értem, hogy századrangú YouTube videós elbasz valamit, de miért foglalkozunk vele, amikor vannak hozzáértő oldalak, amik tesztelik?

    Egyébként van az AMD-nek AI-s alternatívája. Az a gond, hogy nem tud olyan jó minőséget, mint az FSR, és lassabban is dolgozik nála. Timothy Lottes szándékosan nem alkalmazott ez eljárásánál AI-t, nem akart ágyúvaló lőni verébre. Lehet AI-s felskálázást alkalmazni, csak nem feltétlenül érdemes, ha nem tudod hozni vele a spatiális megoldás minőségét.

    Az AI-s megoldásnál többféle alternatíva van, és mindegyiknek van egy komoly nyűgje. Az egyik megközelítés volt a DLSS1, aminek láthattad, hogy mennyi baja van, a másik megközelítés a DLSS2 és az XeSS, ami aránylag jól működik, de nem minden pipeline-nal kompatibilis a mozgásvektorok miatt. Ahhoz, hogy ezek működjenek helyből ki kell kapcsolni minden olyan effektet, ami nem működik temporális formában. Ez még ma is probléma, például az Unreal Engine 4-nek a DoF effektje ilyen, tehát az nem működik DLSS2-vel és XeSS-sel, de még a gyári TAAU-val sem. Ellenben az FSR-rel semmi baja. Emellett a mozgásvektorok olyan képi hibákat tudnak produkálni, amelyek az eredeti képen nincsenek rajta.
    A harmadik megoldás az AI-ra abból a szempontból problémás, hogy komplex számításokat igényel, mivel lineáris és nem lineáris adatokat is használ. Az egyetlen előnye, hogy nem okozhat olyan hibákat, amelyek már eleve nincsenek rajta az eredeti képen, de nem is optimális a mai hardvereken a működése, amit lehet, hogy next-gen megoldanak, de azzal nincsenek kisegítve az aktuális hardverek.

    Ezért maradt az FSR Timothy Lottes megoldásánál, nem éri meg egy rakás problémát a nyakadba venni a mozgásvektorral, hogy legyen egy picikét jobb képminőséged. Az egyetlen hátránya az FSR-nek, hogy szükséged van az AA-ra a bemeneti képen, de amelyik fejlesztő belerakja, ott igazából nincs is probléma vele.

    Igazából az XeSS sem lesz olyan általános megoldás, mint amilyennek tűnik. Az Arcon a specifikus kódút miatt jól fog futni, de az általános kódban van egy lassú és egy gyors kódút. A gyors általános kódút annyiban különbözik a lassútól, hogy pack/unpack
    intrinsics optimalizálást használ, de ezt sem támogatja ám mindegyik hardver, lényegében Xe IGP-k és RDNA-s Radeonok kellenek hozzá. A többi GPU-nak marad a lassú kódút unsigned/signed integer dot-product intrinsics függvénnyel. És csakúgy mellékesen megjegyzem, hogy ezt sem kezeli ám mindegyik GPU hatékonyan. A régebbi dizájnok nem valami barátkozósak vele, noha persze lefuttatják. :)
    Tehát az XeSS-t nagyon sokan messiásként várják, és alapvetően futni is fog egy rakás hardveren, de elég kevés GPU-n fog gyorsan futni. És nyilván az AMD is hozhatna egy ilyen megoldást, de ugyanez lenne a bajuk, nekik is csak ezek a függvények vannak az API-kban, amiket használhatnak, így gyakorlatilag egy AMD-s mozgásvektoros eljárás Xe IGP-ken, Arc GPU-kon és RDNA-s Radeonokon futna igazán jól. Az FSR ilyen szempontból sokkal-sokkal-sokkal átfogóbb megoldás.
    Na most a jövőt tekintve annyiban jobb a helyzet, hogy az FSR egy olyan alapkód, ami akárhol megy, ami legalább compute shader 5.0, és innentől kezdve lehet rá építeni olyan kódokat, ami csak az RDNA-s Radeonokon moccan meg, akár RDNA3-on. Fejlesztői szinten nem igényel extra támogatást, és a kód folyamatosan kiegészíthető.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • b.

    félisten

    válasz Abu85 #5 üzenetére

    Azért nem látszik, mert nem akarod látni. Meglepő következtetés tőled. jah nem. Az FSR általános megoldás, megy mindenen is,de működéséből adódóan az lenne a meglepő , ha nem menne. AZ Nvidia megoldása jobb minőségű mint az FSR, ez tény a 2.0 tól számítva. Az FSR és a DLSS nem zárja ki egymást a zöld oldalon. Az utóbbi egy plusz prémum skálázási megoldás nekünk, a támogatott játékokban jól működik, jobban mint az FSR, ha nem a több FPS nagyobb áldozat révén a cél.
    Attól hogy ezt bárhova be tudják rakni az lesza vége mint a Freesync plecsninek ugye, minden szarra rákerült majd nem kell optimalizálni , hisz lehet 480 P képpel dolgozni 1080 P kimenetre
    Az Amd az általános butított FSR mellé hozhatna a saját kártya tulajdonosainak egy jobb. AI minőségű, DLSS szerű skálázást. Attól hogy az FSR általános megoldás erős kompromisszumokat követel és ez nem egy YT videó alapján kijelenthető hanem a játékok döntő többségében, kivétel persze itt is akad, ahol remekül működik.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Abu85

    HÁZIGAZDA

    válasz b. #6 üzenetére

    Akkor nézd meg azt a képet, amit Yany berakott, és nézd meg a TPU összehasonlítását. Látványos a különbség. Az egyikben működik az FSR, míg a másikban homályos. Erre írtam, hogy valami nincs rendben azzal a videós képpel.

    Az NVIDIA is akármire meg tudná oldani a G-Sync Compatible plecsnit, ha vennék a fáradtságot és azt csinálnák, mint az AMD, hogy minden monitorgyártónál pár mérnök dolgozik a kompatibilis firmware-en. Hogy már attól a ponttól működjön, amikor kijön a monitor a gyárból. Ekkor nem is kell utólagos profilozás a driverbe. Tényleg, semmi nem akadályozza meg őket ebben, az AMD nem köt a monitorgyártókkal exkluzivitást, nem zárják ki azt, hogy a gyártók más céggel is együttműködjenek. Emellett nyilván nagyon sokat érne az is, ha a tesztelési költség nem lenne olyan magas az NV-nél. Az olcsóbb monitorokra a gyártók egyszerűen nem akarják kifizetni, így nem tudják megszerezni a plecsnit. Az AMD-nél viszont lépcsőzetes a tesztköltség. A szimpla FreeSync tesztelése olcsóbb, mint a FreeSync Premium, annak ellenére, hogy ugyanaz az ~1300 teszt fut végig. Ezért van már az AMD-nek ~2000 olyan monitorja, ami direkten kompatibilis a Radeonokkal. De még egyszer hangsúlyozom, semmi nem akadályozza meg az NV-t abban, hogy ugyanezt csinálják, és akkor nekik is lehet ~2000 monitorjuk.

    Nem fognak hozni olyan specifikus megoldást, ami nem fut le a konkurens hardvereken. AI-ból most olyat tudnának hozni, amilyen az XeSS. És fentebb írtam, hogy az ugyan le tudna futni a modernebb hardvereken, de ugyanazokra a szabványos függvényekre építene, amiket az Intel használ. Nem igazán lehet ezt más módon megoldani az API-kban, és a sebesség szempontjából probléma, hogy az pack/unpack intrinsics optimalizáláshoz shader modell 6.6-os fordító kell, vagyis alig lenne hardver, ami támogatja: RDNA1-2, Intel Xe és ennyi. Persze az unsigned/signed integer dot-product intrinsics függvényekhez már elég a shader modell 6.4 is, de ez meg nem egy gyors megoldása a problémának. A másik tényező, amit még nem vetettek el, az a lineáris és nem lineáris adatokra építő megoldás. Ez viszont eléggé számításigényes, leginkább csak a next-gen motyók terepe lesz.
    Szabványos kód szintjén nincs sok jó megoldás. Nem tart ott az iparág.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • b.

    félisten

    válasz Abu85 #7 üzenetére

    Itt van elöttem a DL2. Most játszok vele , neked válaszolok közben. Mindkettő aktív benne, már tegnap kipróbáltam amúgy őket.
    Az FSR gyorsabb Qulality-n,nem kevéssel, de csúnyább. Minden RT kikapcsolva, 1440P-n FSR rel 56 FPS ha néhány effekt medium akkor 63 FPS- DLSS nél ez Qualityn 47 FPS , pár effekt mediumon akkor 56 körül van. DE szebb a DLSS.
    FSR-nél 1440P kb olyan mint ha 1080P lenne, főleg mozgás és gyors forgás közben zavaró, ahol a fű és pár textúra elmosódik. Nekem erre nincs szükségem, nem lenne Nvidiától sem. Olyan felskálázó eljárásokra van szükség aminél grafikan nem látható vissza lépés .
    CP2077-n most patchelve meg főleg kiütközik a DLSS hatékonysága.
    Felesleges kétségbe vonnod a szavainkat ,ha azt írjuk hogy látszik a különbség.
    Természetesen ilyen hardvereken, minta Switch ez kell, mert kitolja a hardver életartamát legalább 1 évvel, addig ingyen pénzt hoz és átportolható rá pár játék ami amúgy el sem indulna rajt. DE Mondjuk nekem, aki PC-n szeretne középkategóriás kártyával a lehető legszebb eredménnyel játszani ,nem opció feltétlenül az hogy fake 1440P-n vagy 4 K-n játszak látható minőségromlással, mert minek optimalizáljanak ugye, hisz ott lesz az FSR mindenre.

    A Freesyncnél oltári nagy különbségek voltak monitor és monitor között. Az Nvidia a G-sync plecsnit nem csak a változó frissítést nézve adta meg és eleve nem adott 75 Hz-re ilyet. Mindegyik G-sync mionitor egy minimum minőséget képviseltam . Egy Gsync monitor akkoriban is minőségibb élményt a ott az 1 FPS től 144 ig való működéssel és a mai napig megállja a helyét.

    Tehát van minőség meg van mennyiség. Kinek mi a fontos. Meglátod mennyi szar tömeg FSR játék fogja hamarosan elözönleni a piacot a fejlesztők részéről, erre hivatkozva mint Switchen futó játék,de valójában a konzol nem túl jó eredeti felbontását még jobban leamortizálva tényleg kompromisszumos lesz még a mostani helyzethez nézve is. Nintendo meg halálra keresi magát egy 7-8 éves hardverrel. Ugyan az lesz mint a monitoroknál. Freesync gamer plecsni 45- 60 FPS között meg volt 45 és 144 Hz közöttés még számtalan verzió. Mindegyiken ugyan azt jelentette de oltári eltérés volt köztük,van akinek ez jól jött van akinek nem ez kell, hanem stabil minőség.

    Biztos lesz baromi jó FSR megoldás is, ezt nem vonom kétségbe. XeSS engem nem érdekel majd ha láttam mit tud ,ráérünk ezen merengeni meg persze ha lesz hozzá VGA is.
    Egy szónak is 1 a vége. Mindkettő eljárásnak meg van a létjogosultsága,de nem jobb az FSR minta DLSS 2.X , ettől függetlenül ehiszem hogy baromi nagy előny a fejlesztőknek hogy könnyű beépíteni és nem igényel speckó hardvert, de mint végfelhasználó a DLSS mostani minősége a minimum amit el tudok fogadni a natív után, ezt sem minden esetben és minden grafikánál.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • b.

    félisten

    válasz Abu85 #7 üzenetére

    100 szónak is 1 a vége, azt akartam írni feljebb :DDD

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Yany

    addikt

    válasz Abu85 #7 üzenetére

    Az enyém sem G-Sync compatible (38UC99), mégis tökéletesen megy vele a g-sync. Valójában stabilabban kezeli, mint a korábbi Vega64-esem a freesync-et, holott ez egy freesync monitor.

    [ Szerkesztve ]

    Építs kötélhidat  -  https://u3d.as/3078

  • Kansas

    addikt

    válasz Yany #10 üzenetére

    FreeSync monitoron garantálom neked, hogy nem megy a GSync, Tuti, 1000%. Nincs benne GSync chip. Azon VESA AdaptiveSync megy nem-AMD kártyákkal, ami egy közös nevező. Hiába kötsz egy FreeSync Premium Pro monitort GeForce-ra, se GSync nem lesz rajta, se az AMD-specifikus kiterjesztések. Csak az alap(meg ahogy hallom, az LFC), a HDR-es cuccok(pl. tone mapping gyorsításával a latency csökkentés) tuti nem.
    Szóval ja, az olcsó alap FreeSync monitorokon nincs érdemi különbség, a FreeSync Premium-okon se sokkal több... A Premium Pro-n már azért előjöhet ez-az, és azokon a certifikáció szigorúsága se nagyon marad el a GSync-étől, de nincs szükség chipre...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #8 üzenetére

    Az FSR leginkább 4K felbontáson közelíti meg a DLSS2-t(a DLSS1-et lehagyja kb. mindenhol), ott nincs is szabad szemmel(nagyító nélkül) látható különbség, de kevesebb az artifact.
    1440p-ben és az alatt egyértelmű a DLSS képminőség-fölénye, de csak a b*zi drága RTX kártyákkal műxik, ami azért sokat levon az értékéből, mert pont azokon a kártyákon nem segít, amiknek FHD/QHD-ban szüksége lenne rá(pl. GTX1650 és társai).
    És ha már az ember kicsengeti azt a borsos árat egy RTX-ért, hát nem feltétlenül FHD-ben akar játszani vele. 1440p határeset, én nem szeretem, mert játékokra jó ugyan, de filmezéskor már sokkal kevésbé, ha csak nem 720p forrást nézel.
    Arról nem is beszélve, hogy ha az ember nem kapcsolja be az RT-t, akkor ezeken a kártyákon játszhat akár natív felbontáson is, mindenféle skálázgatós huncutság nélkül, és akkor pont mindegy, melyik melyik skálázást nem kapcsolom be...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Kansas #12 üzenetére

    Ja és szorosabban a cikk témájához kapcsolódva: mi mással szemezhetne per pillanat a Nintendo?
    Hiába van NVidia GPU a Switch-ben, ha tensor mag meg nincs benne...
    Az meg nehogy már az AMD hibája legyen, hogy az NVidia tensor-magot nem igénylő skálázási metódusa(NIS) az FSR-nél is sokkal szarabb...az Inteles meg még nem igazán jelent meg(és ha jól értem amit Abu ír, ha majd megjelenik se nagyon fog futni Tegrán).

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • b.

    félisten

    válasz Kansas #12 üzenetére

    Soha nem volt baromi drága egy RTx 2060 / 2070, főleg így visszagondolva az 5700 sorozathoz... . Hogyne lenne szabad szemmel látható különbség. Aki ezt mondja az vagy vak vagy elfogult.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • kilua

    senior tag

    Ez azt jelenti hogy switch játékokban jobb lesz a kép tv módban? Ha jól értem kisebb felbontáson futó játékot skáláz fel, vagy ez egy jövőbeli hardverre utalhat?

  • Abu85

    HÁZIGAZDA

    válasz b. #8 üzenetére

    Én mutattam neked képeket arról, hogy mi a különbség. A DLSS-nek és az FSR-nek is megvannak a maga hátrányai. A DLSS-nek az, hogy olyan képi hibákat generál, amik nincsenek benne az eredeti tartalomban, míg az FSR-nek az, hogy nem tartalmaz AA-t, így szüksége van élsimításra.

    Amit írtam, hogy az NV is adhatna plecsnit a legtöbb monitorra, csak a monitorgyártónak ezt igényelnie kell. A hitelesítést az NV és az AMD sem csinálja ingyen. A közhiedelemmel ellentétben ezekért a monitorgyártó pénzt fizet modellenként. Ami ingyenes az a VESA Adaptive-Sync hitelesítés, csak az meg jóval kevesebb tesztet tartalmaz, mint az AMD és az NV hitelesítése, és pont emiatt se az AMD, se az NV nem garantálja erre a hibátlan működést. Ez alapvetően a gyártók részéről érthető, aminél nem győződtek meg a hibátlan működésről, arra egyszerűen nem adnak hitelesítést. Na most maga a hitelesítési folyamat kétféleképpen történik. Az NV nem telepedett oda a monitorgyártókhoz, mert későn kezdtek ebbe bele, így a kijelző fejlesztésének végén, vagy a kiadása után lehet kérni G-Sync Compatible hitelesítést. Itt az NV megszabja, hogy 144 Hz-nél gyengébb monitorokra rá se néznek, de amúgy se adna be egy gyártó se ilyet, mert a G-Sync Compatible hitelesítés nagyon drága, tehát egyszerűen egy megfizethető kategóriába sorolt monitornál nem fér bele. Viszont ha a gyártó kifizeti a hitelesítést, akkor az NV megcsinálja, és a driverbe tesznek egy olyan profilt, ami igazodik a monitor firmware-éhez. Az AMD ezt teljesen másképp csinálja. Egy csomó gyártónál dolgoznak a saját mérnökeik, akik konkrétan megírják a monitorgyártó helyett a FreeSync-hez való frimware-t. Ezáltal a gyártó biztos lehet abban, hogy ha kérnek hitelesítést, akkor az garantáltan át fog menni, mert az AMD írta a monitornak ezt a részét. Ez az oka annak, amiért már ~2000 monitor is hitelesítve van FreeSync-re, a gyártó tudja, hogy mennyi költséget vállal fel a hitelesítését, és maga a sima FreeSync költsége sem annyi, mint a FreeSync Premium vagy Premium Pro kategóriáé. Emiatt egy abszolút kiszámítható költsége van a legolcsóbb monitoroknál is a hitelesítésnek, amit egyszerűen megéri felvállalni. Ha az AMD nem írná meg a frimware-t nekik, akkor ezek a monitorgyártók a FreeSync-re sem adnák be az olcsóbb monitorokat hitelesíteni, mert pont az lenne a gond, ami az NV-nél, egyszerűen nincs garantálva, hogy fix költségből megszerezik a plecsnit, a megfizethető árszinten pedig nincs nagy mozgástér költeni.
    Viszont, ahogy fentebb írtam, az NV is csinálhatná ugyanezt, az AMD-nek nincsenek a gyártókkal exkluzív szerződéseik. Meg lehet írni egy firmware-t úgy is, hogy minden gyártóra jó legyen, mert vannak olyan kijelzők, ahol az NV-re is rá van szabva a monitor default, és azt csak úgy lehet megtenni, hogy gyárilag optimális rá a frimware, így nem kell a meghajtóban kerülőutakat keresniük a potenciális problémákra. Viszont ehhez az NV-nek is oda kell költöznie a monitorgyártókhoz, fizetni egy rakás mérnököt azért, hogy gondoskodni a gyári szintű támogatásról. De ennek az egyik alapja az lenne, hogy a G-Sync Compatible hitelesítés ne legyen annyira drága, amennyi manapság, mert azt nem fogják tudni kifizetni a gyártók a megfizethető monitoroknál.

    A FreeSync erősen kategorizálva van. Van az alap, van a Premium, és van a Premium Pro. Az alap FreeSync, ami nem igazán szab meg követelményt a kijelzőre, a tartomány is meglehetősen szabad, egyedül az az igény, hogy vigye át a hitelesítési tesztet, ami azt garantálja, hogy a kijelölt tartományban működni fog a technológia. A Premium minősítési szint már megkövetel bizonyos dolgokat, kb. azokat, amiket a G-Sync Compatible. Tehát ezt már nem tudják megszerezni minden monitorra, és emiatt ennek az ára elég magas is a hitelesítésnél.

    A Premium Pro egy egyedi szint, aminek nincs G-Sync alternatívája. Ez valójában nem is az Adaptive-Sync-ről szól, hanem a HDR-ről, és egy megfelelő tartalmat kötelező a kijelzőnek megjelenítőoldali tone mapping fázis nélkül kiraknia. Erre majd a HDMI 2.1a kínál majd megoldást a Source-Based Tone Mappinggal. A gond az, hogy ezt nem elég a monitor oldalán támogatni. A szoftverbe is be kell építeni, mert a szoftvernek ki kell olvasnia a kijelző paramétereit, hogy megfelelő képet rendereljen. Ezért van az, hogy a FreeSync Premium Pro rendszert összesen 17 játék támogatja, mert az AGS-en belül kell a megfelelő tone mapping hátteret implementálni hozzá. A Source-Based Tone Mapping már szabványos lesz, viszont annyira zseni a HDMI Forum, hogy elfelejtette a szoftveres hátteret ebbe belekalkulálni, így egyik grafikus API sem támogatja ezt a módszert. Lesz egy harmadik alternatíva is, amit a Samsung készít, ez a HDR10+ Gaming. A koncepció ugyanaz, mint a Source-Based Tone Mapping vagy a FreeSync Premium Pro. Amiért nem mutatták be ezt a CES-en, az az, hogy ők is elfelejtették a szoftveres hátteret hozzá. Az AMD-nek az AGS-e átalakítható lenne a HDR10+ Gaming és a Source-Based Tone Mapping támogatására, de azzal ugyanúgy szart sem érünk el, mert az AGS nem fut NV és Intel GPU-n. Szóval most nagyjából ez a HDR-es dolog ott áll, hogy van még egy zárt FreeSync Premium Pro alternatíva, és végre be van jelentve a szabványos HDMI-s, de szoftveres szinten ezek sehol sem állnak, mert a Microsoft nem gondolt erre a problémára. A Khronos Group annyiban előnyben van, hogy ott van már VK_EXT_hdr_metadata, VK_EXT_full_screen_exclusive és VK_AMD_display_native_hdr. Ezek kellenek egy ilyen rendszer működéséhez, és jó hír, hogy az első kettőt támogatja majdnem mindenki, de az utolsót nem, és a fene megette az pont úgy van megírva, hogy ne is nagyon tudják, tehát abből kell egy gyártófüggetlen kiterjesztésport. Annyiban azért nem reménytelen a helyzet, hogy már van egy elég kellemes kódbázis a problémára [link] / [link] , amit majd át lehet írni, ha a szabvány használatához megjön a híd. :)

    Valójában a speckó hardver az nem lényeges. Akármelyik felskálázót veszed szemügyre, ezek becsatlakoznak a program pipeline-jába, és igazából onnan önállóan működnek. Tehát a speckó hardvereket, a különböző kódutakat egyszerűen a rendszer lekezeli maga, ezzel a fejlesztőknek nincs munkája. Mindegyik fekslálázónál csak arra kell ügyelni, hogy a pipeline jó részére kerüljenek (ugye tipikusan olyan helyre, ahol még a post-process előtt futnak, mert vannak olyan PP effektek, amik bele tudnak a működésükbe barmolni ... például akármi, ami szemcsés hatást eredményez, azt érthető okokból egyik se szereti). Ilyen szempontból az se gond, hogy az XeSS részben speckó hardvereken fut. Ha ezek elérhetők, akkor lefut a speckó kódút. Ha nem érhető el, akkor van SM6.6 és SM6.4 kódút. A hardverehez kiválasztja a rendszer a megfelelőt és ennyi. Fejlesztői beavatkozás itt nem kell. Van ilyen az FSR-ben is, ott is van packed math optimalizálás, és ha ehhez nem érhető el a hardveres tudás, akkor van egy szimpla konverziós kódút, ami lassabb. Ugyanúgy out-of-box működik a fejlesztők részésről nincs munka vele. Amire viszont figyelni kell mindegyik effektnél az a paraméterezés. Mi lesz a számolt felbontás, ahonnan megy a felskálázás, mi lesz az élesítés paramétere, stb. Ezekre vannak gyártói ajánlások, amikat az esetek többségében követnek a fejlesztők, egy kisebb részében pedig tesznek rá. ;]
    Ami igazából különbség a spatiális és a mozgásvektort használó felskálázási eljárások között, hogy a spatiális alapvetően akármivel kompatibilis a pipeline-on, ellentétben a mozgásvektor miatt a másik megoldásnak csak olyan effektek jók, amelyek temporálisan is jó eredményt adnak. Ha van olyan effekt, amire ez nem igaz, akkor azt le kell tiltani DLSS2/XeSS mellett, mert nem fog jól működni. Ilyen például az Unreal Engine 4 gyári DoF effektje, de erre figyelnek a fejlesztők, amint bekapcsolod az UE4-ben a DLSS2-t vagy a TAAU-t, a motor máris tiltja le a DoF-ot. Szóval a beépítésnél nem a felskálázás a gond, hanem az, hogy kompatibilis-e mindennel, amit a pipeline alkalmaz, sőt arra is figyelni kell, hogy mennyi hibát generál maga a neuronháló.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Kansas

    addikt

    válasz b. #14 üzenetére

    Vagy te tévedsz, esetleg a "use case"-ünk különbözik jelentősen. A 2060 ugyan nem volt annyira drága, cserébe legtöbbször nem elég 60fps-re FHD-ban RT mellett DLSS nélkül(más szóval: tud RT-t de minek?***), de pl a 2070 az vagy 30-40e-rel került többe mint a nála picit gyorsabb RX5700XT(a 2070S pedig ugyan gyorsabb nála, de még többel drágább), az RTX30x0 széria pedig átlagosan egy kategóriával kerül többe, mint a vele összevethető erejű Radeon.
    Hogy ne lenne szabad szemmel látható különbség? Úgy, hogy nagyítóval se nagyon látni.
    4K felbontásról beszélek, Ultra Quality FSR beállítás mellett, amivel a tesztek alapján az extra fps nagyobb része már realizálható. És különbség alatt minőségbeli különbséget értek, nem konkrét képernyő-tartalom különbséget(bocs, ha eddig nem volt elég világos, my bad...).
    Ugyanis nem minden különbség hízelgő a DLSS-re nézve, ami létezik pixeltartalomban: hogy mást ne mondjak, FSR nem okoz ghostingot és jó pár játékban a DLSS kép nekem túlélesítettnek tűnik, ami már csak azért is fura, mert a tesztek többségében pont az ellenkezőjét írják(ami eléggé megtépázza nálam a tesztek hitelességét). Az FSR-nek meg van más negatívuma...

    A másik kedvenc érvem, amit DLSS fanoktól hallok, az az hogy hát a DLSS az machine learning-et is használ, hát hogy ne tudna többet... erre mondom, hogy volt szerencsém jó pár évet a machine learning egyik élharcosánál(IBM) tölteni, és nyugodtan ki merem jelenteni, hogy a machine learning(meg a "cognitive") az esetek nagy részében egy marketing buzzword, önmagában attól semmi nem lesz jobb, ugyanúgy képes rontani, mint javítani a végeredményen. Tehát az, hogy az FSR nem használ AI-t, önmagában nem jelent semmit a minőségére vonatkozóan. Ha használna, se biztos, hogy jobb lenne, de lehetne akár rosszabb is.

    Értem én, hogy a DLSS hívei nem szeretnek 4K-ról beszélni, hanem inkább QHD/FHD-felé terelnek, egyes vérmesebbek pedig még a 320p/240p-vel is előhozakodnak, ahol bár látványos a DLSS minőségelőnye, de pont leszarja a gamerek 99,99%-a, mert még mobiltelón se játszik olyan felbontáson.

    És hogy ide is leírjam, ahogy már több más helyen is tettem: én nem vagyok FSR hívő, se DLSS hívő, a magam részéről a pokolba kívánom az összes trükkös felskálázást, azzal együtt, hogy sajnos a mai elcseszett RT implementációk miatt gyakran szükséges rossz a használatuk, mert a VGA-k egyelőre nem tudják tartani a lépést az RT miatt megnőtt teljesítmény-igénnyel. Ha meg nincs RT bekapcsolva, akkor duplán utálom őket, mert alkalmat adnak a játékfejlesztőknek a flegma programozásra és optimalizálás-spórolásra, ahogy te is említetted a #8-ban.

    Ezzel együtt sem azt mondom, hogy a DLSS2 nem jobb az FSR-nél valamennyivel(különösen QHD/FHD-ban illetve alatta), csak azt, hogy 4K-ban nem annyival rosszabb, hogy az látszódjon játék közben, FHD/QHD-ban pedig a natív felbontású renderelést részesítem előnyben.

    Mellékesen jegyzem meg, hogy nem feltétlenül az az FSR jóságának a mércéje, hogy hogyan néz ki egy 2070-en(vagy bármely más GeForce-on) futtatva...

    ***: nem sok tesztet láttam DLSS2-vel amiben 2060 szerepelt volna, lehet hogy az újabb driverekkel javult a helyzet - bár az ára meg közben fölment az égbe a többi VGA-val együtt

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • b.

    félisten

    válasz Kansas #17 üzenetére

    " 2060 ugyan nem volt annyira drága, cserébe legtöbbször nem elég 60fps-re FHD-ban RT mellett DLSS nélkül"

    De ugye az meg van hogy DLSS ről van szó a hozzászólásomban tehát hogy jön ide az RT pédául DLSS nélkül vagy az FPS szám? az RX 5700 és 5600 ami a 2060-2070 generációja nem tud se RT-t sem DLSS-t cserébe a 2060 tudja mindezt és az FSR-t is? Tehát minek kártya generációkat összevetni egy felskálázó eljárás összevetésénél ezt elárulnád? én szimplán a DLSS- FSR összevetését néztem mindenféle kártya családok emlegetése nélkül...

    "az RTX30x0 széria pedig átlagosan egy kategóriával kerül többe, mint a vele összevethető erejű Radeon."

    Ez kissé ferdítés 6600XT 218 K -3060 245K / 3060Ti ( 282 K) - 6700XT ( 317K) /3070Ti (399K) -RX 6800 (472K) / 3080(501K)- 6800XT ( 472K)/ 3080TI( 619K)- 6900XT (559K)
    egy elemet sem látok ahol kategóriákat tudnál ugrani sem oda sem vissza, sőt..

    "Hogy ne lenne szabad szemmel látható különbség? Úgy, hogy nagyítóval se nagyon látni."

    Tényleg betennél egy saját tesztet DLSS sel és FSR rel mondjuk a CP ből vagy a z Új GOD of Warból vagy a Dying Light 2 ből? jah hogy youtube videókat nézel. Valószínűleg nem hazudok meg feljebb Yani sem tette.

    "Tehát az, hogy az FSR nem használ AI-t, önmagában nem jelent semmit a minőségére vonatkozóan. "

    ha értesz hozzá akkor gondolom az meg van hogy más eljárásokon alapul a kettő működése. A FSR nem a DLSS AMD megfelelője az FSR egy utófeldolgozási algoritmus élesítő szűrőkkel megspékelve. A végeredmény szempontjából akár mindegy is lehetne, nekem működik mindkettő.

    Innentől ami a probléma az hogy mennyire fogják ezt a fejlesztők egy általános leszarom tablettává alakítani a minőégnél és átveszi az optimalizálása helyét.
    Még egyszer : nem az FSR jelenléte a probléma, mert nekem ez jó, hisz van a kártyámon még egy skálázó eljárás amit használhatok ,a problém az hogy míg a DLSS minősége folyamatosan emelkedik és az Nvidia kontrolálja, addig az FSR lehetőséget ad hogy szarul használják, ezt mutatta be Yani a képeken a CP alatt, next gen patch ide vagy oda, és ez látszik egy God of War és egy DL2 játékon is, hogy nem hozza azt a minőséget , mint a DLSS jelenlegi állapota, akkor gondolj bele mit fog eredményezni olyan játékonál amik nem "A" kategóriában és nem "A" kategóriás vason fognak menni.
    Tehát az FSR minden előnye mellett ( hardverfüggetlenség) szükség lenne arra, hogy AMD hozzon egy neurális hálón alapuló, kötött és magas minőségi követelményeket felmutató eljárást ami a minőséget helyezi az előtérbe, nektek.
    Nekem mindegy , hogy hoz e nektek, AMD felhasználóknak nem az mert még egyszer leírom látható különbségek vannak és olyan nem igazán van ahol a DLSS 2.1 rosszabb, mint az FSR.nem feltétlenül azért mert jobb az eljárás, hanem azért mert kontrollálva van valamilyen szinten az implementálása az Nvidia által...

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Kansas

    addikt

    válasz b. #18 üzenetére

    Bocs, erre most nem reagálok, ennyi sületlenség egy helyen megfeküdte a gyomrom, kisregény-léptékű erőfeszítést nem ér meg ez nekem(már az előző hsz-em közben is lejárt a session)...lusta vagyok, na. Talán holnap, ha felhúzom magam...
    Nem szoktál te ennyit terelni...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • b.

    félisten

    válasz Kansas #19 üzenetére

    Ilyen butaságokat én sem olvastam sokat egy hozzászólásban egy kis kamuzással megfűszerezve egy magát hozzáértőnek nevező embertől, hozzákeverve olyan dolgokat amik még nyomokban sem kapcsolódnak a témához árazás , raytracing, egy kis zöld piros vs,mindez youtube videókra alapozva, tapasztalat nélkül.
    Mindez szerintem a 20. vitánk a DLSS témában veled. Semennyire nem releváns és hiteles számomra amiket írsz aztán megint idekeversz egy távolról sem a témához köthető Nvidia vs Amd cicaharcot ahhoz meg nekem nincs kedvem. Maradjunk annyiban hogy rohadtul nem érted mit írok , de nekem ez így pont megfelel, valótlan állításokkal és nem felhasználáson alapuló véleményekkel fanatik vagy antifanatik dolgokra alapozva nem tudok mit kezdeni.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Kansas

    addikt

    válasz b. #18 üzenetére

    No jó, sikerült kellően felhúznod. Akkor nesze, olvasgasd, de mielőtt megint előveszed a mantrát válaszul, vedd elő a józan eszed is kicsit...

    1. "De ugye az meg van hogy DLSS ről van szó a hozzászólásomban tehát hogy jön ide az RT pédául DLSS nélkül vagy az FPS szám?"
    Az ugye megvan, hogy RT nélkül nem lett volna DLSS talán soha(a 4K térnyerése ellenére)? A DLSS egy válasz arra, hogy az RT megeszi az fps-edet(látod, még az fps-sel is összekötöttem). Az, hogy RT nélkül is használható, pusztán melléktermék, és a 4K-ban gyengébb VGA-val játszók vagy magasabb fps-re vágyók csak örülnek neki.

    2. "az RX 5700 és 5600 ami a 2060-2070 generációja nem tud se RT-t sem DLSS-t cserébe a 2060 tudja mindezt és az FSR-t is"
    Csak nem azt gondolod, hogy ez érdem volna? Az, hogy az NV csak zárt technológiákban gondolkozik az AMD pedig többnyire szabványos, de legalább is nyílt technológiákban? Egyébként de, tud az RX5xxx széria is RT-t, csak nem hardveresen gyorsítva, mint ahogy a GTX1080 is és a 1660Ti is. Jóval lassabb, de működik.

    3. "egy elemet sem látok ahol kategóriákat tudnál ugrani sem oda sem vissza"
    Örülök, ezek szerint valamelyest normalizálódni kezd a VGA piac. Amikor a 6700XT-met vettem, akkor elsődlegesen NV-t akartam kipróbálni az 5700XT-ért kapott 300e elköltésével, és azt kellett lássam, hogy még a 3060Ti is 400e-nél kezdődik, 3070-ről nem is beszélve, Ehhez képest a 6700XT 315e volt... még a sima 3060 is többe került nála, pedig az az 5700XT-nél se erősebb... szerintem az minimum fél kategória.
    Remélem, tovább normalizálódnak az árak...

    4. "Tényleg betennél egy saját tesztet DLSS sel és FSR rel mondjuk a CP ből vagy a z Új GOD of Warból vagy a Dying Light 2 ből"
    Nem. Se a játékok nem érdekelnek, se hardvert nem fogok hozzá venni csak hogy az NV zárt technológiáit próbálgassam(különösen a jelen árak mellett). Elegen kipróbálják netszerte, és messze nem csak YT-on. A GoW-ra talán rápróbálok idővel, de nem most lesz az se.

    5. "A FSR nem a DLSS AMD megfelelője"
    Mintha azt mondanád, hogy az MSAA nem az SSAA megfelelője.
    Technikailag talán nem, de a célt és az alapvető megközelítést tekintve tökéletesen megegyeznek. Mindkettő azt csinálja, hogy visszaveszi a renderelési felbontást, hogy fps-t nyerjen, és aztán különböző felskálázási trükkökkel próbálja minimálisra csökkenteni a minőségromlást.

    6. "hol a frászban van az AMD neurális-háló alapú alternatívája"(#1-ből) is.
    Ne akarjátok már előírni, hogy márpedig a jó felskálázó algoritmus az "neurális háló alapú" kell legyen. Nem a technoloógiai háttér a lényeg, hanem a cél és ahhoz képest a végeredmény.

    "nem feltétlenül azért mert jobb az eljárás, hanem azért mert kontrollálva van valamilyen szinten az implementálása az Nvidia által"
    Nagy lóf@szt azért. Azért, mert az NV belerak a kártyáiba jó pénzért "Tensor magokat" amik jelenleg semmi másra nem jók, mint hogy a DLSS-t/DLAA-t hardveresen gyorsítsák, így az NV megengedheti magának, hogy komplexebb, hardverigényesebb kód csinálja a felskálázást, ezzel viszont maga az effekt hardverfüggő lesz és csak az ilyen magokat tartalmazó kártyákon fut(nem tudom, tudna-e egyáltalán futni pl. egy 1660Ti-on, az RT-hez hasonlóan, és ha esetleg tudna, lenne-e értelme).

    A normál időkben az ilyen FSR és DLSS(meg RSR, NIS, stb)-féle huncutságokat, amik a képminőség csökkentésével nyernek fps-t csalásnak hívták és a keresztvizet is leszedték a gyártóról érte...

    "Tehát az FSR minden előnye mellett ( hardverfüggetlenség) szükség lenne arra, hogy AMD hozzon egy neurális hálón alapuló, kötött és magas minőségi követelményeket felmutató eljárást ami a minőséget helyezi az előtérbe"
    Nem, rohadtul nem erre lenne szükség, hanem elég erős VGA-kra amik natív felbontáson is használható sebességet tudnak. Mindkét oldalról. Az helyezné igazán a minőséget előtérbe, nem a butítós-visszaokosítós optikai illúzió reszelgetése. De attól tartok, a szellem(vagy fogpaszta, ízlés szerint) már kijött a palackból(tubusból), és már nem lehet egykönnyen visszagyömöszölni...
    Meg továbbfejlesztett RT-képességekre, hogy ne 30-40% teljesítményt bukjanak a kártyák az RT bekapcsolásával.

    "addig az FSR lehetőséget ad hogy szarul használják" Az FSR lehetőséget ad arra, hogy ki-ki a tudása szerint használja. Ha most még nem megy jól a használata, majd idővel beletanulnak, de nem kell leszerződni az AMD-vel, hogy a technológiát kiaknázhasd, ami előre vetíti, hogy kisebb játékokban is esélyesebben szerepet kap. Nem mintha ennek én annyira örülnék, az okot lásd fentebb.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Kansas #21 üzenetére

    És azt ne hidd, hogy csak az FSR léte ösztönzi a kevesebb optimalizálást... ugyanúgy mondhatja a fejlesztő, hogy "francot melózok én hónapokat az optimalizáláson, legfeljebb majd bekapcsolják a DLSS-t, azt' lesz fps dögivel"(vagy ugyanez pepitában a kiadóval a főszerepben)... ez az aspektus a legkevésbé sem gyártófüggő...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • válasz kilua #15 üzenetére

    Igen, kisebb felbontásról skáláz fel nagyobbra.

    Itt egy kis ízelítő, hogy mire lehet képes mobil hardveren:
    Steam Deck - AMD FidelityFX Super Resolution Upscaling In Any Game... With Gamescope!

    A fenti videó alapján szerintem ebben óriási potenciál van! :Y

    Nexus 5x > Pixel 4a 5G \\ AMD Ryzen 5800X3D - Gainward RTX 3070 Phoenix \\ Asus Zenbook 14 Oled UM3402YA \\ Playstation 5 \\ DJI Mavic Mini \\ Nintendo Switch Neon v2 \\ Steelseries Arctis Nova 7 \\ Steam/Origin/Epic Games Store/GoG/Ubi Connect: Hopkins955

  • Z.o.l.o. 19

    tag

    Jó volt végig olvasni eddig amiket beszéltetek, én is szoktam magam bele ásni a témába, én egy 6900xt hajtok de ezen is nagyon hasznos az Fsr :)

    "Sose voltál, mindig vagy "

Új hozzászólás Aktív témák