Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #15134 üzenetére

    A víz nem GameWorks a Witcher 3-ban. Eredetileg valóban WaveWorks volt tervezve, de sehogy sem akart működni. Ezért ezt ki kellett iktatni, és ennek a helyére került egy saját megoldás. Ez a másik baj a GameWorksszel, hogy a forráskód elzárása sokszor teljesen megakadályozza az implementációt. Mivel a víz a CDPR sajátja, így azt lehet paraméterezni, ahogy akarják.

    (#15139) Asbee: Nem a címeket kell nézni, hanem az irányt, ami történik. És ez nagyon rossz lesz az egész PC-nek, mert sokszor nem lehet majd driverből hackelni a rendszert, hogy megkapd ugyanazt a minőséget sokkal gyorsabban.

    (#15140) decibel: És mit csináljon az a fejlesztőstúdió, amelynek nincs olyan szerencséje, hogy az Intel és az AMD partnerprogramjába beférjen? Nekik nincs választásuk, egyszerűen a pénzért alá kell írni a szerződést, mert az Inteltől és az AMD-től nem fognak látni promóciós pénzt. Ma másképp nem éri meg PC-s portot csinálni. Persze a jövőben ezen talán segít a Microsoft iránya, hogy az Xbox One játékot gyakorlatilag portolás nélkül lehet hozni PC-re.

    (#15145) gbors: A kártyán lévő portok szempontjából nem éri hátrány a piacot. Ez egyszerű döntés eredménye. És ez mindkét oldalon probléma, hiszen az AMD-nél nincs HDMI 2.0, míg az NV-nél nincs DisplayPort 1.2a verzió. De ennek az iparágra nincs káros hatása! HA neked HDMI 2.0 kell vegyél GeForce-ot, ha DisplayPort 1.2a, akkor Radeont.

    (#15155) Jack@l: Senki sem írt egy sor kódot sem GameWorksszel. Megkapod és használod. Ha nem működik, akkor pedig a játék kiadása előtt letiltod. Aztán majd jönnek az okosok és elmondják, hogy a szemét konzolok tehetnek arról, hogy a PC-n nem aktívak a bemutatott effektek.
    Nos, részben nekem az a dolgok, hogy ezeket a dokumentációkat nyálazzam.

    (#15170) rocket: Ez tévedés. Lényegesen gyorsabb a hackolt futtatás Radeonon, mint amire a GeForce képes. Ezért írtam, hogy ha a GeForce is képes lenne erre a driverből, akkor ott is hozzávetőleg négyszeresére gyorsulna az effekt sebessége.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #15181 üzenetére

    Nem. A víz az jó a Witcher 3-ban. Egyrészt paraméterezhető. High és very high között a 32x és 64x tesszellálás a különbség. Tehát nem kell kikapcsolnod az effektet, hanem elég visszavenni, ha nem 8K-s felbontáson futtatod.
    Másrészt a probléma nem a tesszellálás alkalmazása, hanem a feleslegessége a HairWorks esetében. Egy ilyen rendszernél a hajszálnak elég maximum 64 szakaszból állnia. Ez rendkívül kevés memóriahasználatot jelent még úgy is, hogy nem tesszellálod le a 64 szakaszt több szakaszból. A HairWorks 5 szakaszt használ a hajra, amiből lesz 320 szakasz. Amiért nem látod a különbséget a 16x és a 64x tesszellálás között az az, hogy 16x tesszellálással is 80 szakaszod van és az több, mint a 64, ami szükséges egy hosszú hajszálnál. Rövid hajszálaknál elég még kevesebb is, de azok is 5 szakaszból állnak a HairWorksnél, és abból lesz 320 szakasz. Esetenként egy rövid hajszál mindössze négy pixelt foglal el, és ilyenkor hosszávetőleg 100 szakasz jut egy pixelre, ami azt jelenti, hogy raszterizálás során a munka 99%-a szükségtelen, de meg kell csinálni, mert nem tudod előre, hogy melyik szakaszra van szükséged.
    A tesszellálás miatt a HairWorks egy olyan problémával is szembesül, hogy az 5 ms-os időkeretből. 3-4 ms-ot csak a tesszellálással tölt, így az olyan fontos dolgokra, mint az analitikai élsimítás, az önárnyék és az átlátszóság kezelése nem marad idő. Márpedig ezek sokkal nagyobb szerephez jutnak a minőség tekintetében, hiszen mindegyik szükséges ahhoz, hogy a haj ne spagettiszerű recés valami legyen, hanem látszódjon, hogy itt vékony szálakról van szó. És ez teljesen kivégzi a HairWorks minőségét, tehát jelen helyzetben ronda és lassú is. Ez a gond, és nem az, hogy 64x tesszellálást használ. Ha szükséges, akkor használjon, de nem szükséges.

    A tesszellálásra még kitérve, meglepő lesz amit írni fogok, de nagyon sok játék használ ma már 64x tesszellálást. Tehát ezzel igazából nincs semmi baj. Még a Gaming Evolved játékok is használják 64x-es mértékben, mint például a Sniper Elite 3 és a Thief. Azért van benne az API-ban is, mert van olyan helyzet, ahol hasznos, és látható előnyt ad. A gond itt az, amikor olyan helyre van használva ahol nem ad előnyt, vagy egyáltalán nem is szükséges. És itt nem is a túltesszellálásról van szó, mert a Sniper Elite 3 és a Thief esetében is a phong tesszellálás ott van minden karaktermodellen és számos felületen is, tehát ennél durvábban nem is lehetne alkalmazni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #15190 üzenetére

    Amelyek szükségesek ahhoz, hogy az effektet implementáld a motorba, de egyetlen változó sincs például a tesszelláció paraméterezésére vagy arra, hogy hány szakaszból álljon a hajszál, amely a legfontosabb dolog lenne.

    Az AMD, az Intel és az NV is kínál anyagi segítséget a fejlesztőknek a partnerprogramokban. Az hülyeség, hogy csak az NV ad pénzt, vagy egyéb anyagi juttatásokat. Viszont nézd azt a gondot, hogy az AMD és az Intel partnerprogramja túlterhelt. Mindkét cég több stúdióval és kiadóval dolgozik együtt, mint az NV, és ezért például nem tudják vállalni a kimaradtakat. De a kimaradt stúdiók és kiadók is próbálnak szerezni anyagi támogatást, és ha nem tudnak elmenni az AMD és az Intel partnerprogramjába, akkor maradt az NV. Nyilván ez a vezető oka annak is, hogy az átlagot tekintve az TWIMTBP játékok rendelkeznek a legrosszabb optimalizálással, mert azokat a kiadókat és stúdiókat tudják felkarolni, amelyek az Intel és az AMD rostáján nem mennek át.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #15212 üzenetére

    Hol tudod paraméterezni a tesszellálást?

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz bozont #15314 üzenetére

    És min keresztül vezetsz át több ezer vezetéket, ha nem lesz alatta interposer? Valamiféle interposer rétegre szükség van.

    (#15288) ffodi: Mindegyik VGA vissza fogja venni az órajeleket olyankor, amikor egy játék nem a mai 40-60% közötti terhelést fejti ki. 80-90% az már majdnem Furmark szint, és itt játékról van szó, tehát nem fognak a driverbe lefojtást építeni. A hőlimitre is vannak bizonyos követelmények, amelyeket be kell tartani. A legtöbb 39 szériás kártya azért használ 70-80 fokos hőlimitet, mert az alkalmazott egyedi hűtés mellett, ilyen hőfokon éri el a referenciához hasonló működést. A referenciát ugyan nem adták ki, de a gyártók megkapták és annak a hőlimitje 105 fok volt, tehát ki lehetett vizsgálni, hogy mit kell minimum teljesíteni az egyedi termékeknél. Nyilván ha úgy döntöttek a gyártók, hogy raknak rá jobb hűtést, akkor kellett nekik egy összehasonlítás az AMD rendszerével, és aszerint kellett belőni a hőfok limitet a BIOS-ban, hogy az AMD elfogadja az adott dizájnt. Itt nagyon egyszerű a képlet. Minden órajelre van egy teljesítményhatás, amit be kell tartani. Ha a termék a meghatározott teljesítményszint között üzemel, akkor ki lehet adni. Ezt a teljesítményszintet a referenciahardverek szolgáltatták, tehát a gyártók egyénileg ki tudták tesztelni. A gyári tuning pedig ezekre az alapokra épül.

    Azt nagy biztonsággal ki lehet mondani, hogy amikor a 200-as szériát kiadták, akkor nem volt olyan teszt, amivel meg tudták volna nézni, hogy az adott generáció hogyan teljesít aszinkron compute mellett. Képesek voltak terhelést szimulálni, de az nem gyakorlat. A 300-as szériánál már ott volt az Ashes of the Singularity, aminek tesztelésével lehetett konfigurálni a bekövetkező órajelcsökkenéseket. És ez már gyakorlati példa. Itt jó +4-5%-ot hoztak még az ugyanolyan órajelre állított kártyák is, csak abból, hogy a PowerTune-t képesek voltak gyakorlati példával tesztelni, így jóval agresszívabb lehet a működése, mint amikor szimulált környezetre építve paramétereznek. Az a baj, hogy bármennyire is próbálod egy játék működését nem tudod leszimulálni, így a játékokra paraméterezett PowerTune addig nem lehet tökéletes, amíg nem tudsz rajta gyakorlati példákat futtatni.

    Az egyébként való igaz, hogy a 15.15-ös driver lényegesen jobb, mint a 15.5 beta, és ez is okozott boostot a 300-as szériánál a 200-ashoz viszonyítva. A 200-asra az AMD nem ajánlotta ezt a drivert, mert nem tesztelték, de amint becsomagolják a tényleges Catalystba úgy minden GCN megkapja ezeket a gyorsulásokat. Sőt, a későbbi 15.200/15.300 csomag gyorsulásait is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Drizzt #15800 üzenetére

    Azt már tudja a Tonga is. De nyilván benne lesz a Fijiben is.

    (#15801) Menthirist: Dehogynem lehet tudni. A context priority rendkívül sérülékeny, mert a hosszú rajzolásokat nem tudja hatékonyan lekezelni. Nem véletlenül jegyezte meg az NV a GDC-n, hogy később ők is áttérnek majd a finomszemcsés preempcióra, amit a Tonga és az összes GCN3 GPU használ. Emellett majd kell a stateless compute is, mert a timewarpra leginkább akkor érdemes időt szánni, amikor vertex feldolgozás és tesszellálás van, mert az a feldolgozás eleje, de mivel a compute több architektúránál is jellemzően a pixel state-hez van kötve, így vertex shader és tesszellálás mellett a timewarp nem futhat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Komplikato #15816 üzenetére

    Nem tévedsz, de dátum még nincs a Nanora. Előbb Fury sima lesz egyébként, aztán Nano és aztán a dual Fiji.

    (#15817) Demo77: Az új Batman a magyarázat. Az 4K HDMI 1.4 kompatibilis, és nem 30 fps-re cappelt játék. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Hakuoro #15864 üzenetére

    A 128 ROP csak most érne valamit. Erről kérdeztem az AMD-t, és azt mondták, hogy 2013-ban még tárgyalták, hogy szükséges a ROP teljesítmény növelése, de aztán látták, hogy minden új generációs motor elment a compute felé. Ray-tracing hibrid effektek stb, így több shader mellett döntöttek kevesebb ROP-pal. Ez bizonyos játékokban nem ideális, de a Frostbite 4, CryEngine 3.8.x, Nitrous, LORE, Dawn Engine, szinte mindegyik új dolog ilyen. Még az Unreal Engine 4-be is bekerült a Ray Traced Distance Field Soft Shadows, amit pont azért raktak bele, mert messze túllépik a hardvere az 5 TFLOPS-ot.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #15886 üzenetére

    Ezek komoly mérnöki döntések. Van egy tranyóbudgeted az egész fejlesztésre. Nyilván előre ki lehet számolni, hogy hozzávetőleg mennyit használhatsz fel. Abba kell beleférnie a legjobbnak. De a kérdés, hogy mi a legjobb? Rakjál bele kevesebb ROP-ot, és több shadert ezzel reflektálva a Frostbite, a CryEngine, a Nitrous, és még sok motor irányára, vagy rakj bele több ROP-ot és kevés shadert ezzel lefedve az aktuális motorverziókat. Aztán ott vannak az olyan piacok, mint a VR. Oda nagyon kevés a nyers erő, így le kell tervezni a hardvert úgy, hogy hatékony legyen a timewarphoz. Dönthetsz úgy, hogy én ezt nem teszem meg, mert a finomszemcsés preempció drága, és még nehezebb stateless compute hardvert építeni, vagy úgy, hogy ez egy nagy piac lesz és akkor legyen a hardver VR-ready.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz solfilo #15891 üzenetére

    Ősz és tél, de nyáron már bekerül pár early accessbe a Windows 10-zel.

    (#15893) Jack@l: A ROP jelentősége attól függ, hogy mit futtatsz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Komplikato #15899 üzenetére

    Ez koncepciókülönbség. Felfedezhető az NVIDIA és az AMD architektúráit vizsgálva, hogy az NVIDIA főleg a geometria komplexitásának a növelését tartja fontosnak, míg az AMD a compute pipeline-ok építését és párhuzamos futtatását. Ezért is akarja az AMD annyira az új API-kat, mert amíg a geometria komplexitásának növelése egy részben ugyan, de reálisan működő irány a DirectX 11-ben, addig a pipeline-ok feldolgozása soros formára van kényszerítve, függetlenül attól, hogy a hardver mit tud. Ennek valószínűleg köze van ahhoz, hogy az AMD már a PS3-nál felfigyelt, hogy mire képes a gép, ha a megszokott módtól eltérően programozzák, míg az NVIDIA ezt valószínűleg látta, de úgy gondolták túl nehéz lenne átnyomni egy olyan váltást a PC-n, hogy az aktuális API-kat konzoloshoz hasonlók váltsák fel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #15906 üzenetére

    Azért az túlzás, az év végére még simán itt lesz mindegyik VGA (a mostani játékmegjelenéssel számolva, akkora már a mi tesztcsomagunkban nem is lesz DX11-es játék), ami most a piacon van. Szerintem még a következő nyáron is. Majd talán ősszel lesz váltás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FollowTheORI #15910 üzenetére

    A Fiji fejlesztésénél az egyik vezető koncepció valószínűleg a VR lehetett. Ezt az AMD többször is elmondta. Abban valóban igazuk van, hogy ez ma az egyetlen hardver, ami ténylegesen alkalmas VR-re. Nem csak a teljesítményben, hanem a tudásban is megvan benne a stateless compute és a finomszemcsés preempció, a kis késleltetésű leképzés érdekében. Nem véletlen, hogy minden E3 VR demó ezen futott, semmi sem ad olyan folyamatosságot, mint a Fury X. És a VR Q1-ben bevetésre kerül, addigra pedig nem lesz új VGA, tehát a mostaniba kell belerakni a képességet, hogy meglegyen az élmény.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #15917 üzenetére

    Nem mindegy melyik játékkal. Azért jönnek olyan játékok a Q1-ben, amelyek nehezen fogják a 90 fps-t stabilan tartani maxon egy Oculus által ajánlott géppel. Mint írtam nem véletlen, hogy ezek két Fijin futottak az E3-on.
    HDMI 1.4 lesz a végleges Oculus Riften.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #15922 üzenetére

    Nem ismerem a későbbi Oculus verziókat. Nyilván elképzelhető, hogy a 2018-ban érkező Rift már HDMI 2.0-t kap, vagy esetleg DisplayPortot.

    (#15921) stratova: Ha lesz Windows 10 akkor áttérünk rá. Addig Windows 8.1 van.

    (#15919) gbors: Elég alacsony a Fury variancia. 4% csak. Ennél még a 980 Ti varianciája is nagyobb, annak 7%. De ezzel nem tudsz mit tenni, ez a DVFS egyik hátránya, hogy ugyanaz a kártya nem ugyanúgy teljesít. Egyébként nyilván előfordulhat, hogy a Fury példány jól sikerült, míg a 980 Ti pont nem, de ugyanez igaz fordítva is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #15955 üzenetére

    De csakis a Battlefield 4 esetében. A többi Frostbite játékban és úgy általánosságban a többi Mantle játékban ez a gond már nem létezik. A jövőben érkező játékok esetében pedig a Mantle mód nem a teljesítményről szól, hanem az extra eljárások beépítéséről.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #15958 üzenetére

    A teljesítmény az a körítéstől függ. Nyilván ismerjük az EA álláspontját, hogy a Frostbite 3-on a DX11 nem stabil. Nem mondom, hogy jól döntöttek, amikor ilyenre írták meg a motort, de azzal nyugtatják magukat, hogy van alternatívája a DX11-nek. Ami amúgy nem globális alternatíva, tehát inkább a DX11 stabilitása lenne a cél. De mindegy, ezt a gondot a Vulkan úgyis megoldja univerzális szinten.

    (#15960) daveoff: Ez az engine verziótól függ. Nem lehet ennyire egyszerűen leváltani a rendert, főleg úgy, hogy a fő frissítést az első PBR verzió kapta meg, vagyis vissza kellene menteni magát a PBR-t is a régi Frostbite-ba, ami nagy munka. Meg eleve jön a következő, úgymond igazi PBR frissítés, talán elnevezik Frostbite 4-nek, de lehet, hogy szimplán elhagyják a számokat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #16007 üzenetére

    Ez a Civilization sajátossága. Ha elkezdesz egy pályát, akkor nagyon gyors bármelyik API-val. Amint lefutottál több száz kört már beépítetted a pályát és töredékére esik az fps. Ezt kipróbáltam én is. DX11-ben hozzávetőleg 70-75 fps-sel kezdtem kizoomolva, és a vége felé 10 fps-em ha volt, ha kizoomoltam. Mantle-lel szintén 70-75 fps-sel kezdtem és 65-70 maradt a végén is kizoomolva. De ez teljesen normális. A kezdéskor a draw call mennyisége nem éri el az 500-at, míg a vége felé már 20000-30000-ről beszélünk.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #16010 üzenetére

    De van benne, pont erre az eshetőségre, csak azt nem mindenki használja, mert a DX11-es teljesítményt nagyon rombolja.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #16156 üzenetére

    Nem lehet még beszélni mindenről. Csak a hardvert leplezte le az AMD azt, hogy mit hoznak még a hardverhez nem. De annyit elárulhatok, hogy nem véletlen, hogy júliusban lesz elérhető a sima Fury. Ezzel az a terv, hogy a Windows 10-hez legyen közel a start, hogy ott is le legyen mérve a teljesítmény a 15.200-as csomaggal, amiből egyébként amúgy is kapott a 15.15-os driver a tesztek előtt frissítést. Bár valószínűleg sokan már nem telepítették fel.
    A Nano sem véletlenül jön később, hogy nagyobb legyen a fókusz a DX12-vel.

    Nagyon egyszerű dolog történt amúgy. Az Intel és az NV ugyanúgy látta cirka 7-8 évvel korábban, hogy az API-k a PC-n korlátozók. Rengeteg limittel, és jó lenne, ha ez megváltozna, de nem hittek benne, hogy egy ilyen váltást a PC-n át lehet nyomni egyáltalán. A célja mindig az volt, hogy biztosítsanak egy egyszerűnek tűnő felületet, és a komoly problémát okozó tényezőkkel a háttérben dolgozhat az API és a kernel driver. Ha pedig ez a cél, akkor ehhez kell tervezni a hardvert. Az AMD úgy gondolta 7-8 évvel korábban, hogy egy életük egy haláluk át kell nyomni a változást. És a potenciális változáshoz tervezték a hardvert, gondolva arra, hogy hagyományos szinten hátrányban lesznek, de ha sikerül letolni az ipar torkán a low-level irányt, akkor már a konkurensek lesznek hátrányban. Most történik a váltópont, mert nem kis meglepetésre egyébként, de átnyomták az irányt.
    Többek között a DX12 az AMD-nek nagyon fontos, mert rengeteg olyan dolgot megváltoztat, amely most számukra hátrányos a DX11-ben. Például ma a bekötési modell váltása a legfontosabb és nem véletlen, hogy erről beszélnek a legtöbbet. Ma ez úgy néz ki, hogy a CPU beköt egy puffert az API-val és a kernel driverrel, amelynek az eredménye egy adat lesz a hardver számára. Ezt a driver szimplán elküldi a hardvernek mint erőforrás leírót. Ezt persze minden hardver máshogy csinálja, mert implementálás szintjén lehetnek különbséget, itt arról beszélhetünk, hogy a bekötés hol valósul meg a multiprocesszoron belül, például a legtöbb mai modern GPU-ban a textúra-mintavételezőben történik mindez, de itt is számolni kell azzal, hogy tömbösítve történik a bekötés, vagy különállóan. A GCN viszont teljesen egyedi. Ennek az architektúrának nincs szüksége erre a procedúrára. Egyszerűen a shaderbe bele lehet írni memória elérést és kész, a skalár egység elvégzi a bekötést. A hátránya, hogy ma egyik szabvány API sem működik így, tehát ezt le kell "emulálni" a kompatibilitást egy olyan hardverrel, amit nem hagyományosan terveztek. Az új API-k azonban így működnek, és fordul a kocka, vagyis a többi architektúrának kell "leemulálni" a kompatibilitást.
    Ugyanilyen probléma a queuing. Egy mai API DX11/OpenGL úgy működik, hogy van a hardver felé egy parancslista, és abba lesz betöltve minden, majd a hardver szépen egyesével lekéri a feladatokat, és azokat sorban végre is hajtja. Ma több modern GPU-t erre terveztek. Egy mérnöki csapat felteszi a kezét, hogy tudunk mi hardvert tervezni, de miért is költsük tranzisztorokat a párhuzamos feladatfuttatás kigyúrására, ha a pipeline-ok úgyis sorban jönnek? És ez egy érthető döntés a maga szintjén. Valószínűleg senki sem vonja kétségbe az Intel és az NV vezetőségében, hogy a mérnökeik képesek lennének egy alternatív GCN-t tervezni, csak nem ezt kérték tőlük. Az AMD viszont úgy gondolta, hogy egy ilyen reformot is átnyomnak, mert azért masszívan párhuzamosításra tervezett rendszer a GPU, hogy olyan programok is fussanak rajta. Megtervezték a GCN-t stateless compute-ra, megpakolták regiszterekkel, gyorsítótárakkal, és igen ebből ma egyetlen szabványos API-n sem lehet kihozni semmit, de mit ad az úr a DirectX 12 queuing modellje copy/compute/graphics halmazba van szervezve, így a hardver tetszőleges számú compute és copy parancslistát kezelhet, és ezekről párhuzamosan kérhet le feladatokat, ha persze van rajtuk betölthető. Ezzel lehetőség adódik, hogy a feltöltés és a compute minden más feladattal párhuzamosan végrehajtható legyen, vagyis megszűnt a soros feldolgozásra kényszerítő modell. Itt megint fordul a kocka és a hátrányból előny lesz. És ezekről egyébként fognak beszélni H2-ben, csak megvárják a játékokat, hogy megmutathassák, hogy ez mit is jelent. A 3DMark API Overheadben már láthatjátok egyébként, hogy mi történik az architektúrák hatékonyságával a DX11-DX12 váltásnál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ren Hoek #16174 üzenetére

    Full HD-re szerintem nem ezt a kártyát szánják. 4K-ra készült. Ezt számtalan alkalommal kihangsúlyozták. Full HD-re vannak sokkal olcsóbb megoldások.
    A New Era of Gaming nem igazán a Fury-nak szólt, hanem annak, hogy mennyire pici gépbe lehet belerakni ma komoly teljesítményt. Ezt hivatott prezentálni a Quantum.

    Vannak akik megengedték, hogy beszéljenek a játékokról (Lionhead, CCP, DICE, Oxide), vannak akik csak utalásokat engedtek meg a videóba (Square Enix), és vannak akik a Gamescomra készülnek, és oda kérték a bemutatót.

    Elég sok dolog leszűrhető belelő: [link]

    A StarSwarm támogatását befejezték 2014 végén. Az AMD nem tartott rá igényt, mert már mindenhol az AotS játékkal demóznak, így csak az NV-nek készült még egy verzió. Senki más nem kapott optimalizálást 2014 eleje óta. Egyszerűen nem volt rá szükség. Az AotS ugyanaz a motor, csak engedve vannak az újítások is. Abban a játékban egyébként a Fury X a leggyorsabb. 4K-ban ez az egyetlen VGA, amely képes magából játszható sebességet kipréselni. Igaz ezt Mantle módban teszi egy A10-7850K társaságában, de valószínűleg az év végi megjelenésre DX12-ben is képes lesz rá egy combos IGP társasága nélkül. Nyilván egy alpha kód gyorsul annyit a véglegesítésig.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lowzor #16180 üzenetére

    Ez nem magyarázat, hanem célpiac. Ha nem akarsz 4K-t, valószínűleg nem érdekel majd ilyen gyors és drága VGA. Ez egyébként minden gyártó kommunikációjában ugyanilyen. Az NV is nyomatja a 4K-t a Titan X-szel.

    (#16181) Ren Hoek: Az E3 tökéletes alkalom volt. Nem beszélve arról, hogy nem árt, ha a kisebb stúdiók is hozzáférhetnek egy Fury-hoz, hogy tesztelhessék vele a low-level programjukat. Ha kiszámolod, akkor az Xbox One szeptemberben frissül majd az új Windows 10-es firmware-rel, és akkor válik elérhetővé az univerzális áruház. Ha valami gond van, akkor mindenképp szükséges két hónap az Xbox One-ra DX12-es játékot készítő független stúdióknak, mert bár az API megengedi, hogy módosítás nélkül áthozzák a konzolos kódot PC-re, de azért tesztelés nélkül kiadni nagyon nem ajánlott, és tudtommal a Microsoft ezt kontrollálja is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #16185 üzenetére

    Nincs különösebb akadálya, hogy az említett felbontásokat használd, de a Windows 10-ben azt figyelembe kell venni, hogy a fejlesztő megkapja a kontrollt a frissítés explicit kezelése felett, hogy hatékonyabb vertikális szinkront lehessen írni. Bizonyos alkalmazásokban nem lesznek elérhetők ezek a frissítések, míg a 4K minden alkalmazásban elérhető lesz.

    (#16188) rocket: A hardver egy eszköz a tartalom futtatásához. Ma már a szoftvernek legalább akkora jelentősége van az AMD-nél, mint a hardvernek. A kettő egymás nélkül nem létezik. És ez a VR szempontjából eléggé fontos dolog, mert szükséges a LiquidVR is a teljes élményhez. Ha csak a hardverre alapoznak a fejlesztők, akkor az rossz élményt ad a virtuális valósághoz. Szerencsére ez nincs így, hiszen minden E3-on bemutatott VR játék LiquidVR-en/Mantle-ön futott.

    Számos Fiji VGA jön még, amelyeket le fognak tesztelni és ezzel együtt a Fury X-et is újratesztelik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #16192 üzenetére

    Természetesen az 1080p-1440p-4K teljesítménykülönbség az egy hardverkarakterisztika, persze ha ugyanarról a programról beszélünk. Ez régen is így volt. Ehhez egyébként valószínűleg kevés köze van a HBM-nek, leszámítva pár PBR játékot, például a Ryse. Inkább a ROP kialakítása a döntő tényező jelenleg. De a jövőben, ahogy nő a PBR és a komolyabb hibrid leképzőket használó játékok száma, úgy válik a memória-sávszélesség egyre fontosabbá. Nyilván az új, PBR-rel kigyúrt Frostbite játékok az E3-on nem véletlenül futottak Fury X-en.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #16197 üzenetére

    A Battlefront hosszabban is megtekinthető volt a PCGamingShown. Ez egy 24 órás rendezveny volt.

    Az AotS az eddigi legkomplexebb tereprendszert használja. Annyira komplex a terep, hogy az első stratégiai játék lesz, ami nem a CPU-n oldja meg a generálást. Emellett nehéz azt mondani rá, hogy ZS kategória. A Stardock adja ki, akik a stratégia műfajának éllovasai ma. Nézd meg kik készítik és latni fogod, hogy iparági veteránokról van szó, akik korábban top stratégiai játékokat raktak le az asztalra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #16213 üzenetére

    Driverbe nem lesz beépítve. A Strongene dekódere licencelhető a szoftverfejlesztők számára. Cyberlink, ArcSoft használja is. Te gondolom nem ezeket használod. A letölthető verzió lassabban fejlődik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #16223 üzenetére

    Igen ez a legkomplexebb. Annyira fontos fejlesztés, hogy a Nitrous motor mellett külön is lehet licencelni. Tudtommal a SEGA és a 2K már kérte is. A Firaxisnak volt az előző évi GDC előadásában, hogy a legnagyobb problémát nekik a terep generálása okozza, és azért nem tudnak komplexebb terepet létrehozni, mert egy óráig generálná a CPU. Ezt az Oxide GPGPU-val oldotta meg. De erről irtunk is egy hírt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Komplikato #16228 üzenetére

    Ne feledjük el a StarBreeze cuccát. Az is jön a VR-es Walking Dead játékkal.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #16235 üzenetére

    A Windows 10 beépített dekódere azért ver el sok dekódert, mert nem csak CPU-s. C++AMP-ben írták, és WDDM 2.0 IOMMU mód támogatása mellett használja az IGP-t is a CPU mellé.
    A 10 bites HEVC Strongene dekóder csak licencelhető. Pénzt kérnek érte, ha valaki használni akarja, ezért vannak ez a dekóder a fizetős lejátszókban. Az Ittiamnak van még GPGPU dekódere. Ez minden OpenCL 1.2-t támogató holmin megy, de ez is fizetős, hozzávetőleg 50000 dollár az alap licenc. De persze, ha kifizeted, akár neked is odaadják.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #16239 üzenetére

    Ez verziólicenctől függ. Bizonyos funkciók bizonyos árakhoz kötődnek. Nyilván a konzumer vonalnak szánt lejátszókba nem feltétlenül a legdrágább verzió lesz benne.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #16435 üzenetére

    Valaki megint nagyobb összeggel shortol. A samsungos megközelítés pedig nem érdekes, hanem hülyeség. Mivel az AMD semi-custom gyártó, így a Samsungnak is barmikor leterveznek APU-kat. A Samsung egyébként több csúcskategóriás lejátszójában beágyazott APU-kat használ.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #16441 üzenetére

    A Samsungnak a szerver lenne csak érdekes. Minden mást le tudnak rendelni. Ráadásul kockázatok és extrém ráfizetés nélkül.

    Az MS pletyka egy manipuláció a tőzsdéi árfolyam növeléséhez. Hátha bejön és dob plusz 10-15%-ot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #16443 üzenetére

    A cél valószínűleg kattintások gyűjtése, vagy esetleg kis manipuláció, hogy shortolni lehessen, de ez nagyon nehéz.

    (#16444) geresics: A 380 általánosan erősebb hardver. A 2 GB sok játéknak elég és elég lesz FullHD-re.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MiklosSaS #16480 üzenetére

    A mostani GCN verziók mellett meg kettőt jelez a disassembler. Szerintem a 110 a GCN SI, a 120 a GCN CI, a 125 a GCN VI. A 135, 145 más GCN lesz. Tekintve az AMD teljes GCN tervezetét bevezettek sok dolgot már, de még nincs tranzakciónális memóriakezelés. Gondolom valamelyik új GCN verzióba bekerül. Talán a következőbe.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MiklosSaS #16488 üzenetére

    Biztosan marad a GCN. Nem azért tervezték évekig az iparági teljes reformját a konzollal, a low-level áttéréssel, az architektúra dokumentálással, hogy amikor ebből előnyt kovácsolhatnak hirtelen leváltsák. Szerintem a fejlesztők is borították volna az asztalt, hogy ráírták az új konzolokra a motorokat, megtanulták a GCN-t, és ebből a befektetésből a PC-be nem tudnak átmenteni semmit.

    A CPU-s verzió igen. Az APU-s 2017-ben. Addig sajnos nem lesz ultimate megoldás az IGP-t aktívan használó játékokra.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #16508 üzenetére

    Eddig végig úgy fejlődött, ahogy eredetileg eltervezték. A tervekből a tranzakcionális memóriakezelés és a platfromszintű tranzakcionális memóriakezelés, ami még nem vált valóra.

    Maga az x86 nem alkalmas széles SIMD-re. Sosem lesz az. Nem úgy tervezték 30+ éve az ISA-t, hogy kiszolgálja a 201x-es igényeket. Ha pedig módosítod az ISA-t az igényeknek megfelelően, akkor megszűnik a bináris kompatibilitás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #16511 üzenetére

    A közös L3 cache elég rossz ötlet. Az Intel egyszer csinálta a Sandy Bridge esetében, aztán látták, hogy mennyire teleszemeteli a gyorsítótárat az IGP, és a processzormagok teljesítménye a töredékére lassult. Le is tiltották a funkciót. Ami nem működik, azt nem érdemes erőltetni.

    Valószínűtlen. Sokkal nehezebb egy AVX-szel bánni, mint egy GPGPU-val, és az AVX ma 256 bites vektor, míg a GPGPU esetében 2048 bitről van szó. A fejlesztők általános meggyőződése, hogy x86 alatt 128 bitnél nem éri meg továbbmenni. Ahhoz, hogy ennél többet használj assembly kell, és itt jön a specializált kód problémája, amelyet minden hardverváltásnál cserélni kell. Az OpenCL ami valamilyen szinten megoldás, de ott meg az a gond, hogy ha van kódod, akkor GPGPU-n futtatod.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FollowTheORI #16513 üzenetére

    Az Ivy Bridge óta az Intel alapértelmezetten tiltja ezt a képességet. Persze beleírhatják, mert a programozó egy driver beállítással előhozhatja, csak nem sok igény mutatkozik rá, hogy az IGP szétszemetelje az LLC-t. Az Ivy Bridge óta az Intel IGP-k tartalmaznak egy külön L3 gyorsítótárat, amelyet csak az IGP érhet el.

    Ez egy kihasználatlan képesség a lapkában.

    (#16514) geresics: A jelenlegi programokban kevés változás lesz. De a Win10 mindkettőnek segít.
    A WDDM 2.0 bevezeti a virtuális memóriát a GPU-ra, tehát nyilván nagyságrendekkel javulni fog a fejlesztők lehetősége a VRAM kihasználására vonatkozóan. De ehhez WDDM 2.0-ra kell írni a programot.

    (#16516) miklosss2012: Az nem a Win10-től függ, hanem az API-tól.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #16651 üzenetére

    Ez egy Radeon R9 390X referenciakártya.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz nubreed #16699 üzenetére

    Nem nagyon tudják teljesíteni a rendeléseket. A sima Fury esetében még a partnereket sem tudják kiszolgálni. A Hynix még nem érte el a HBM ideális termelési szintjét, és ehhez még szükséges legalább két hónap. Nagyjából októberre normalizálódhat a helyzet, addig szerintem folyamatosan előrendeléseket kell rá leadni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #45185024 #16701 üzenetére

    Ebben nincs semmi fura. Ha valaki HBM-et rendel, akkor kap 10-20 mintát a prototípushoz. Úgyis legalább egy év, mire valamit összeraknak ezzel a technológiával, tehát tömeges rendelésre maximum jövő ilyenkorra számít a Hynix.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #45185024 #16703 üzenetére

    Az NV-t a HBM2 érdekli, ahhoz csak az év vége felé lehet hozzáférni.

    Lesz pár Fury. Később több.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Geresics #16707 üzenetére

    Semmi koncentráció nincs a következő évre. Azt kell megérteni, hogy a következő generáció hozzávetőleg másfél évre van. Nem csak 14 nm-re kell váltani, hanem HBM2-re, illetve 2 GHz-es interposereket kell stabilan támogatni, miközben az 1 GHz-es interposerek stabilitásával küzdünk. Hiába vannak meg maguk a lapkák, akkor is legalább egy év, mire hozzájuk igazítják az interposereket és a HBM2-t.

    Ami most fontos volt az AMD-nek, hogy legyen egy VR-hez való rendszerük, mert Q1-ben jön a Rift, és senkinek sem volt VR-hez tervezett fejlesztése. A Fiji az első termék, ami tartalmazza a VR-hez szükséges alapokat. Azt pontosan tudja az mindenki, hogy HBM2-höz szükséges 2 GHz-es interposereket senki sem fog tömeggyártani 2016Q3 előtt. Ez volt a Fiji lényege.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz mackosajt #16709 üzenetére

    Nincs olyan kevés alkatrész hozzá, csak az igényeket nem tudják kielégíteni. De ettől technikailag tömeggyártásról beszélhetünk már a HBM kapcsán. Később jóval többet fognak belőle gyártani. Ahhoz, hogy a gyártás jobban felfusson szükséges egy kezdet, amit most a Fury X biztosít. És a növekvő igényekhez kiépülnek az új HBM gyártósorok, és ezek épülnek folyamatosan.

    (#16712) DeckardCain: Érkezik, de nincs kőbe vésve az időpont. Mindkét esetben az NV-re vár az AMD. Az NV meg az AMD-re. ;]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #16713 üzenetére

    Ez nem ilyen egyszerű, főleg az interposerek miatt, amelyek nem mindegy, hogy milyenek. Az AMD is három opcióból választotta ki az UMC megoldását a Fijihez. És ez szándékos volt, mert nem igazán lehet előre eldönteni, hogy mi a jó választás. Nem is döntöttek, hanem a TSMC, a GloFo és az UMC is más interposert tervezett, és később választották ki a számukra jól működő megoldást. Ezt megtehették, mert a Fiji volt a pilot projekt az egész HBM-hez. Ez már az AMD-nek egy előny, mert tudják, hogy milyen interposerre van szükségük, de más ezt még nem tudja. Szóval a hátrányok mellett a korai váltásnak megvannak az előnyei is. Az AMD nyilvánvalóan egy gyártástechnológiai váltás kockázatai nélkül akarta letudni az amúgy is nagyon kockázatos interposer-HBM bevezetését.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #16721 üzenetére

    Low-level API-val nincs driver optimalizáció. Amiről szó van, hogy a HLSL ext.=>AMDIL fordítóra az AMD már nem fordít figyelmet, így a CI ASIC és a VI ASIC ugyanazt az optimalizációt használja. Ez azt jelenti, hogy a CI és a VI ASIC teljesítménye megegyezik az AMD API-jával. Elméletben lehetne írni új HLSL ext.-et, ami esetleg kihasználhatóvá teszi a DPP-t vagy az SDWA-t, de ezt nem írja meg az AMD, mert OpenCL C++-ban úgyis kihasználható lesz, és akkor a saját API alatt is kidobható a HLSL ext.

    Azt nem tudom, hogy ebből az információból hogyan lett végül a világ felé az kommunikálva, hogy a saját API-ra a támogatás megszűnik.

    (#16715) gbors: Nem valószínű. Mivel mindegyik új hardver megjelenése leginkább az interposertől függ, így valszeg egyszerre rajtolnak jövőre az iskolakezdéskor.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #16728 üzenetére

    Jövő ősz az nagyjából másfél év. Na jó egy és negyed.

    Jellemzően a GPU-kat a Wipro vagy a Synapse csinálja. Egyikük sem jelzett FinFET GPU-t tape-outot.
    Azt egyébként számold bele, hogy a Synapse a Fiji GPU-t 2013 októberében tapeoutolta ugyanakkor, amikor a Tonga-t. Viszont az interposer ezt az egészet megbolondítja, mert hiába adható ki a lapka mondjuk háromnegyed év múlva, az egyéb komponensei nincsenek készen. Logisztikai problémák is vannak, mivel eddig egy bérgyártó felelt az összerakásért a tokozásig. Mostantól kettő, vagy három fog. A Fiji is úgy készül, hogy a TSMC legyártja, és megy az UMC-hez a HBM-ekkel együtt. Az UMC rárakja az interposerre az egészet, és teszteli az összeköttetést és a tokozást. Majd megy a Hynixhoz memóriatesztelésre, ahol kész lesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #16732 üzenetére

    Igen. Mi is ezeket mértük a tesztelt játékokban.
    A 285 az gyakorlatilag kb. egy 380 ugye, és van 380 vs. 280 mérésünk:

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #16753 üzenetére

    Csak akkor, ha HBM1-et használnak. Eleve a HBM2 kísérleti gyártása Q1-ben indul, és a tömeggyártás a 2 GHz-es interposerekkel nagyjából szinkronban Q2-re van tervezve. A fejlesztésnél is fontos, hogy végleges HBM2 mintákat leghamarabb októberben kap mindenki. Ezért szállítja a Hynix a végleges HBM1 mintákat most, mert nehéz nullá tapasztalatról HBM2-re ugrani. A kockázatoknál mérlegelni kell azt, hogy ha a HBM2 nulla tapasztalattal nem jön össze, akkor az konkrétan magával vonja a teljes tervezett termékskála eltörlését. A HBM2 már nem olyan pilot projekt dolog, mint a Fiji+HBM, hogy minden szükséges komponenst a teljes iparág csak egy konstrukcióra hegyez ki. Itt már tudni kell, hogy kinek milyen interposer struktúra milyen órajelen működik, főleg a korábbi tapasztalatokra építve.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #16770 üzenetére

    A HBM2 abban nehezebb, hogy jóval magasabb órajelen működik, és az aktuális interposereknél a legnagyobb problémát az órajelszinkron jelenti. Ugyanis az interposer óriási kiterjedésű, és nem lehet hálós topológiával bevezetni az órajelet, mert a lapkával van szinkronban. Ergo az jelenti a problémát, hogy az interposer közepén már elkezdődhet a következő ciklus, amikor még az előző nem futott végig a lapkán. Ez órajelcsúszást eredményez és hibázhat a rendszer. Ezért fontos a jó interposer, akár 0,01 mm-es elhelyezési különbség dönthet a stabil és nem stabil termék között.

    Ha 20+ nm-en jön, akkor lehet tesztcucc, mert a Wipro és a Synapse FinFET-re még nem tapeoutolt GPU-t. Gondolom a WCCFtech hozta le, mint abszolút jól értesült kicsit sem clickbait média.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák