Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz oPalRx7 #2 üzenetére

    Vannak benne fermis részek, de a CU logikai felépítése például eléggé a Larrabee-re hajaz. ;]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz vinibali #10 üzenetére

    Az NV már döntött az ARM mellett. Nekik is megvan minden, a Fermi alapjai ugyanúgy fejleszthetők, szóval simán bevehető a Maxwellel a piac.

    Az Intel számára a Larrabee a kulcskérdés, mert az lenne a válasz ezekre, csak egyelőre nem úgy működik, ahogy azt elképzelték. Na de idő még van.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz arn #35 üzenetére

    Gyanítom, hogy a HD 7000 kettészakad. A Cayman és a régi tranzisztorbarát architektúra megmarad a kisebb GPU-knak. Az új architektúra megy a nagyobbakba. Még azt is el tudom képzelni, hogy a legkisebb HD 7000 egy Caicos die shrink, mivel a Deccan platformról az a pletyi járja, hgy marad a VLIW5 motor. Eléggé meg lesz keverve a dolog.
    Az új arc egyébként eléggé compute központú. A régi grafika központú volt. Tekintve, hogy mennyire éles a váltás biztos be lesz célozva a HPC és a prof piac. Bár elsődlegesen biztos, hogy a harmadik generációs Fusion alapjainak a lefektetése a cél, az mindennél fontosabb, csak addig még sok idő van (úgy 2013-ban lehet a megjelenés, az év végét értve ezen), és érdemes közben piacokat szerezni, ha már ilyen a GPU.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz atti_2010 #40 üzenetére

    A Trinity annyira nem nagy előrelépés a Llanohoz képest. optimalizált integráció. A Következő lépés sokkal komplexebb lehet, mint vártuk. Ez a CU nagyon compute rendszer, így a Bulldozer moduláris felépítését figyelembe véve még az FMAC-ot is ki lehet cserélni rá, vagy szimplán kiegészíteni. Lényegében egy CU-ban ott van négy 512 bites SIMD vektor. A nyers FLOP/ciklus teljesítményt nézve egy CU agyonver minden CPU-t.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Angel1981 #46 üzenetére

    A mostani DX11-es futószalagra épülő grafika ezzel az architektúrával háttérbe szorul. Pontosabban megy, ahogy a Fermin is, csak a lapka ennél sokkal többre is képes, így kvázi sok lesz a felesleges tranyó a GPU-ban a DX11-es futószalag igényei szempontjából.
    A játékok jövője viszont kérdéses. Ennyire compute rendszerek mellett tényleg ott a szoftver render lehetősége. Gyanítom a next-gen konzolok is erre mennek, szóval technikailag a DX11 csak azoknak lesz fontos, akik nem akarják kihasználni a lehetőségeket, vagy üzleti szempontok alapján megközelítve nincs meg a kifogyhatatlan anyagi hátterük a szoftver render motorhoz. Az MS egyébként itt húzhatna egy nagyot majd a DX12-vel. A futószalag egy része még mindig hasznos, így talán megoldható, hogy az új futószalag egyes lépcsőit tetszőlegesen kicserélheti a fejlesztő.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Meteorhead #49 üzenetére

    A Fermiben is van tesszellátor. A shaderek nem csinálnak semmit. A shadereken a tesszellálás overkill, egyszerűen túl komplex a folyamat, így brutálisan lassú lenne az emuláció.
    Nem tudom miért terjedt el az a nézet, hogy a Fermi a shadereken tesszellál. Ha ott tesszellálna 1 fps lenne mindenhol a sebesség.

    Valóban sok még a megválaszolatlan kérdés, de szerintem nem is volt cél ezeket megválaszolni. Egyszer úgyis megjelenik, és akkor mindenki megtud mindent. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz yakuza.tora #51 üzenetére

    Nem tudom, hogy mekkora méretben hozható az új GPU ezzel az architektúrával. Játszani persze lehet a számokkal, így teszem azt egy 24 CU-s lapka 800 MHz-en 2,45 TFLOPS.
    Mindenképpen 4 CU többszöröse kell, mert a skalár gyorsítótás 4 CU között van megosztva. Feltételezésem szerint egy 4 CU-s tömböt vezérel egy ACE és a hozzá tartozó menedzsment.
    Az biztos, hogy egy 4 CU-s csoportban lehet számolni 256 utasítás/ciklussal, ami 512 flop/óralej. Ebből tudtok számolgatni, ha gondoljátok. :)
    Ugye az 512-őt már csak a MHz-cel kell megszorozni, és megkapod a 4 CU számítási teljesítményét MFLOPS-ban. Ehhez szépen hozzá lehet adogatni a tömböket.
    Azt mindenképpen megjegyezném, hogy nem vagyok mérnök, de azt feltételezem, hogy egy 24 CU-s GPU 230 mm^2-be belefér 28 nm-en, de nem tudom, a legtöbb paramétert még, így egy durva kerekítést alkalmazta a többi részegység helyigényével.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Angel1981 #54 üzenetére

    Eléggé úgy néz ki, hogy durva átalakuláson megy keresztül a piac. Az biztos, hogy az AMD a Caymant megtartja az alsó régióban, valszeg nem akarnak abba a hibába esni, mint az NV, hogy nagyon nagy lesz a kisebb chipek mérete. Ugye itt onnan kell számolni, hogy egy Barts és egy GF116 kiterjedése hasonló, de a teljesítmény szempontjából a Barts álvahagyja a GF116-ot. (Radeon HD 6870-GTX 550 TI összehasonlítás alapján). Ezzel az architektúrával a Barts teljesítménye 40 nm-en, nem hozható 250 mm^2-en belül, vagyis a kisebb lapkák miatt muszáj megtartani a régebbi, durván grafikai központú architektúrát. Tekintve, hogy a Trinity továbbra is VLIW rendszer, és a Dual Graphics szolgáltatást hosszútávon gondolja az AMD, a legkisebb két GPU-ban biztos megmarad a VLIW. Feltételezésem szerint a legkisebb ráadásul VLIW5 lesz. Talán még a középosztályban is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz arn #57 üzenetére

    A sweet spot bőven megtartható az új architektúra mellett is. Nem kell 500 mm^2-es GPU-t tervezni. A rendszer skálázható, szóval kettő 300 mm^2-es GPU is megoldás. A HPC-be már nem igazán, oda kell egy 500 mm^2-es. Bár az AMD-nél gyanítom, hogy a HPC-szervereket inkább a Fusionnel támadnák.
    Az NV is csinálhatna sweet spot stratégiát. Annyit jelentene, hogy nem lenne GF100/110 a kínálatban, és akkor 2xGF114 lenne a toppon. Mondjuk igazából mindegy mi van ott, mert a HD 6990-et még két GF110-zel sem tudták fogni, így a GTX 590 dolog stratégiailag értelmetlen volt, de van és meg lehet venni.
    Az olcsó rétegnek természetesen okvetlenül fontos a VLIW. Az NV compute architektúrájával nem tud versenyezni a GF114 alatt. A GF116 már számottevő hátrányban val a lapkaméret/teljesítmény szintjén, és ez az olló lefelé egyre csak nagyobb. Ha az AMD bevetné a kicsiknél ezt az architektúrát, akkor ugyanebben a hajóban evezne, és túlzottan nagy chipekre kényszerülnének.

    (#58) Bici: A fő fejlesztési szempont biztos, hogy a Fusion volt. Ez az AMD fő stratégiája: mindenhova Fusiont. Persze ha már kész a GPU, akkor lehet minden más piacot támadni.
    Mondjuk ez a mindenhova Fusiont nem egyedi stratégia. Például az NV-nél is ugyanez fog menni, csak mindenhova Maxwellt szöveggel. Tulajdonképpen a heterogén éra 2013 felé teljesen beérik, és akkor az AMD-nek az számít, hogy Fusiont vegyél, az NV-nek az, hogy Maxwellt, míg az Intelnek az, hogy Haswellt. Minden más szempont másodlagos lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz arn #61 üzenetére

    Itt igazából a heterogén érában pont az a lényeg, hogy az IGP alaposan kivegye a részét a munkából, mert a teljesítmény/fogyasztás aránya messze a CPU-magok alatt van. A szerverben is ugyanez a lényeg, csak sokkal több maggal. Ha ez nem lenne fontos, akkor senki sem tervezne heterogén módon programozható processzor, ellenben 2011 van, és minden vállalat útitervében ilyen processzor szerepel.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz juzer78 #62 üzenetére

    Szerintem a tesszellálás javításához először a szoftveres alapokat kell elővenni. Az MS DX11-es futószalagja ebből a szempontból nem hatékony, és ezen kell elsődlegesen javítani. Amíg ez nem tröténik, meg addig a hardverek csak a rendelkezésre álló raszteres erőforrás nagyfokú pazarlásával képesek mikropoligonokat renderelni.
    A probléma alapját abban látom, hogy az MS a DX11-ben az AMD Xenos megoldását másolja. Ez alapvetően nem baj, mert az xBox-ban jól működik, de a PC-n közel sem úgy szeretnék használni a fejlesztők, mint a konzolban. Na ez már sokkal inkább probléma. Magát a motort simán meg lehet tartani, de a feldolgozás és a raszterizálás menetét át kell gondolni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz vinibali #69 üzenetére

    Értem a viccet :D, de komolyra fordítva a szót, hatalmasat néznék. A felvásárlás ugyanis azt jelentené, hogy az Intel önállóan nem képes a heterogén érába belépni. Nagyon meglepő lenne, ha csak most jönnének rá erre mivel egy közös fejlesztés az NV-vel leghamarabb 2015-re valósulna meg, ami azt jelenti, hogy minden más gyártó elhúzna mellettük. Az Intelnek most kell APU nem 2015-re. Komoly integrálás pedig 2013-ra kell ... a 2015 minden szempontból nagyon késő.
    2007-ben vagy 2008-ban még lehetett ezen gondolkodni. 2011-ben már felesleges.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Pug #72 üzenetére

    Gondolod van benne ráció, hogy csak a földön számít a HD 6990 a leggyorsabb VGA-nak? ;]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #75 üzenetére

    Szerintem az új architektúra tervezésénél az elsődleges szempont az volt, hogy a 2013-as Fusionbe mi kellene. A Fusion stratégiából három lépcső ismert: heterogén integrálás, ami a Llano lenne, az integrálás optimalizálása lesz a Trinity, míg a következő nagyobb lépcsőfok az architektúrális integrálás. Az AFDS diái szerint ez jelentené azt, amikor az APU CPU és GPU magjai teljesen koherens memóriát oszthat meg egymással, és rendelkezzenek egyesített címtartománnyal. Az új CU ide készült, de a további tervek ismeretlenek. Annyit tudni, hogy áttervezett Bulldozer lesz next gen shader core-ral. Az alapokat mindkét esetben ismerjük már ... a Bulldozerről sok az adat, és a next gen shader core is bemutatkozott. A kérdés már csak az, hogy hogyan lesznek ezek vegyítve.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz yakuza.tora #83 üzenetére

    Ha sok a függőség a kódban, akkor akár sokkal többet is. A TFLOPS mint általánosan elfogadott irányadó adat igazából csak egy adott architektúrán belül irányadó.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák