- Netflix
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Nem szavazza meg Musk 56 milliárd dolláros csomagját a norvég állami vagyonalap
- Az AI miatt vehetnek sokan új iPhone-t
- Crypto Trade
- ASUS routerek
- Tarr Kft. kábeltv, internet, telefon
- Videó stream letöltése
- Musk betiltja az iPhone-okat a Teslánál és az X-nél, ha ezt meglépi az Apple
- Aliexpress tapasztalatok
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz Meteorhead #49 üzenetére
A Fermiben is van tesszellátor. A shaderek nem csinálnak semmit. A shadereken a tesszellálás overkill, egyszerűen túl komplex a folyamat, így brutálisan lassú lenne az emuláció.
Nem tudom miért terjedt el az a nézet, hogy a Fermi a shadereken tesszellál. Ha ott tesszellálna 1 fps lenne mindenhol a sebesség.Valóban sok még a megválaszolatlan kérdés, de szerintem nem is volt cél ezeket megválaszolni. Egyszer úgyis megjelenik, és akkor mindenki megtud mindent.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rumkola
veterán
válasz RockyHorror #23 üzenetére
persze, csak az a jóslatok szerint annak alkalmatlannak kellett volna lennie a játékra, ez meg hulvafasza lesz
-
Angel1981
veterán
-
Abu85
HÁZIGAZDA
válasz yakuza.tora #51 üzenetére
Nem tudom, hogy mekkora méretben hozható az új GPU ezzel az architektúrával. Játszani persze lehet a számokkal, így teszem azt egy 24 CU-s lapka 800 MHz-en 2,45 TFLOPS.
Mindenképpen 4 CU többszöröse kell, mert a skalár gyorsítótás 4 CU között van megosztva. Feltételezésem szerint egy 4 CU-s tömböt vezérel egy ACE és a hozzá tartozó menedzsment.
Az biztos, hogy egy 4 CU-s csoportban lehet számolni 256 utasítás/ciklussal, ami 512 flop/óralej. Ebből tudtok számolgatni, ha gondoljátok.
Ugye az 512-őt már csak a MHz-cel kell megszorozni, és megkapod a 4 CU számítási teljesítményét MFLOPS-ban. Ehhez szépen hozzá lehet adogatni a tömböket.
Azt mindenképpen megjegyezném, hogy nem vagyok mérnök, de azt feltételezem, hogy egy 24 CU-s GPU 230 mm^2-be belefér 28 nm-en, de nem tudom, a legtöbb paramétert még, így egy durva kerekítést alkalmazta a többi részegység helyigényével.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Angel1981 #54 üzenetére
Eléggé úgy néz ki, hogy durva átalakuláson megy keresztül a piac. Az biztos, hogy az AMD a Caymant megtartja az alsó régióban, valszeg nem akarnak abba a hibába esni, mint az NV, hogy nagyon nagy lesz a kisebb chipek mérete. Ugye itt onnan kell számolni, hogy egy Barts és egy GF116 kiterjedése hasonló, de a teljesítmény szempontjából a Barts álvahagyja a GF116-ot. (Radeon HD 6870-GTX 550 TI összehasonlítás alapján). Ezzel az architektúrával a Barts teljesítménye 40 nm-en, nem hozható 250 mm^2-en belül, vagyis a kisebb lapkák miatt muszáj megtartani a régebbi, durván grafikai központú architektúrát. Tekintve, hogy a Trinity továbbra is VLIW rendszer, és a Dual Graphics szolgáltatást hosszútávon gondolja az AMD, a legkisebb két GPU-ban biztos megmarad a VLIW. Feltételezésem szerint a legkisebb ráadásul VLIW5 lesz. Talán még a középosztályban is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arn
félisten
pedig epp azt csinalja lesz egy nagy es eros compute gpujuk, meg egy kisebb, de jatekokban koltseghatekonyabb. max az aranyok elteroek, de az elv az ugyanaz.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Coccer
tag
válasz Plazmacucci #28 üzenetére
Egy jó bicikli túra a doktor úrral? nevezek én is....
(#24) Brae: Nem annak a leszármazottait használja még ma is aki AMD vga-t használ Nem volt az rossz, csak csiszolatlan!
-
Abu85
HÁZIGAZDA
A sweet spot bőven megtartható az új architektúra mellett is. Nem kell 500 mm^2-es GPU-t tervezni. A rendszer skálázható, szóval kettő 300 mm^2-es GPU is megoldás. A HPC-be már nem igazán, oda kell egy 500 mm^2-es. Bár az AMD-nél gyanítom, hogy a HPC-szervereket inkább a Fusionnel támadnák.
Az NV is csinálhatna sweet spot stratégiát. Annyit jelentene, hogy nem lenne GF100/110 a kínálatban, és akkor 2xGF114 lenne a toppon. Mondjuk igazából mindegy mi van ott, mert a HD 6990-et még két GF110-zel sem tudták fogni, így a GTX 590 dolog stratégiailag értelmetlen volt, de van és meg lehet venni.
Az olcsó rétegnek természetesen okvetlenül fontos a VLIW. Az NV compute architektúrájával nem tud versenyezni a GF114 alatt. A GF116 már számottevő hátrányban val a lapkaméret/teljesítmény szintjén, és ez az olló lefelé egyre csak nagyobb. Ha az AMD bevetné a kicsiknél ezt az architektúrát, akkor ugyanebben a hajóban evezne, és túlzottan nagy chipekre kényszerülnének.(#58) Bici: A fő fejlesztési szempont biztos, hogy a Fusion volt. Ez az AMD fő stratégiája: mindenhova Fusiont. Persze ha már kész a GPU, akkor lehet minden más piacot támadni.
Mondjuk ez a mindenhova Fusiont nem egyedi stratégia. Például az NV-nél is ugyanez fog menni, csak mindenhova Maxwellt szöveggel. Tulajdonképpen a heterogén éra 2013 felé teljesen beérik, és akkor az AMD-nek az számít, hogy Fusiont vegyél, az NV-nek az, hogy Maxwellt, míg az Intelnek az, hogy Haswellt. Minden más szempont másodlagos lesz.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arn
félisten
epp erre celoztam, hogy a jovoben a fusion inkabb a szerverfronton lesz fontos a szamitasi kapacitas miatt - otthoni hasznalatra soc szeru chipek is megteszik dedikalt gyorsitokkal, vagy akkora szamitasi kapacitassal, ami eleg a feladathoz.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
juzer78
tag
válasz Meteorhead #49 üzenetére
"Az továbbra is hibának tűnik, hogy van tesszelátor," Nem hiba, nézd meg ahogy emelkedik a felbontás, úgy jönnek fel a Radeonok tesszelációs teljesítményei, egyre kevésbé jelentkezik a ROP-ok limitáló hatása. Egyszerűen a ROP-ok limitáló hatását kell csökkenteni vagy megszűntetni!
"nem szégyen a konkurenciától a jót ellesni." Amikor ezt elkezdték feljeszteni, akkor a Fermi is csak a tervezőasztalon figyelt...
-
Abu85
HÁZIGAZDA
Itt igazából a heterogén érában pont az a lényeg, hogy az IGP alaposan kivegye a részét a munkából, mert a teljesítmény/fogyasztás aránya messze a CPU-magok alatt van. A szerverben is ugyanez a lényeg, csak sokkal több maggal. Ha ez nem lenne fontos, akkor senki sem tervezne heterogén módon programozható processzor, ellenben 2011 van, és minden vállalat útitervében ilyen processzor szerepel.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Szerintem a tesszellálás javításához először a szoftveres alapokat kell elővenni. Az MS DX11-es futószalagja ebből a szempontból nem hatékony, és ezen kell elsődlegesen javítani. Amíg ez nem tröténik, meg addig a hardverek csak a rendelkezésre álló raszteres erőforrás nagyfokú pazarlásával képesek mikropoligonokat renderelni.
A probléma alapját abban látom, hogy az MS a DX11-ben az AMD Xenos megoldását másolja. Ez alapvetően nem baj, mert az xBox-ban jól működik, de a PC-n közel sem úgy szeretnék használni a fejlesztők, mint a konzolban. Na ez már sokkal inkább probléma. Magát a motort simán meg lehet tartani, de a feldolgozás és a raszterizálás menetét át kell gondolni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
ddekany
veterán
Nagyon agresszíven elkezdték nyomni a "heterogén korszakot" mindenhol... Világos, hogy néhány célterületen óriásit lehetne ezzel ütni (pl. offline 3D rendering, u.i., az olyan tetű lassú jelenleg, hogy üvöltene a különbség), meg szakmailag izgalmas az egész... csak, legalábbis ahogy én látom, itt a valódi motiváció annyi, hogy a CPU/GPU/SoC gyártásban érdekeltek eléggé lelassultak mind a MHz emeléses mind a mag sokszorosításos mókában, haladni meg ugye muszáj, ezért most megpróbálják ezt tolni. Ezért aztán kíváncsi vagyok, hogy mennyire lesz ez kihasználva szoftver területen és mikortól, és egyáltalán mely területeken lesz ennek jelentősége. Pl. nem gondolom, hogy ez hasznos lesz irodai alkalmazásokban és úgy általában gazdasági rendszerekben, melyek tán a legfontosabb alkalmazásai a számítógépeknek. Ugyancsak nem látom hogy lesz ez hasznos webszervereken (persze kivéve ha az oldal dominánsan kép/hang feldolgozással, tehát nem csak lejátszás foglalkozik). Stb. Tehát hol lesz ez hasznos a nem-specialista PC-ken? Kapásból lehet mondani a multimédiát, de hát abból a lényeg, ami az egyszerű lejátszás, már egy ideje megoldott hardver szempontjából (a szoftveres bénázások más tészta). Mi lesz vajon az ok, ami miatt mindenki ilyen gépet akar majd? Azon kívül persze, hogy csak ilyet lehet kapni... Esetleg szebb videó skálázás, frame szám növelés filmeknek, egyéb feljavítás (mert ugye az átlag ember bármi ilyet lát is, mikor durván elállított kontrasztú hibás képarányú adást nézett eddig egész nap, és fel sem tűnt neki, nem hogy zavarta volna). Meg játékok. Vajon a PC-k 99%-ának ez ennyi lesz? Vagy lesz más is?
-
veterán
nagyon kíváncsi vagyok rá,legalább annyira mint a Bulldozerra.
duree54
-
atti_2010
nagyúr
Ez a CPU/GPU dolog igazából a hordozható gépekben lesz nagyon hasznos a fogyasztása miatt és hogy nem kell mellé diszkrét kártyát tenni.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Meteorhead
aktív tag
Hogy mikre lehetne ezt használni? Egyet mondok, kettő lesz belőle: játékok. Mindenki tudja, hogy a GPUt egyedül a játékok hozták el arra a szintre, ahol most állnak, a GPGPU mint tervezési szempont mondjuk 2 éve van jelen. Addig meg örültek, hogy szoftveresen általános számításra is rá lehet venni a cuccot más számítására. Olyan brutálisan új játékélményt lehet produkálni a számítási teljesítmény növelésével, hogy az emberek hanyatt dobnák magukat. Ehhez csak fejlesztői fantázia és erőbefektetés kéne. Viszont az emberek sajnos lusták.
Elég rég megvan a lehetőség, hogy atom brutál vektorosított SSE kódot lehessen CPU-ra fordítani OpenCL-lel, irrrgalmatlan élethű (vagy fiction) fizikát lehetne játékokba rakni, törhető tárgyakkal, miegymás... csak lusták a programozók. (És ez igaz) Ez nem fejlesztési idő kérdése, csak gondolkodás kérdése. 3 hét engine tervezéssel, 2 hónap algoritmus írással, 2 hónap optimalizálással és 4 hónap teszteléssel lehetne egy játék motort írni. (Ezzel párhuzamosan render engine-t) Csak lusták vagyunk gondolkozni...
Ez az egész zero-copy integrált GPU-val pedig... durva tudna lenni.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Értem a viccet , de komolyra fordítva a szót, hatalmasat néznék. A felvásárlás ugyanis azt jelentené, hogy az Intel önállóan nem képes a heterogén érába belépni. Nagyon meglepő lenne, ha csak most jönnének rá erre mivel egy közös fejlesztés az NV-vel leghamarabb 2015-re valósulna meg, ami azt jelenti, hogy minden más gyártó elhúzna mellettük. Az Intelnek most kell APU nem 2015-re. Komoly integrálás pedig 2013-ra kell ... a 2015 minden szempontból nagyon késő.
2007-ben vagy 2008-ban még lehetett ezen gondolkodni. 2011-ben már felesleges.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
kerelo
senior tag
Jó és részletes cikk.Köszi
Lássanak hát csodát,kicsik és nagyok,a becsületes ember én magam vagyok "bendeguz"
-
ddekany
veterán
válasz atti_2010 #67 üzenetére
Ez a cikk arról szolt, hogy általánosabb számításokra hegyezik ki a GPU-t mint a (Direct3D/OpenGL-es) 3D grafika. Ha csupán arra akarnák ezt használni mint eddig a GPU-kat, akkor épp hogy alacsonyabb fogyasztást érnének el GPGPU nélkül. Az CPU-val egy lapra helyezés meg már az előző generációban megvolt.
-
ddekany
veterán
válasz Meteorhead #68 üzenetére
"csak lusták a programozók"
Nem tudom melyik játékfejlesztő cégre alapozod ezt, de amennyire tudom, a játék fejlesztés pont hogy igencsak strapás terület programozóknak. Főleg nevesebb cégeknél. Mellesleg a programozó azt csinálja, amire ad pénzt (= időt) a munkáltatója, és komolyabb helyeken ahol elvárás az odaadás és szintetikus lelkesedés (és tudtommal pont játék fejlesztésnél jellemzőbb ez) lehet azzal is csak 5x12 órában van kész határidőre.
"Csak lusták vagyunk gondolkozni.."
Ha a kis cégeknek honlapokat összehányó tipikus kókler PHP-makikból indulsz ki, akkor talán... bár akkor is, mihez képest, mert ugye mindenki azt teljesíti alul 10+ %-al, ami feladata, ami adott esetben a felmosás vagy jegyárusítás. Amúgy a nem-gondolkodás pont a programozói állásra nem jellemző, hisz az egész semmi más csak agytorna és agyszívatás. Max. még többet és többet és jobban kéne. De vannak emberi és idő korlátok, és persze motiválatlanság is. De lehet nagyokat álmodni, csak járatlan úton, úgy kifuthatsz a határidőből, hogy sej. Ja, és persze járatlan útra valószínűleg drágább szakemberek kellenek... és magasabb a kockázata a kudarcnak.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Szerintem az új architektúra tervezésénél az elsődleges szempont az volt, hogy a 2013-as Fusionbe mi kellene. A Fusion stratégiából három lépcső ismert: heterogén integrálás, ami a Llano lenne, az integrálás optimalizálása lesz a Trinity, míg a következő nagyobb lépcsőfok az architektúrális integrálás. Az AFDS diái szerint ez jelentené azt, amikor az APU CPU és GPU magjai teljesen koherens memóriát oszthat meg egymással, és rendelkezzenek egyesített címtartománnyal. Az új CU ide készült, de a további tervek ismeretlenek. Annyit tudni, hogy áttervezett Bulldozer lesz next gen shader core-ral. Az alapokat mindkét esetben ismerjük már ... a Bulldozerről sok az adat, és a next gen shader core is bemutatkozott. A kérdés már csak az, hogy hogyan lesznek ezek vegyítve.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
P.H.
senior tag
Kb. úgy leszek vegyítve, hogy a lehető legkevesebb szabadságfokot hagyják meg a fordítónak, (mivel ez statikus esetben - Itanium - nem járható út, dinamikus esetben - JIT, Radeon - sem elég optimális bizonyos bonyolultság felett).
A vége val'szeg az lesz, hogy CPU assembly-szerűen közvetlenül lesznek programozhatók a "shader"-ek, csak pár év alatt meg kell a piaccal értetni, hogy a kompatibilitásnak/átjárhatóságnak teljesen vége (legfejlebb driverek szintjén megoldható, ezt kapjuk ma, a teljesítmény feláldozásával - ez a legrosszabb megoldás).Ehhez az az egyetlen lépés kell, hogy az AMD ne akarja törvényszerűen az Intel lépéseit lekövetni (csak ehhez a lépéshez viszont nehéz vezetőt találni ).
Ahogy ez megvan, úgy nem nagy ellenállás lesz hamarosan a PC-k esetében sem, ahogy a konzolok piacán sincs.[ Szerkesztve ]
Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙
-
juzer78
tag
Botrány? Hol élsz? Én is HD6xxx-es szériás kártyát használok (6870-et) eredetileg nem akartam váltani, de aztán mégis úgy alakult, és semmi botrányos dolgot nem tapasztalok.
Egyet lehet mondani, ha nagyon megerőltetjük magunkat, de arról nem tehet a kártya, ez pedig az elnevezés, de ahogy jönnek ki az újabb driverek, úgy fejlődik a sebessége is.
A 6xxx-es szériát úgy kell felfogni, mint a 4890-et, csak ott generáción belül maradt, és kevesebb optimalizáció történt, itt nagyobb változtatást eszközöltek.
Úgyhogy ez a botrány, ez amolyan városi legenda kategória!
-
juzer78
tag
Ezzel a heterogén programozással csak egy a bajom, hogy egymás termékeire nem tesztelik, azaz AMD grafikával és Intel CPU-val nem fog működni, vagy nem úgy fog működni, ezzel elvész a szabad eszközválasztás, mert ha ki akarod használni maximálisan akkor kénytelen leszel AMD CPU-t használni AMD grafikával, vagy Intel-t Intellel ha a másik oldalról nézzük. Tulajdonképpen a gyártók megpróbálják magukhoz láncolni a felhasználót, sőt ha már megvetted és használod, akkor következőnek is nagy valószíbnűséggel ugyanazt a platformot fogod venni, mert ha elégedett vagy, nem akarsz lemondani semmiről, vagy esetleg úgy érezni hogy elköltöttél fejlesztésre egy vagyont, és inkább visszaléptél, mint sem előre, az inkompatibilitás miatt.
Abu85: Alapvetően nem gond az, hogy a Xenos-t másolja a MS mert, a techdemók kivételével ott alkalmazták először. Csak az a gond, hogy ahogy mond is, hogy másképp akarják használni. Valószínűleg a DX12-re át is gondolják, bár azok alapján ahogy az AMD felépíti az új architectúrát, van egy olyan sanda gyanúm, hogy nem.
-
Manbal
senior tag
válasz RockyHorror #23 üzenetére
Ennek köze nincs a fermihez. Ez egy Ivy Bridge CPUval olyan űber brutális lesz, hogy kb. 10x gyorsabban fogja vinni a jelenlegi DX11es cuccokat, mint egy i7+HD6970
-
Abu85
HÁZIGAZDA
válasz yakuza.tora #83 üzenetére
Ha sok a függőség a kódban, akkor akár sokkal többet is. A TFLOPS mint általánosan elfogadott irányadó adat igazából csak egy adott architektúrán belül irányadó.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
mclaren777
senior tag
Méggyorsabb és mégolcsóbb VGA karikat a népnek!
Új hozzászólás Aktív témák
- Az Xbox Series X|S konzolnak három új verziója jön idén
- Lakáshitel, lakásvásárlás
- Gaming notebook topik
- Android alkalmazások - szoftver kibeszélő topik
- Luck Dragon: Asszociációs játék. :)
- Autós kamerák
- ANNO 1800
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- iPhone topik
- Kerékpárosok, bringások ide!
- További aktív témák...
- 2025.11.04. Garancia! MSI RTX 3080 12GB GDDR6X TRIO PLUS Videokártya! BeszámítOK
- EVGA RTX 3070 8GB GDDR6 FTW3 ULTRA GAMING Eladó! 125.000.-
- ASRock Challenger D RX 6600 8GB - garancia 2024 november - eladó!
- KFA2 GeForce RTX 3070 EX LHR OC 8GB GDDR6 256bit
- AIO Vízhűtéses NVIDIA RTX 2080 SUPER ?? Igen!! Igazi kuriózum eladó csak itt!! - Beszámítás: OK
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen