Síða 2 af 3

Sent: Fös 07. Maí 2004 17:26
af ICM
wICE_man þótt það sjáist ekki mikill munur á skjánum þá er það mikið auðveldara fyrir kortið að sýna PS3.0 heldur en PS2.0 = fleiri fps.

Sent: Fös 07. Maí 2004 17:59
af Spirou
wICE_man skrifaði:Spirou:
Ef leikurinn styður PS2.0 þá er lítið mál að fara upp í 3.0 með litlum tilkostnaði.
Já, en enginn getur greint muninn á skjánum :P
Já alveg rétt, við skulum bara hætta að gera hlutina raunverulegri og flottari. Þróunin er alveg komin nógu langt í þessum málum. Snúm okkur frekar að því að fá lykt í tölvuleiki, þar er sko eitthvað sem vantar. Ég meina kommon, það er víst munur. Þú ert sjálfsagt að miða við þegar ljósið skellur á vegg og þá sérðu greinilegan mun á PS1.x og PS2.0 en lítinn sem enginn mun á PS3.0 . Hefur þér nokkuð dottið í hug að það sé hægt að gera fleira með PS3.0 en bara "radiosity" ?

Sent: Fös 07. Maí 2004 23:25
af Ragnar
ég er ekki mikill sérfræðingur i þessu en er ekki pixel sheader 3.0 frá nvidia ekki eitthvað uber graffík dæmi og geri kortin öflugri eða er það bara eitthvað bull.

Svo ætla ég að spyrja að einu. Hvort ætti ég að versla Ati x800xt. Eða GF 6800 EXT.


Svo hlítur að fara að koma kort sem keyra á 512mb ég er orðinn leiður á 256mb.

Sent: Fös 07. Maí 2004 23:57
af Spirou
BoneAir skrifaði:ég er ekki mikill sérfræðingur i þessu en er ekki pixel sheader 3.0 frá nvidia ekki eitthvað uber graffík dæmi og geri kortin öflugri eða er það bara eitthvað bull.

Svo ætla ég að spyrja að einu. Hvort ætti ég að versla Ati x800xt. Eða GF 6800 EXT.


Svo hlítur að fara að koma kort sem keyra á 512mb ég er orðinn leiður á 256mb.
Pixel Shader 3.0 er nýr fídus í Direct X 9.0c (<--- taka eftir c í endann). Þetta er ekki eitthvað sem ATI mun sleppa því að setja á kortin sín, þeir eru bara ekki búnir að því. X800 hefur þetta ekki og það hefur verið haft eftir ATI mönnum að það ætti að reyna að fá forritara EKKI til að nota þetta þar sem kortin þeirra supporta þetta ekki ennþá. Sagt var að NVidia og Microsoft hefðu unnið mjög náið við að gera PS3.0 og ATI hafi fylgst með því en hefur greinilega ekki verið jafn fljótir að koma með kort fyrir það.

Sent: Lau 08. Maí 2004 00:05
af Arnar
Boneair.. leiður á 256mb minni í skjákortinu þínu.. ?


Hmm, afhverju ? Leikirnir ekki nógu smooth ?

Endilega segðu mér restina af rigginu, ef hún er jafngóð og skjákortið sem þú ætlar að kaupa þá væri gaman að heyra af því, því ef ekki.. þá skil ég ekki afhverju þú ert leiður á 256mb skjákortsminni.. eða ég mun samt ekki skilja þig :shock:

Sent: Lau 08. Maí 2004 00:13
af Ragnar
nei ok ég kannski orðaði þetta vitlaust mér þætti bara gaman að fá mér 512mb kort. Því það væri ekkert annað nema geðveiki. En allavega ég speyr enn hvort mæliði með Gf 6800 ext eða x800 xt.

Sent: Lau 08. Maí 2004 00:40
af SolidFeather
Ætlaru að fara að gera einhverja heavy grafikvinnslu? Ef svo er þa eru til kort með 512MB minni.

Sent: Lau 08. Maí 2004 12:11
af gnarr
þú hefur ekkert við 512mb kort að gera nema í multiscreen þuuuuuuungir 3d vinslu. þar að segja ef þú ert að gera eithvða 3d animation sem að spannar marga skjái. það er ekki einusinni kominn leikur enþá sem að notar meira en 128mb minni.

Sent: Lau 08. Maí 2004 12:17
af ICM
btw það verða amk komin 512MB skjákort þegar longhorn kemur og fólk er að hafa áhyggjur yfir því að það þurfi 32MB skjákort fyrir Aero og 64-128 fyrir Aero Glass. :roll:

Sent: Lau 08. Maí 2004 14:17
af Ragnar
Ok = pixel sheader 3.0 er bara good shit ??.

Sent: Mán 10. Maí 2004 14:48
af gnarr
pixelshader 3.0 = pixelshader 2.0


þessi formúla stenst allavegann aí augnablikinu fyrir utan eitthvað 1-3% formance mun,og það er líklega ekkert á leiðinnin að breitast í bráð.

Sent: Mán 10. Maí 2004 20:59
af Ragnar
skil

Sent: Þri 11. Maí 2004 15:38
af Hörde
Hlynzi skrifaði:Ég skil ekki afhverju móðurborð fara ekki að koma með sér sökkli fyrir GPU örgjörvann, þá kaupum við ekkert kort sem tekur tvær raufar og þannig.

Þetta er fullmikið, það mætti hann leikina þannig að kortin nýtist betur, held að samspilið þarna á milli sé ekki clear.
Ég held að þetta gerist aldrei (eða ekki nærri því strax), því samhæfni er vandamál. Pinnafjöldi á þessum kubbum breytist miklu hraðar en t.d. á örgjörvum. Í staðinn fyrir að skipta bara um skjákort værirðu farinn að skipta um móðurborð og minni fyrir nýjasta kubbinn frá nvidia eða ati.

Sent: Þri 11. Maí 2004 21:18
af RadoN
IceCaveman skrifaði:btw það verða amk komin 512MB skjákort þegar longhorn kemur og fólk er að hafa áhyggjur yfir því að það þurfi 32MB skjákort fyrir Aero og 64-128 fyrir Aero Glass. :roll:
þau eru komin, eins og t.d.
3DLabs Wildcat VP990PRO 512MB 256bit DDR
  • 3Dlabs Wildcat VP990 Pro - Wildcat VP900 - 512 MB
    AGP 8x
    370 MHz
    OpenGL, Direct3D
    512 MB ( 512 MB ) - DDR SDRAM
    2048 x 2048 / 60 Hz - 32-bits
    DDC-1, DDC-2B
Mynd

ég skil þig ekki (BoneAir).. þú hefur ekkert með 512MB'a kort að gera.. :roll:

Sent: Mið 12. Maí 2004 12:06
af goldfinger
kannski svo hann geti montað sig, hehe :lol:

Sent: Mið 12. Maí 2004 15:20
af Bendill
axyne skrifaði:
Pandemic skrifaði:wICE_man ég vill minna þig á að kortið þarf bara einn molex 4-pin hinn er bara extra :) og hann kickar-inn þegar mikið álag kemur á kortið
kortið virkar ekki nema báðir molex'arnir eru tengdir.
Hér er smá lesefni sem ég tók af [H]ard|OCP:

One Connector, Two Connector:

John "digitalwanderer" Hayden sent me an email this morning that was asking about our testing of the GeForce 6800 Ultra and having to use two connectors. John reported that Jen-Hsun Huang repeatedly mentioned during a quarterly earnings report that the GeForce 6800 Ultra did not require both Molex connectors to be plugged in unless you were overclocking (I have yet to verify this). From the reviewer’s guide that we were given by NVIDIA, it seemed that it was required that we use both Molex plugs, but in fact it did never spell that out exactly. So we asked NVIDIA today what exactly the deal is pertaining to the cards.


We designed the Ultra reference board with an optional second power connector for enthusiasts who want to over clock the GPU.

The Ultra board will run at standard clock frequencies without the optional second connector.

The optional second connector will allow enthusiasts to take the performance of our processors beyond the normal limits.

Being that our own GeForce 6800 Ultra is packed away at the moment, we called our friends at BFGTech and asked them to run some tests for us and they did immediately. Their reply after a short test is quoted below.


"We just ran 3DMark03 with one power connector with no problem. We are letting it run for a few hours to see if anything happens.

The warning said the clock freqs would drop with only one power cable hooked up, but checking CoolBits, they were the same.

Fascinating."

A little while later we got another response from BFGTech after some sustained testing was completed.


"With one connector, we are getting some artifacting in 3DMark03 during Battle of Proxycon and Trolls, but not much, some shimmering and black lines. Played UT2004 no problem with one connector. "

From this very limited testing it would see that both connectors are needed for acceptable operation of the 6800 Ultra contrary to what we are being told by NVIDIA, but certainly we need to expand the testing a bit and come up with some more solid facts. Another issues to factor into all of this is that these are not "retail" cards that are being tested at the moment and very few will find their way into gamer's hands. We have put off power testing till we get real retail 6800Us to test with. I think that is when we will see the real truth emerge about the power needs of the GeForce 6800 Ultra and other GF6 cards.

Some theories are being thrown around in the Beyond3D forums on this that might interest you

Sent: Mið 12. Maí 2004 23:04
af gnarr
RadoN skrifaði:ég skil þig ekki (BoneAir).. þú hefur ekkert með 512MB'a kort að gera.. :roll:
þetta er bara þessi týpíska "bt" hugsun.. "Medion er 120GB!! dell er ekki 120GB dell er bara 80GB!!! MEDION ER BESTA tölva Í HEIMI!!"

svo fara þeir á bt spjallið saman.. "ég er með 120GB tölvu með 256MB skjákorti" og eru að tala um nýju medion tölvuna með fx5200xt

Sent: Fim 13. Maí 2004 16:01
af Steini
Æji vorkenni bara fólki sem er "platað" til að kaupa medion tölvur t.d. Stendur í nýjasta Bt blaðinu "NVIDIA GeForce FX skjákortið frá NVIDIA kemur þrívíddargrafík í heimilistölvum á nýtt stig blablabla" sko þetta kort er rusl og svo auglýsa þeir hvað prescott örgjörvinn er miklu betri en northwood og fleira :evil: djöfull hata ég bt

Sent: Fös 14. Maí 2004 10:39
af wICE_man
Þetta gerir Dell líka svo að þið getið bara átt ykkur.

Maður kaupir ekki samsetta vél!

Allavega ekki ef maður er nörd :wink:

Sent: Fös 14. Maí 2004 10:42
af wICE_man
BT auglýsingar eru svo mikið CRAP!!!

Sent: Sun 23. Maí 2004 00:02
af BlitZ3r^
hann er að meina að nvidia kortið er byggt upp frá grunni en x800xt kortið er bara breyting fra 9800xt en á nvidia er hægt að fá 512mb minni en ekki á x800xt eð er ég bara að bulla ?????

Sent: Sun 23. Maí 2004 03:13
af Steini
wtf blitzer

Sent: Sun 23. Maí 2004 17:45
af Hlynzi
Steini skrifaði:Æji vorkenni bara fólki sem er "platað" til að kaupa medion tölvur t.d. Stendur í nýjasta Bt blaðinu "NVIDIA GeForce FX skjákortið frá NVIDIA kemur þrívíddargrafík í heimilistölvum á nýtt stig blablabla" sko þetta kort er rusl og svo auglýsa þeir hvað prescott örgjörvinn er miklu betri en northwood og fleira :evil: djöfull hata ég bt
BT eru nú ekkert að ljúga, FX kemur grafíkinn á "nýtt" stig, semsagt lægra stig.

Sent: Sun 23. Maí 2004 20:46
af Steini
Já satt, og miðað við verðið á þessu 170 þús eða svipað þá ættu þeir að geta sett radeon 9800pro/xt eða gf 5700/5900 kort í þetta

Sent: Mán 24. Maí 2004 16:27
af wICE_man
Nei, í staðin setja þeir helling af drasl forritum og læti :)