Dutch Blender Community
Hulp => Hardware => Topic gestart door: RDL op 24 oktober 2013, 22:50:18 pm
-
aangezien ik van plan ben om nog een 2de gtx770 in pc te steken kwam ik uit op deze url http://www.systemagnostic.com/faqs/ (http://www.systemagnostic.com/faqs/)
had al veel over sli enz gehoord en had het idee dat de render heel wat vlugger zou gaan in sli mode
wel dit blijkt dus niet het geval te zijn......
ik had nog een gt440 ronslingeren en deze heb ik dan ook maar in m'n pc gestopt
beide kaarten werken samen als je gaat renderen in cycles
dus sli hoeft niet
(http://s11.postimg.org/ne3riplmr/Knipselgpu.jpg) (http://postimage.org/)
plaatje van m'n settings
renderen gaat aanzienlijk sneller nu
-
Meer info over SLI is ook hier besproken: Beste Hardware voor Blender... Tips (http://dbc-3d.nl/viewtopic.php?f=34&t=190)
-
had ik gezien maar deze is gesloten ?
waarom eigenlijk
-
Jeetje, dat wist ik niet. Mijn volgende moederbord word dus een SLI moederbord met liefst 3 of 4 PCI-Express sloten,
kan ik ook mn oude kaarten laten meerekenen.
Ik heb de indruk dat ook de gewone Blender renderer profiteerd van Computing device, maar dan niet zo veel, omdat het meeste over de CPU gaat.
Wie weet hier het fijne van ?
-
Blender internal gaat puur over de CPU. Als je dus dikke grafische kaarten hebt kun je beter Cycles gebruiken.
-
Hmm, zo dik is tie niet maar ik heb een GTX 660 , dus toch nog 960 Cudacores...
Ik zal het weer eens proberen, ik vond in het begin de spikkeltjes hinderlijk, ik dacht als ie eerst hondert cycles moet doen voordat die spikkeltjes weg zijn , kan ik net zo goed met de gewone blenderrenderer werken...
Ik gebruik het weleens voor proefrenders om animaties te bekijken...
-
ik heb ondertussen 2 gtx 770 gpu in m'n pc ...
en m'n benchmark test 3d mark
scoor ik hoger dan de titan met de i7 4k processor
het renderen in cycles gaat vlugger als sli niet ingeschakeld is ...
heb nu een big smile ......lol...
mvg rudi
-
Hmm, lijkt logisch , hoewel ik geen expert ben. SLI is om te gamen , dan moeten de kaarten als het ware sychroon renderen, bv de één de bovenkant van je scherm, en de andere de onderkant.... Zo was het vroeger in ieder geval...
Om Blender te renderen wil je dat niet, hoe meer CUDA-cores je afzonderlijk aan het werk kunt zetten hoe beter natuurlijk....
Jammer dat ik begrepen heb dat je met twee kaarten slechts het grafische geheugen van één kaart kunt benutten.
Er zijn inmiddels ook versies van de GTX 780 uitgebracht met 6 GB , en ik geloof ook Titans met 12 GB , voor de blenderfreaks !
:o
Ga ik voor ! (Zodra ik de cash heb , ha ha)
-
Ik ook!!!
Laat de postcodekanjer maar vallen. :)
http://www.youtube.com/watch?v=2JjxgJcXVE0