Selbsthilfegruppe DAZ Studio - Beispiele, Fragen, Diskussion und sonstiges Gequatsche

1333436383954

Comments

  • AndySAndyS Posts: 1,434

    Also die Task-Manager Anzeige ist da eindeutig.
    Deine Grafikkarte kannste auch ausbauen. Mit onboard Grafik fährst Du genauso gut und schont das Netzteil. wink

    Aber es zeigt sich auch, daß zumindest diese Szene mit einer 8GB Karte von nVidia gerendert werden kann. So ca. 2GB dürften System und DAZ selber schlucken. Bleibt also für eine (mindestens) GTX 1070 noch etwas Reserve.
    Wenn man dann aber Characters hinzufügt - so ca. 3GB pro Genesis3 - werden die Grenzen ganz schnell überschritten.  --> Over Night Renders. devil

  • ADAD Posts: 396
    edited March 2017

    Huhu Andy,

    ich hab doch nur diese GraKa und eine andere passt ja leider nicht ins System, weil's crasht und irgendeine GraKa muß ich doch im System haben, oder nicht? Wie kann ich Deinen Satz hier verstehen: Bleibt also für eine (mindestens) GTX 1070 noch etwas Reserve. ? Könnte ich die einbauen in mein System, hätte die einen besonderen Nutzen im Vergleich zu meiner jetzigen Karte? Oder wie meinst? Ja schade, daß meine techn. Errungenschaften für IRay offensichtlich nicht ausreichen, um offensichtlich eine gute Qualität zu erzeugen. Oder kann ich dafür irgendetwas tun/ändern - ausser Zubehör zu kaufen, welche in meiner Dell Kiste evtl. nicht mehr funktionieren (so passiert mit meiner im Regal liegenden 6000-er Karte). Da ich sehr ländlich wohne, gibt leider auch keinen Computershop in der Nähe, der mir dabei helfen könnte, daß ganze etwas upzudaten. 

    Post edited by AD on
  • Arnold CArnold C Posts: 740
    AD said:

    meine GraKa NVidia Quadro FX 5800 soll zwar lt. PNY Speicher haben, ist aber für die Speicherauslastung beim Rendern nicht geeignet, hier die Daten gem. Leistungsindex, der bei der Grafik bei 7,3 von insgesamt 10 bewertet ist:

    NVidia Quadro FX 5800, insgesamt verfügbarer Grafikspeicher 7679 MB, Dezidierter Grafikspeicher 4096 MB, gemeinsam genutzter Systemspeicher 3583 MB. 

    Bei den advanced Parameters ist CPU und Quadro FX 5800 angehakt. (OPTiX Prime Acceleration ist nicht angehakt). Bei diesem Render zugesichert GB 10/63. Das reicht dann wohl in keinem Fall. Bedeuted das nun, daß der GraKa-Speicher beim Rendern gar nicht zum Einsatz kommt und das angehakte bei den Advanced Einstellungen sowieso verkehrt ist?

    Der Grafikspicher ist bei Dir nicht so das Problem, 4GB Video RAM entspricht DAZs Minimalempfehlung für Iray. Selbst mit einer lütten 2 GB VRAM Grafikkarte wie der GT 730 z.B. kann man eine einzelne Figur samt Haar und Kleidung und einer einfachen Umgebung (oder 8k HDRi) rendern.

    Der aktuelle Treiber (Version 342.00 vom 27.Oktober 2016) für die Quadro FX Serie unterstützt leider nur CUDA bis Version 6.5. DAZ Studios Iray Version 2016.3 benötigt aber CUDA Version 8.0, um zu funktionieren: (Iray INFO - module:category(IRAY:RENDER):   1.1   IRAY   rend info : Your NVIDIA driver supports CUDA version up to 8.0; iray requires CUDA version 8.0;).

    Wenn Du noch eine ältere DAZ Studio Version zur Verfügung hast, könntest Du darauf zurückrüsten; soweit ich mich erinnere, funktionierte DS 4.8 noch zusammen mit CUDA 6.5, bei den 4.9.1 und 4.9.2 Versionen bin ich mir allerdings nicht sicher. Hab' mir leider die DS Logs nicht aufgehoben).

  • AndySAndyS Posts: 1,434

    Hi,

    nein. Ich meinte nur, daß bei Deiner Szene schon mindestens die GTX 1070 nötig wäre, um keine Ewigkeiten beim Rendern warten zu müssen.

    Es ist nunmal so:
    Wir "Gelegenheits" 3D-Programm Benutzer, die wir keinen Hochleistungs-Gaming-PC besitzen, keine >500€ für eine Extra-GK ausgeben können, müssen uns eben in Geduld fassen und auch des öfteren über 12 Stunden lang ein einziges Render laufen lassen, um ein halbwegs akzeptables Ergebnis zu bekommen.

    Ansonsten heißt es, Setups zu vermeiden, die zu viel indirekt beleuchtet sind oder zu viele natürliche Schattenbereiche haben. Und die ganzen Lichter, die in Deinem Set vorhanden sind - außer den extra Spotlights - stellen alle indirektes, heißt gestreutes, Licht dar.

    Viele von den Anwendern hier haben im Prizip "primitive" Szenen, von zahlreichen Scheinwerfern ausgeleuchtet (was keiner wirklich realen Umgebung entspricht), verwenden dann ein Hintergrundbild und verbringen natürlich noch viele Stunden mit Photoshop oder ähnlichem, um das Ergebnis nachträglich aufzupäppen.

  • AndySAndyS Posts: 1,434

    Also auch diese Bilder hier

    http://sta.sh/21kp440l41fx
    haben jeweils so um die 5 Stunden gerendert. Ich besitze nämlich auch keine spezielle Grafikkarte. sad

     

  • ADAD Posts: 396

    Danke Euch für die tollen Erklärungen aus Ausführungen - also alte DAZ Studio Versionen habe ich leider nicht mehr (heul), sehr schade. Und Neuanschaffung kann ich dieses Jahr wohl nicht mehr schaffen ---. 

    Klar kann man mit Photoshop noch das Eine oder Andere retten und postworkeln, aber am liebsten sind mir natürlich schon exakte Rohrender - wie heisst's so schön: Kuchen essen und behalten wollen...

    Schade, schade das IRay nicht auch auf älteren Rechnern läuft. So muss man leider Abstriche machen.

  • Arnold CArnold C Posts: 740
    edited March 2017
    AndyS said:

    Aber es zeigt sich auch, daß zumindest diese Szene mit einer 8GB Karte von nVidia gerendert werden kann. So ca. 2GB dürften System und DAZ selber schlucken. Bleibt also für eine (mindestens) GTX 1070 noch etwas Reserve.
    Wenn man dann aber Characters hinzufügt - so ca. 3GB pro Genesis3 - werden die Grenzen ganz schnell überschritten.  --> Over Night Renders. devil

    Hm, Andy, ich glaube, da verwechselst Du (System) RAM mit VideoRAM. Mit meiner Graka wird auch gleichzeitig der Monitor betrieben, laut GPU-Z beträgt die Auslastung der GPU im Normalbetrieb 85 Megabyte, und mit der DAZ Studio Bedieneroberfläche (ohne aktiven Render) ca. 150 Megabyte.

    Beim Rendern einer komplett leeren Szenerie (nur Sun-Sky Beleuchtung, kein HDRi) werden ca. 1070 Megabyte Video RAM belegt. DS Iray belegt also schon mal per se eine gewisse Größe an VRAM, egal, ob Geometrie/Texturen verwendet werden oder nicht. Füge ich nun dem Ganzen eine Genesis 3 Base Female hinzu, werden ca. 1220 Megabyte VRAM belegt (insgesamt, nicht zusätzlich!). Wenn ich bei dieser alle Texturen entferne ("Genesis Grau"), werden nur noch ca. 1100 Megabyte VRAM in Beschlag genommen.

    Diesen Werten zufolge "kostet" eine Figur mit 33.000 Polygonen ca. 30 Megabyte VRAM, und deren Texturen dann nochmal zusätzlich ca. 120 Megabyte VRAM, beim Rendern mit einer CUDA GPU. Wenn Du beim Rendern mit der CPU andere Größenordnungen beobachtest, wird das wohl daran liegen, dass der System RAM und der VRAM einer CUDA Grafikkarte etwas unterschiedlich arbeiten.

    Im Leerlauf beträgt die Arbeitsspeicherbelegung bei meinem System 1,25 GigaByte, mit DAZ Studio im "Leerlauf" mit einer G3F 2,01 Gigabyte, und mit DAZ Studio im Renderbetrieb der o.g. Szenerie 2.09 Gigabyte.

    Meine Kiste ist auch nicht gerade das neueste Modell, AMD Athlon 64 Zweikern CPU, leider nur noch 4 GB DDR2 RAM, da sich meine Hauptplatine vor kurzem aus diesem Universum verabschiedet hat und der Ersatz nur über zwei DDR2 DIMMs verfügt. (Versucht mal, heutzutage noch ein Sockel AM2 Mainboard aufzutreiben surprise. Naja, das "Gute" am Ableben der alten Hauptplatine ist, dass ich mit deren Nachfolger jetzt locker auf einen Sockel AM3+ Achtkern-Prozessor aufrüsten kann. yes

    Als "Render-Arbeitspferd" dient mir eine GeForce GT 730 mit "umfangreichen" 2 GB VRAM und "sagenhaften" 384 Shader-Prozessoren alias CUDA Kerne. Nicht gerade das schnellste Pferdchen im Stall, aber immer noch flinker als jede derzeit erhältliche CPU. smiley

    Post edited by Arnold C on
  • AndySAndyS Posts: 1,434

    Hallo Arnold,

    ich verwechsle System- und VRAM mit Nichten !!
    Und ich hoffe Du hast gesehen, daß ich keine GPU-Karte besitze.

    Also: das mit den ca. 3GB pro Genesis3 stammt hier irgendwo aus dem Forum. Speziell wenn man wg. iRay die Render-SubD für eine "glattere" Darstellung der Mesh raufschrauben muß. Dann gehen die Polygone irgendwie mit der dritten Potenz (Aussage von Richard).

    Solange ein Render in den VRAM der GraKa paßt, alles kein Problem und die CPU-Last wird nur bei wenigen % liegen. Wie Du aus ADs Bild siehst, ist die Situation dort aber gaaannz anders.
    Bei zumindest meinem System ist die Speicherlast "nur für Windows" irgendwo unter 1GB. Mit DAZ geladen und einer mittleren Szene geöffnet dann so zwischen 3 und 4 GB. Alles noch im System RAM. Erst beim Rendern geht dann die Luzi ab. Die gezeigten fast 10GB in ADs Bild besagen also, daß iRay so 6 bis 7 GB zur Verarbeitung des Renders belegt.  --> Paßt also nicht mehr in die Grafikkarte, so daß iRay quitiert und auf CPU-only umschaltet.
    Kann durchaus sein, daß die GPU-Karten den eigenen Speicher effizienter nutzen können und iRay auch speziell auf die nVidia Firmware abgestimmt ist.

     

    Gruß

    Andreas

  • Arnold CArnold C Posts: 740
    edited March 2017
    AndyS said:

    Hallo Arnold,

    ich verwechsle System- und VRAM mit Nichten !!
    Und ich hoffe Du hast gesehen, daß ich keine GPU-Karte besitze.

    Also: das mit den ca. 3GB pro Genesis3 stammt hier irgendwo aus dem Forum. Speziell wenn man wg. iRay die Render-SubD für eine "glattere" Darstellung der Mesh raufschrauben muß. Dann gehen die Polygone irgendwie mit der dritten Potenz (Aussage von Richard).

    Solange ein Render in den VRAM der GraKa paßt, alles kein Problem und die CPU-Last wird nur bei wenigen % liegen. Wie Du aus ADs Bild siehst, ist die Situation dort aber gaaannz anders.
    Bei zumindest meinem System ist die Speicherlast "nur für Windows" irgendwo unter 1GB. Mit DAZ geladen und einer mittleren Szene geöffnet dann so zwischen 3 und 4 GB. Alles noch im System RAM. Erst beim Rendern geht dann die Luzi ab. Die gezeigten fast 10GB in ADs Bild besagen also, daß iRay so 6 bis 7 GB zur Verarbeitung des Renders belegt.  --> Paßt also nicht mehr in die Grafikkarte, so daß iRay quitiert und auf CPU-only umschaltet.
    Kann durchaus sein, daß die GPU-Karten den eigenen Speicher effizienter nutzen können und iRay auch speziell auf die nVidia Firmware abgestimmt ist.

    Ja, das mit der Graka ist mir bekannt.

    Irgendwo im Forum hat mal jemand eine Berechnung gepostet, derzufolge ein Mesh für je 100.000 Polygone rd. 10 Megabyte VRAM belegt. Das kann so aber nicht stimmen, da bei meinem obigen Test die Speicherbelegung mit  ca. +30 MB für eine Genesis 3 Figur zu Buche schlug, welche laut Decimator aus 33.872 Polygonen besteht. Jeder SubD Level vervierfacht die Polygonzahl, bei SubD Level 2 wären das dann 541.952 Polys. Mit der o.g. Umwandlungsformel entspräche das dann einer Speicherbelegung von 54,2 Megabyte.

    Auch die Berechnung der Speicherbelegung für Texturen aus einem Thema hier im Forum kommt nicht so ganz hin, bei 3 Byte pro Texturpixel sollen das für eine 4k Textur rd. 50 Megabyte sein. Das hieße im Falle von Genesis 3 Female mit je drei 4k Texturen für Arme, Beine, Torso und Gesicht (Diffuse, Bump, Specular) und den sieben 2k Texturen (Reflection, Augen, Wimpern, Mund), dass eigentlich 680 MB zusätzlich zu Buche schlagen müssten. Sind aber nur ca. 120 MB. Gut möglich, dass da die Einstellungen für die Texturkompression ihre Finger im Spiel hat, die stehen bei mir auf den Vorgabewerten Medium/High 512 und 1024.


    Na, dann kommt es aber auf den verwendeten SubD Level an, den derjenige verwendet. Standardmässig stehen die Genesis 3 Charaktere auf SubD Level 2 bzw. SubD Level 3 für die HD-Ausführung. Die kann man locker auch mit einer 2 GB Graka rendern, der Speicherbedarf samt Haar, Kleidung und einem 8x4k HDRi liegt bei mir für Victoria 7 HD bei ca. 1,6 Gigabyte.


    ADs eigentliches Problem ist, dass die Quadro FX selbst mit dem aktuellsten Treiber CUDA Version 8.0 nicht unterstützt. Dass die GPU nicht zum Einsatz kommt, liegt bei ihr nicht am Mangel an Video RAM beim Start des Renders, sondern Studio kitscht die Graka schon beim Start der Software aus der Liste der Render Devices heraus.

    Laut j cade (http://www.daz3d.com/forums/discussion/comment/2224956/#Comment_2224956) passt Stoneys Urban Future 5 locker in dessen 2 GB GPU. Und das meinte ich mit dem Unterschied zwischen System RAM und Video RAM. Beim GPU-Rendern passt's in eine 2 GB Graka, aber beim CPU-Rendern benötigt man plötzlich ein vielfaches an System RAM. Ich würde mal tippen, dass da um die 8 Gigabyte vereinnahmt werden. Das finde ich einen ziemlichen Unterschied.

    Anbei ein paar Render, die selbst meine lütte GT 730 trotz geringem VRAM noch imstande war zu rendern.

    Beauty_and_The_Beast.jpg
    1920 x 1080 - 1M
    Faerie_Forest_Iray.jpg
    1920 x 1080 - 2M
    Post edited by Arnold C on
  • ADAD Posts: 396
    edited March 2017

     

    Arnold C said:
    AndyS said:

     

    ADs eigentliches Problem ist, dass die Quadro FX selbst mit dem aktuellsten Treiber CUDA Version 8.0 nicht unterstützt. Dass die GPU nicht zum Einsatz kommt, liegt bei ihr nicht am Mangel an Video RAM beim Start des Renders, sondern Studio kitscht die Graka schon beim Start der Software aus der Liste der Render Devices heraus.

     

    Und eine neuere Karte, die diesen dämlichen Cuda-Treiber unterstützen würde, crasht meine Dell-Workstation. Wie kann man solche Programme entwickeln, die einen entweder zu einem Neukauf des Systems zwingen oder den gänzlichen Verzicht der Annehmbarkeiten? Für mich nicht nachvollziehbar; ist so wie wenn ab morgen keine Dieselfahrzeuge mehr bei uns fahren dürften. Und dann - steigt alles um auf's Rad oder Strassenbahn? Wird so etwas nicht für die breite Masse entwickelt? Bei allem Verständnis dafür, daß es in den USA die Highend PC's nachgeschmissen gibt, aber ich muß doch als Entwickler auch Rücksicht auf Anwender aus dem Ausland nehmen, bei denen ein gleichwertiges Equipment gerade mal ein Kleinfahrzeug kosten würde und Anwender deshalb technisch gar nicht in der Lage sein werden, bei solchen Anforderungen locker mitzuziehen, es sei denn, sie würden über das entsprechende Kleingeld verfügen - also auch hier das 2-Klassen-System. Aber ich schmeisse doch meine (in der Anschaffung) teure Dell-Kiste nicht wegen IRay in die Tonne. Auch die Quadro FX Karte war in der Anschaffung keine billige Karte gewesen, leider nur keine Gamerkarte. Für so etwas habe ich echt wenig Verständnis. Also in puncto Kundenzufriedenheit hat DAZ für mich auf jeden Fall noch deutlich Luft nach oben!

    Es ist nichts gegen Euch Jungs, aber im Moment bin ich echt mehr als gefrustet wegen solcher Programme, die nicht mit jedem Otto-Normal-System funktionieren  ---

    Post edited by AD on
  • Arnold CArnold C Posts: 740
    AD said:

    Und eine neuere Karte, die diesen dämlichen Cuda-Treiber unterstützen würde, crasht meine Dell-Workstation. Wie kann man solche Programme entwickeln, die einen entweder zu einem Neukauf des Systems zwingen oder den gänzlichen Verzicht der Annehmbarkeiten? Für mich nicht nachvollziehbar; ist so wie wenn ab morgen keine Dieselfahrzeuge mehr bei uns fahren dürften. Und dann - steigt alles um auf's Rad oder Strassenbahn? Wird so etwas nicht für die breite Masse entwickelt? Bei allem Verständnis dafür, daß es in den USA die Highend PC's nachgeschmissen gibt, aber ich muß doch als Entwickler auch Rücksicht auf Anwender aus dem Ausland nehmen, bei denen ein gleichwertiges Equipment gerade mal ein Kleinfahrzeug kosten würde und Anwender deshalb technisch gar nicht in der Lage sein werden, bei solchen Anforderungen locker mitzuziehen, es sei denn, sie würden über das entsprechende Kleingeld verfügen - also auch hier das 2-Klassen-System. Aber ich schmeisse doch meine (in der Anschaffung) teure Dell-Kiste nicht wegen IRay in die Tonne. Auch die Quadro FX Karte war in der Anschaffung keine billige Karte gewesen, leider nur keine Gamerkarte. Für so etwas habe ich echt wenig Verständnis. Also in puncto Kundenzufriedenheit hat DAZ für mich auf jeden Fall noch deutlich Luft nach oben!

    Es ist nichts gegen Euch Jungs, aber im Moment bin ich echt mehr als gefrustet wegen solcher Programme, die nicht mit jedem Otto-Normal-System funktionieren  ---

    DAZ 3D hat da weniger daran Schuld... der Übeltäter in diesem Fall ist NVIDIA. CUDA 8.0 wurde notwendig wegen der neuen Pascal Prozessoren, die die 10er Serie der GeForce GTX Grafikkarten antreiben. Aber ich kann Deinen Unmut nachvollziehen. Als vor zwei Wochen mein Mainboard ins Gras biß, mußte ich ellenlang herumtelefonieren, um ein Sockel AM2 Mainboard für meinen Athlon 64 Proz. aufzutreiben. Glücklicherweise wurde ich bei einem Hardwarehändler in Frankfurt fündig, der hatte noch zwei im Regal. (Jetzt nur noch eins smiley) Alle anderen Händler wollten einem aber immer erst ein etwas moderneres Mainboard aufschwatzen, und die passende CPU dazu, und Arbeitsspeicher, weil der, den ich hab' dafür nimmer passt... jetzt kann ich mit meiner Athlon CPU weiterfahren, bis ich mir die nötigen Scheinchen gedru... ähh... zusammengespart habe, um Prozessor und Arbeitspeicher nachzurüsten.

    Hast Du mal nachgeschaut, ob eventuell ein Treiber- oder BIOS Update Dein Problem beheben könnte? Wenn das Mainboard Deiner Dell Workstation über einen PCI Express Steckplatz verfügt, sollte das im Grunde funktionieren. Obwohl es verschiedenene PCI-E Bus-Versionen gibt, funktioniert selbst eine PCI-E 3.0 Grafikkarte in einem PCI-E 1.1 Steckplatz, die sind abwärtskompatibel. Meine GT 730 hat einen PCI-E 2.0 Bus, das Mainboard aber nur einen PCI-E 1.1. Läuft trotzdem.

    Möglicherweise ist auch nur das Netzteil zu schwach, ich würde mal nachschauen, ob da die Leistung des Netzteils den Minimalanforderungen der Grafikkarte entspricht. Wenn da z.B. nur ein 400 Watt Netzteil verbaut ist, und die Karte eine Minimalanforderung von 550 Watt hat, dann reicht das nicht aus, was die Abstürze erklären würde. Ein neues Netzteil kostet nicht die Welt, und ist bei weitem günstiger als sich 'ne neue Kiste zusammenzuschrauben.

  • ADAD Posts: 396
    edited March 2017

    Hm, sofern NVidia der Übeltäter ist - so wäre das Grund genug, keinesfalls mehr NVidia zu benutzen!!!

    Mein verbautes Netzteil hat 1100 Watt. Zwei bzw. drei PCI-2 Express Steckplätze (2x16 und 1x8, aber alle belegt) habe ich im System (siehe nachfolg. screens, soweit Du Dich damit auskennst?), sind aber für den Perc 6/i Adapter Raid Controller und 1x für die Grafikkarte NVidia Quadro FX 5800 belegt - (alles v. Dell aufgerüstet). Dementspr. wären auch keine PCI Steckplätze mehr frei. Auch die Treiber und das Bios wurde seitens Dell upgedated, hatte meine Kiste ja wegen der 6000-er Karte, die nicht lief, bei Dell. Ich hätte ja auch eine große 6000-er NVidia Karte unnütz im Regal liegen, die auch mal schlappe 3000 Euronen gekostet hat und die bisher einmal für 5 Min. im System war. Versucht einzubauen (bei Dell), System crasht beim Hochfahren. Begründung seitens Dell: Für die Workstation T7400 Precision gibts keinen Support mehr - dementsprechend keine Treiber, also damit abfinden, daß die Kiste nur noch mit der alten Karte läuft (traurig bin). Welche Karte sollte ich noch kaufen, bei der ich sicher sein könnte, daß mein System, aber auch IRay damit läuft - keine Ahnung, dazu kenne ich mich einfach zu wenig aus und wie Du schon schreibst, eigentlich will Dir jeder lieber ein komplett neues System verkaufen, als jemandem zu helfen, etwas ältere Systeme zu erhalten.

    IMG_0895.JPG
    1352 x 2800 - 3M
    IMG_0897.JPG
    1160 x 2840 - 3M
    IMG_0898.JPG
    1328 x 2696 - 3M
    IMG_0899.JPG
    1728 x 3160 - 4M
    Post edited by AD on
  • E.BruE.Bru Posts: 181

    Falls ihr auf DAZ-Studio 4.8 zurückgreifen möchtet: https://tutorial-cafe.de/freebies/index.php?category-file-list/286-software/

  • ADAD Posts: 396
    edited March 2017

    Vielen Dank, das ist ja prima. Gibt's denn zwischen der Version 4.8 und 4.9 irgendwelche gravierende Einschränkungen, die man wissen müsste?

    Post edited by AD on
  • AndySAndyS Posts: 1,434

    Hi AD,

    AD said:

    Hm, sofern NVidia der Übeltäter ist - so wäre das Grund genug, keinesfalls mehr NVidia zu benutzen!!!

    laugh ich glaube, das juckt nVidia nicht. Die zielen eher auf die Gamer-Freaks und Video-Animations Profis.
    Wir "normal" DAZ-ler sind nur nettes Beiwerk.

    Also ich habe mich damit abgefunden, daß es eh keinen Sinn macht (für mich), in eine teure GPU-Karte zu investieren. Ich habe da so ein Parade-Beispiel vom WW2-Jeep, den ich nach iRay transformiert habe. Unter Verwendung von echtem Displacement für die 3-dimensionalen Oberflächenstrukturen (Profil der Reifen, Sandrippen des Starndes, usw.) komme mit dieser kleinen Szene auf "lächerliche" 22GB.
    4 Stunden CPU-Render auf meinem i5 sind dann eben die normale Renderzeit.

    Indoor-Szenen sind manchmal schon bei unter 50% rauschfrei. Das nach ca. 12 Stunden.
    Darauf habe ich mich eingestellt, und damit kann ich leben.

    Die Characters muß ich grundsätzlich um 3 SubD Stufen erhöhen, da sonst an den Schattengrenzen so häßliche Zacken zu sehen sind.

    Und @Arnold: Es wird wohl eher so sein, daß der Unterschied Sys-RAM <--> VRAM höchens 10 bis 20% Unterschied, aber keinen Faktor 3 macht (behauptete 2 GB vs. die 6GB, die ADs Render beansprucht hat).
    Selbst wenn dem so sei, würde ich keine 800€ für GTX 1080 und großes Netzteil investieren. Es gibt Render-Service Anbieter, einen sogar ganz bei mir in der Nähe. Hab ich mir ge-bookmarked falls ich es mal testen will.

    Übrigens hübsche Renders. Aber mit (fake)-bump und HDRI Environment bleibts auch bei mir weit unter 2GB.

     

    Gruß

    Andreas

  • ADAD Posts: 396

    Wo finde ich das " Die Characters muß ich grundsätzlich um 3 SubD Stufen erhöhen "?

  • AndySAndyS Posts: 1,434

    Im Parameter Tab gibt es unter "Mesh Resolution" den Parameter "Render SubD Level".

    Wenn Du dann in bestimmten Bildern so merkwürdige dreieckige harte Schattengrenzen bemerkst (gerne in der Nähe von Armbeuge oder entlang der Beine), dann diesen Parameter höher stellen, bis sie verschwinden.
    Aber Vorsicht: das frißt natürlich Speicher!

  • RenomistaRenomista Posts: 921

    erhöht allerdings den VRAM bedarf deutlich, also mit sinn und verstand einsetzen.

  • AndySAndyS Posts: 1,434
    edited March 2017

    Ja eben - wie bereits gesagt.

    Und Arnold hat es ja ganz genau ausgeführt:

    Jeder SubD Level vervierfacht die Polygonzahl

    Hab' mir gerade die "Beatiful Skins" von SickleYield geholt. Die hat doch glatt bei Displacement den Displacement SubD auf 2 gestellt.
    Allerdings bin ich nicht sooo begeistert. Und einige Presets verursachen sogar kleine Katastrophen, wenn man sie in der "richtigen" Reihenfolge anwendet.

    --> http://sta.sh/02evrm4shttx

    Ich wollte eigentlich mit DAZ etwas Spaß haben und nicht irgendwelchen merkwürdigen Phänomenen nachjagen.

    Post edited by AndyS on
  • Arnold CArnold C Posts: 740
    AD said:

    Hm, sofern NVidia der Übeltäter ist - so wäre das Grund genug, keinesfalls mehr NVidia zu benutzen!!!

    Mein verbautes Netzteil hat 1100 Watt. Zwei bzw. drei PCI-2 Express Steckplätze (2x16 und 1x8, aber alle belegt) habe ich im System (siehe nachfolg. screens, soweit Du Dich damit auskennst?), sind aber für den Perc 6/i Adapter Raid Controller und 1x für die Grafikkarte NVidia Quadro FX 5800 belegt - (alles v. Dell aufgerüstet). Dementspr. wären auch keine PCI Steckplätze mehr frei. Auch die Treiber und das Bios wurde seitens Dell upgedated, hatte meine Kiste ja wegen der 6000-er Karte, die nicht lief, bei Dell. Ich hätte ja auch eine große 6000-er NVidia Karte unnütz im Regal liegen, die auch mal schlappe 3000 Euronen gekostet hat und die bisher einmal für 5 Min. im System war. Versucht einzubauen (bei Dell), System crasht beim Hochfahren. Begründung seitens Dell: Für die Workstation T7400 Precision gibts keinen Support mehr - dementsprechend keine Treiber, also damit abfinden, daß die Kiste nur noch mit der alten Karte läuft (traurig bin). Welche Karte sollte ich noch kaufen, bei der ich sicher sein könnte, daß mein System, aber auch IRay damit läuft - keine Ahnung, dazu kenne ich mich einfach zu wenig aus und wie Du schon schreibst, eigentlich will Dir jeder lieber ein komplett neues System verkaufen, als jemandem zu helfen, etwas ältere Systeme zu erhalten.

    Wow, gleich zwei Vierkern-Prozessoren surprise. Ich glaube, mein Rechner hatte gerade 'ne Spannungsschwankung. smiley Die 1100 Watt hören sich schon mal ausreichend an. In diesem Fall würde ich dann sagen, dass NVIDIA nicht als Einzeltäter agiert, da Dell Dein Mainboard nicht mehr unterstützt und keine aktualisierten Treiber mehr liefert. Nun, da Du schon 3000 DM-Nachfolger in die Graka gesteckt hast, die jetzt im Regal nutzlos vor sich hin oxidiert: an Deiner Stelle würde ich mich mal umschauen, ob man nicht noch irgendwo ein etwas neueres Sockel LGA771 Dual CPU Mainboard auftreiben kann, dessen Treiber mit dieser Grafikkarte umgehen können, sofern Du mit diesem System noch einigermaßen zufrieden bist und noch ein paar Jährchen damit zu arbeiten gedenkst.

    Das wäre meist günstiger als noch mal etliche Scheine in eine Grafikkarte zu stecken, die dann womöglich auch nicht mit dem vorhandenen Mainboard zusammenarbeiten mag. Ich habe für mein neues Mainboard zum Beispiel nur rd. 50 Euro hinlegen müssen, statt Minimum 350,- für neues Mainboard, passende CPU, RAM und neues DVD Laufwerk (ist noch ein IDE, und die Unterstützung dafür wird leider auch immer seltener. Und wenn mir das kaputtgeht, hole ich mir Ersatz im Second Hand Shop um die Ecke. Lustigerweise ist das mitgelieferte, fabrikneue DVD Laufwerk schon nach zwei Jahren in die elektronischen Jagdgründe eingezogen, das Gebrauchte aus dem Second Hand aber geht jetzt in sein siebtes Dienstjahr). Welche 6000er NVIDIA Graka wäre das denn genau?

  • Arnold CArnold C Posts: 740
    edited March 2017
    AndyS said:

    Und @Arnold: Es wird wohl eher so sein, daß der Unterschied Sys-RAM <--> VRAM höchens 10 bis 20% Unterschied, aber keinen Faktor 3 macht (behauptete 2 GB vs. die 6GB, die ADs Render beansprucht hat).
    Selbst wenn dem so sei, würde ich keine 800€ für GTX 1080 und großes Netzteil investieren. Es gibt Render-Service Anbieter, einen sogar ganz bei mir in der Nähe. Hab ich mir ge-bookmarked falls ich es mal testen will.

    Übrigens hübsche Renders. Aber mit (fake)-bump und HDRI Environment bleibts auch bei mir weit unter 2GB.

    Laut dem Post von J Cade belegt Stonemasons Urban Future 5 weniger VRAM als eine Genesis 3 Figur (ca. 1,6 GB VRAM). Wenn von ADs 9,8 GB System RAM für Windoof und nebenher laufende Dienste großzügige 2 GB in Beschlag wären, dann würde das rd. 7,8 GB System RAM beanspruchen. Also wäre das fast das fünffache des VRAM Bedarfs.

    Nun, käme darauf an, eine GT 740 mit 4 GB RAM und 384 Shader-Prozessoren bekommt man schon für rd. 100 €, und die begnügt sich schon mit einem 400 W Netzteil. Ist zwar dann nicht so rasant schnell wie 'ne 1080er mit ihren 2560 CUDA Kernen, aber immer noch flinker als jede CPU. Je nach Ausleuchtung und Kameraperspektive (Totale/Close-Up) brauchts bei mir für 'ne Genesis 2 / Genesis 3 Figur zwischen 10 und 44 Minuten bis zur 95%-Marke.

    Pfft, 800 € sind ja geradezu ein Schnäppchen, mein Wunsch(Alp)traum war mal ein Quadro VCA mit 8 GPUs, 12 GB VRAM je GPU und grandiosen 24.576 Shader-Prozessoren. Verglichen mit der Geschwindigkeit einer Titan X müsste da der Render bereits fertig sein, bevor man den Button angeklickt hat. smiley Kostet aber auch "nur" mal eben über 50.000 €. crying

     

    Danke! Ich weiß gar nicht, was Du immer gegen Bumpmaps hast, klar, die sind von Haus aus ein Fake, und dazu geacht, die Polygonmenge eines Meshs in realistischen Grenzen zu halten. Und für einen Render in der Totale brauche ich kein Displacement, auf die Distanz merkst eh visuell keinen großartigen Unterschied. smiley


    Displacement Maps für Wimpern?!? Mannomann, manche Leutz kommen auch auf die abstrusesten Ideen...

    Das "Beautiful Skins" Produkt für Genesis 2 hatte ich auch schon mal, die Shader waren aber alles andere als "Physical Based"... und ein "gutes" Negativbeispiel für die leider verbreitetete Unart, zuviel Glanz durch eine multichrome Glossy Color korrigieren zu wollen. Die Promo Render der aktualisierten Version überzeugen mich auch nicht sonderlich, die Haut wirkt viel zu trocken und die Bump Maps unnatürlich.

    Post edited by Arnold C on
  • ADAD Posts: 396
    edited March 2017

    Die Daten meiner Karte siehe nachfolg. Screens. Nur Dell-Systeme mag diese Karte leider nicht. 

    Aber was nutzt das alles, wenn's nicht läuft. Welchen Sockel müsste ich denn für mein System haben? Wie kann ich das feststellen, ich hab ja von PC's keine Ahnung? Was müsste ich denn haben, damit meine GraKa mit IRay laufen könnten? Das Problem dürfte ja auch sein, daß einige zusätzliche Aufrüstungen (wie z.B. den Perc6 Raid Controller zusätzlich von Dell nachgerüstet wurden - ich habe da keine Idee, wie und welche Steckplätze sie verwendet haben etc. nachher läuft die Kiste nicht mehr hoch und dann?

    01.jpg
    403 x 495 - 55K
    03.jpg
    620 x 483 - 54K
    01Frontbild.jpg
    500 x 375 - 25K
    02.jpg
    500 x 375 - 22K
    04.jpg
    500 x 375 - 33K
    Post edited by AD on
  • AndySAndyS Posts: 1,434
    edited March 2017

    Hallo Arnold,

    Arnold C said:
    Danke! Ich weiß gar nicht, was Du immer gegen Bumpmaps hast, klar, die sind von Haus aus ein Fake, und dazu geacht, die Polygonmenge eines Meshs in realistischen Grenzen zu halten. Und für einen Render in der Totale brauche ich kein Displacement, auf die Distanz merkst eh visuell keinen großartigen Unterschied. smiley

    Naja, schau Dir bitte die Stollen im Profil der Reifen an. Das Überstehen spiegelt sich sogar im Schattenwurf wider. Mit Bump geht sowas nunmal nicht.
    Klar, bei 3Delight kein Problem, aber für iRay mußte ich die Displacement SubD auf 3 stellen.

    Und wenn ich dann auch noch Wert darauf lege, daß die Oberfläche des Strandes eben auch "nicht nur gefaked" ist, frißt das eben diese riesige Menge Speicher. devil

    Oder hier das (vmtl. bereits bekannte) Beispiel der Fliesen.
    iRay Displacement Demo

    Die Erhabenheit der Fliesen und die Absenkung in den Fugen wird besonders durch den Schatten der Leitung abgebildet. Und selbst dieses wichtige Detail im Schattenwurf kann Bump nicht darstellen.
    (Man beachte den erforderlichen SubD-Wert)
    DAZ 4.7 übrigens konnte dieses Demo nicht rendern - Absturz. Erst seit 4.8 ging es.

    Klar, für Objekte in nicht so exponierter Position oder besonders für Video-Animationen oder Ballerspiele und Kino-Filme kann man sich sämtliche Details sparen und vmtl. mit jeder Billig-Karte schnell rendern. Und das ist ja die Haupt-Klientel für DAZ und nVidia.

    Arnold C said:

    Displacement Maps für Wimpern?!? Mannomann, manche Leutz kommen auch auf die abstrusesten Ideen...

    Das "Beautiful Skins" Produkt für Genesis 2 hatte ich auch schon mal, die Shader waren aber alles andere als "Physical Based"... und ein "gutes" Negativbeispiel für die leider verbreitetete Unart, zuviel Glanz durch eine multichrome Glossy Color korrigieren zu wollen. Die Promo Render der aktualisierten Version überzeugen mich auch nicht sonderlich, die Haut wirkt viel zu trocken und die Bump Maps unnatürlich.

    Ja, ich bin ganz schön enttäuscht. SickleYield galt doch als das Vorbild, was Skin-Shader angeht. crying
    Wenn man einige Presets in der Reihenfolge anwendet, wie es die Staffelung der Folder/Sub-Folder suggeriert, endet das sogar desaströs.
    Dann käme ADs Frage nach einem "Reset" ins Spiel. Aber selbst das half nichts.
    Da gab es nur Character komplett neu laden. no
    Werde das Produkt zurückgeben.

    Post edited by Chohole on
  • AndySAndyS Posts: 1,434
    edited March 2017

    DAZ3D beweist Einstein's Relativitätstheorie

    laugh

    Gestern bin ich über einen äußerst merkwürdigen Effekt gestolpert, den ich heute mal genauer evaluieren konnte.

    Manchmal fertige ich echte 3D-Bilder aus meinen Szenen an. Also die Anaglyph-Methode (grot/grün-blau). Dazu habe ich mir eine Stereo-Kamera gebastelt. Also einfach eine zweite Kamera geparented unter der ersten mit einem bestimmten Abstand (Augenabstand) und einstellbarem Parallaxe-Winkel. Das funktioniert sehr gut. Die fertigen Renders baue ich dann im Grfaik-Programm mit der entsprechenden Farbe eingefärbt zusammen. So auch gestern.

    Das Ergebnis war für die Characters und Objekte im Bild schön perfekt. Aber mit den Schatten stimmte irgendwas nicht. Die paßten räumlich partout nicht.
    Das hatte ich noch nie !

    Dann fiel mir ein, daß ich manchmal vor dem Rendern aus der Szene alle Objekte/Gegenstände entferne - also richtig lösche - , die für das aktuelle Bild keinen Beitrag leisten. Das spart Speicher, und wie ich jetzt geshen habe, sogar Renderzeit.
    So auch im vorliegenden Fall: Das eine Bild hatte ich am Vortag mit reduzierten Assets gerendert; das zweite am nächsten Tag aus Faulheit jedoch mit vollständiger Szene. Und dann sah ich plötzlich an einer markanten Stelle eine Verschiebung des Schattens. Geringfügig zwar, aber bei einem 3D-Bild verheerend.
    Natürlich dachte ich zuerst, daß ich irgendwas bei den Render-Settings bzgl. Ort oder Datum verstellt hätte. Einstellung: "Sun-Sky"

    Dann habe ich kurz einen Gegenchek (voll wissenschaftlich wink ) durchgeführt. Und siehe da: Der Einfallwinkel des Sonnenlichts ist leicht verschieden, abhängig ob vollständige oder reduzierte Szene.
    Im Anhang mal zwei Test-Render, die das Ergebnis belegen. Die Windmühle kennzeichnet das Auftreffen des Schattens bei vollständiger Szene.

    Damit ist also auch in DAZ bewiesen:
    Unterschiedliche Gravitation sorgt für unterschiedliche Lichtwinkel/ Ablenkung. devil

    Incident Angle Test full.jpg
    1000 x 900 - 176K
    Incident Angle Test reduced.jpg
    1000 x 900 - 169K
    Post edited by AndyS on
  • Arnold CArnold C Posts: 740
    AD said:

    Die Daten meiner Karte siehe nachfolg. Screens. Nur Dell-Systeme mag diese Karte leider nicht. 

    Aber was nutzt das alles, wenn's nicht läuft. Welchen Sockel müsste ich denn für mein System haben? Wie kann ich das feststellen, ich hab ja von PC's keine Ahnung? Was müsste ich denn haben, damit meine GraKa mit IRay laufen könnten? Das Problem dürfte ja auch sein, daß einige zusätzliche Aufrüstungen (wie z.B. den Perc6 Raid Controller zusätzlich von Dell nachgerüstet wurden - ich habe da keine Idee, wie und welche Steckplätze sie verwendet haben etc. nachher läuft die Kiste nicht mehr hoch und dann?

    Du meinst sicher, Dell-Systeme mögen diese Karte nicht? wink Haben die von Dell Dir gesagt, weswegen Dein System damit nicht klarkommt? Als Profis sollten die das eigentlich heraugefunden haben. Wenn's an der Stromversorgung nicht hapert, kann es eigentlich nur an der Architektur der Karte liegen, möglicherweise an derem 384 Bit Bus.

    Für den Intel Xeon brauchst laut der Intel Webseite ein Sockel 771 Mainboard (wird auch als Sockel LGA771 oder auch Sockel J bezeichnet). Laut dem Heise.de Preisvergleich gibt es auch noch Händler, die diese Mainboards führen. Allerdings sind die Preise nicht ganz ohne: 900,- bis 1000,- DM-Nachfolger soll man dafür noch löhnen. surprise 

    (Typisch Intel, bei denen gibt's entweder nur Billich oder Sauteuer, 'ne Mittelklasse wie bei AMD gibt's bei denen nicht). angry

    Für das Geld kann man sich im Grunde schon eine neue Kiste mit einem AMD Sockel AM3+ und einer etwas leistungsfähigeren NVIDIA Karte zusammenschrauben. Die Quadro 6000 hat zwar gute 6 GB VRAM, aber nur 448 CUDA Kerne, ist also nur unwesentlich flinker als eine GT 740, die man jetzt schon für 100 € bekommen kann.

    Neuer Tip: wenn jemand in Deinem Bekanntenkreis eine GT 740, GTX960, GTX 980, oder eine der neuen GTX 1060, GTX 1070 besitzt, könnte man die probehalber mal in Deinen Rechner einbauen, um zu sehen, ob das Mainboard mit der klarkommt. Die Quadro kostet neu beim Händler immer noch um die 4.000 bis 6.000 €. Die könnte man sicher in einem Second Hand Hardware Shop oder über Ebay verticken... dass die bei Dir im Regal verstaubt, davon hast Du nix, das ist im Grunde nur totes Kapital, dessen Wert mit der Zeit immer mehr abnimmt. Eine GTX 1060 mit 6 GB VRAM und 1280 CUDA Kernen kann man schon für 270 €, eine GTX 1070 mit 8 GB VARAM und 1920 CUDA Kernen für 390 € bekommen.

    Die GT 740 mit lediglich 4 GB VRAM und 384 CUDA Kernen (EVGA GeForce GT 740 SuperClocked (04G-P4-2744-KR)) ist zwar nicht die flinkste und hat etwas wenig VRAM, ist m.A.n. aber immer noch lohnender, als sich die CPU stundenlang einen abstrampeln zu lassen.

  • ADAD Posts: 396

    Von Dell wurde mir wg. der Karte nur mitgeteilt, daß mein System nicht mehr supported wird (da hatte ich mich riesig darüber gefreut, denn die Kiste war in der Anschaffung s**teuer und ich hoffte,damit längere Zeit vor einem Neukauf gewappnet zu sein). Es muß wohl an der Karte liegen, die passenden Treiber sollte lt. PNY Dell zur Verfügung stellen (genauso wie es auch HP gemacht hat) - toll, aber wenn Dell eben nicht mehr supported - dann war's das - am besten das System verschrotten. Und für mich als einzigen User würde Dell eh keinen Treiber dafür entwickeln und bei anderen NVidia Treibern crasht's und nichts geht mehr.

    Danke für Deine Tips - leider wird es daran scheitern, daß ich momentan leider niemanden kenne, der mir gerade mal seine Karte ausbauen könnte, damit ich das mal in meinem System testen kann. Und ein neuer Sockel ist mir von der Anschaffung von ca. 1000 Euro im Moment einfach zu teuer. Dummerweise habe ich auch keinen Computerladen um die Ecke, dem ich einfach mal meine Kiste übergeben könnte - schade,schade. Wohnst Du vll. in meiner Nähe (grins) lach, denn Du scheinst Dich ja echt gut auszukennen.

     

  • Arnold CArnold C Posts: 740
    AndyS said:

    Hallo Arnold,

    Arnold C said:
    Danke! Ich weiß gar nicht, was Du immer gegen Bumpmaps hast, klar, die sind von Haus aus ein Fake, und dazu geacht, die Polygonmenge eines Meshs in realistischen Grenzen zu halten. Und für einen Render in der Totale brauche ich kein Displacement, auf die Distanz merkst eh visuell keinen großartigen Unterschied. smiley

    Naja, schau Dir bitte die Stollen im Profil der Reifen an. Das Überstehen spiegelt sich sogar im Schattenwurf wider. Mit Bump geht sowas nunmal nicht.
    Klar, bei 3Delight kein Problem, aber für iRay mußte ich die Displacement SubD auf 3 stellen.

    Und wenn ich dann auch noch Wert darauf lege, daß die Oberfläche des Strandes eben auch "nicht nur gefaked" ist, frißt das eben diese riesige Menge Speicher. devil

    Oder hier das (vmtl. bereits bekannte) Beispiel der Fliesen.

    Die Erhabenheit der Fliesen und die Absenkung in den Fugen wird besonders durch den Schatten der Leitung abgebildet. Und selbst dieses wichtige Detail im Schattenwurf kann Bump nicht darstellen.
    (Man beachte den erforderlichen SubD-Wert)
    DAZ 4.7 übrigens konnte dieses Demo nicht rendern - Absturz. Erst seit 4.8 ging es.

    Klar, für Objekte in nicht so exponierter Position oder besonders für Video-Animationen oder Ballerspiele und Kino-Filme kann man sich sämtliche Details sparen und vmtl. mit jeder Billig-Karte schnell rendern. Und das ist ja die Haupt-Klientel für DAZ und nVidia.

    Arnold C said:

    Displacement Maps für Wimpern?!? Mannomann, manche Leutz kommen auch auf die abstrusesten Ideen...

    Das "Beautiful Skins" Produkt für Genesis 2 hatte ich auch schon mal, die Shader waren aber alles andere als "Physical Based"... und ein "gutes" Negativbeispiel für die leider verbreitetete Unart, zuviel Glanz durch eine multichrome Glossy Color korrigieren zu wollen. Die Promo Render der aktualisierten Version überzeugen mich auch nicht sonderlich, die Haut wirkt viel zu trocken und die Bump Maps unnatürlich.

    Ja, ich bin ganz schön enttäuscht. SickleYield galt doch als das Vorbild, was Skin-Shader angeht. crying
    Wenn man einige Presets in der Reihenfolge anwendet, wie es die Staffelung der Folder/Sub-Folder suggeriert, endet das sogar desaströs.
    Dann käme ADs Frage nach einem "Reset" ins Spiel. Aber selbst das half nichts.
    Da gab es nur Character komplett neu laden. no
    Werde das Produkt zurückgeben.

    Jaa... Deine Beispiele beinhalten lustigerweise immer irgendwelche Extreme... cheeky. Wenn ich mir die Schlappen auf einen Straßenwagen schraube, sähe das irgendwie lächerlich aus. Bei Normalbereifung würde dann für einen Render in der Totale Bump Mapping vollkommen ausreichen. Klar, für ein Close-Up sollte man dann schon mit Displacement arbeiten, damit's nicht so blöde ausschaut. Aber SubD Level 3 ist doch nicht so ein großes Ding, bei DAZs HD Geometrie kann man schon fast sagen: "Standard-Einstellung". Selbst mit Level 4 würde sogar meine kleine GT 730 noch klarkommen.

    Darf der Bengel eigentlich schon autofahren!?! laugh (Irgendwie hast Du so einen kleinen Strand-Fetisch, gell? cheeky)

    Ja, an die Fliesengeschichte erinnere ich mich noch. Und ich erinnere mich auch, dass wir festgestellt hatten, dass der mordsmäßige SubD-Bedarf am Polygonmangel des Meshs resultierte. Dass Iray für Displacement etwas mehr Polys braucht als 3Delight ist zwar nicht so prickelnd, dafür schummelt es bei Umgebungsverdeckung und Schattenberechnung aber nicht so herum wie dieses. Beide Render-Engines haben ihre Vor- und Nachteile, m. M. n. überwiegen die Vorteile von Iray in Sachen Beleuchtung und Schattenberechnung sowie dem einfacheren Definieren von Materialeigenschaften mittels Real-World gemessener BSSDF-/BSSRDF-Werte.


    Ja, Sickelyields Tips für Iray-Einsteiger waren ganz nützlich. Leider hat sie sich in Sachen "Physically Based Shading" nicht so richtig weitergebildet (wie so viele andere PA's und selbst die Burschen von DAZ). Da ich mich mit den Methoden des Iray Uber mitlerweile recht gut auskenne und mir eine kleine Datensammlung mit den wichtigsten Parametern für die unterschiedlichen Materialien in Sachen "menschliche Haut und Co." angelegt habe, kommt für mich "Skin Shader kaufen" nicht mehr in Frage. Die, die ich mir angeschafft oder bei denen ich die Möglichkeit hatte, einen Blick in's Handbuch zu werfen, enthalten jede Menge Fehleinschätzungen aufgrund wilder Spekulationen. Das einize Produkt, dass ich mir noch anschaffen würde, wäre Mec4D PBS Shaders Vol.4 for Iray, das einen speziellen 5-Layer Skin Shader enthalten soll, der ganz ohne Diffuse Maps auskommen würde. Selbst wenn der Ein oder Andere Datenparameter nicht ganz passen sollte, kann man den ganz einfach modifizieren. Die enthaltenen Texturen sehen auf alle Fälle schon mal gut aus.

    https://plus.google.com/+Mec4D/posts/bbYfKJ961bE

     


    Ahhh, das ist ein Suchbild... wo ist in diesem Bild das Supermassive Scharze Loch versteckt? laugh

  • AndySAndyS Posts: 1,434

    Tja, das schwarze Loch smiley
    Muß wohl irgendwo weit rechts unterm Sand verborgen sein.

    Gescheite Outdoor Sets, bei denen man nicht immer gleich noch einen riesigen Hintergrund benötigt, sind recht rar gesäht. Ich habe noch den Bungalow mit vorgebautem Pooldeck. Das ganze dann von TerraDome3 umgeben. Da ich immer gerne aus recht verschiedenen Perspektiven "fotografiere", fällt es schwer, den Bildausschnitt auf die doch meist recht kleinen angebotenen Sets zu begrenzen.

    Bei Interior stehe ich ja immer vor dem Problem, daß bei "natürlicher" Beleuchtung die Renders so Halb-, Ganz- oder Mehrtagesrender werden.

    Und warum sollte ich mir für teures Geld eine GPU-Karte kaufen, wofür ich auch noch das Netzteil austauschen müßte, nur um zu erfahren, ob die "großen" Szenen überhaupt bewältigt werden können.

     

    Arnold C said:
    Klar, für ein Close-Up sollte man dann schon mit Displacement arbeiten, damit's nicht so blöde ausschaut. Aber SubD Level 3 ist doch nicht so ein großes Ding, bei DAZs HD Geometrie kann man schon fast sagen: "Standard-Einstellung". Selbst mit Level 4 würde sogar meine kleine GT 730 noch klarkommen.

    Na, unterschätze die SubDs mal nicht.
    Ich habe den Jeep mal getestet:

    • System mit DAZ und geladenem Jeep (im Fotostudio) : 1,5GB
    • Render mit Reifen im Displacement: 9GB total
    • Render mit Reifen nur als Bump: 2,2GB total

    Also bei den Renders muß man ja dann immer System + DAZ + geladene Szene abziehen.

    Wenn man dann noch ein paar andere Assets mit SubD hat und ein paar "hoch aufgelöste" Characters, dann wird's für die GTXer schnell sehr eng.

    Für die Skins habe ich mir jetzt so langsam einen Standard erarbeitet. Allerdings machen einem dann immer wieder die teilweise recht merkwürdig verfärbten (Basis-) Textures, die die Vendors mitliefern, einen Strich durch die Rechnung. Ich dachte mir zwar bei SickleYield noch ein paar Tricks abschauen zu können, aber das war dann wohl ein Satz mit X.
    Genauso diese Merchant Ressource Kits von ForbiddenWhispers sind der totale Reinfall. Selbst die Bump-Map war einfach nur ein s/w vom Texture.

    Bist Du Dir mit dem Link zum Mec4D sicher? Habe da einen 404 bekommen.

  • Arnold CArnold C Posts: 740
    AD said:

    Von Dell wurde mir wg. der Karte nur mitgeteilt, daß mein System nicht mehr supported wird (da hatte ich mich riesig darüber gefreut, denn die Kiste war in der Anschaffung s**teuer und ich hoffte,damit längere Zeit vor einem Neukauf gewappnet zu sein). Es muß wohl an der Karte liegen, die passenden Treiber sollte lt. PNY Dell zur Verfügung stellen (genauso wie es auch HP gemacht hat) - toll, aber wenn Dell eben nicht mehr supported - dann war's das - am besten das System verschrotten. Und für mich als einzigen User würde Dell eh keinen Treiber dafür entwickeln und bei anderen NVidia Treibern crasht's und nichts geht mehr.

    Danke für Deine Tips - leider wird es daran scheitern, daß ich momentan leider niemanden kenne, der mir gerade mal seine Karte ausbauen könnte, damit ich das mal in meinem System testen kann. Und ein neuer Sockel ist mir von der Anschaffung von ca. 1000 Euro im Moment einfach zu teuer. Dummerweise habe ich auch keinen Computerladen um die Ecke, dem ich einfach mal meine Kiste übergeben könnte - schade,schade. Wohnst Du vll. in meiner Nähe (grins) lach, denn Du scheinst Dich ja echt gut auszukennen.

    Soll heißen, dass sie sich das nichtmal angeschaut haben? Einfach, das Teil wird nicht mehr supported und Tschüß? Bei denen hätt' ich zweimal was gekauft: das Erste und das letzte Mal... frown 

    Laut deren Treiber-Download Seite haben die echt nach der Quadro FX 5800 den Hammer fallen gelassen. Dass die NVIDIA Referenztreiber (der für die Quadro 6000 unterstützt laut den Versionshinweisen seit dem 24.10.2016 (Version 375.63) CUDA 8.0.), nicht mit deren Krempel zusammenarbeiten spricht nicht gerade für Dell. no

    Stimmt, 'n Tausender hinblättern um eine, zumindest für's GPU rendern, zweitklassige Grafikkarte zum Laufen zu bekommen (6 GB GDDR5 VRAM sind zwar ganz fein, aber die 448 CUDA Kerne nicht gerade üppig).

    Nur, wenn Du auch in der Region Ostwestfalen-Lippe wohnst wink. "Und Gott erschuf in seinem Zorn Bielefeld und Paderborn." laugh 

    Naja, was heißt auskennen. Ich kann die Windows Fehleranalyse-Programme laufen lassen und so mögliche Fehlerquellen Eine nach dem Anderen eliminieren. Bei jedem Mainboard sollte auch immer ein Handbuch mitgeliefert sein, auch bei Komplettsystemen (wenn nich', gib's Haue! cheeky). Da die Stecker der Kabelverbindungen des Gehäuses auch immer beschriftet sind, kann man da nur etwas verkehrt machen, wenn man absolut nich' lesen kann, und sich ein Mainboard auch mal gerade selbst einbauen. Grafikkarte einbauen ist auch kein Akt: Graka in den Steckplatz packen, Gehäuse schließen, Stecker einstöpseln, Booten. Windoof installiert die Standard VGA Treiber, man lädt die Treiber herunter und installiert diese. Fettich. Das könnte selbst ein Verkäufer eines Hardwarehändlers... wenn die dazu nur nich' zu faul dazu wären. devil

  • Arnold CArnold C Posts: 740
    edited March 2017
    AndyS said:

    Und warum sollte ich mir für teures Geld eine GPU-Karte kaufen, wofür ich auch noch das Netzteil austauschen müßte, nur um zu erfahren, ob die "großen" Szenen überhaupt bewältigt werden können.

    Arnold C said:
    Klar, für ein Close-Up sollte man dann schon mit Displacement arbeiten, damit's nicht so blöde ausschaut. Aber SubD Level 3 ist doch nicht so ein großes Ding, bei DAZs HD Geometrie kann man schon fast sagen: "Standard-Einstellung". Selbst mit Level 4 würde sogar meine kleine GT 730 noch klarkommen.

    Na, unterschätze die SubDs mal nicht.
    Ich habe den Jeep mal getestet:

    • System mit DAZ und geladenem Jeep (im Fotostudio) : 1,5GB
    • Render mit Reifen im Displacement: 9GB total
    • Render mit Reifen nur als Bump: 2,2GB total

    Also bei den Renders muß man ja dann immer System + DAZ + geladene Szene abziehen.

    Wenn man dann noch ein paar andere Assets mit SubD hat und ein paar "hoch aufgelöste" Characters, dann wird's für die GTXer schnell sehr eng.

    Für die Skins habe ich mir jetzt so langsam einen Standard erarbeitet. Allerdings machen einem dann immer wieder die teilweise recht merkwürdig verfärbten (Basis-) Textures, die die Vendors mitliefern, einen Strich durch die Rechnung. Ich dachte mir zwar bei SickleYield noch ein paar Tricks abschauen zu können, aber das war dann wohl ein Satz mit X.
    Genauso diese Merchant Ressource Kits von ForbiddenWhispers sind der totale Reinfall. Selbst die Bump-Map war einfach nur ein s/w vom Texture.

    Bist Du Dir mit dem Link zum Mec4D sicher? Habe da einen 404 bekommen.

    Nun, muss ja nicht immer gleich das Teuerste auf dem Markt sein. Wenn einem die Anzahl der CUDA Kerne nicht so wichtig ist, weil man an "Mehrtags-Render" gewohnt ist, ist nur die Größe des gewünschten VRAMs entscheidend, da bekommt man schon 6 oder 8 GB VRAM für relativ wenig Mücken.

    Jaaa doch, ich weiß: jeder Level vervierfacht die Anzahl der Polygone. smiley Level 4 ist aber "nur" das 256-fache. Bei Meshs mit geringer Polygonmenge ist das noch nicht im kritischen Bereich, und für HD Meshs brauch ich eh weniger SubD, weil schon genügend Polys vom Haus aus vorhanden sind.

    Hm, den Jeep hab' ich auch, und auch die Grungy Jeeps Texturen. Allerdings sehen die Reifen bei mir selbst bei SubD Level 3 eher aus, als hätte da einer mit dem Flammenwerfer herumgespielt... surprise Verwendest Du eine eigene Displacement-Textur oder die mitgelieferte? Wie sind Deine Einstellungen für Min und Max Displacement und Displacement Strength? Dann könnten wir mal einen direkten Vergleich SysRAM  <-> VRAM Auslastung machen.

    Ein schneller Rendertest mit dem unbehandelten Jeep und einer Genesis 3 Female ergab bei mir eine VRAM Auslastung von 889 MB. Was komischerweise weniger ist als die 1224 MB mit G3F allein. Schaut aus, als ob Iray einen Teil des mit 1070 MB per se belegten VRAMs umverteilt, sobald entweder etwas mehr an Geometrie/Texturen verwendet wird. Faszinierend, wie der Typ mit den spitzen Lauschern sagen würde. smiley


    Ja, so einen Standard hab' ich auch: Transmitted Color immer der Hautton der Textur und Transmitted Measurement Distance 1.00, Translucency Color RGB 217 - 133 - 114, Translucency Weight je nach Volk (Kaukasisch, Asiatisch, Afrikanisch) 0.45 - 0.50/0.35 - 0.45/0.25, Glossy Reflectivity 0.532250 und Glossy Roughness 0.547723 (mit aktiviertem Roughness Squared). SSS Reflectance Tint Neutral Weiss oder max. RGB 250 - 255 - 255 (für mehr Sonnenbräune blassgelb RGB 255 - 240 - 216). Top Coat mit Top Coat Layering Mode: Fresnel 1.50 und Top Coat Roughness 0.50. Glossy Color immer 255 Neutral Weiss.

    Auf die Frisur kommt Mec4Ds Unshaven 2 mit einem mit dem Faktor 10 multiplizierten Bump Wert. "Gelingt immer und klebt nicht". cheeky 

    Gekaufte Shader mögen zwar in einem neutralweissen Licht nett ausschauen, offenbaren aber meist den ihnen inneliegenden Kokolores bei Verwendung eines farbigen Lichts, da die Farbe der Reflektion nicht mehr mit der eigentlich zu erwartenden übereinstimmt. Die muss nämlich immer der Farbe des verwendeten Lichts entsprechen. Klar, wenn man Glossy Color auf ein helles Blau setzt, hat man bei einem roten Licht plötzlich eine lilafarbene Reflektion. Mag dem einen oder Andern wohl zwar gefallen, ist aber den Gesetzen der Optik nach kompletter Blödsinn.


    Seltsam, bei mir funtioniert der Link. Ich pack mal einfacherhalber die Promo-Bilder bei... man kann hier sehr gut sehen, dass sich Mec4D hier wieder einmal richtig Mühe gegeben hat. Eine der wenigen PAs, bei der man sich einen Blick ins Handbuch auch getrost sparen und blind zugreifen kann. yes

     

    MEC4D PBR Skin cross section preview 20016 Nvidia iray.jpg
    1194 x 701 - 742K
    MEC4D PBR Skin shader preview 20016 Nvidia iray.jpg
    2000 x 4000 - 2M
    skin-human-test6.jpg
    1785 x 593 - 431K
    Post edited by Arnold C on
Sign In or Register to comment.