/  Forum  /  Blender Technicznie  /  Rendering / Oświetlenie  /  Nvidia Maxwell w Blenderze

Nvidia Maxwell w Blenderze

#90 Odp: Nvidia Maxwell w Blenderze

#24915, 20150127, 18:34:16
Bardzo niesympatyczne wiadomości :/
http://www.purepc.pl/karty_graficzne/geforce_gtx_970_ma_mniej_rop_i_pamieci_l2_blad_w_specyfikacji
Generalnie wychodzi że prawdopodobnie Nvidia i producenci kart z jej czipami oszukali wielu ludzi. Aż wierzyć się nie chce że w obecnych czasach można zrobić taki przekręt  :(  I że to nie wyszło w żadnych wcześniejszych testach również w dużych portalach IT. Na forum kilka osób sygnalizowało problemy z wykorzystaniem pełnych 4GB, tłumaczyłem to prawdopodobnym wykorzystaniem części pamięci przez jakąś aplikację pracującą w tle, ale wychodzi na to że po prostu nabywcy GTX 970 (do których się zaliczam) po prostu zostali bezczelnie oszukani...
Jesteśmy skazani na zgubę, skazani od samego początku, i umrzemy, znając tylko niewielki fragment rzeczywistości, który w dodatku pojmujemy na opak.

Star Rider

Zaawansowany użytkownik
*
1225 77 8
To boldly go where no man has gone before

#91 Odp: Nvidia Maxwell w Blenderze

#24916, 20150127, 18:44:24
Czyli robimy pozew zbiorowy >:(
Nie ważne ile razy upadłeś, ważne ile razy się podniosłeś.

Kamil1064

Ekspert
*
3845 164 1

#92 Odp: Nvidia Maxwell w Blenderze

#24918, 20150127, 19:08:05
Kup GTXa mówili... 4GB VRAM mówili... będzie odlot mówili... a tu taka dupa.
Trochę lipa, bo 512 MB pamięci mniej to całkiem sporo.

SirGorn

Ekspert
*
1577 102 4
.

#93 Odp: Nvidia Maxwell w Blenderze

#24920, 20150127, 19:35:28
A co mieliśmy mówić jak sami nie wiedzieliśmy ;)
Braki zawsze duże jeśli chodzi o blendera.
Nie ważne ile razy upadłeś, ważne ile razy się podniosłeś.

Kamil1064

Ekspert
*
3845 164 1

#94 Odp: Nvidia Maxwell w Blenderze

#24923, 20150127, 21:44:06
hehe, a właśnie z początkiem marca będę dokupywał coś mocniejszego, bo póki co siedzę na 750 Ti.
No, dla mnie w porę wyszło, bo właśnie myślałem o 970. Tylko co teraz? Może spróbuję upolować 780 6GB, bo 980 jest póki co dla mnie nieopłacalna.

dtpowiec

Nowy użytkownik
*
40 0 0

#95 Odp: Nvidia Maxwell w Blenderze

#24977, 20150129, 14:25:59
szkoda ze nawet nie można się na nvidie obrazić bo mają monopol

Senator

Użytkownik
*
263 8 0
jestem tu nowy!

#96 Odp: Nvidia Maxwell w Blenderze

#25027, 20150130, 18:47:37
A ktoś patrzył na koszt wypasionej karty w porównaniu z procesorem np. 16-rdzeniowym?
-piotr-

Piotr

Administrator, Ekspert
*
3960 193 8
BFCT

#97 Odp: Nvidia Maxwell w Blenderze

#25035, 20150130, 19:22:02
A ktoś patrzył na koszt wypasionej karty w porównaniu z procesorem np. 16-rdzeniowym?

Piotrze takie rzeczy to można rozważać przy zakupie jak się porównuje specyfikacje techniczne, a nie jak już się kupiło towar o gorszych parametrach niż były przy sprzedaży podawane. To że nadal w przypadku Blendera nie ma alternatywy i ta karta nadal jest dobrym wyborem nic tu nie znaczy, ordynarne oszustwo i tyle. Tolerowanie takich zachowań skończy się tylko tym że stanie to się nagminne, a Nvidia to akurat ma dość dużo za uszami z przeszłości...
Jesteśmy skazani na zgubę, skazani od samego początku, i umrzemy, znając tylko niewielki fragment rzeczywistości, który w dodatku pojmujemy na opak.

Star Rider

Zaawansowany użytkownik
*
1225 77 8
To boldly go where no man has gone before
Ostatnia zmiana: 20150130, 19:43:38 wysłana przez Star Rider

#98 Odp: Nvidia Maxwell w Blenderze

#25037, 20150130, 19:30:02
A to Oszustwo jest, czy jakaś Głupia Wtopa?
-piotr-

Piotr

Administrator, Ekspert
*
3960 193 8
BFCT

#99 Odp: Nvidia Maxwell w Blenderze

#25039, 20150130, 19:35:33
A to Oszustwo jest, czy jakaś Głupia Wtopa?
Jaka wtopa?
Oczywiście, że oszustwo. Przy takich zakupach to nie wiem czy nie poszukałbym innej karty, bo to ledwo ciut powyżej giga więcej niż mam na laptopie. Kilka klatek wody musiałem na procku liczyć.
Przy kwocie co wydałem ten tysiąc na 980 byłby do przełknięcia.
Nie ważne ile razy upadłeś, ważne ile razy się podniosłeś.

Kamil1064

Ekspert
*
3845 164 1

#100 Odp: Nvidia Maxwell w Blenderze

#25041, 20150130, 19:42:27
To będą teraz procesy a NVIDIA zacznie wymieniać karty... Może to okazja dla Was, aby zdobyć lepszy model bez dopłat?
-piotr-

Piotr

Administrator, Ekspert
*
3960 193 8
BFCT

#101 Odp: Nvidia Maxwell w Blenderze

#25043, 20150130, 19:49:59
Marne szanse. Raczej będzie próba zamiecenia wszystkiego pod dywan. W dodatku my (jako Polacy) jesteśmy w bardzo kiepskiej sytuacji ze względu na obecny kurs dolara. Więc w przypadku zwrotu i kupna czegoś innego stracimy na tym więcej. Po za tym gdzieś już czytałem (narazie nie potwierdzone i nie wiarygodne) że z GTX 980 też jest podobny problem... W sumie tym którzy nie są przywiązani na siłę do CUDA chyba lepszym wyborem będzie Ati/AMD, zwłaszcza że po tej aferze mają być jeszcze obniżki cen ich kart...
Jesteśmy skazani na zgubę, skazani od samego początku, i umrzemy, znając tylko niewielki fragment rzeczywistości, który w dodatku pojmujemy na opak.

Star Rider

Zaawansowany użytkownik
*
1225 77 8
To boldly go where no man has gone before
Ostatnia zmiana: 20150130, 19:51:43 wysłana przez Star Rider

#102 Odp: Nvidia Maxwell w Blenderze

#25046, 20150130, 19:55:16
Hm, dobrze w takim razie, że jako dyżurną kartę kupiłem tylko GTX780ti, czekając na większe. Na razie poczekam dłużej. Szkoda, że taką wtopę musicie znosić na własnej skórze :/
-piotr-

Piotr

Administrator, Ekspert
*
3960 193 8
BFCT

#103 Odp: Nvidia Maxwell w Blenderze

#25059, 20150131, 07:43:57
Po za tym gdzieś już czytałem (narazie nie potwierdzone i nie wiarygodne) że z GTX 980 też jest podobny problem...
A to nie GTX 980M?

dtpowiec

Nowy użytkownik
*
40 0 0

#104 Odp: Nvidia Maxwell w Blenderze

#25062, 20150131, 09:13:16

Marro

Aktywny użytkownik
*
401 35 2

#105 Odp: Nvidia Maxwell w Blenderze

#40436, 20160228, 15:56:03
Trafiłem w sieci na sposób odblokowania zegara dla pamięci w GTX970 (w 980 tez powinno zadziałać).

UWAGA! Mój post ma charakter tylko informacyjny, nie biorę odpowiedzialności za uszkodzenie/uwalenie/spalenie czyjejś karty graficznej, jeżeli ktoś będzie się chciał się pobawić w podkręcanie własnego sprzętu.

Do ustawienia zegarów użyłem programu  NVIDIA Inspector 1.9.7.3. Pozwala on na ustawienie parametrów pracy dla kilku stanów pracy karty, a nie jak np. Afterburner tylko dla jednego P0. Podczas obliczeń CUDA, karta przełącza się w stan pracy P2 i dlatego zegar pamięci jest ustawiony na 3000MHz (6000 na dwóch zboczach sygnału). Przy maksymalnym obciążeniu dla DX czy OpenGL karta przełącza się w tryb pracy P0. Jest to najwyższy tryb i jego maksymalne wartości determinuja niższe stany. Inaczej mówiąc w niższym P2 nie ustawimy wyższego zegara niż jest w P0, więc jeżeli będziemy chcieli podkręcić  dla CUDA zegary powyżej podstawowej specyfikacji, musimy je najpierw podkręcić w stanie P0. Jeszcze informacja odnośnie samego programu NVIDIA Inspector, programem można utworzyć wygodne skróty z zadanymi parametrami i na przykład używać podkręcanych wartości tylko do pracy z Blenderem.

A więc zacznijmy. Na początek samo podkręcenie pamięci do standardowego taktowania karty. Fabryczne zegary mojej MSI GTX970 wynoszą 1316MHz dla GPU i 3505MHz(7000) dla VRAM. Testy robiłem na blendzie Cycles_Cornell_Bench_27 http://www.blenderartists.org/forum/showthread.php?331149-The-new-Cyles-GPU-2-70-Benchmark. Kompilacja blendera z dnia 2016.02.25 ściągnięta z https://builder.blender.org/download/, wielkość kafelka maksymalna 512x512 żeby liczyło na raz całą scenę (u mnie w nowszych kompilacjach szybciej liczy im większy kafelek). Windows 10, sterowniki 361.91.

Do podkręcenia samego zegara pamięci do wartości maksymalnej dla P0 wystarczy tylko przesunąć suwak zegara do oporu w stanie P2 i zatwierdzić przyciskiem Apply Clock.



Na obrazku jest 4000MHz ale dlatego że wcześniej ustawiłem tyle w stanie P0, standardowo będzie to maksymalna częstotliwość zegara, u mnie 3505MHz.
Na standardowych zegarach dla CUDA (stan P2) czyli 1316/3000 scena liczyła się przez 1:34.68, po ustawieniu pamięci na standardowe taktowanie z P0 czyli 3505MHz, czas renderu wyniósł 1:29.76, czyli prawie 5 sekund szybciej.

Teraz pójdźmy dalej. Żeby podkręcić kartę powyżej zegarów fabrycznych, trzeba zacząć od stanu P0. Tam ustawiamy maksymalne zegary dla pamięci i karty (będą działać dla DX i OpenGL, potem ustawić je jeszcze dla stanu P2. Wszystkie testy robiłem bez podnoszenia napięcia GPU, ani Power Limit. Być może przy dłuższych renderach dla uzyskania stabilności trzeba by je podnieść, ale to już może wpłynąć na żywotność karty, a w skrajnych przypadkach nawet ją fizycznie uszkodzić, więc zalecam ostrożność z tego typu zabawami. Nie szukałem u siebie maksymalnego stabilnego zegara, być może mógłbym jeszcze więcej z tej kart wycisnąć, po prostu przejrzałem kilka wątków z OC tej karty i dużo ludzi podkręca zegary do 1500/4000(8000) i takie ustawiłem maksymalnie u siebie. Test robiłem kilkukrotnie i nie było żadnych anomalii, temp rdzenia i pobór mocy też znacząco nie podskoczył. Ale oczywiście dużo też zależy od konkretnej sztuki.

Poniżej screen zegarami 1516/4001, wynik 1:19.31 czyli około 20% lepiej niż standardowe zegary przy CUDA dla tej karty.



Wyniki dla różnych ustawień zegara GPU i VRAM:

1316/3000 - 1:34.68  >>> fabryczne zegary dla CUDA
1316/3505 - 1:30.96  >>> fabryczne max zegary dla DX/OpenGL
1316/4001 - 1:21.31
1416/3505 - 1:29.76
1416/4001 - 1:20.42
1516/4001 - 1:19.02

Blender 2.77 RC1
1316/3000 - 1:34.59
1416/4001 - 1:19.93

Widać chyba wyraźnie że co najbardziej boli Maxwelle to nie architektura GPU tylko przepustowość pamięci (głównie przez wąską szynę danych)... przynajmniej jeżeli chodzi o obliczenia CUDA pojedynczej precyzji.

Edit: Wgrałem zrzuty ekranu na forum, bo coś się nie za bardzo chcą mi wyświetlać te z photobucket :/
Edit2: Dodałem wyniki z Blendera 2.77 RC1
Jesteśmy skazani na zgubę, skazani od samego początku, i umrzemy, znając tylko niewielki fragment rzeczywistości, który w dodatku pojmujemy na opak.

Star Rider

Zaawansowany użytkownik
*
1225 77 8
To boldly go where no man has gone before
Ostatnia zmiana: 20160228, 17:32:36 wysłana przez Star Rider