Strona 1 z 1
GPU jako drugi procesor?
: 22 maja 2009, 00:39
autor: lis6502
Wiadomo, pod Linuksem przechodzą różne cuda ;-). O ile ktoś już wpadł na pomysł by wykorzystywać VRam
jako swapa, o tyle mnie interesuje jak wykorzystać moc mojego GForce'a? W sumie z akceleracji korzystam tyle że szał pał, a w zasadzie cykle na PCI-E się tylko marnują

: 22 maja 2009, 07:24
autor: AdeBe
Napisać/zainstalować aplikację wykorzystującą CUDA? Inne sposoby jakoś nie przychodzą mi do głowy.
: 22 maja 2009, 07:42
autor: tomii
Obliczenia na gpu są traktowane jako akceleracja do Cpu, procesor musi zainicjować obliczenia na grafice a potem odebrać wyniki. Więc nie da się tego potraktować jako drugi autonomiczny procesor. Jedyny sposób na wykorzystanie to program korzystający z takiej akceleracji.
A tak na marginesie, wiedząc jak wygląda sytuacji to w jakich programach byś takie wsparcie widział?
: 22 maja 2009, 08:26
autor: lis6502
tomii pisze:A tak na marginesie, wiedząc jak wygląda sytuacji to w jakich programach byś takie wsparcie widział
We wszystkich mielących terabajty cyfr, czyli kompilatory, symulatory, generatory fraktali. Poza tym na kartach graficznych musi być szybki blitter, czyli w programach kopiujących duże ilości danych po pamięci. Swoją drogą]procesor musi zainicjować obliczenia na grafice[/quote]To też nie brzmi źle. Widzę to tak
CPU pisze:Yo, GPU! Nie leż cyklami do góry! Masz i działaj: zn+1 = (zn)2 + c
lg = 0.1573485988986549 - 0.6386696070051662i
pd = 0.1573549290823055 - 0.6386743546429041i
To jest Mandelbrot. Od adresu 0x432bc8ad do 0x80000000 kopiuję Ci dane niezbędne do tego.Działaj
GPU pisze:Dobra ^^
:-P Sens łapiecie
AdeBe pisze:aplikację wykorzystującą CUDA
Tak, i to chyba będzie to. Dzięki za wędkę, jak coś wymodzę to się pochwalę

: 22 maja 2009, 08:49
autor: tomii
Jeżeli chodzi o przetwarzanie obrazu to efekty sa bardzo dobre ale jak w kodzie pojawiała się instrukcje warunkowe to jest kiepsko.
Może to cie zaciekawi:
link
: 23 maja 2009, 00:30
autor: lis6502
Wciągająca lektura, szczególnie ten moment o Teslach, ale to chyba za bardzo mocne jak na komputer pod strzechą. Mnie interesuje wyciśnięcie z mojego sprzętu 100% jego mocy; niestety mój GPU to G70, także nawet nie mam co marzyć. Poza tym to, na czym mi najbardziej zależało (
POVray i nieśmiertelny mencoder) nie jest przystosowane do technologii CUDA. W ogóle znalazłem aż dwa programy
* media-gfx/k3d
Available versions: (~)0.6.7.0-r1 (~)0.7.11.0 (~)0.7.11.0-r1 {3ds
cuda expat gnome graphviz gts imagemagick jpeg nls openexr plib png python svg tiff truetype xml}
* sci-misc/boinc
Available versions: (~)6.4.5-r1 {X
cuda server}
Homepage:
http://boinc.ssl.berkeley.edu/
korzystające z tej technologii. Wychodzi na to, że jak za kilka(naście) lat kupię dzieciakowi komputer, to może tam pobawię się w renderowanie sporych obrazków w krótkim czasie. Dziękuję za zainteresowanie tematem. Pozdrawiam i uważam go raczej za zamknięty.