Jak wykorzysta

Tematy związane z oprogramowaniem, instalacją, konfiguracją
itposthuman
Posty: 13
Rejestracja: 18 lutego 2010, 16:12

Jak wykorzystać moc drzemiącą w GPU?

Post autor: itposthuman »

Mam kartę Radeon 4870. Jest dość potężna. Z pewnością nie jestem jedyna osobą, która jest zawiedziona brakiem wsparcia GPU firmy ATI choćby do dekodowania filmów HD na Linuksie. Tak jak to działa na Windowsie. Zatem mam pytania:
  1. Jak mogę wykorzystać jej moc obliczeniową aby odciążać CPU w pracy systemu?
  2. Czy są programy, które są wspierane przez moc GPU? Jeśli tak, to jakie?
  3. A może znacie jakąś najbardziej wymagającą grę na Linuksa, w której mógłbym użyć karty?
  4. Czy ktoś próbował przeportować programy korzystające z CPU na GPU i jakie to miało konsekwencje?
Zgadzam się, że tworzenie oprogramowania bazującego na zasobach CPU-GPU to przyszłość ale jak do tego się zabrać? Jestem również zainteresowany użyczeniem mojej mocy obliczeniowej karty dla dobra nauki wspierając np. symulacje związane z medycyną, meteorologią, kosmologią. Jeśli ktoś wie jak to zrobić proszę o kontakt. W przeciwnym razie nie pozostaje mi nic innego i wymontować kartę przechodząc na zintegrowaną bo rachunki za prąd są coraz większe, a za bezużyteczność nie będę płacił.
yantar
Member
Posty: 1225
Rejestracja: 07 czerwca 2007, 21:15
Lokalizacja: Rzeszów

Post autor: yantar »

Jeśli chodzi o ostatnie to wystarczy zapoznać się z różnymi projektami obliczeń na platformie BOINC. Klient do obliczeń jest w repozytorium Debiana. Pamiętam, że coś tam było co pozwalało wykorzystac też i moc karty graficznej (trzeba pogooglać i poczytac na stronie projektu).
http://www.polskiprojektboinc.vel.pl/
Oczywiście za prąd wyjdzie też więcej przy takich obliczeniach =]. Może zwyczajnie czas sprzedac potwora z HD4xxx, dołożyć i kupić coś oszczędniejszego z HD5xxx? (Sam piszesz, że równie dobrze możesz wymontować tę kartę, zatem nie potrzebujesz też jakiegos mocarnego sprzętu, zatem jakiś HD56xx/57xx by wystarczył aż nadto, jutro premiera HD6xxx to i ceny powinny w najbliższym czasie trochę jeszcze spaść).
itposthuman
Posty: 13
Rejestracja: 18 lutego 2010, 16:12

Post autor: itposthuman »

Gdy korzystałem w Windows, który służył mi wyłącznie do gier to karta była w swoim żywiole, lecz teraz gdy teraz zintegrowana hd3200 zupełnie Debianowi wystarcza to może jednak nie ma sensu podgrzewać sobie temperatury w pokoju?

Choć mam cichą nadzieję że uda się wykorzystać tą potężną moc GPU. Bo inaczej szkoda byłoby.... Myślę że w Linuxie tego własnie brakuje.
ODPOWIEDZ