Strona 1 z 2 12 OstatniOstatni
Pokaż wyniki 1 do 10 z 11

Temat: Jak ilosc rdzeni wplywa na wydajnosc?

  1. #1
    Zarejestrowany
    Jun 2006
    Skąd
    rand(.eu)
    Postów
    8,748

    Exclamation Jak ilosc rdzeni wplywa na wydajnosc?

    WATEK WYDZIELONY Z http://hack.pl/forum/thread5649,jak_...procesora.html

    OFF-TOPIC:

    To pytanie z innej beczki ale o rdzenie... czy kazdy drzen dziala jak osobny procek, tzn chodzi mi o to ze jak zapuszcze 2 procesy dzialajace na 2 rdzeniach (system sam je tak rozmiesci) to czy dostane 200% wydajnosci pojedynczego rdzenia (po potraceniu tego co sam system zjada) czy tez mniej.

    Jesli oceniamy 1 rdzeni na powiedzmy 10k operacji danego typu na sekunde (ops) a ja odpalam na 2 rdzeniach i zakladam ze system zjada rownowartosc 1kops to oczekiwalbym wydajnosci 1.9kops... czy tak bedzie czy tez bedzie to np 1.5kops bo te dwa rdzenia sa od siebie zalezne, maja wspolne szyny danych/cokolwiek?

    Linux, aplikacja ktora uzywa mase CPU a prawie nic RAMu...
    Ostatnio edytowane przez TQM : 03-07-2009 - 12:04
    ctrl-alt-del.cc - soft reset site for IT admins and other staff :-)

  2. #2
    Zarejestrowany
    Oct 2008
    Skąd
    W Sieci !!!
    Postów
    282

    Domyślnie

    No to żeś wyskoczył z pytaniem :X

    Tak patrząc na to w sposób chłopski... Trzymając w lewej ręce widły...

    Przykładowo mając procesor 2 rdzeniowy o taktowaniu 2,5 Ghz...
    Dołóżmy dwa procesy (tylko dwa) jak w labolatorium przykładowo
    Przeglądarke IE oraz Media Playera... (nie wnikając że na proces przypada inny proces itd itp)...

    Skąd system wie jak porozkładać te procesy ? Przecież nie podzieli po 50% na dany proces No nie wiem jak Wam to przedstawić żeby ktoś mnie zrozumiał...

    Od czego zależy podział mocy obliczeniowej na procesy...

    Dalej... Czy w przypadku procesora 4 rdzeniowego te same dwa procesy będą rozłożone na 2 rdzenie ? Czy na wszystkie 4 ? LoooL

    Wiadomo ze mając 4 rdzenie w procku o zegarze 2,5 Ghz na rdzeń przypada po 0,625 Ghz... A nie jak niektórzy potrafią stwierdzić iż 4x 2,5... Toć to szok.

    Wydaje mi się że to tylko się przydaje w OC bo sam za dużej róznicy nie widze... Wcześniej miałem procesor Pentium IV 3,06 Ghz z technologią HT... Jeden rdzeń prądopochłaniacz... do tego grzejnik. Co jak co ale sobie radził. Wymieniłem go na Pentium Dual Core E5200 z zegarem 2,5 Ghz... Wymieniłem bo kumpel kupił właśnie to Dual Core ale mu nie podpasował do płyty głównej...
    Płyta obsługiwała nawet 4 rdzenie...Ale nie w technologii 45nm a własnie w takiej technologii wykonano Dual Core... No to się powymienialiśmy... I za wiele się nie zmieniło... No może troszkę jak "myśli" to się uwija... Do tego 2 gb ramu DDR II grafika tylko zalman geforce 7600gt z ddr III... Przy GTA IV juz wymięka.

    Na 2 PC który służy mi powiedzmy do pracy mam Core 2 Quad Q6600 z zegarem 2.4 Ghz 4 gb ramu ddr III grafika GeForce 9800 GT Gigabyte 1GB naturalnie Zalmana i dopiero tu widać róznice... 4x szybciej no i może robić pare rzeczy na raz... przy czym słabszy komputer albo zrobi to 3h pozniej albo się zmęczy. Jesli jednak włącze GTA IV i wdusze max detale nie ma bata... i tak nie da rady... I co tu jest winne ? Wymagania gry to 4 rdzenie... i polowa mniej na grafice...

    Wywnioskowałem że to nie grafika... RAM też nie bo 4gb to dość dużo... Czyżby procesor ?

    Po co są więc takie gry ? Bo nie sądze by ktoś w to pograł z ładną grafiką nie mając superkomputera... rodem z IBM-u
    Na koniec... Jaki więc powinien być sprzęt do pracy jaki do gier a jaki uniwersalny ?
    Ten ostatni to chyba będzie wart grubo ponad 10.000 tyś zł. Albo poprostu takiego nie ma.
    "Wszystkie komputery PC są kompatybilne, ale niektóre są kompatybilniejsze od innych... Twój jest zawsze mniej kompatybilny..."

  3. #3
    Zarejestrowany
    Jun 2006
    Skąd
    rand(.eu)
    Postów
    8,748

    Domyślnie

    Hmmm odpowiem na czesc pytan w takim razie...

    1. Zauwazylem ze jesli piszesz aplikacje w sposob tradycyjny to nie dzialaja one na wiecej niz jednym rdzeniu - do tego aplikacja musi byc napisana w SMP albo podobnej technologii, tak wiec pojedynczy powiedzmy skrypt dziala na 1 rdzeniu i drugiego nie uzywa. System operacyjny moze za to przekladac sobie aplikacje miedzy rdzeniami, co widac nawet w ubuntu na wykresach uzycia procka jak puscisz np mencoder'a...

    Dlatego nie boje sie o to ze aplikacja nie bedzie uzywala 2 rdzeni - ja to wiem :P wiec mam zamiar odpalic tyle procesow roboczych ile mam rdzeni na maszynie, wiec pytanie czy jesli 1 proces konczy obliczenia w 6h to 2 procesy na 2 rdzeniach powinny teoretycznie uporac sie z tym w 3h.

    2. laboratoryjmy pomiar za pomoca 2 roznych procesow nie ma sensu, aby miec cokolwiek wiarygodne trzeba miec 2 identyczne procesory i jak najmniej uslug w systemie... dlatego bedzie ubuntu server a na nim tylko ssh...

    Dam znac jak poszlo... bede sprawdzal na maszynach z 1, 2, 4 i 8 rdzeniami, kazdy od 512MB do 16GB RAM... Roboty obliczeniowej mam na pare miesiecy :-/
    ctrl-alt-del.cc - soft reset site for IT admins and other staff :-)

  4. #4
    Zarejestrowany
    Oct 2008
    Skąd
    W Sieci !!!
    Postów
    282

    Domyślnie

    OoooO I juz jestem ciekaw jakie beda efekty... Dokładnie nie ma to jak samemu potestować niz opierać się na tym co robi przykładowo Intel... Czasem jest zupełnie inaczej niż mowią o tym statystyki fabryczne że tak powiem
    "Wszystkie komputery PC są kompatybilne, ale niektóre są kompatybilniejsze od innych... Twój jest zawsze mniej kompatybilny..."

  5. #5
    Zarejestrowany
    Feb 2008
    Skąd
    Tu i tam
    Postów
    147

    Domyślnie

    Cytat Napisał Mandr4ke Zobacz post
    Wiadomo ze mając 4 rdzenie w procku o zegarze 2,5 Ghz na rdzeń przypada po 0,625 Ghz... A nie jak niektórzy potrafią stwierdzić iż 4x 2,5... Toć to szok.
    Chyba zmieniłeś mi całą teorie o CPU to nie jest pod tekst, że mówisz nieprawdę.
    Faktycznie, tak jest a ja całe życie głupi myślałem że jak ktoś ma 2 rdzenie po np. 2.50 to tak jak by miał procka 5,0 Faktycznie takie efekty są jak ktoś ma procka 2,50 64bity tzn. podobne o ile soft jest 64 bitowy.

    Czyli jak mam procka 3,06 (jeden rdzeń) i gościu sobie kupił procka 2,50 na dwóch rdzeniach to ja mam szybszego procka? Który będzie wydajniejszy?

    Przepraszam za offtop, ale od dawna chciałem się o to zapytać i teraz mi się przypomniało

  6. #6
    Zarejestrowany
    Feb 2009
    Skąd
    null
    Postów
    67

    Domyślnie

    Na obecne czasy to wydajniejszy będzie ten 2.5(spokojnie podkręcisz do 3). Ja mam x4(rdzenie, z 2,4GHz podkręcony do 3.2GHz), więc w 3ds'max albo photoshopie wymiata pięknie. Nie wiem jak jest z grami bo nie gram ale jak mi się wydaje, to przemysł twórczy gier rozwija się w kierunku obsługi coraz to "cudaczniejszych" procesorów..

    EDIT:
    Sądzę, że trzeba lepiej inwestować w dobre karty graficzne niż procesory bo coraz lepiej rozwija się CUDA
    Ostatnio edytowane przez pscager : 03-07-2009 - 03:16
    To co robię to tylko hobby...
    Miejsce Polska, system samowolka, cel to forsa - w tym tkwi sekret. Biorę co los da, życie made in Polska, to jest moje miejsce, bo kocham to miejsce.
    http://images35.fotosik.pl/60/8b30de7006ef376e.jpg

  7. #7
    Zarejestrowany
    Oct 2008
    Skąd
    W Sieci !!!
    Postów
    282

    Domyślnie

    Lepszy będzie ten który ma o jeden rdzeń więcej. Czy wydajniejszy tak dokładnie nie wiem. Wydaje mi się że w niektórych przypadkach może i nie. HeHe. Poprostu 1 rdzeń juz jest technologią przestarzałą. Procki Pentium D też już nie są wcale takie pr0... pomimo iż już 2 rdzenie. Osobiście myślę że podstawa w PC jak na dzień dzisiejszy to Core Duo bądz Dual Core... Byle by 2 rdzenie. Co do tego taktowania to z całą pewnością Dwurdzeniowy mózg z zegarem 1,8 GHz będzie wydajniejszy od jednego rdzenia z zegarem 3,06 GHz...

    Nawiązując do OC... Z tego 2 rdzeniowego Intela ktory normalnie ma 2.50 Ghz smiało wykrzesałem 3,25 Ghz... Można więcej... Gdzieś wyczytałem ale mniejsza o to :>

    Lepsiejszy był Pentium 4... Normalnie 3,06 Ghz. Bez problemu można go stresowac z zegarem 3,5 Ghz a nawet 4 Ghz !!! Sprawdzałem... I jak boga kocham... przy taktowaniu 4,99 Ghz zrobiło mi sie poprostu zielono na monitorze... A prawie bym sie wpisal do Guinnessa -,-
    "Wszystkie komputery PC są kompatybilne, ale niektóre są kompatybilniejsze od innych... Twój jest zawsze mniej kompatybilny..."

  8. #8
    Zarejestrowany
    Jun 2006
    Skąd
    rand(.eu)
    Postów
    8,748

    Domyślnie

    @pscager - dla mnie CUDA nie wchodzi w gre...

    Moje zadanie jest specyficzne - mam przeprowadzic analize Monte Carlo dla grupy modeli statystycznych w konkretnej implementacji. Monte Carlo ma sluzyc wylapywaniu bledow i nieciaglosci w algorytmie implementujacym model.

    Dlaczego CUDA i podobne technologie odpadaja?
    Koszt sprzetu - tak niewielki ze mozna go pominac... fundusze sa, sprzet mozna kupic od zarazu ale co z tego... Koszt czasowy i finansowy implementacji tej aplikacji pod CUDA jest za duzy a przede wszystkim niezgodny z zalozeniami. Mamy przetestowac konkretna implementacje a wiec napisana w konkretnym jezyku. Jesli zmienimy nasza aplikacje, musimy od nowa leciec cala serie testow.

    Jedyne logiczne rozwiazanie dla nas to bedzie to co robi Google, Amazon i wiele innych firm - cluster tzw "commodity hardware" czyli najprostsze "najtansze" komputery (a nie jakies wypasione bestie) ale duuuuzo :P i rozlozenie zadania na tych komputerach. Poza tym samo biuro tez ma kilkadziesiat maszyn, wiele ma po 2 rdzenie, niektore sa 64bit nawet i te desktopy chodza 24/7/365 a nic nie robia w nocy i w weekendy, wiec mozna na nich puscic obliczenia. To zwieksza ilosc rdzeni jakie mam dostepne do obliczen w poczatkowej fazie do okolo 120.

    Uyzwajac jednego rdzenia na procku Intel(R) Pentium(R) 4 CPU 3.20GHz (6383.99 bogomips na rdzeniu) obliczenia jednej kompletnej rundy dla jednego zestawu parametrow beda trwaly ~5 dni 4 godziny 41 minut 10 sekund

    Teraz tak... to jest jedena z okolo 7 implementacji tylko a ta jedna implementacja o ktorej mowie (kazda bedzie miala inna wydajnosc bo licza implementuja rozne modele statystyczne i rozna ilosc operacji sie tam odbywa) ma na szczescie TYLKO 9 mozliwych wartosci dla parametru wejsciowego - uffff... Tak wiec kompletne sprawdzenie tej jednej implementacji tego konkretnego modelu zajmie mi na tym jednym kompie

    46 dni 18 godzin 10 minut 30 sekund
    ctrl-alt-del.cc - soft reset site for IT admins and other staff :-)

  9. #9
    Zarejestrowany
    Feb 2009
    Skąd
    null
    Postów
    67

    Domyślnie

    Zgodzę się z tobą bo masz możliwości. Ale ja np. nie mam takiej możliwości, żeby przeprowadzać takie eksperymenty. W tamtym roku generowaliśmy z kolegami fraktale na uczelnianych komputerach. Fajnie było bo po zajęciach mogliśmy sobie do woli wykorzystywać te 46 komputerów. Jednak raz zapuściliśmy algorytm prawie całkowicie wykorzystujące procesor. Algorytm generował non stop przez 36 dni, po czym tylko jeden komputer przetrwał, reszta 45 komputerów się zjarała(chodzi o procesory). Fakt, że procki na tych komputerach nie były stare bo Pentium IV 2.8HT, niestety ale słabo wytrzymałe. Dostaliśmy zakaz prowadzenia jakichkolwiek eksperymentów(jakby to nasza wina, że takie gówniane procesory i w ogóle nie zabezpieczone) i w dodatku nie dokończyliśmy projektu.

    Teraz wracając do twojej wypowiedzi.Dla mnie CUDA to na prawdę super technika. Mając Geforce280GTX będę miał do wykorzystania prawie 480 procesorów. Jaka była by cena zakupu sprzętu z porównywalną ilością rdzeni? Na domowe warunki to technologia w sam raz..

    Zresztą wydaje mi się, że takie eksperymenty to cofanie się w czasie. Porównuje do tego np. renderowanie zaawansowanej sceny w 3ds'max na jednym procesorze z jednym rdzeniem... Po co czekać te ~46 dni skoro można przeprowadzić to o połowę szybciej.

    Taka jest moja opinia i może troszkę wybiegłem poza sens twojego postu.
    To co robię to tylko hobby...
    Miejsce Polska, system samowolka, cel to forsa - w tym tkwi sekret. Biorę co los da, życie made in Polska, to jest moje miejsce, bo kocham to miejsce.
    http://images35.fotosik.pl/60/8b30de7006ef376e.jpg

  10. #10
    Zarejestrowany
    Jun 2006
    Skąd
    rand(.eu)
    Postów
    8,748

    Domyślnie

    Nie sadze abys wybiegl poza moj post - CUDA to swietna sprawa ale nie do wszystkich zastosowan. Przede wszystkim problem z CUDA jest taki, ze wymaga to przepisania aplikacji na konkretny jezyk, konkretne biblioteki, co czesto bedzie oznaczac napisanie aplikacji od nowa. Czasami sam jezyk moze byc granica nie do pokonania bo mozesz miec aplikacje napisana w czyms bardzo abstrakcyjnym i co wtedy?

    Tak nawiasem mowiac - jakbym mial sie tak bawic na dobre to bym kupil kilka konsol PS3 - kosztuja one tyle co slaby PC a moc obliczeniowa ogromna!
    ctrl-alt-del.cc - soft reset site for IT admins and other staff :-)

Strona 1 z 2 12 OstatniOstatni

Podobne wątki

  1. Wydajnosc serwera WWW
    By TQM in forum Domeny/Serwery
    Odpowiedzi: 10
    Autor: 02-11-2008, 17:55
  2. zwiekszysc ilosc uploadu
    By `^` in forum Pomysły/Sugestie
    Odpowiedzi: 2
    Autor: 06-07-2006, 20:00

Zasady Postowania

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •  
Subskrybuj