Parametry komputera wpływające na prędkość działania. Architektura mikroprocesora Intel i główne czynniki wpływające na jego wydajność. Co zrobimy

We współczesnych warunkach głównym niezbędnym trendem w rozwoju przedsiębiorstw jest wzrost zysków przedsiębiorstw. Wzrost zysków można osiągnąć na różne sposoby, wśród których możemy wyróżnić bardziej efektywne wykorzystanie personelu firmy.

Wskaźnikiem pomiaru wydajności siły roboczej w firmie jest produktywność.

Przegląd ogólny

Wydajność pracy według wzoru obliczeniowego jest kryterium, za pomocą którego można scharakteryzować produktywność wykorzystania pracy.

Wydajność pracy odnosi się do wydajności pracy w procesie produkcyjnym. Można go mierzyć pewnym okresem czasu potrzebnym do wytworzenia jednostki produkcji.

W oparciu o definicję zawartą w słowniku encyklopedycznym F. A. Brockhausa i I. A. Efrona za produktywność lub produktywność pracy należy uważać relację utworzoną między ilością wydanej pracy a wynikiem, jaki można uzyskać podczas realizacji pracy.

Według L. E. Basovsky'ego produktywność pracy można zdefiniować jako produktywność personelu posiadanego przez przedsiębiorstwo. Można go wyznaczyć na podstawie ilości produktów wytworzonych w jednostce czasu pracy. Na wskaźnik ten wpływają także koszty pracy, które można przypisać do jednostki produkcji.

Produktywność to wielkość produkcji wytworzona przez jednego pracownika w określonym czasie.

Jest to kryterium charakteryzujące produktywność określonej pracy żywej i efektywność pracy produkcyjnej zgodnie z tworzeniem się produktu na jednostkę czasu pracy poświęconego na ich produkcję.

Efektywność operacyjna wzrasta w oparciu o postęp technologiczny, poprzez wprowadzanie nowych technologii, podnoszenie kwalifikacji pracowników i ich interesów finansowych.

Etapy analizy

Ocena wydajności pracy składa się z następujących głównych etapów:

  • analiza wskaźników bezwzględnych na przestrzeni kilku lat;
  • określenie wpływu niektórych wskaźników czynnikowych na dynamikę produktywności;
  • określenie rezerw na wzrost produktywności.

Podstawowe wskaźniki

Do głównych ważnych wskaźników wydajności analizowanych we współczesnych przedsiębiorstwach działających w warunkach rynkowych można zaliczyć potrzebę pełnego zatrudnienia personelu i wysokiej wydajności.

Produkcja produktu to wartość produktywności na jednostkę nakładu pracy. Można go określić poprzez korelację liczby wytworzonych produktów lub świadczonych usług, które zostały wyprodukowane w określonej jednostce czasu.

Pracochłonność to stosunek kosztów czasu pracy do wielkości produkcji, który charakteryzuje koszt pracy na jednostkę produktu lub usługi.

Metody obliczeniowe

Do pomiaru produktywności pracy stosuje się trzy metody obliczania produktywności:

  • metoda naturalna. Jest stosowany w organizacjach wytwarzających jednorodne produkty. Metoda ta uwzględnia w kalkulacji produktywność pracy jako zgodność między wolumenem wytworzonych produktów w ujęciu naturalnym a średnią liczbą pracowników;
  • metodę pracy stosuje się, jeśli obszary robocze wytwarzają ogromną ilość produktu o często zmieniającym się asortymencie; formację określa się w godzinach standardowych (ilość pracy pomnożona przez czas standardowy), a wyniki podsumowuje się według różnych rodzajów produktu;
  • metoda kosztowa. Jest stosowany w organizacjach wytwarzających produkty heterogeniczne. Metoda ta uwzględnia w kalkulacji produktywność pracy jako zgodność między wolumenem wytworzonych produktów w ujęciu kosztowym a średnią liczbą pracowników.

Aby ocenić poziom wykonywania pracy, stosuje się pojęcie cech osobowych, dodatkowych i ogólnych.

Własności prywatne to koszty czasu potrzebne do wytworzenia jednostki produktu w ujęciu naturalnym w ciągu jednej osobodni lub osobogodziny. Właściwości pomocnicze uwzględniają czas spędzony na wykonaniu jednostki określonego rodzaju pracy lub ilość pracy wykonanej w jednostce okresu.

Metoda obliczeniowa

Wśród możliwych opcji wydajności pracy można wyróżnić następujące wskaźniki: wydajność, która może być średnią roczną, średnią dzienną i średnią godzinową dla jednego pracownika. Pomiędzy tymi cechami istnieje bezpośredni związek: liczba dni pracy i długość dnia pracy mogą z góry określić wartość przeciętnej wydajności godzinowej, która z kolei z góry określa wartość średniorocznej wydajności pracownika.

Wydajność pracy według wzoru obliczeniowego przedstawia się następująco:

VG = KR * PRD * VSC

gdzie VG to średnia roczna produkcja pracownika, t.r.;

KR - liczba dni roboczych, dni;

VCH - średnia wydajność godzinowa, t.r. na osobę;

LWP - czas trwania zmiany roboczej (dzień), godzina.

Poziom wpływu tych warunków można określić stosując metodę podstawienia łańcuchowego wskaźników, metodę różnic bezwzględnych, metodę różnic względnych, a także metodę całkową.

Mając informację o poziomie wpływu poszczególnych warunków na badany wskaźnik, można określić poziom ich wpływu na wielkość produkcji. W tym celu wartość opisującą wpływ któregokolwiek z warunków mnoży się przez liczbę pracowników firmy według wartości średniej.

Główne czynniki

Dalsze badania nad wydajnością pracy skupiają się na szczegółowym określeniu wpływu różnych warunków na wydajność pracownika (średnią roczną produkcję). Warunki dzielą się na dwie kategorie: ekstensywne i intensywne. Za ekstensywne uważa się czynniki mające duży wpływ na wykorzystanie czasu pracy, natomiast czynniki mające duży wpływ na godzinową efektywność pracy za intensywne.

Analiza czynników rozbudowanych skupia się na identyfikacji kosztów czasu pracy od jego nieprodukcyjnego wykorzystania. Koszty czasu pracy ustala się poprzez porównanie planowanego i praktycznego funduszu czasu pracy. Wyniki wpływu kosztów na wytworzenie produktu określa się, mnożąc ich liczbę dni lub godzin przez średnią godzinową (lub średnią dobową) produkcję zgodnie z planem na pracownika.

Analiza czynników intensywności koncentruje się na identyfikacji warunków związanych ze zmianami pracochłonności produktu. Zmniejszenie pracochłonności jest głównym warunkiem zwiększenia produktywności. Obserwuje się także informację zwrotną.

Analiza czynników

Rozważmy podstawowe wzory na produktywność czynników produkcji.

Do uwzględnienia czynników wpływających stosujemy metody i zasady obliczeń powszechnie uznane w naukach ekonomicznych.

Poniżej przedstawiono wzór na produktywność pracy.

gdzie W jest wydajnością pracy, t.r. na osobę;

Q to wielkość produktów, które zostały wyprodukowane pod względem wartości, t.r.;

T - liczba personelu, ludzie.

Wyodrębnijmy wartość Q z tego wzoru na produktywność:

Zatem wielkość produkcji zmienia się w zależności od zmian wydajności pracy i liczby personelu.

Dynamikę zmian wielkości produkcji pod wpływem zmian wskaźników produktywności można obliczyć korzystając ze wzoru:

ΔQ (W) = (W1-W0)*T1

Dynamikę zmian ilości wyrobów pod wpływem zmian liczby pracowników obliczymy ze wzoru:

ΔQ (T) = (T1-T0)*W0

Ogólny wpływ czynników:

ΔQ (W) + Δ Q (T) = ΔQ (całkowity)

Zmianę pod wpływem czynników można obliczyć korzystając z modelu czynnikowego wzoru na produktywność:

PT = UD * D * Tcm * CV

gdzie PT oznacza wydajność pracy, t.r. na osobę

Ud - udział pracowników w ogólnej liczbie personelu

D - dni przepracowane przez jednego pracownika w roku, dni

Tsm - średni dzień pracy, godzina.

CV - średnia godzinowa wydajność pracy pracownika, t.r. na osobę

Rezerwy podstawowe

Badania produktywności prowadzone są w celu ustalenia rezerw na jej wzrost. Rezerwy na wzrost mogą obejmować następujące czynniki wpływające na wydajność pracy:

  • podniesienie poziomu technologicznego wytwarzania, tj. dodanie najnowszych procesów naukowo-technicznych, uzyskanie wysokiej jakości materiałów, mechanizacja i automatyzacja produkcji;
  • doskonalenie struktury firmy i dobór najbardziej kompetentnych pracowników, eliminowanie rotacji pracowników, podnoszenie kwalifikacji pracowników;
  • zmiany strukturalne w produkcji, które uwzględniają wymianę niektórych poszczególnych rodzajów produktu, zwiększenie masy nowego produktu, zmianę pracochłonności programu produkcyjnego itp.;
  • tworzenie i ulepszanie niezbędnej infrastruktury publicznej jest rozwiązaniem trudności związanych z zaspokajaniem potrzeb przedsiębiorstwa i stowarzyszeń pracowniczych.

Kierunki doskonalenia

Pytanie, jak zwiększyć wydajność pracy, jest bardzo istotne dla wielu przedsiębiorstw.

Istota wzrostu wydajności pracy w przedsiębiorstwie przejawia się w:

  • zmiana wielkości produkcji przy wykorzystaniu jednostki pracy;
  • zmiana kosztów pracy na ustaloną jednostkę produkcji;
  • zmiana kosztów wynagrodzeń o 1 rubel;
  • zmniejszenie udziału kosztów pracy w kosztach produkcji;
  • poprawa jakości towarów i usług;
  • redukcja wad produkcyjnych;
  • zwiększenie liczby produktów;
  • wzrost wolumenu sprzedaży i zysku.

Aby zapewnić wysoką produktywność pracowników firmy, kierownictwo musi zapewnić normalne warunki pracy. Na poziom produktywności człowieka, a także efektywność jego pracy, może wpływać ogromna liczba czynników, zarówno intensywnych, jak i ekstensywnych. Uwzględnienie tych czynników wpływających na wydajność pracy jest konieczne przy obliczaniu wskaźnika produktywności i rezerw na jej wzrost.

Systemy przechowywania danych w zdecydowanej większości projektów webowych (i nie tylko) odgrywają kluczową rolę. Rzeczywiście często zadanie sprowadza się nie tylko do przechowywania określonego rodzaju treści, ale także do zapewnienia ich zwrotu odwiedzającym, a także przetwarzania, co nakłada pewne wymagania wydajnościowe.

Podczas gdy branża dysków wykorzystuje wiele innych wskaźników do opisu i gwarantowania właściwej wydajności, na rynku pamięci masowych i dysków powszechnie stosuje się IOPS jako wskaźnik porównawczy w celu „wygody” porównania. Jednakże na wydajność systemów pamięci masowej, mierzoną w operacjach wejścia/wyjścia (zapisu/odczytu) IOPS (operacje wejścia/wyjścia na sekundę), wpływa wiele czynników.

W tym artykule chciałbym przyjrzeć się tym czynnikom, aby uczynić miarę wydajności wyrażoną w IOPS bardziej zrozumiałą.

Zacznijmy od tego, że IOPS w ogóle nie jest IOPS i nawet w ogóle nie jest IOPS, ponieważ istnieje wiele zmiennych, które określają, ile IOPS uzyskamy w niektórych przypadkach, a w innych. Należy również wziąć pod uwagę, że systemy pamięci masowej korzystają z funkcji odczytu i zapisu oraz zapewniają różną liczbę IOPS dla tych funkcji w zależności od architektury i typu aplikacji, szczególnie w przypadkach, gdy operacje we/wy odbywają się w tym samym czasie. Różne obciążenia mają różne wymagania dotyczące wejść/wyjść (we/wy). Tym samym systemy przechowywania danych, które na pierwszy rzut oka powinny zapewniać odpowiednią wydajność, w rzeczywistości mogą nie sprostać temu zadaniu.

Podstawy wydajności dysku

Aby uzyskać pełne zrozumienie zagadnienia zacznijmy od podstaw. IOPS, przepustowość (MB/s lub MiB/s) i czas odpowiedzi w milisekundach (ms) to popularne jednostki miary wydajności dysków i macierzy pamięci masowej.

IOPS jest zwykle uważany za miarę zdolności urządzenia pamięci masowej do odczytu/zapisu bloków o wielkości 4–8 KB w losowej kolejności. Jest to typowe dla zadań przetwarzania transakcji online, baz danych i uruchamiania różnych aplikacji.

Koncepcja przepustowości dysku ma zwykle zastosowanie podczas odczytu/zapisu dużego pliku, na przykład w blokach o wielkości 64 KB i więcej, sekwencyjnie (w 1 strumieniu, 1 pliku).

Czas odpowiedzi to czas potrzebny napędowi na rozpoczęcie operacji zapisu/odczytu.

Konwersję między IOPS a przepustowością można wykonać w następujący sposób:

IOPS = przepustowość/rozmiar bloku;
Przepustowość = IOPS * rozmiar bloku,

Gdzie rozmiar bloku to ilość informacji przesyłanych podczas jednej operacji wejścia/wyjścia (I/O). Zatem znając taką cechę dysku twardego (HDD SATA), jak przepustowość, możemy łatwo obliczyć liczbę IOPS.

Weźmy dla przykładu standardowy rozmiar bloku - 4KB i deklarowaną przez producenta standardową przepustowość dla sekwencyjnego zapisu lub odczytu (I/O) - 121 MB/s. IOPS = 121 MB / 4 KB, w rezultacie otrzymujemy wartość około 30 000 IOPS dla naszego dysku twardego SATA. Jeśli rozmiar bloku zostanie zwiększony i będzie równy 8 KB, wartość wyniesie około 15 000 IOPS, to znaczy zmniejszy się prawie proporcjonalnie do wzrostu rozmiaru bloku. Należy to jednak jasno zrozumieć tutaj rozważaliśmy IOPS w kluczu sekwencyjnego zapisu lub odczytu.

Sytuacja zmienia się radykalnie w przypadku tradycyjnych dysków twardych SATA, jeśli odczyty i zapisy są losowe. W tym miejscu zaczynają grać rolę opóźnienia, które są bardzo krytyczne w przypadku dysków HDD (Hard Disk Drives) SATA/SAS, a czasami nawet w przypadku dysków SSD (Solid State Drive). Chociaż te ostatnie często zapewniają o rząd wielkości lepszą wydajność niż dyski „obracające się” ze względu na brak ruchomych elementów, nadal mogą występować znaczne opóźnienia w nagrywaniu ze względu na specyfikę technologii, a w rezultacie podczas stosowania ich w macierzach . Drogi Amarao przeprowadził dość przydatne badanie dotyczące zastosowania dysków półprzewodnikowych w macierzach, jak się okazało, wydajność będzie zależała od opóźnienia najwolniejszego dysku. Więcej o wynikach przeczytacie w jego artykule: SSD + raid0 – nie wszystko jest takie proste.

Wróćmy jednak do wydajności poszczególnych dysków. Rozważmy przypadek z napędami „obrotowymi”. Czas wymagany do wykonania jednej losowej operacji we/wy zostanie określony przez następujące elementy:

T(we/wy) = T(A)+T(L)+T(R/W),

Gdzie T(A) to czas dostępu lub czas poszukiwania, znany również jako czas wyszukiwania, to znaczy czas wymagany do umieszczenia głowicy odczytującej na ścieżce z blokiem potrzebnych nam informacji. Często producent podaje w specyfikacji dysku 3 parametry:

Czas potrzebny na przejście od najdalszej ścieżki do najbliższej;
- czas potrzebny na przemieszczanie się pomiędzy sąsiednimi torami;
- średni czas dostępu.

Dochodzimy zatem do magicznego wniosku, że T(A) można poprawić, jeśli umieścimy nasze dane na ścieżkach jak najbliżej, a wszystkie dane będą znajdować się jak najdalej od środka talerza (mniej czasu potrzeba na przesunięcie głowicy, a więcej danych jest na torach zewnętrznych, gdyż tor jest dłuższy i obraca się szybciej niż tor wewnętrzny). Teraz staje się jasne, dlaczego defragmentacja może być tak przydatna. Szczególnie z warunkiem umieszczenia danych na ścieżkach zewnętrznych w pierwszej kolejności.

T(L) to opóźnienie spowodowane obrotem dysku, czyli czas potrzebny na odczyt lub zapis określonego sektora na naszej ścieżce. Łatwo zrozumieć, że będzie się on mieścić w przedziale od 0 do 1/RPS, gdzie RPS to liczba obrotów na sekundę. Przykładowo przy charakterystyce dysku wynoszącej 7200 RPM (obroty na minutę) otrzymamy 7200/60 = 120 obrotów na sekundę. Oznacza to, że jeden obrót następuje w (1/120) * 1000 (liczba milisekund na sekundę) = 8,33 ms. Średnie opóźnienie w tym przypadku będzie równe połowie czasu spędzonego na jednym obrocie - 8,33/2 = 4,16 ms.

T(R/W) - czas odczytu lub zapisu sektora, który jest określony wielkością bloku wybranego podczas formatowania (od 512 bajtów do... kilku megabajtów, w przypadku dysków o większej pojemności - od 4 kilobajtów, standardowy rozmiar klastra) i przepustowość podaną w specyfikacji dysku.

Średnie opóźnienie obrotu, które jest w przybliżeniu równe czasowi potrzebnemu na połowę obrotu, przy prędkości obrotowej 7200, 10 000 lub 15 000 obr/min, jest łatwe do określenia. Jak już pokazaliśmy powyżej.

Pozostałe parametry (średni czas wyszukiwania odczytu i zapisu) są trudniejsze do określenia, ustalane są w wyniku testów i podawane przez producenta.

Aby obliczyć liczbę losowych IOPs dysku twardego, można zastosować następujący wzór, pod warunkiem, że liczba jednoczesnych operacji odczytu i zapisu jest taka sama (50%/50%):

1/(((średni czas wyszukiwania odczytu + średni czas wyszukiwania zapisu) / 2) / 1000) + (średnie opóźnienie obrotu / 1000)).

Wiele osób interesuje się tym, dlaczego dokładnie takie jest pochodzenie formuły? IOPS to liczba operacji wejścia lub wyjścia na sekundę. Dlatego 1 sekundę w liczniku (1000 milisekund) dzielimy przez czas, biorąc pod uwagę wszystkie opóźnienia w mianowniku (również wyrażone w sekundach lub milisekundach), potrzebne do wykonania jednej operacji wejścia lub wyjścia.

Oznacza to, że formułę można zapisać w następujący sposób:

1000 (ms) / ((średni czas wyszukiwania odczytu (ms) + średni czas wyszukiwania zapisu (ms)) /2) + średnie opóźnienie obrotu (ms))

Dla dysków o różnej liczbie obrotów (obrotów na minutę) otrzymujemy następujące wartości:

Dla dysku 7200 obr./min IOPS = 1/(((8,5+9,5)/2)/1000) + (4,16/1000)) = 1/((9/1000) +
(4,16/1000)) = 1000/13,16 = 75,98;
Dla dysku SAS 10 tys. obr./min IOPS = 1/(((3,8+4,4)/2)/1000) + (2,98/1000)) =
1/((4,10/1000) + (2,98/1000)) = 1000/7,08 = 141,24;
Dla dysku SAS 15 tys. obr./min IOPS = 1/(((3,48+3,9)/2)/1000) + (2,00/1000)) =
1/((3,65/1000) + (2/1000)) = 1000/5,65 = 176,99.

Zatem widzimy dramatyczne zmiany, gdy z dziesiątek tysięcy IOPS w przypadku sekwencyjnego odczytu lub zapisu wydajność spada do kilkudziesięciu IOPS.

I już przy standardowym rozmiarze sektora 4 KB i obecności tak małej liczby IOPS uzyskamy przepustowość nie stu megabajtów, ale mniejszą niż megabajt.

Przykłady te ilustrują również, dlaczego różnice w znamionowym IOPS dysków różnych producentów w przypadku dysków o tej samej prędkości obrotowej są niewielkie.

Teraz staje się jasne, dlaczego dane dotyczące wydajności mieszczą się w dość szerokich zakresach:

7200 obr./min (obroty na minutę) Dysk twardy SATA — 50–75 IOPS;
Dysk twardy SAS 10 tys. obr./min — 110–140 IOPS;
Dysk twardy SAS 15 tys. obr./min — 150–200 IOPS;
SSD (Solid State Drive) – dziesiątki tysięcy IOPS przy odczycie, setki i tysiące przy zapisie.

Jednak nominalny IOPS dysku jest nadal daleki od dokładnego, ponieważ nie uwzględnia różnic w charakterze obciążeń w poszczególnych przypadkach, co jest bardzo ważne, aby zrozumieć.

Ponadto, dla lepszego zrozumienia tematu, polecam przeczytać kolejny przydatny artykuł Amarao: Jak poprawnie zmierzyć wydajność dysku, dzięki czemu staje się jasne, że opóźnienie wcale nie jest stałe i zależy również od obciążenia i jego charakteru.

Jedyne co chciałbym dodać:

Obliczając wydajność dysku twardego, możemy pominąć zmniejszenie liczby IOPS wraz ze wzrostem rozmiaru bloku. Dlaczego?

Zrozumieliśmy już, że w przypadku dysków „rotujących” czas wymagany do losowego odczytu lub zapisu składa się z następujących elementów:

T(we/wy) = T(A)+T(L)+T(R/W).

Następnie obliczyliśmy nawet wydajność losowego odczytu i zapisu w IOPS. Tyle, że w zasadzie pominęliśmy tam parametr T(R/W) i nie jest to przypadek. Wiemy, że, powiedzmy, odczyty sekwencyjne można osiągnąć przy szybkości 120 megabajtów na sekundę. Staje się jasne, że blok 4 KB zostanie odczytany w ciągu około 0,03 ms, czyli czasu o dwa rzędy wielkości krótszego niż czas innych opóźnień (8 ms + 4 ms).

Tak więc, jeśli przy rozmiarze bloku 4KB mamy 76 IOPS(główne opóźnienie spowodowane było obrotem dysku i czasem pozycjonowania głowicy, a nie samym procesem odczytu lub zapisu), to przy rozmiarze bloku 64 KB spadek IOPS nie będzie 16-krotny jak przy odczyt sekwencyjny, ale tylko przez kilka IOPS. Ponieważ czas spędzony bezpośrednio na czytaniu lub pisaniu wzrośnie o 0,45 ms, co stanowi tylko około 4% całkowitego opóźnienia.

W rezultacie otrzymujemy 76-4% = 72,96 IOPS, co, jak widać, wcale nie jest krytyczne w obliczeniach, ponieważ spadek IOPS nie jest 16-krotny, ale tylko o kilka procent! A przy obliczaniu wydajności systemu znacznie ważniejsze jest, aby nie zapomnieć wziąć pod uwagę innych ważnych parametrów.

Magiczny wniosek: Obliczając wydajność systemów pamięci masowej opartych na dyskach twardych, powinniśmy wybrać optymalną wielkość bloku (klastra), aby zapewnić maksymalną potrzebną nam przepustowość, w zależności od rodzaju danych i wykorzystywanych aplikacji, przy spadku IOPS wraz ze wzrostem rozmiaru bloku z 4KB do 64 KB lub nawet 128 KB można pominąć lub uwzględnić odpowiednio jako 4 i 7%, jeśli odgrywają one ważną rolę w wykonywanym zadaniu.

Staje się również jasne, dlaczego nie zawsze ma sens używanie bardzo dużych bloków. Na przykład podczas przesyłania strumieniowego wideo dwumegabajtowy rozmiar bloku może nie być najbardziej optymalną opcją. Ponieważ spadek liczby IOPS będzie ponad 2-krotny. Między innymi dodane zostaną inne procesy degradacji w tablicach, związane z wielowątkowością i obciążeniem obliczeniowym podczas dystrybucji danych w macierzy.

Optymalny rozmiar bloku (klastra).

Należy rozważyć optymalny rozmiar bloku w zależności od charakteru obciążenia i rodzaju stosowanych zastosowań. Jeśli pracujesz z małymi danymi, np. z bazami danych, powinieneś wybrać standardowe 4 KB, natomiast jeśli chodzi o strumieniowe przesyłanie plików wideo, lepiej wybrać klaster o rozmiarze 64 KB lub większym.

Należy pamiętać, że rozmiar bloku nie jest tak krytyczny w przypadku dysków SSD, jak w przypadku standardowych dysków twardych, ponieważ pozwala zapewnić wymaganą przepustowość ze względu na niewielką liczbę losowych IOPS, których liczba nieznacznie maleje wraz ze wzrostem rozmiaru bloku, w przeciwieństwie do SSD, gdzie występuje niemal proporcjonalna zależność.

Dlaczego standard 4 KB?

Dla wielu dysków, szczególnie dysków półprzewodnikowych, wartości wydajności, na przykład zapisu, zaczynając od 4 KB, stają się optymalne, co widać na wykresie:

Jeśli chodzi o czytanie, prędkość jest również dość znacząca i mniej więcej znośna, zaczynając od 4 KB:

Z tego powodu bardzo często stosuje się rozmiar bloku 4 KB jako standardowy, ponieważ przy mniejszym rozmiarze występują duże straty wydajności, a wraz ze wzrostem rozmiaru bloku w przypadku pracy z małymi danymi dane będą dystrybuowane mniej efektywnie, zajmując cały rozmiar bloku, a przydział pamięci nie będzie efektywnie wykorzystywany.

Poziom RAID

Jeśli system pamięci masowej składa się z macierzy dysków połączonych w macierz RAID o określonym poziomie, wydajność systemu będzie w dużej mierze zależała od zastosowanego poziomu RAID i jaki procent całkowitej liczby operacji stanowią operacje zapisu, ponieważ jest to zapis które w większości przypadków powodują pogorszenie wydajności.

Zatem w przypadku RAID0 tylko 1 IOPS zostanie zużyty na każdą operację wejściową, ponieważ dane będą dystrybuowane na wszystkich dyskach bez duplikacji. W przypadku kopii lustrzanej (RAID1, RAID10) każda operacja zapisu będzie już zużywać 2 IOPS, ponieważ informacje muszą zostać zapisane na 2 dyskach.

Na wyższych poziomach RAID straty są jeszcze większe; na przykład w RAID5 współczynnik kary wyniesie 4, co wynika ze sposobu dystrybucji danych na dyskach.

W większości przypadków zamiast RAID4 stosuje się RAID5, ponieważ rozdziela on parzystość (sumy kontrolne) na wszystkie dyski. W macierzy RAID4 jeden dysk jest odpowiedzialny za całą parzystość, podczas gdy dane są rozproszone na więcej niż 3 dyskach. Właśnie dlatego stosujemy współczynnik kary 4 w macierzy RAID5, ponieważ odczytujemy dane, odczytujemy parzystość, a następnie zapisujemy dane i zapisujemy parzystość.

W macierzy RAID6 wszystko jest podobne, z tą różnicą, że zamiast obliczać parzystość raz, robimy to dwukrotnie i mamy w ten sposób 3 odczyty i 3 zapisy, co daje nam współczynnik kary wynoszący 6.

Wydawać by się mogło, że w macierzy takiej jak RAID-DP wszystko byłoby podobne, gdyż w zasadzie jest to zmodyfikowana macierz RAID6. Tak się jednak nie stało... Sztuczka polega na tym, że używany jest oddzielny system plików WAFL (Write Anywhere File Layout), w którym wszystkie operacje zapisu są sekwencyjne i wykonywane na wolnej przestrzeni. WAFL zasadniczo zapisze nowe dane w nowej lokalizacji na dysku, a następnie przeniesie wskaźniki do nowych danych, eliminując w ten sposób konieczne operacje odczytu. Ponadto w pamięci NVRAM zapisywany jest dziennik, który śledzi transakcje zapisu, inicjuje zapisy i może je przywrócić, jeśli to konieczne. Na początku zapisywane są do bufora, a następnie „scalane” na dysk, co przyspiesza proces. Prawdopodobnie eksperci NetApp mogą nas bardziej szczegółowo oświecić w komentarzach na temat tego, jak osiąga się oszczędności, jeszcze do końca nie zrozumiałem tego problemu, ale przypomniałem sobie, że współczynnik kary RAID wyniesie tylko 2, a nie 6. „Sztuczka” jest dość istotne.

W przypadku dużych macierzy RAID-DP składających się z kilkudziesięciu dysków istnieje koncepcja zmniejszenia „kara za parzystość”, która występuje w przypadku zapisów z parzystością. Zatem w miarę powiększania się macierzy RAID-DP wymagana jest mniejsza liczba dysków przydzielonych do parzystości, co doprowadzi do zmniejszenia strat związanych z zapisami parzystości. Jednak w małych tablicach lub w celu zwiększenia konserwatyzmu możemy pominąć to zjawisko.

Teraz, wiedząc o stratach IOPS w wyniku użycia tego czy innego poziomu RAID, możemy obliczyć wydajność macierzy. Należy jednak pamiętać, że inne czynniki, takie jak przepustowość interfejsu, nieoptymalny rozkład przerwań pomiędzy rdzeniami procesorów itp., przepustowość kontrolera RAID lub przekroczenie dopuszczalnej głębokości kolejki, mogą mieć negatywny wpływ.

Jeśli pominiemy te czynniki, wzór będzie wyglądał następująco:

Funkcjonalne IOPS = (Surowe IOPS * % zapisów / współczynnik kary RAID) + (Surowe IOPS * % odczytu), gdzie Surowe IOPS = średnie IOPS dysków * liczba dysków.

Na przykład obliczmy wydajność macierzy RAID10 składającej się z 12 dysków twardych SATA, jeśli wiadomo, że 10% operacji zapisu i 90% operacji odczytu odbywa się jednocześnie. Załóżmy, że dysk zapewnia 75 losowych IOPS przy rozmiarze bloku 4 KB.

Początkowy IOPS = 75*12 = 900;
Funkcjonalny IOPS = (900*0,1/2) + (900*0,9) = 855.

Widzimy zatem, że przy niskiej intensywności zapisu, obserwowanej głównie w systemach przeznaczonych do dostarczania treści, wpływ współczynnika kary RAID jest minimalny.

Zależność aplikacji

Wydajność naszego rozwiązania może w dużym stopniu zależeć od aplikacji, które będą później uruchamiane. Może to być zatem przetwarzanie transakcji – „ustrukturyzowane” dane, które są zorganizowane, spójne i przewidywalne. Często w tych procesach można zastosować zasadę przetwarzania wsadowego, rozkładając te procesy w czasie tak, aby obciążenie było minimalne, optymalizując w ten sposób zużycie IOPS. Jednak w ostatnim czasie pojawia się coraz więcej projektów medialnych, w których dane są „nieustrukturyzowane” i wymagają zupełnie innych zasad ich przetwarzania.

Z tego powodu obliczenie wymaganej wydajności rozwiązania dla konkretnego projektu może być bardzo trudnym zadaniem. Niektórzy dostawcy pamięci masowych i eksperci twierdzą, że liczba IOPS nie ma znaczenia, ponieważ klienci w przeważającej mierze zużywają do 30-40 tys. IOPS, podczas gdy nowoczesne systemy pamięci masowej zapewniają setki tysięcy, a nawet miliony IOPS. Oznacza to, że nowoczesne obiekty magazynowe zaspokajają potrzeby 99% klientów. Jednak to stwierdzenie nie zawsze może być prawdziwe, tylko w przypadku segmentu biznesowego, który hostuje lokalnie pamięci masowe, ale nie w przypadku projektów hostowanych w centrach danych, które często nawet przy wykorzystaniu gotowych rozwiązań pamięci masowej powinny zapewniać dość wysoką wydajność i odporność na awarie.

Jeżeli projekt zlokalizowany jest w centrum danych, w większości przypadków nadal bardziej opłacalne jest samodzielne budowanie systemów pamięci masowej w oparciu o serwery dedykowane, niż korzystanie z gotowych rozwiązań, gdyż możliwe staje się bardziej efektywne rozłożenie obciążenia i dobór optymalne wyposażenie dla określonych procesów. Między innymi wskaźniki wydajności gotowych systemów pamięci masowej są dalekie od rzeczywistych, ponieważ opierają się w większości na danych profilowych z syntetycznych testów wydajności przy użyciu bloków o wielkości 4 lub 8 KB, podczas gdy Większość aplikacji klienckich działa obecnie w środowiskach o rozmiarze bloków od 32 do 64 KB.

Jak widzimy z wykresu:

Mniej niż 5% systemów pamięci masowej jest skonfigurowanych z rozmiarem bloku mniejszym niż 10 KB, a mniej niż 15% korzysta z bloków o rozmiarze mniejszym niż 20 KB. Ponadto, nawet w przypadku danej aplikacji, rzadko zdarza się, aby występował tylko jeden rodzaj zużycia wejść/wyjść. Na przykład baza danych będzie miała różne profile we/wy dla różnych procesów (pliki danych, rejestrowanie, indeksy...). Oznacza to, że podane testy wydajności systemu syntetycznego mogą być dalekie od prawdy.

A co z opóźnieniami?

Nawet jeśli zignorujemy fakt, że narzędzia używane do pomiaru opóźnień zwykle mierzą średnie czasy opóźnień i pominiemy fakt, że pojedyncze operacje we/wy w niektórych procesach mogą trwać znacznie dłużej niż w innych, spowalniając w ten sposób postęp całego procesu, w ogóle nie bierz pod uwagę tego, co jak duże będzie opóźnienie we/wy w zależności od rozmiaru bloku. Czas ten będzie zależał między innymi od konkretnego zastosowania.

W ten sposób dochodzimy do kolejnego magicznego wniosku: nie tylko rozmiar bloku nie jest zbyt dobrą cechą przy pomiarze wydajności systemów IOPS, ale także opóźnienie może okazać się parametrem całkowicie bezużytecznym.

Cóż, jeśli ani IOPS, ani opóźnienia nie są dobrą miarą wydajności systemu pamięci masowej, to co nią jest?

Tylko prawdziwy test wykonania aplikacji na konkretnym rozwiązaniu...

Ten test będzie prawdziwą metodą, która z pewnością pozwoli Ci zrozumieć, jak produktywne będzie rozwiązanie w Twoim przypadku. Aby to zrobić, będziesz musiał uruchomić kopię aplikacji na osobnej pamięci i symulować obciążenie przez określony czas. Tylko w ten sposób można uzyskać wiarygodne dane. I oczywiście musisz mierzyć nie metryki pamięci, ale metryki aplikacji.

Jednakże uwzględnienie powyższych czynników wpływających na wydajność naszych systemów może być bardzo przydatne przy wyborze pamięci masowej lub budowie określonej infrastruktury opartej na serwerach dedykowanych. Przy pewnym stopniu konserwatyzmu możliwe staje się wybranie mniej lub bardziej realistycznego rozwiązania, aby wyeliminować pewne wady techniczne i programowe w postaci nieoptymalnego rozmiaru bloku podczas partycjonowania lub nieoptymalnej pracy z dyskami. Rozwiązanie oczywiście nie zagwarantuje w 100% obliczonej wydajności, ale w 99% przypadków można powiedzieć, że poradzi sobie z obciążeniem, szczególnie jeśli dodamy do tego konserwatyzm w zależności od rodzaju aplikacji i jej funkcji obliczenie.

W każdej produkcji jednym z głównych celów, do których dąży kierownictwo firmy, jest uzyskanie wyników. Pytanie tylko, ile wysiłku i zasobów będzie wymaganych w procesie pracy, aby osiągnąć główny cel. Aby określić efektywność przedsiębiorstwa, wprowadzono pojęcie „wydajności pracy”, które jest wskaźnikiem produktywności personelu. Praca, jaką może wykonać jedna osoba w jednostce czasu, nazywana jest umownie „wynikiem”.

Dla każdego przedsiębiorstwa bardzo ważne jest uzyskanie wysokich wyników, a jednocześnie wydawanie jak najmniejszej ilości środków na produkcję (dotyczy to rachunków za prąd, czynszu itp.).

Najważniejszym zadaniem w każdym przedsiębiorstwie wytwarzającym towary lub świadczącym usługi jest zwiększanie produktywności. Jednocześnie istnieje szereg środków, które zwykle stosuje się w celu zmniejszenia wysokości kosztów wymaganych w procesie pracy. Tym samym w okresie rozwoju przedsiębiorstw wydajność pracy może ulec zmianie.

Z reguły klasyfikuje się kilka grup czynników, które mogą mieć wpływ na zmianę, a mianowicie wzrost wskaźników produkcji. Przede wszystkim jest to czynnik ekonomiczny i geograficzny, który obejmuje dostępność dostępnych zasobów pracy, wody, energii elektrycznej, materiałów budowlanych, a także odległość do komunikacji, terenu itp. Nie mniej ważne jest znaczenie przyspieszania postępu naukowo-technicznego, promowania wprowadzania nowych generacji nowoczesnych technologii oraz stosowania zaawansowanych technologii i zautomatyzowanych systemów. Można także przyjąć, że produktywność pracy zależy także od czynnika zmian strukturalnych, co oznacza zmianę udziału komponentów i zakupionych półproduktów, a także struktury produkcji i udziału poszczególnych rodzajów produktów.

Aspekt społeczny (ludzki) pozostaje nadal bardzo ważny, gdyż to właśnie troska o korzyści społeczne leży u podstaw wzrostu produktywności pracy. Obejmuje to: troskę o zdrowie fizyczne danej osoby, poziom rozwoju intelektualnego, profesjonalizm itp.

Czynniki zwiększające wydajność pracy są najważniejszym elementem całego procesu pracy, ponieważ wpływają na tempo rozwoju każdego przedsiębiorstwa, a tym samym przyczyniają się do wzrostu zysków.

Warto również zwrócić uwagę na punkt organizacyjny, który determinuje poziom zarządzania produkcją i pracą. Obejmuje to poprawę organizacji zarządzania przedsiębiorstwem, doskonalenie personelu, szkolenia materiałowe i techniczne.

Mówiąc o produktywności, nie można pominąć pracochłonności. Koncepcja ta odzwierciedla ilość energii psychicznej i fizycznej wydatkowanej przez pracownika w określonym przedziale czasu pracy.

Bardzo ważne jest określenie optymalnej intensywności dla danego procesu pracy, gdyż nadmierna aktywność może prowadzić do nieuniknionych spadków produktywności. Z reguły dzieje się tak w wyniku przepracowania człowieka, chorób zawodowych, urazów itp.

Warto zauważyć, że zidentyfikowano główne wskaźniki określające intensywność porodu. Przede wszystkim jest to obciążenie pracą danej osoby. Pozwala to określić intensywność procesu pracy i, w związku z tym, wykonalność kosztów. Jednocześnie zwyczajowo oblicza się tempo pracy, czyli częstotliwość działań w stosunku do jednostki czasu. Biorąc pod uwagę te czynniki, przedsiębiorstwo z reguły ma pewne standardy, na podstawie wskaźników, z których ustalany jest plan pracy produkcyjnej.

Czynniki produktywności pracy są przedmiotem szczególnej uwagi naukowców i praktyków, gdyż stanowią pierwotną przyczynę determinującą jej poziom i dynamikę. Czynniki badane w analizie można klasyfikować według różnych kryteriów. Najbardziej szczegółową klasyfikację prezentujemy w tabeli 1

Tabela 1

Klasyfikacja czynników wpływających na wydajność pracy

Funkcja klasyfikacji

Grupy czynników

Taka natura

Naturalnie i klimatycznie

Społeczno-ekonomiczne

Produkcja i ekonomia

Według stopnia wpływu na wynik

Podstawowy

Drobny

W odniesieniu do przedmiotu studiów

Domowy

W zależności od zespołu

Cel

Subiektywny

Według rozpowszechnienia

Konkretny

Według czasu trwania

Stały

Zmienne

Ze względu na charakter akcji

Rozległy

Intensywny

Zgodnie z właściwościami odbitych zjawisk

Ilościowy

Jakość

Według jego składu

Według poziomu podporządkowania (hierarchii)

Pierwsze zamówienie

Drugie zamówienie itp.

Jeśli to możliwe, pomiary wpływu

Wymierny

Niezmierzone

Ze swej natury czynniki dzielą się na przyrodniczo-klimatyczne, społeczno-ekonomiczne i produkcyjno-ekonomiczne.

Czynniki przyrodnicze i klimatyczne mają ogromny wpływ na wyniki działalności w rolnictwie, górnictwie, leśnictwie i innych gałęziach przemysłu. Uwzględnienie ich wpływu pozwala nam na dokładniejszą ocenę wyników pracy podmiotów gospodarczych. Czynniki społeczno-ekonomiczne obejmują warunki życia pracowników, organizację pracy kulturalnej, sportowej i rekreacyjnej w przedsiębiorstwie, ogólny poziom kultury i wykształcenia personelu itp. Przyczyniają się do pełniejszego wykorzystania zasobów produkcyjnych przedsiębiorstwa i wzrostu efektywność swojej pracy. Czynniki produkcyjne i ekonomiczne decydują o kompletności i efektywności wykorzystania zasobów produkcyjnych przedsiębiorstwa oraz końcowych wynikach jego działalności. Ze względu na stopień wpływu na wyniki działalności gospodarczej czynniki dzieli się na duże i mniejsze. Do najważniejszych zalicza się czynniki, które mają decydujący wpływ na wskaźnik efektywności. Za drugorzędne uważa się te, które nie mają decydującego wpływu na wyniki działalności gospodarczej w obecnych warunkach. W tym miejscu należy zauważyć, że ten sam czynnik, w zależności od okoliczności, może być zarówno pierwotny, jak i wtórny. Umiejętność zidentyfikowania głównych, determinujących czynników spośród różnorodnych czynników zapewnia poprawność wniosków na podstawie wyników analizy.

Ze względu na przedmiot badań czynniki dzieli się na wewnętrzne i zewnętrzne, tj. zależne i niezależne od działalności tego przedsiębiorstwa. Główną uwagę w analizie należy zwrócić na badanie czynników wewnętrznych, na które przedsiębiorstwo może wpływać.

Jednocześnie w wielu przypadkach przy rozwiniętych powiązaniach i relacjach produkcyjnych na wyniki każdego przedsiębiorstwa znaczący wpływ mają działania innych przedsiębiorstw, na przykład jednolitość i terminowość dostaw surowców, materiałów, ich jakość, koszt , warunki rynkowe, procesy inflacyjne itp. Czynniki te mają charakter zewnętrzny. Nie charakteryzują one wysiłków danego zespołu, ale ich badanie pozwala dokładniej określić stopień wpływu przyczyn wewnętrznych, a tym samym pełniej zidentyfikować wewnętrzne rezerwy produkcji.

Aby prawidłowo ocenić działalność przedsiębiorstw, należy dokonać dalszego podziału czynników na obiektywne i subiektywne. Czynniki obiektywne, takie jak klęska żywiołowa, nie zależą od woli i pragnień ludzi. W odróżnieniu od przyczyn obiektywnych, przyczyny subiektywne zależą od działalności osób prawnych i osób fizycznych.

Ze względu na stopień rozpowszechnienia czynniki dzieli się na ogólne i szczegółowe. Do czynników ogólnych zalicza się czynniki działające we wszystkich sektorach gospodarki. Specyficzne to te, które działają w określonym sektorze gospodarki lub przedsiębiorstwa. Taki podział czynników pozwala pełniej uwzględnić charakterystykę poszczególnych przedsiębiorstw i branż oraz dokładniej ocenić ich działalność.

Ze względu na czas trwania wpływu na wyniki wydajności rozróżnia się czynniki stałe i zmienne. Czynniki stałe wpływają na badane zjawisko w sposób ciągły i ciągły w czasie. Wpływ czynników zmiennych objawia się okresowo, np. rozwojem nowej technologii, nowych rodzajów produktów, nowej technologii produkcji itp.

Duże znaczenie dla oceny działalności przedsiębiorstw ma podział czynników ze względu na charakter ich działania na intensywne i ekstensywne. Do czynników ekstensywnych zalicza się czynniki związane z ilościowym, a nie jakościowym wzrostem wskaźnika wydajności, na przykład zwiększenie wielkości produkcji poprzez powiększenie obszaru zasiewów, zwiększenie liczby zwierząt, liczby pracowników itp. Czynniki intensywne charakteryzują stopień wysiłku i pracochłonności procesu produkcyjnego, na przykład zwiększenie plonów rolnych, produktywność zwierząt gospodarskich i poziom produktywności pracy.

Jeżeli analiza ma na celu zmierzenie wpływu poszczególnych czynników na wyniki działalności gospodarczej, wówczas dzieli się je na ilościowe i jakościowe, proste i złożone, mierzalne i niemierzalne.

Za ilościowe uważa się czynniki wyrażające ilościową pewność zjawisk (liczba pracowników, sprzęt, surowce itp.). Czynniki jakościowe określają wewnętrzne cechy, cechy i cechy badanych obiektów (wydajność pracy, jakość produktu, żyzność gleby itp.).

Większość badanych czynników ma złożony skład i składa się z kilku elementów. Są jednak i takie, których nie da się rozłożyć na części składowe. W zależności od składu czynniki dzielą się na złożone (złożone) i proste (elementarne). Przykładem czynnika złożonego jest wydajność pracy, a prostym liczba dni roboczych w okresie sprawozdawczym.

Jak już wskazano, niektóre czynniki mają bezpośredni wpływ na wskaźnik wydajności, inne zaś pośrednio. Na podstawie poziomu podporządkowania (hierarchii) wyróżnia się czynniki pierwszego, drugiego, trzeciego itd. poziomy podporządkowania. Czynniki pierwszego poziomu obejmują te, które bezpośrednio wpływają na wskaźnik wydajności. Czynniki określające wskaźnik wydajności w sposób pośredni, wykorzystując czynniki pierwszego poziomu, nazywane są czynnikami drugiego poziomu itp. Na przykład w odniesieniu do produkcji brutto czynnikami pierwszego poziomu są średnia roczna liczba pracowników i średnia roczna produkcja na pracownika. Liczba dni przepracowanych przez jednego pracownika i średnia dzienna produkcja to czynniki drugiego rzędu. Czynniki trzeciego poziomu obejmują długość dnia pracy i średnią wydajność godzinową.

Podstawą prowadzenia każdego biznesu jest racjonalne i efektywne wykorzystanie dostępnych zasobów, w tym pracy. Logiczne jest, że kierownictwo stara się zwiększyć wielkość produkcji bez dodatkowych kosztów zatrudniania pracowników. Eksperci identyfikują kilka czynników, które mogą poprawić produktywność:

    Styl menedżerski (głównym zadaniem menedżera jest motywowanie pracowników, tworzenie kultury organizacyjnej ceniącej aktywność i ciężką pracę).

    Inwestycje w innowacje techniczne (zakup nowego sprzętu odpowiadającego wymaganiom czasu może znacząco skrócić czas spędzany przez każdego pracownika).

    Szkolenia i seminaria w ramach dokształcania zaawansowanego (znajomość specyfiki produkcji pozwala personelowi uczestniczyć w doskonaleniu procesu produkcyjnego).

Wielu użytkowników zastanawia się, co najbardziej wpływa na wydajność komputera?

Okazuje się, że jednoznacznej odpowiedzi na to pytanie nie da się udzielić. Komputer to zestaw podsystemów (pamięć, obliczenia, grafika, pamięć masowa), które współdziałają ze sobą za pośrednictwem płyty głównej i sterowników urządzeń. Jeśli podsystemy nie są poprawnie skonfigurowane, nie zapewniają maksymalnej wydajności, jaką mogą.

Na kompleksową wydajność składają się ustawienia i funkcje oprogramowania i sprzętu.
Wymieńmy je.

Współczynniki wydajności sprzętu:

  1. Liczba rdzeni procesora – 1, 2, 3 lub 4
  2. Częstotliwość procesora i częstotliwość magistrali systemowej procesora (FSB) – 533, 667, 800, 1066, 1333 lub 1600 MHz
  3. Objętość i ilość pamięci podręcznej procesora (CPU) – 256 512 KB; 1, 2, 3, 4, 6, 12 MB.
  4. Dopasowanie częstotliwości magistrali systemowej procesora i płyty głównej
  5. Częstotliwość pamięci RAM i częstotliwość magistrali pamięci płyty głównej – DDR2-667, 800, 1066
  6. Pojemność pamięci RAM – 512 MB lub więcej
  7. Chipset zastosowany na płycie głównej (Intel, VIA, SIS, nVidia, ATI/AMD)
  8. Wykorzystywany podsystem graficzny jest wbudowany w płytę główną lub dyskretny (zewnętrzna karta graficzna z własną pamięcią wideo i procesorem graficznym)
  9. Typ interfejsu dysku twardego (HDD) – równoległy IDE lub szeregowy SATA i SATA-2
  10. Pamięć podręczna dysku twardego – 8, 16 lub 32 MB.

Zwiększanie wymienionych parametrów technicznych zawsze zwiększa produktywność.

Rdzenie

W tej chwili większość produkowanych procesorów ma co najmniej 2 rdzenie (z wyjątkiem AMD Sempron, Athlon 64 i Intel Celeron D, Celeron 4xx). Liczba rdzeni jest istotna w zadaniach renderowania 3D czy kodowania wideo, a także w programach, których kod jest zoptymalizowany pod kątem wielowątkowości kilku rdzeni. W innych przypadkach (na przykład w zadaniach biurowych i internetowych) są bezużyteczne.

Cztery rdzenie posiadają procesory Intel Core 2 Extreme i Core 2 Quad o oznaczeniach: QX9xxx, Q9xxx, Q8xxx, QX6xxx;
AMD Phenom X3 – 3 rdzenie;
AMD Phenom X4 – 4 rdzenie.

Musimy pamiętać, że liczba rdzeni znacznie zwiększa pobór mocy procesora i zwiększa wymagania energetyczne płyty głównej i zasilacza!

Ale generacja i architektura rdzenia mają ogromny wpływ na wydajność dowolnego procesora.
Przykładowo, jeśli weźmiemy dwurdzeniowy Intel Pentium D i Core 2 Duo o tej samej częstotliwości, magistrali systemowej i pamięci podręcznej, to Core 2 Duo niewątpliwie zwycięży.

Częstotliwości magistrali procesora, pamięci i płyty głównej

Bardzo ważne jest również, aby częstotliwości poszczególnych komponentów były zgodne.
Załóżmy, że jeśli Twoja płyta główna obsługuje częstotliwość magistrali pamięci 800 MHz i zainstalowany jest moduł pamięci DDR2-677, częstotliwość modułu pamięci zmniejszy wydajność.

Jednocześnie, jeśli płyta główna nie obsługuje częstotliwości 800 MHz i gdy zainstalowany jest moduł DDR2-800, będzie działać, ale z niższą częstotliwością.

Skrytki

Pamięć podręczna procesora ma wpływ przede wszystkim podczas pracy z systemami CAD, dużymi bazami danych i grafiką. Pamięć podręczna to pamięć o większej szybkości dostępu, mająca na celu przyspieszenie dostępu do danych zawartych na stałe w pamięci o mniejszej szybkości dostępu (zwanej dalej „pamięcią główną”). Buforowanie jest wykorzystywane przez procesory, dyski twarde, przeglądarki i serwery internetowe.

Kiedy procesor uzyskuje dostęp do danych, najpierw sprawdzana jest pamięć podręczna. Jeżeli w pamięci podręcznej zostanie znaleziony wpis o identyfikatorze pasującym do identyfikatora żądanego elementu danych, wówczas wykorzystywane są elementy danych znajdujące się w pamięci podręcznej. Ten przypadek nazywany jest trafieniem w pamięć podręczną. Jeżeli w pamięci podręcznej nie zostaną znalezione żadne wpisy zawierające żądany element danych, wówczas jest on wczytywany z pamięci głównej do pamięci podręcznej i staje się dostępny do późniejszego dostępu. Ten przypadek nazywa się brakiem pamięci podręcznej. Procent trafień w pamięci podręcznej, przy którym znaleziono wynik, nazywany jest współczynnikiem trafień lub współczynnikiem trafień w pamięci podręcznej.
Procent trafień w pamięci podręcznej jest wyższy w przypadku procesorów Intel.

Wszystkie procesory różnią się liczbą pamięci podręcznych (do 3) i ich rozmiarem. Najszybsza pamięć podręczna to pierwszy poziom (L1), najwolniejsza to trzeci (L3). Tylko procesory AMD Phenom posiadają pamięć podręczną L3, dlatego bardzo ważne jest, aby pamięć podręczna L1 miała duży rozmiar.

Przetestowaliśmy zależność wydajności od rozmiaru pamięci podręcznej. Jeśli porównasz wyniki strzelanek 3D Prey i Quake 4, które są typowymi aplikacjami do gier, różnica wydajności między 1 a 4 MB jest w przybliżeniu taka sama, jak między procesorami o różnicy częstotliwości 200 MHz. To samo dotyczy testów kodowania wideo dla kodeków DivX 6.6 i XviD 1.1.2, a także archiwizatora WinRAR 3.7. Jednak aplikacje intensywnie obciążające procesor, takie jak 3DStudio Max 8, Lame MP3 Encoder lub H.264 Encoder V2 firmy MainConcept, nie odniosą większych korzyści z większych rozmiarów pamięci podręcznej.
Pamiętajmy, że pamięć podręczna L2 ma znacznie większy wpływ na wydajność procesora Intel Core 2 niż AMD Athlon 64 X2 czy Phenom, gdyż Intel ma wspólną pamięć podręczną L2 dla wszystkich rdzeni, natomiast AMD ma osobną dla każdego rdzenia ! Pod tym względem Phenom lepiej współpracuje z pamięcią podręczną.

Baran

Jak już wspomniano, pamięć RAM charakteryzuje się częstotliwością i objętością. Jednocześnie dostępne są obecnie 2 typy pamięci, DDR2 i DDR3, które różnią się architekturą, wydajnością, częstotliwością i napięciem zasilania – czyli wszystkim!
Częstotliwość modułu pamięci musi odpowiadać częstotliwości samego modułu.

Ilość pamięci RAM wpływa również na wydajność systemu operacyjnego i aplikacji wymagających dużych zasobów.
Obliczenia są proste – Windows XP po załadowaniu zajmuje 300-350 MB RAM-u. Jeśli podczas uruchamiania znajdują się dodatkowe programy, ładują one również pamięć RAM. Oznacza to, że 150-200 MB pozostaje wolne. Zmieszczą się tam jedynie lekkie aplikacje biurowe.
Do komfortowej pracy z programem AutoCAD, aplikacjami graficznymi, 3DMax, kodowaniem i grafiką wymagane jest co najmniej 1 GB pamięci RAM. Jeśli używasz systemu Windows Vista, to co najmniej 2 GB.

Podsystem graficzny

Komputery biurowe często korzystają z płyt głównych z wbudowaną grafiką. Płyty główne na takich chipsetach (G31, G45, AMD 770G itp.) mają w oznaczeniu literę G.
Te zintegrowane karty graficzne wykorzystują część pamięci RAM jako pamięć wideo, zmniejszając w ten sposób ilość pamięci RAM dostępnej dla użytkownika.

W związku z tym, aby zwiększyć wydajność, wbudowaną kartę graficzną należy wyłączyć w BIOS-ie płyty głównej, a zewnętrzną (oddzielną) kartę graficzną należy zainstalować w gnieździe PCI-Express.
Wszystkie karty graficzne różnią się chipsetem graficznym, częstotliwością roboczą potoków, liczbą potoków, częstotliwością pamięci wideo i szerokością magistrali pamięci wideo.

Podsystem przechowywania

Na wydajność dysków duży wpływ ma dostęp do dużych ilości danych - wideo, audio, a także otwieranie dużej liczby małych plików.

Wśród cech technicznych wpływających na szybkość dostępu do plików należy zwrócić uwagę na rodzaj interfejsu dysku twardego (HDD) - równoległy IDE lub szeregowy SATA i SATA-2 oraz pamięć podręczną dysku twardego - 8, 16 lub 32 MB.
W tej chwili zaleca się instalowanie dysków twardych wyłącznie z interfejsem SATA-2, który ma największą przepustowość i największą pamięć podręczną.

Współczynniki wydajności oprogramowania:

  1. Liczba zainstalowanych programów
  2. Fragmentacja systemu plików
  3. Błędy systemu plików, uszkodzone sektory
  4. Fragmentacja rejestru systemu operacyjnego
  5. Błędy rejestru systemu operacyjnego
  6. Rozmiar pliku strony (rozmiar pamięci wirtualnej)
  7. Zawiera elementy wizualizacji GUI systemu operacyjnego
  8. Programy i usługi systemu Windows ładują się podczas uruchamiania

Nie jest to pełna lista, ale są to cechy systemu operacyjnego Windows, które mogą znacznie spowolnić jego działanie.
Ale o tych cechach, ustawieniach i parametrach porozmawiamy w następnym artykule.

procesor to podstawowy element obliczeniowy, który w ogromnym stopniu wpływa na wydajność komputera. Ale w jakim stopniu wydajność w grach zależy od procesora? Czy powinieneś zmienić procesor, aby poprawić wydajność w grach? Jakiego rodzaju podwyżkę to da? Postaramy się znaleźć odpowiedź na te pytania w tym artykule.

1. Co zmienić kartę graficzną lub procesor

Niedawno znów spotkałem się z brakiem wydajności komputera i stało się jasne, że przyszedł czas na kolejną modernizację. W tym czasie moja konfiguracja wyglądała następująco:

  • Phenom II X4 945 (3 GHz)
  • 8 GB pamięci DDR2 800 MHz
  • GTX660 2GB

Ogólnie byłem całkiem zadowolony z wydajności komputera, system działał dość szybko, większość gier działała na wysokich lub średnich/wysokich ustawieniach graficznych, a filmów nie montowałem zbyt często, więc 15-30 minut renderowania nie przeszkadzało Ja.

Pierwsze problemy pojawiły się w grze World of Tanks, gdy zmiana ustawień graficznych z wysokich na średnie nie dała oczekiwanego wzrostu wydajności. Liczba klatek na sekundę spadała okresowo z 60 do 40 FPS. Stało się jasne, że wydajność jest ograniczona przez procesor. Następnie zdecydowano się na przejście na 3,6 GHz, co rozwiązało problemy w WoT.

Ale czas mijał, wyszły nowe, ciężkie gry, a z WoT przerzuciłem się na taką, która wymagała więcej zasobów systemowych (Armata). Sytuacja się powtórzyła i pojawiło się pytanie, co zmienić – kartę graficzną czy procesor. Nie było sensu zmieniać GTX 660 na 1060, trzeba było wziąć przynajmniej GTX 1070. Ale stary Phenom na pewno nie poradziłby sobie z taką kartą graficzną. I nawet przy zmianie ustawień w Armacie było jasne, że wydajność ponownie ogranicza procesor. Dlatego zdecydowano się w pierwszej kolejności wymienić procesor na przejście na bardziej wydajną platformę Intel do gier.

Wymiana procesora wiązała się z wymianą płyty głównej i pamięci RAM. Ale nie było innego wyjścia, poza tym była nadzieja, że ​​mocniejszy procesor pozwoli starej karcie graficznej na pełniejsze działanie w grach zależnych od procesora.

2. Wybór procesora

Procesorów Ryzen nie było wówczas, ich wypuszczenie było jedynie oczekiwane. Aby je w pełni ocenić, trzeba było poczekać na ich premierę i masowe testy, aby zidentyfikować mocne i słabe strony.

Poza tym było już wiadomo, że cena w momencie ich premiery będzie dość wysoka i trzeba było poczekać około kolejnych sześciu miesięcy, aż ceny dla nich staną się bardziej adekwatne. Nie było potrzeby czekać tak długo, podobnie jak nie było potrzeby szybkiego przejścia na wciąż prymitywną platformę AM4. A biorąc pod uwagę wieczne błędy AMD, było to również ryzykowne.

Dlatego nie wzięto pod uwagę procesorów Ryzen i preferowano już sprawdzoną, dopracowaną i sprawdzoną platformę Intel na gnieździe 1151. I, jak pokazała praktyka, nie na próżno, ponieważ procesory Ryzen okazały się gorsze w grach i w innych zadaniach wydajnościowych miałem już wystarczającą wydajność.

Początkowo wybór padł pomiędzy procesorami Core i5:

  • Rdzeń i5-6600
  • Rdzeń i5-7600
  • Rdzeń i5-6600K
  • Rdzeń i5-7600K

W przypadku komputera do gier średniej klasy i5-6600 był opcją minimalną. Ale w przyszłości chciałem mieć pewną rezerwę na wypadek wymiany karty graficznej. Core i5-7600 nie różnił się zbytnio, więc pierwotny plan zakładał zakup Core i5-6600K lub Core i5-7600K z możliwością podkręcenia do stabilnego 4,4 GHz.

Jednak patrząc na wyniki testów we współczesnych grach, w których obciążenie tych procesorów było bliskie 90%, było jasne, że w przyszłości mogą one nie wystarczyć. Ale chciałem mieć dobrą platformę z rezerwą na długi czas, ponieważ minęły już czasy, gdy można było co roku modernizować swój komputer

Zacząłem więc przyglądać się procesorom Core i7:

  • Rdzeń i7-6700
  • Rdzeń i7-7700
  • Core i7-6700K
  • Core i7-7700K

We współczesnych grach nie są one jeszcze w pełni załadowane, ale gdzieś w okolicach 60-70%. Ale Core i7-6700 ma częstotliwość bazową tylko 3,4 GHz, a Core i7-7700 ma niewiele więcej - 3,6 GHz.

Według wyników testów we współczesnych grach z topowymi kartami graficznymi, największy wzrost wydajności obserwuje się przy częstotliwości około 4 GHz. Wtedy nie jest to już tak istotne, czasem wręcz niewidoczne.

Pomimo tego, że procesory i5 i i7 są wyposażone w technologię automatycznego podkręcania (), nie należy na to zbytnio liczyć, ponieważ w grach, w których wykorzystywane są wszystkie rdzenie, wzrost będzie nieznaczny (tylko 100-200 MHz).

Tym samym procesory Core i7-6700K (4 GHz) i i7-7700K (4,2 GHz) są bardziej optymalne, a biorąc pod uwagę możliwość podkręcenia do stabilnego 4,4 GHz, są też znacznie bardziej obiecujące niż i7-6700 (3,4 GHz) ) i i7-7700 (3,6 GHz), ponieważ różnica częstotliwości będzie już wynosić 800-1000 MHz!

W momencie aktualizacji procesory Intel 7. generacji (Core i7-7xxx) właśnie się pojawiły i były znacznie droższe od procesorów 6. generacji (Core i7-6xxx), których ceny już zaczęły spadać. Jednocześnie w nowej generacji zaktualizowano jedynie wbudowaną grafikę, która nie jest potrzebna do gier. A ich możliwości podkręcania są prawie takie same.

Dodatkowo droższe były także płyty główne z nowymi chipsetami (choć na starszym chipsecie można zainstalować procesor, może to stwarzać pewne problemy).

Dlatego zdecydowano się na Core i7-6700K z bazową częstotliwością 4 GHz i możliwością podkręcenia w przyszłości do stabilnego 4,4 GHz.

3. Wybór płyty głównej i pamięci

Ja, podobnie jak większość entuzjastów i ekspertów technicznych, preferuję wysokiej jakości i stabilne płyty główne firmy ASUS. W przypadku procesora Core i7-6700K z możliwością podkręcania najlepszą opcją są płyty główne oparte na chipsecie Z170. Dodatkowo chciałem mieć lepszą wbudowaną kartę dźwiękową. Dlatego zdecydowano się na najtańszą płytę główną do gier firmy ASUS na chipsecie Z170 -.

Pamięć, biorąc pod uwagę obsługę przez płytę główną częstotliwości modułów do 3400 MHz, też chciała być szybsza. W przypadku nowoczesnego komputera do gier najlepszą opcją jest zestaw pamięci DDR4 o pojemności 2x8 GB. Pozostało tylko znaleźć zestaw optymalny pod względem stosunku ceny do częstotliwości.

Początkowo wybór padł na AMD Radeon R7 (2666 MHz), gdyż cena była bardzo kusząca. Jednak w momencie składania zamówienia nie było go na stanie. Musiałem wybierać pomiędzy znacznie droższym G.Skill RipjawsV (3000 MHz) a nieco tańszym Team T-Force Dark (2666 MHz).

To był trudny wybór, bo zależało mi na szybszej pamięci, a fundusze były ograniczone. Na podstawie testów we współczesnych grach (które badałem) różnica wydajności między pamięcią 2133 MHz a 3000 MHz wynosiła 3-13%, a średnio 6%. Nie jest to dużo, ale chciałem uzyskać maksimum.

Ale faktem jest, że szybka pamięć jest wytwarzana przez fabryczne podkręcanie wolniejszych układów. Pamięć G.Skill RipjawsV (3000 MHz) nie jest wyjątkiem i aby osiągnąć tę częstotliwość, jej napięcie zasilania wynosi 1,35 V. Poza tym procesory mają trudności z trawieniem pamięci o zbyt dużej częstotliwości i już przy częstotliwości 3000 MHz system może nie działać stabilnie. Otóż ​​zwiększone napięcie zasilania prowadzi do szybszego zużycia (degradacji) zarówno kości pamięci, jak i kontrolera procesora (Intel oficjalnie to ogłosił).

Jednocześnie pamięć Team T-Force Dark (2666 MHz) pracuje przy napięciu 1,2 V i według producenta pozwala na zwiększenie napięcia do 1,4 V, co w razie potrzeby umożliwi ręczne podkręcenie . Po rozważeniu wszystkich za i przeciw zdecydowano się na pamięć o standardowym napięciu 1,2 V.

4. Testy wydajności gier

Przed zmianą platformy przeprowadziłem testy wydajnościowe na starym systemie w niektórych grach. Po zmianie platformy powtórzono te same testy.

Testy przeprowadzono na czystym systemie Windows 7 z tą samą kartą graficzną (GTX 660) przy wysokich ustawieniach graficznych, ponieważ celem wymiany procesora było zwiększenie wydajności bez pogarszania jakości obrazu.

Aby uzyskać dokładniejsze wyniki, w testach wykorzystano wyłącznie gry z wbudowanym benchmarkiem. W drodze wyjątku przeprowadzono test wydajności internetowej strzelanki czołgowej Armored Warfare, nagrywając powtórkę, a następnie odtwarzając ją z odczytami za pomocą Frapsa.

Wysokie ustawienia graficzne.

Przetestuj na Phenom X4 (@3,6 GHz).

Wyniki testu pokazują, że średni FPS nieznacznie się zmienił (z 36 do 38). Oznacza to, że wydajność w tej grze zależy od karty graficznej. Jednak minimalne spadki FPS we wszystkich testach znacząco spadły (z 11-12 do 21-26), co oznacza, że ​​gra nadal będzie nieco wygodniejsza.

W nadziei na poprawę wydajności dzięki DirectX 12 przeprowadziłem później test w systemie Windows 10.

Ale wyniki były jeszcze gorsze.

Batman: Rycerz Arkham

Wysokie ustawienia graficzne.

Przetestuj na Phenom X4 (@3,6 GHz).

Testuj na Core i7-6700K (4,0 GHz).

Gra jest bardzo wymagająca zarówno dla karty graficznej, jak i procesora. Z testów jasno wynika, że ​​wymiana procesora spowodowała znaczny wzrost średniego FPS (z 14 do 23) i zmniejszenie minimalnych pobrań (z 0 do 15), wzrosła także wartość maksymalna (z 27 do 37). Wskaźniki te nie pozwalają jednak na komfortową grę, dlatego postanowiłem przeprowadzić testy na średnich ustawieniach i wyłączyć różne efekty.

Średnie ustawienia graficzne.

Przetestuj na Phenom X4 (@3,6 GHz).

Testuj na Core i7-6700K (4,0 GHz).

Na średnich ustawieniach średni FPS również nieznacznie wzrósł (z 37 do 44), a spadki znacząco spadły (z 22 do 35), przekraczając minimalny próg 30 FPS zapewniający komfortową grę. Pozostała również różnica w wartości maksymalnej (od 50 do 64). W wyniku zmiany procesora gra stała się w miarę komfortowa.

Przejście na Windows 10 nie zmieniło absolutnie niczego.

Deus Ex: Rozłam Ludzkości

Wysokie ustawienia graficzne.

Przetestuj na Phenom X4 (@3,6 GHz).

Testuj na Core i7-6700K (4,0 GHz).

Skutkiem wymiany procesora był jedynie spadek spadków FPS (z 13 do 18). Niestety zapomniałem przeprowadzić testy na średnich ustawieniach, ale testowałem na DirectX 12.

W rezultacie minimalny FPS tylko spadł.

Opancerzony Działania wojenne: Projekt Armaty

Często gram w tę grę i stała się ona jednym z głównych powodów modernizacji mojego komputera. Na wysokich ustawieniach gra generowała 40-60 FPS z rzadkimi, ale nieprzyjemnymi spadkami do 20-30.

Zmniejszenie ustawień do średnich wyeliminowało poważne spadki, ale średni FPS pozostał prawie taki sam, co jest pośrednią oznaką braku wydajności procesora.

Nagrano powtórkę i przeprowadzono testy w trybie odtwarzania przy użyciu FRAPS przy wysokich ustawieniach.

Wyniki ich podsumowałem w tabeli.

procesor Liczba klatek na sekundę (min) Liczba klatek na sekundę (Środa) Liczba klatek na sekundę (Maks)
Phenom X4 (@3,6 GHz) 28 51 63
Rdzeń i7-6700K (4,0 GHz) 57 69 80

Wymiana procesora całkowicie wyeliminowała krytyczne spadki FPS i poważnie zwiększyła średnią liczbę klatek na sekundę. Umożliwiło to synchronizację pionową, dzięki czemu obraz jest płynniejszy i przyjemniejszy. Jednocześnie gra zapewnia stabilne 60 FPS bez spadków i jest bardzo wygodna w graniu.

Inne gry

Nie przeprowadzałem testów, ale ogólnie podobny obraz obserwuje się w większości gier sieciowych i zależnych od procesora. Procesor poważnie wpływa na FPS w grach sieciowych takich jak Battlefield 1 i Overwatch. A także w grach z otwartym światem, takich jak GTA 5 i Watch Dogs.

Dla celów eksperymentu zainstalowałem GTA 5 na starym pececie z procesorem Phenom i nowym z Core i7. Jeśli wcześniej, przy wysokich ustawieniach, FPS utrzymywał się w granicach 40-50, teraz stabilnie utrzymuje się powyżej 60, praktycznie bez spadków i często osiąga 70-80. Zmiany te są widoczne gołym okiem, ale uzbrojony po prostu gasi wszystkich

5. Test wydajności renderowania

Nie zajmuję się zbytnio edycją wideo i przeprowadziłem tylko jeden prosty test. Wyrenderowałem wideo Full HD o długości 17:22 i objętości 2,44 GB przy niższym bitrate w programie Camtasia, którego używam. W rezultacie powstał plik o wielkości 181 MB. Procesorzy wykonali zadanie w następującym czasie.

procesor Czas
Phenom X4 (@3,6 GHz) 16:34
Rdzeń i7-6700K (4,0 GHz) 3:56

Oczywiście w renderowaniu brała udział karta graficzna (GTX 660), ponieważ nie mogę sobie wyobrazić, kto pomyślałby o renderowaniu bez karty graficznej, ponieważ trwa to 5-10 razy dłużej. Ponadto płynność i szybkość odtwarzania efektów podczas montażu również w dużym stopniu zależy od karty graficznej.

Jednak zależność od procesora nie została anulowana, a Core i7 poradził sobie z tym zadaniem 4 razy szybciej niż Phenom X4. Wraz ze wzrostem złożoności edycji i efektów czas ten może znacznie się wydłużyć. To, co Phenom X4 wytrzyma 2 godziny, Core i7 poradzi sobie w 30 minut.

Jeśli planujesz poważnie zająć się edycją wideo, mocny wielowątkowy procesor i duża ilość pamięci znacznie zaoszczędzą Twój czas.

6. Wniosek

Apetyt na nowoczesne gry i profesjonalne aplikacje rośnie bardzo szybko, co wymaga ciągłych inwestycji w modernizację komputera. Ale jeśli masz słaby procesor, nie ma sensu zmieniać karty graficznej, po prostu jej nie otworzy, tj. Wydajność będzie ograniczona przez procesor.

Nowoczesna platforma oparta na wydajnym procesorze z wystarczającą ilością pamięci RAM zapewni wysoką wydajność Twojego komputera na długie lata. Zmniejsza to koszty modernizacji komputera i eliminuje potrzebę całkowitej wymiany komputera po kilku latach.

7. Linki

Procesor Intel Core i7-8700
Procesor Intel Core i5-8400
Procesor Intel Core i3 8100