Parametry počítače ovlivňující provozní rychlost. Architektura mikroprocesoru Intel a hlavní faktory ovlivňující jeho výkon. Co budeme dělat

V moderních podmínkách je růst zisků společností hlavním nezbytným trendem rozvoje podniků. Růst zisku lze dosáhnout různými způsoby, z nichž můžeme vyzdvihnout efektivnější využití zaměstnanců společnosti.

Ukazatelem pro měření výkonnosti pracovní síly podniku je produktivita.

Obecný přehled

Produktivita práce podle kalkulačního vzorce je kritériem, kterým lze charakterizovat produktivitu užití práce.

Produktivita práce se týká efektivity práce ve výrobním procesu. Lze jej měřit určitým časovým úsekem potřebným k vytvoření jednotky výstupu.

Na základě definice obsažené v encyklopedickém slovníku F. A. Brockhause a I. A. Efrona se má za produktivitu či produktivitu práce považovat vztah vytvořený mezi objemem vynaložené práce a výsledkem, kterého lze při provádění práce dosáhnout.

Podle L. E. Basovského lze produktivitu práce definovat jako produktivitu personálu, který podnik má. Lze ji určit podle množství vyrobených výrobků za jednotku pracovní doby. Tento ukazatel je také určen mzdovými náklady, které lze přiřadit jednotce výstupu.

Produktivita je množství produkce vyrobené jedním zaměstnancem za určité časové období.

Je to kritérium, které charakterizuje produktivitu určité živé práce a efektivitu výrobní práce podle tvorby produktu na jednotku pracovní doby vynaložené na jejich výrobu.

Provozní efektivita se zvyšuje na základě technologického pokroku, zaváděním nových technologií, zvyšováním kvalifikace zaměstnanců a jejich finančního zájmu.

Fáze analýzy

Hodnocení produktivity práce se skládá z následujících hlavních fází:

  • analýza absolutních ukazatelů za několik let;
  • stanovení dopadu určitých faktorových ukazatelů na dynamiku produktivity;
  • stanovení rezerv pro zvýšení produktivity.

Základní ukazatele

Hlavními důležitými ukazateli výkonnosti, které jsou analyzovány v moderních podnicích fungujících v tržních podmínkách, mohou být například potřeba plného zaměstnávání zaměstnanců a vysoký výkon.

Výstup produktu je hodnota produktivity na jednotku vstupu práce. Lze ji určit korelací počtu vyrobených produktů nebo poskytnutých služeb, které byly vyrobeny za určitou časovou jednotku.

Náročnost práce je poměr mezi náklady na pracovní dobu a objemem výroby, který charakterizuje mzdové náklady na jednotku výrobku nebo služby.

Metody výpočtu

Pro měření produktivity práce se používají tři metody výpočtu produktivity:

  • přírodní metoda. Používá se v organizacích, které vyrábějí homogenní produkty. Tato metoda zohledňuje výpočet produktivity práce jako shodu mezi objemem vyrobených výrobků v přirozeném vyjádření a průměrným počtem zaměstnanců;
  • pracovní metoda se používá, pokud pracovní plochy produkují velké množství výrobků s často se měnícím sortimentem; tvorba se určuje ve standardních hodinách (množství práce vynásobené standardním časem) a výsledky jsou shrnuty podle různých typů produktů;
  • nákladová metoda. Používá se v organizacích, které vyrábějí heterogenní produkty. Tato metoda zohledňuje výpočet produktivity práce jako korespondenci mezi objemem vyrobených výrobků v nákladovém vyjádření a průměrným počtem zaměstnanců.

Pro posouzení úrovně pracovního výkonu se používá pojem osobní, doplňkové a obecné charakteristiky.

Soukromé nemovitosti jsou takové časové náklady, které jsou nutné k výrobě jednotky produktu v přirozených podmínkách za jeden osoboden nebo osobohodinu. Pomocné vlastnosti zohledňují čas strávený prováděním jednotky určitého druhu práce nebo množství práce vykonané za jednotku období.

Metoda výpočtu

Mezi možné varianty produktivity práce lze rozlišit následující ukazatele: výkon, kterým může být průměrný roční, průměrný denní a průměrný hodinový na jednoho zaměstnance. Mezi těmito charakteristikami existuje přímá souvislost: počet pracovních dnů a délka pracovního dne mohou předurčovat hodnotu průměrného hodinového výkonu, který zase předurčuje hodnotu průměrného ročního výkonu zaměstnance.

Produktivita práce podle kalkulačního vzorce je následující:

VG = KR * PRD * VSC

kde VG je průměrný roční výkon pracovníka, t.r.;

KR - počet pracovních dnů, dnů;

VCH - průměrný hodinový výkon, t.r. za osobu;

LWP - délka pracovní směny (den), hodina.

Míru dopadu těchto podmínek lze určit aplikací metody řetězové substituce ukazatelů, metodou absolutních rozdílů, metodou relativních rozdílů a také integrální metodou.

S informacemi o míře dopadu různých podmínek na sledovaný indikátor je možné stanovit míru jejich vlivu na objem výroby. K tomu se hodnota popisující dopad kterékoli z podmínek vynásobí počtem zaměstnanců společnosti při průměrné hodnotě.

Hlavní faktory

Další výzkum produktivity práce je zaměřen na detailní popis dopadu různých podmínek na výkon pracovníků (průměrný roční výkon). Stavy jsou rozděleny do dvou kategorií: extenzivní a intenzivní. Za extenzivní jsou považovány faktory, které mají velký vliv na využití pracovní doby, za intenzivní faktory, které mají velký vliv na hodinovou efektivitu práce.

Analýza extenzivních faktorů je zaměřena na identifikaci nákladů pracovní doby z jejího neproduktivního využití. Náklady na pracovní dobu se určují porovnáním plánovaného a praktického fondu pracovní doby. Výsledky vlivu nákladů na výrobu výrobku se určí vynásobením jejich počtu dnů nebo hodin průměrnou hodinovou (nebo průměrnou denní) produkcí podle plánu na pracovníka.

Analýza intenzivních faktorů je zaměřena na identifikaci podmínek spojených se změnami pracnosti produktu. Snížení pracovní náročnosti je hlavní podmínkou zvýšení produktivity. Pozorována je i zpětná vazba.

Faktorová analýza

Uvažujme základní vzorce pro produktivitu výrobních faktorů.

K zohlednění ovlivňujících faktorů používáme metody a principy výpočtů obecně uznávané v ekonomické vědě.

Vzorec produktivity práce je uveden níže.

kde W je produktivita práce, t.r. za osobu;

Q je objem produktů, které byly vyrobeny v hodnotovém vyjádření, t.r.;

T - počet personálu, lidí.

Vyjádřeme hodnotu Q z tohoto vzorce produktivity:

Objem výroby se tedy mění v závislosti na změnách produktivity práce a počtu zaměstnanců.

Dynamiku změn objemu výroby pod vlivem změn ukazatelů produktivity lze vypočítat pomocí vzorce:

AQ (W) = (W1-W0)*T1

Dynamika změn množství produktů pod vlivem změn počtu zaměstnanců bude vypočtena pomocí vzorce:

AQ (T) = (T1-TO)*W0

Obecný vliv faktorů:

ΔQ (W) + Δ Q (T) = ΔQ (celkem)

Změnu v důsledku vlivu faktorů lze vypočítat pomocí faktorového modelu vzorce produktivity:

PT = UD * D * Tcm * CV

kde PT je produktivita práce, t.r. za osobu

Ud - podíl pracovníků na celkovém počtu personálu

D - dny odpracované jedním pracovníkem za rok, dny

Tsm - průměrný pracovní den, hodina.

CV - průměrná hodinová produktivita práce pracovníka, t.r. za osobu

Základní rezervy

Výzkum produktivity se provádí za účelem vytvoření rezerv pro její růst. Rezervy na zvýšení mohou zahrnovat následující faktory ovlivňující produktivitu práce:

  • zvyšování technologické úrovně výroby, tj. přidávání nejnovějších vědeckých a technických postupů, získávání kvalitních materiálů, mechanizace a automatizace výroby;
  • zlepšení struktury společnosti a výběr nejkompetentnějších zaměstnanců, odstranění fluktuace zaměstnanců, zvýšení kvalifikace zaměstnanců;
  • strukturální změny ve výrobě, které zohledňují výměnu některých jednotlivých druhů výrobků, zvýšení hmotnosti nového výrobku, změnu pracnosti výrobního programu apod.;
  • vytvoření a zkvalitnění potřebné veřejné infrastruktury je řešením potíží spojených s uspokojováním potřeb podniku a pracovních společností.

Pokyny pro zlepšení

Otázka, jak zvýšit produktivitu práce, je pro mnoho podniků velmi aktuální.

Podstata růstu produktivity práce v podniku se projevuje v:

  • změna množství produkce při použití jednotky práce;
  • změna mzdových nákladů na zavedenou jednotku výroby;
  • změna mzdových nákladů o 1 rubl;
  • snížení podílu mzdových nákladů na výrobních nákladech;
  • zlepšování kvality zboží a služeb;
  • snížení výrobních vad;
  • zvýšení počtu produktů;
  • zvýšení objemu prodeje a zisku.

Aby byla zajištěna vysoká produktivita zaměstnanců společnosti, musí management zajistit normální pracovní podmínky. Úroveň lidské produktivity, stejně jako efektivitu jeho práce, může ovlivnit obrovské množství faktorů, jak intenzivních, tak i rozsáhlých. Zohlednění těchto faktorů ovlivňujících produktivitu práce je nutné při výpočtu ukazatele produktivity a rezerv pro její růst.

Systémy pro ukládání dat u naprosté většiny webových projektů (nejen) hrají klíčovou roli. Úkol totiž často spočívá nejen v uložení určitého typu obsahu, ale také v zajištění jeho návratu návštěvníkům a také při zpracování, které klade určité požadavky na výkon.

Zatímco průmysl pohonů používá k popisu a zaručení správného výkonu mnoho dalších metrik, na trhu úložišť a diskových jednotek je běžné používat IOPS jako srovnávací metriku pro účely „pohodlnosti“ srovnání. Výkon úložných systémů, měřený v IOPS (Input Output Operations per Second), operacích vstupu/výstupu (zápis/čtení), je však ovlivněn velkým množstvím faktorů.

V tomto článku bych se rád podíval na tyto faktory, aby byla míra výkonu vyjádřená v IOPS srozumitelnější.

Začněme tím, že IOPS vůbec není IOPS a už vůbec ne IOPS, protože existuje mnoho proměnných, které určují, kolik IOPS v některých případech a v jiných dostaneme. Měli byste také zvážit, že úložné systémy používají funkce čtení a zápisu a poskytují různé množství IOPS pro tyto funkce v závislosti na architektuře a typu aplikace, zejména v případech, kdy I/O operace probíhají současně. Různá pracovní zatížení mají různé požadavky na vstup/výstup (I/O). Úložné systémy, které by na první pohled měly poskytovat odpovídající výkon, tak mohou ve skutečnosti tento úkol nezvládnout.

Základy výkonu pohonu

Abychom problému plně porozuměli, začněme se základy. IOPS, propustnost (MB/s nebo MiB/s) a doba odezvy v milisekundách (ms) jsou běžné jednotky měření výkonu disků a úložných polí.

IOPS se obvykle považuje za měření schopnosti úložného zařízení číst/zapisovat bloky o velikosti 4–8 kB v náhodném pořadí. Což je typické pro online úlohy zpracování transakcí, databáze a pro běh různých aplikací.

Koncept propustnosti jednotky je obvykle použitelný při čtení / zápisu velkého souboru, například v blocích o velikosti 64 KB nebo více, postupně (v 1 proudu, 1 souboru).

Doba odezvy je doba, kterou jednotka potřebuje k zahájení operace zápisu/čtení.

Převod mezi IOPS a propustností lze provést následovně:

IOPS = propustnost/velikost bloku;
Propustnost = IOPS * velikost bloku,

Kde velikost bloku je množství informací přenesených během jedné vstupní/výstupní (I/O) operace. Když tedy známe takovou charakteristiku pevného disku (HDD SATA), jako je šířka pásma, můžeme snadno vypočítat počet IOPS.

Pro příklad si vezměme standardní velikost bloku – 4KB a standardní propustnost deklarovanou výrobcem pro sekvenční zápis nebo čtení (I/O) – 121 MB/s. IOPS = 121 MB / 4 KB, výsledkem je hodnota asi 30 000 IOPS pro náš pevný disk SATA. Pokud se velikost bloku zvýší a bude rovna 8 KB, bude hodnota asi 15 000 IOPS, to znamená, že se bude snižovat téměř úměrně nárůstu velikosti bloku. Tomu je však třeba jasně rozumět zde jsme uvažovali IOPS v klíči sekvenčního zápisu nebo čtení.

Věci se dramaticky mění u tradičních pevných disků SATA, pokud jsou čtení a zápisy náhodné. Zde začíná hrát roli latence, která je velmi kritická v případě HDD (Hard Disk Drive) SATA / SAS a někdy dokonce i v případě SSD (Solid State Drive) SSD. Přestože tyto jednotky často poskytují výkon řádově lepší než „rotující“ jednotky kvůli absenci pohyblivých prvků, stále může docházet ke značným zpožděním záznamu kvůli zvláštnostem technologie, a v důsledku toho při jejich použití v polích . Vážení amarao provedl poměrně užitečnou studii o použití SSD disků v polích, jak se ukázalo, výkon bude záviset na latenci nejpomalejšího disku. Více o výsledcích si můžete přečíst v jeho článku: SSD + raid0 – ne všechno je tak jednoduché.

Vraťme se ale k výkonu jednotlivých pohonů. Podívejme se na případ „rotujících“ pohonů. Čas potřebný k provedení jedné náhodné I/O operace bude určen následujícími komponentami:

T(I/O) = T(A)+T(L)+T(R/W),

Kde T(A) je přístupový čas nebo vyhledávací čas, také známý jako vyhledávací čas, to znamená čas potřebný k tomu, aby byla čtecí hlava umístěna na stopu s blokem informací, který potřebujeme. Výrobce často ve specifikaci disku uvádí 3 parametry:

Čas potřebný k přesunu z nejvzdálenější cesty k nejbližší;
- čas potřebný k přesunu mezi sousedními kolejemi;
- průměrná přístupová doba.

Dospěli jsme tedy k magickému závěru, že T(A) lze zlepšit, pokud svá data umístíme na co nejtěsnější stopy a všechna data budou umístěna co nejdále od středu talíře (na přesunutí je potřeba méně času). blok hlavy a na vnějších drahách je více údajů, protože dráha je delší a otáčí se rychleji než vnitřní). Nyní je jasné, proč může být defragmentace tak užitečná. Zejména s podmínkou umístění dat na externí stopy na prvním místě.

T(L) je zpoždění způsobené rotací disku, tedy čas potřebný k přečtení nebo zápisu konkrétního sektoru na naší stopě. Je snadné pochopit, že bude ležet v rozsahu od 0 do 1/RPS, kde RPS je počet otáček za sekundu. Například s charakteristikou disku 7200 RPM (otáček za minutu) dostaneme 7200/60 = 120 otáček za sekundu. To znamená, že jedna otáčka nastane za (1/120) * 1000 (počet milisekund za sekundu) = 8,33 ms. Průměrné zpoždění se v tomto případě bude rovnat polovině času stráveného na jednu otáčku – 8,33/2 = 4,16 ms.

T(R/W) - čas pro čtení nebo zápis sektoru, který je určen velikostí bloku zvoleného při formátování (od 512 bajtů do ... několik megabajtů, v případě prostornějších jednotek - od 4 kB, standardní velikost clusteru) a šířku pásma, která je uvedena ve specifikacích jednotky.

Průměrné zpoždění otáčení, které se přibližně rovná času strávenému na půl otáčky, se znalostí rychlosti otáčení 7200, 10 000 nebo 15 000 RPM, lze snadno určit. A jak na to, jsme si již ukázali výše.

Zbývající parametry (průměrná doba vyhledávání čtení a zápisu) je obtížnější určit, jsou stanoveny na základě testů a jsou uvedeny výrobcem.

Pro výpočet počtu náhodných IOP pevného disku je možné použít následující vzorec za předpokladu, že počet současných operací čtení a zápisu je stejný (50 %/50 %):

1/(((průměrná doba hledání čtení + průměrná doba hledání zápisu) / 2) / 1000) + (průměrné zpoždění otáčení / 1000)).

Mnoho lidí se zajímá o to, proč přesně toto je původ vzorce? IOPS je počet vstupních nebo výstupních operací za sekundu. To je důvod, proč dělíme 1 sekundu v čitateli (1000 milisekund) časem, přičemž bereme v úvahu všechna zpoždění ve jmenovateli (také vyjádřená v sekundách nebo milisekundách), potřebná k dokončení jedné vstupní nebo výstupní operace.

To znamená, že vzorec může být zapsán takto:

1000 (ms) / ((průměrná doba vyhledávání čtení (ms) + průměrná doba vyhledávání zápisu (ms)) /2) + průměrné zpoždění otáčení (ms))

Pro pohony s různým počtem otáček (otáček za minutu) získáme následující hodnoty:

Pro disk 7200 RPM IOPS = 1/(((8,5+9,5)/2)/1000) + (4,16/1000)) = 1/((9/1000) +
(4,16/1000)) = 1000/13,16 = 75,98;
Pro disk SAS 10 000 ot./min IOPS = 1/(((3,8+4,4)/2)/1000) + (2,98/1000)) =
1/((4,10/1000) + (2,98/1000)) = 1000/7,08 = 141,24;
Pro 15K RPM disk SAS IOPS = 1/(((3,48+3,9)/2)/1000) + (2,00/1000)) =
1/((3,65/1000) + (2/1000)) = 1000/5,65 = 176,99.

Vidíme tedy dramatické změny, kdy z desítek tisíc IOPS pro sekvenční čtení nebo zápis výkon klesne na několik desítek IOPS.

A již při standardní velikosti sektoru 4 KB a přítomnosti tak malého počtu IOPS dostaneme hodnotu propustnosti ne sto megabajtů, ale méně než jeden megabajt.

Tyto příklady také ilustrují, proč existují malé rozdíly ve jmenovitých IOPS disku od různých výrobců pro jednotky se stejnými otáčkami.

Nyní je jasné, proč se údaje o výkonu pohybují v poměrně širokém rozsahu:

7200 RPM (rotace za minutu) HDD SATA - 50-75 IOPS;
10K RPM HDD SAS - 110-140 IOPS;
15K RPM HDD SAS - 150-200 IOPS;
SSD (Solid State Drive) – desítky tisíc IOPS pro čtení, stovky a tisíce pro zápis.

Nominální IOPS disku však stále není přesný, protože nezohledňuje rozdíly v povaze zatížení v jednotlivých případech, což je velmi důležité pochopit.

Také pro lepší pochopení tématu doporučuji přečíst si další užitečný článek od amarao: Jak správně měřit výkon disku, díky kterému také vyjde najevo, že latence není vůbec pevná a závisí také na zátěži a jejím charakteru.

Jediné, co bych chtěl dodat:

Při výpočtu výkonu pevného disku můžeme zanedbat snížení počtu IOPS s rostoucí velikostí bloku, proč?

Již jsme pochopili, že u „rotujících“ pohonů se čas potřebný pro náhodné čtení nebo zápis skládá z následujících složek:

T(I/O) = T(A)+T(L)+T(R/W).

A pak jsme dokonce spočítali výkon pro náhodné čtení a zápis v IOPS. Jde jen o to, že jsme tam v podstatě zanedbali parametr T(R/W), a to není náhodné. Víme, že řekněme, že sekvenční čtení lze dosáhnout rychlostí 120 megabajtů za sekundu. Je zřejmé, že 4KB blok bude načten přibližně za 0,03 ms, což je doba o dva řády kratší než doba ostatních zpoždění (8 ms + 4 ms).

Pokud tedy s velikostí bloku 4KB máme 76 IOPS(hlavní zpoždění bylo způsobeno rotací disku a časem polohování hlavy, nikoli samotným procesem čtení nebo zápisu), pak při velikosti bloku 64 KB nebude pokles IOPS 16násobný, jako u sekvenční čtení, ale pouze několika IOPS. Protože čas strávený přímo čtením nebo zápisem se prodlouží o 0,45 ms, což jsou jen asi 4 % z celkové latence.

Výsledkem je 76-4% = 72,96 IOPS, což, jak vidíte, není ve výpočtech vůbec kritické, protože pokles IOPS není 16krát, ale pouze o několik procent! A při výpočtu výkonu systému je mnohem důležitější nezapomenout zohlednit další důležité parametry.

Magický závěr: Při výpočtu výkonu úložných systémů založených na pevných discích bychom měli vybrat optimální velikost bloku (klastru), abychom zajistili maximální propustnost, kterou potřebujeme, v závislosti na typu použitých dat a aplikací, přičemž IOPS klesá, když se velikost bloku zvětšuje ze 4 kB. až 64 kB nebo dokonce 128 kB lze zanedbat nebo vzít v úvahu jako 4 a 7 %, pokud hrají důležitou roli v daném úkolu.

Je také jasné, proč ne vždy dává smysl používat velmi velké bloky. Například při streamování videa nemusí být velikost bloku dva megabajty nejoptimálnější možností. Protože pokles počtu IOPS bude více než 2krát. Mimo jiné přibudou další degradační procesy v polích spojené s multithreadingem a výpočetní zátěží při distribuci dat po poli.

Optimální velikost bloku (shluku).

Optimální velikost bloku je třeba zvážit v závislosti na charakteru zátěže a typu použitých aplikací. Pokud pracujete s malými daty, například s databázemi, měli byste zvolit standardní 4 KB, ale pokud mluvíte o streamování video souborů, je lepší zvolit velikost clusteru 64 KB nebo více.

Je třeba si uvědomit, že velikost bloku není pro SSD tak kritická jako pro standardní HDD, protože vám umožňuje poskytnout požadovanou propustnost díky malému počtu náhodných IOPS, jejichž počet se s rostoucí velikostí bloku mírně snižuje, na rozdíl od SSD, kde je téměř proporcionální závislost .

Proč standardně 4 KB?

Pro mnoho disků, zejména SSD, se hodnoty výkonu, například zápisy, začínající od 4 KB stávají optimálními, jak je vidět z grafu:

Zatímco pro čtení je rychlost také poměrně výrazná a víceméně snesitelná již od 4 KB:

Z tohoto důvodu se velmi často jako standardní používá velikost bloku 4 KB, protože s menší velikostí dochází k velkým ztrátám výkonu a při zvětšování velikosti bloku v případě práce s malými daty data budou distribuována méně efektivně, zaberou celou velikost bloku a kvóta úložiště nebude efektivně využita.

úroveň RAID

Pokud je váš úložný systém polem disků kombinovaných do RAID určité úrovně, bude výkon systému do značné míry záviset na tom, jaká úroveň RAID byla použita a jaké procento z celkového počtu operací jsou operace zápisu, protože se jedná o zápisy. které ve většině případů způsobují snížení výkonu.

Takže s RAID0 bude spotřebován pouze 1 IOPS na každou vstupní operaci, protože data budou distribuována na všechny disky bez duplikace. V případě zrcadlení (RAID1, RAID10) každá operace zápisu již spotřebuje 2 IOPS, protože informace musí být zapsány na 2 disky.

Při vyšších úrovních RAID jsou ztráty ještě výraznější, například v RAID5 bude penalizační faktor 4, což je způsobeno způsobem distribuce dat mezi disky.

Ve většině případů se místo RAID4 používá RAID5, protože rozděluje paritu (kontrolní součty) na všechny disky. V poli RAID4 je jeden disk zodpovědný za veškerou paritu, zatímco data jsou rozložena na více než 3 disky. To je důvod, proč aplikujeme penalizační faktor 4 v poli RAID5, protože čteme data, čteme paritu, pak zapisujeme data a zapisujeme paritu.

V poli RAID6 je vše podobné, až na to, že místo výpočtu parity jednou to uděláme dvakrát a máme tedy 3 čtení a 3 zápisy, což nám dává penalizační faktor 6.

Zdálo by se, že v poli, jako je RAID-DP, bude vše podobné, protože se v podstatě jedná o upravené pole RAID6. Ale nebylo tomu tak... Trik je v tom, že je použit samostatný souborový systém WAFL (Write Anywhere File Layout), kde jsou všechny operace zápisu sekvenční a provádějí se na volném místě. WAFL v podstatě zapíše nová data na nové místo na disku a poté přesune ukazatele na nová data, čímž eliminuje operace čtení, které je třeba provádět. Kromě toho se do NVRAM zapisuje protokol, který sleduje transakce zápisu, spouští zápisy a v případě potřeby je může obnovit. Na začátku jsou zapsány do vyrovnávací paměti a poté jsou „sloučeny“ na disk, což urychluje proces. Pravděpodobně nám odborníci na NetApp mohou v komentářích podrobněji osvětlit, jak se dosahuje úspor, této problematice jsem ještě úplně nerozuměl, ale vzpomněl jsem si, že penalizační faktor RAID bude pouze 2, nikoli 6. „Trik“ je docela významný.

U velkých polí RAID-DP, která se skládají z desítek jednotek, existuje koncept snížení „paritní penalizace“, ke které dochází, když dojde k paritnímu zápisu. Takže jak pole RAID-DP roste, je potřeba menší počet disků přidělených pro paritu, což povede ke snížení ztrát spojených s paritními záznamy. V malých polích nebo za účelem zvýšení konzervatismu však můžeme tento jev zanedbat.

Nyní, když víme o ztrátách IOPS v důsledku použití té či oné úrovně RAID, můžeme vypočítat výkon pole. Upozorňujeme však, že další faktory, jako je šířka pásma rozhraní, neoptimální rozložení přerušení mezi jádry procesoru atd., šířka pásma řadiče RAID nebo překročení povolené hloubky fronty, mohou mít negativní dopad.

Pokud tyto faktory zanedbáme, vzorec bude následující:

Funkční IOPS = (Raw IOPS * % zápisů / RAID penalizační faktor) + (Raw IOPS * % čtení), kde Raw IOPS = průměrný IOPS disků * počet disků.

Vypočítejme například výkon pole RAID10 s 12 pevnými disky SATA, pokud je známo, že 10 % operací zápisu a 90 % operací čtení probíhá současně. Řekněme, že disk poskytuje 75 náhodných IOPS, s velikostí bloku 4KB.

Počáteční IOPS = 75*12 = 900;
Funkční IOPS = (900*0,1/2) + (900*0,9) = 855.

Vidíme tedy, že při nízké intenzitě zápisu, která je pozorována především v systémech určených pro doručování obsahu, je vliv penalizačního faktoru RAID minimální.

Závislost na aplikaci

Výkon našeho řešení může velmi záviset na aplikacích, které budou následně spouštěny. Mohlo by se tedy jednat o transakční zpracování – „strukturovaná“ data, která jsou organizovaná, konzistentní a předvídatelná. Často v těchto procesech můžete uplatnit princip dávkového zpracování, rozložení těchto procesů v čase tak, aby zatížení bylo minimální, a tím optimalizovat spotřebu IOPS. V poslední době se však objevuje stále více mediálních projektů, kde jsou data „nestrukturovaná“ a vyžadují zcela jiné principy jejich zpracování.

Z tohoto důvodu může být výpočet požadovaného výkonu řešení pro konkrétní projekt velmi obtížným úkolem. Někteří prodejci úložišť a odborníci tvrdí, že na IOPS nezáleží, protože zákazníci v drtivé většině využívají až 30–40 tisíc IOPS, zatímco moderní úložné systémy poskytují stovky tisíc a dokonce miliony IOPS. To znamená, že moderní skladovací prostory uspokojují potřeby 99 % klientů. Toto tvrzení však nemusí být vždy pravdivé, pouze pro obchodní segment, který hostuje úložná zařízení lokálně, ale ne pro projekty hostované v datových centrech, které by často, i při použití hotových úložných řešení, měly poskytovat poměrně vysoký výkon a odolnost proti chybám. .

Pokud je projekt umístěn v datovém centru, je ve většině případů stále ekonomičtější postavit úložné systémy vlastními silami na základě dedikovaných serverů než používat hotová řešení, protože je možné efektivněji rozložit zátěž a vybrat optimální vybavení pro určité procesy. Ukazatele výkonu hotových úložných systémů nejsou mimo jiné ani zdaleka reálné, protože většinou vycházejí z profilových dat ze syntetických výkonnostních testů při použití velikostí bloků 4 nebo 8 KB, zatímco Většina klientských aplikací nyní běží v prostředích s velikostí bloků mezi 32 a 64 KB.

Jak můžeme vidět z grafu:

Méně než 5 % úložných systémů je nakonfigurováno s velikostí bloku menší než 10 KB a méně než 15 % používá bloky s velikostí bloku menší než 20 KB. Navíc i pro danou aplikaci je vzácné, že dojde pouze k jednomu typu I/O spotřeby. Například databáze bude mít různé I/O profily pro různé procesy (datové soubory, protokolování, indexy...). To znamená, že uvedené testy výkonu syntetického systému mohou být daleko od pravdy.

A co zpoždění?

I když pomineme skutečnost, že nástroje používané k měření latence mají tendenci měřit průměrné doby latence a pomineme skutečnost, že jeden I/O v některém procesu může trvat mnohem déle než v jiných, a tím zpomalit průběh celého procesu, vůbec nebrat v úvahu co jak moc se I/O latence změní v závislosti na velikosti bloku. Tato doba bude mimo jiné záviset také na konkrétní aplikaci.

Dostáváme se tak k dalšímu magickému závěru: nejenom, že velikost bloku není příliš dobrou charakteristikou při měření výkonu IOPS systémů, ale latence se také může ukázat jako zcela zbytečný parametr.

Pokud ani IOPS, ani latence nejsou dobrým měřítkem výkonu úložného systému, co tedy je?

Pouze skutečný test spuštění aplikace na konkrétním řešení...

Tento test bude skutečnou metodou, která vám jistě umožní pochopit, jak produktivní bude řešení pro váš případ. K tomu budete muset spustit kopii aplikace na samostatném úložišti a simulovat zátěž po určitou dobu. Jedině tak lze získat spolehlivá data. A samozřejmě je potřeba měřit nikoli metriky úložiště, ale metriky aplikací.

Zohlednění výše uvedených faktorů, které ovlivňují výkon našich systémů, však může být velmi užitečné při výběru úložiště nebo budování určité infrastruktury založené na dedikovaných serverech. S jistou mírou konzervatismu je možné zvolit více či méně realistické řešení, odstranit některé technické a softwarové nedostatky v podobě neoptimální velikosti bloku při dělení nebo neoptimální práce s disky. Řešení samozřejmě nebude 100% garantovat vypočítaný výkon, ale v 99% případů lze říci, že si řešení se zátěží poradí, zvláště pokud do aplikace přidáte konzervativnost v závislosti na typu aplikace a jejích vlastnostech. výpočet.

V každé výrobě je jedním z hlavních cílů vedení společnosti dosahování výsledků. Jedinou otázkou je, kolik úsilí a zdrojů bude zapotřebí v procesu práce k dosažení hlavního cíle. Pro stanovení efektivnosti podniku byl zaveden pojem „produktivita práce“, který je ukazatelem produktivity zaměstnanců. Práce, kterou může vykonat jedna osoba za jednotku času, se běžně nazývá „výstup“.

Pro každý podnik je velmi důležité dosahovat vysokých výsledků a zároveň vynakládat co nejméně zdrojů na výrobu (sem patří účty za elektřinu, nájem atd.).

Nejdůležitějším úkolem v každém podniku, který vyrábí zboží nebo poskytuje služby, je zvýšení produktivity. Zároveň existuje řada opatření, která se obvykle dodržují, aby se snížila výše nákladů potřebných na pracovní proces. V období rozvoje podniku se tedy produktivita práce může měnit.

Zpravidla je klasifikováno několik skupin faktorů, které mohou změnu ovlivnit, a to růst produkčních ukazatelů. Především se jedná o ekonomický a geografický faktor, který zahrnuje dostupnost dostupných pracovních zdrojů, vody, elektřiny, stavebních materiálů, jakož i vzdálenost od komunikací, terénu atd. Neméně důležitý je význam urychlení vědeckého a technického pokroku, podpora zavádění nových generací moderní techniky a využívání vyspělých technologií a automatizovaných systémů. Lze také předpokládat, že produktivita práce závisí i na faktoru strukturálních změn, což znamená změnu podílu komponentů a nakupovaných polotovarů, dále struktury výroby a podílu jednotlivých druhů výrobků.

Sociální (lidský) aspekt zůstává stále velmi důležitý, protože právě starost o sociální dávky stojí za růstem produktivity práce. To zahrnuje: obavy o fyzické zdraví člověka, úroveň intelektuálního rozvoje, profesionalitu atd.

Faktory zvyšující produktivitu práce jsou nejdůležitější složkou celého pracovního procesu, protože ovlivňují rychlost rozvoje každého podniku a tím přispívají ke zvyšování zisku.

Za pozornost také stojí organizační bod, který určuje úroveň řízení výroby a práce. To zahrnuje zlepšení organizace řízení podniku, zlepšení personální, materiální a technické přípravy.

Když mluvíme o produktivitě, nelze ignorovat pracovní náročnost. Tento pojem je odrazem množství duševní a fyzické energie vynaložené zaměstnancem za určitou pracovní dobu.

Je velmi důležité určit optimální intenzitu pro daný pracovní proces, protože nadměrná aktivita může vést k nevyhnutelným ztrátám produktivity. Zpravidla k tomu dochází v důsledku přepracování člověka, nemocí z povolání, úrazů atd.

Stojí za zmínku, že byly identifikovány hlavní ukazatele, které určují intenzitu práce. V první řadě jde o pracovní vytížení člověka. To vám umožní určit intenzitu pracovního procesu a podle toho i proveditelnost nákladů. Zároveň je obvyklé počítat tempo práce, tedy četnost akcí vzhledem k jednotce času. S přihlédnutím k těmto faktorům má podnik zpravidla určité standardy, na základě kterých je stanoven plán výroby.

Faktory produktivity práce jsou předmětem velké pozornosti vědců a praktiků, protože působí jako hlavní příčina, která určuje její úroveň a dynamiku. Faktory studované v analýze lze klasifikovat podle různých kritérií. Nejpodrobnější klasifikaci uvádíme v tabulce 1

stůl 1

Klasifikace faktorů ovlivňujících produktivitu práce

Klasifikační funkce

Skupiny faktorů

Od přírody

Přírodní a klimatické

Socioekonomická

Výrobní a ekonomické

Podle míry dopadu na výsledek

Základní

Méně důležitý

Ve vztahu k předmětu studia

Domácí

V závislosti na týmu

Objektivní

Subjektivní

Podle prevalence

Charakteristický

Podle délky trvání

Trvalý

Proměnné

Podle povahy akce

Rozsáhlý

Intenzivní

Podle vlastností odražených jevů

Kvantitativní

Kvalitní

Podle jeho složení

Podle úrovně podřízenosti (hierarchie)

První objednávka

Druhá objednávka atd.

Kde je to možné, měření dopadu

Měřitelný

Neměřitelné

Podle povahy se faktory dělí na přírodně-klimatické, socioekonomické a výrobně-ekonomické.

Přírodní a klimatické faktory mají velký vliv na výsledky činností v zemědělství, těžebním průmyslu, lesnictví a dalších odvětvích. Zohlednění jejich vlivu nám umožňuje přesněji posuzovat výsledky práce podnikatelských subjektů. Mezi socioekonomické faktory patří životní podmínky pracovníků, organizace kulturních, sportovních a rekreačních prací v podniku, celková úroveň kultury a vzdělání personálu atd. Přispívají k úplnějšímu využití výrobních zdrojů podniku a zvyšují efektivitu své práce. Výrobní a ekonomické faktory určují úplnost a efektivitu využití výrobních zdrojů podniku a konečné výsledky jeho činnosti. Podle míry vlivu na výsledky ekonomické činnosti se faktory dělí na hlavní a vedlejší. Mezi hlavní patří faktory, které mají rozhodující vliv na ukazatel výkonnosti. Ty, které nemají v současných podmínkách rozhodující vliv na výsledky hospodářské činnosti, jsou považovány za druhořadé. Zde je nutné poznamenat, že stejný faktor může být podle okolností primární i sekundární. Schopnost identifikovat hlavní, určující faktory z různých faktorů zajišťuje správnost závěrů na základě výsledků analýzy.

Ve vztahu k předmětu studia se faktory dělí na vnitřní a vnější, tzn. závislé a nezávislé na činnosti tohoto podniku. Hlavní pozornost při analýze by měla být věnována studiu vnitřních faktorů, které může podnik ovlivnit.

Přitom v mnoha případech při rozvinutých výrobních návaznostech a vztazích jsou výsledky každého podniku výrazně ovlivněny činností jiných podniků, např. rovnoměrnost a včasnost dodávek surovin, materiálů, jejich kvalita, nákladovost , tržní podmínky, inflační procesy atd. Tyto faktory jsou vnější. Necharakterizují úsilí daného týmu, ale jejich studium umožňuje přesněji určit míru vlivu vnitřních příčin a tím úplněji identifikovat vnitřní zásoby výroby.

Pro správné posouzení činnosti podniků je třeba faktory dále rozdělit na objektivní a subjektivní. Objektivní faktory, jako je přírodní katastrofa, nezávisí na vůli a přání lidí. Na rozdíl od objektivních důvodů jsou subjektivní důvody závislé na činnosti právnických a fyzických osob.

Podle míry prevalence se faktory dělí na obecné a specifické. Obecné faktory zahrnují faktory, které působí ve všech sektorech ekonomiky. Specifické jsou ty, které působí v určitém odvětví ekonomiky nebo podniku. Toto rozdělení faktorů nám umožňuje plněji zohlednit charakteristiky jednotlivých podniků a odvětví a přesněji posoudit jejich činnost.

Na základě doby trvání dopadu na výsledky výkonnosti se rozlišují faktory na konstantní a proměnlivé. Konstantní faktory ovlivňují zkoumaný jev nepřetržitě po celou dobu. Vliv proměnných faktorů se projevuje periodicky, např. vývojem nové technologie, nových typů výrobků, nové technologie výroby atp.

Velký význam pro hodnocení činnosti podniků má rozdělení faktorů podle charakteru jejich působení na intenzivní a extenzivní. Mezi extenzivní faktory patří faktory, které jsou spojeny spíše s kvantitativním než kvalitativním zvýšením ukazatele užitkovosti, např. zvýšení objemu produkce rozšířením osevní plochy, zvýšením počtu zvířat, počtu pracovníků atp. Intenzivní faktory charakterizují míru úsilí a pracovní náročnosti ve výrobním procesu, např. zvyšování zemědělských výnosů, produktivity hospodářských zvířat a úrovně produktivity práce.

Pokud je cílem analýzy změřit vliv jednotlivých faktorů na výsledky ekonomické činnosti, pak se dělí na kvantitativní a kvalitativní, jednoduché a složité, měřitelné a neměřitelné.

Za kvantitativní jsou považovány faktory, které vyjadřují kvantitativní určitost jevů (počet pracovníků, zařízení, suroviny atd.). Kvalitativní faktory určují vnitřní kvality, vlastnosti a charakteristiky studovaných objektů (produktivita práce, kvalita produktů, úrodnost půdy atd.).

Většina studovaných faktorů má komplexní složení a skládá se z několika prvků. Existují však i takové, které nelze rozložit na jednotlivé části. Podle složení se faktory dělí na komplexní (komplexní) a jednoduché (elementární). Příkladem komplexního faktoru je produktivita práce a jednoduchým je počet pracovních dnů ve vykazovaném období.

Jak již bylo naznačeno, některé faktory mají na ukazatel výkonnosti přímý vliv, jiné nepřímý. Na základě úrovně podřízenosti (hierarchie) se rozlišují faktory prvního, druhého, třetího atd. úrovně podřízenosti. Mezi faktory první úrovně patří ty, které přímo ovlivňují ukazatel výkonnosti. Faktory, které určují ukazatel výkonnosti nepřímo pomocí faktorů první úrovně, se nazývají faktory druhé úrovně atd. Například ve vztahu k hrubé produkci jsou faktory první úrovně průměrný roční počet pracovníků a průměrná roční produkce na pracovníka. Počet dní odpracovaných jedním pracovníkem a průměrný denní výkon jsou faktory druhé úrovně. Mezi faktory třetí úrovně patří délka pracovního dne a průměrný hodinový výkon.

Základem provozování jakéhokoli podnikání je racionální a efektivní využívání dostupných zdrojů, včetně práce. Je zcela logické, že management usiluje o zvýšení objemu produkce bez dodatečných nákladů na najímání pracovníků. Odborníci identifikují několik faktorů, které mohou zvýšit produktivitu:

    Manažerský styl (hlavním úkolem manažera je motivovat zaměstnance, vytvářet organizační kulturu, která oceňuje aktivitu a tvrdou práci).

    Investice do technických inovací (nákup nového zařízení, které odpovídá časové náročnosti, může výrazně snížit čas strávený každým zaměstnancem).

    Školení a semináře pro další vzdělávání (znalost specifik výroby umožňuje personálu podílet se na zlepšování výrobního procesu).

Mnoho uživatelů se ptá, co nejvíce ovlivňuje výkon počítače?

Ukazuje se, že na tuto otázku nelze jednoznačně odpovědět. Počítač je sada subsystémů (paměť, výpočetní technika, grafika, úložiště), které se vzájemně ovlivňují prostřednictvím základní desky a ovladačů zařízení. Pokud nejsou podsystémy správně nakonfigurovány, neposkytují maximální výkon, jaký by mohly.

Komplexní výkon se skládá ze softwarových a hardwarových nastavení a funkcí.
Pojďme si je vyjmenovat.

Faktory výkonu hardwaru:

  1. Počet jader procesoru – 1, 2, 3 nebo 4
  2. Frekvence procesoru a frekvence procesorové systémové sběrnice (FSB) – 533, 667, 800, 1066, 1333 nebo 1600 MHz
  3. Objem a množství vyrovnávací paměti procesoru (CPU) – 256, 512 KB; 1, 2, 3, 4, 6, 12 MB.
  4. Odpovídající frekvenci systémové sběrnice CPU a základní desky
  5. Frekvence paměti s přímým přístupem (RAM) a frekvence paměťové sběrnice základní desky – DDR2-667, 800, 1066
  6. Kapacita RAM – 512 MB nebo více
  7. Čipová sada použitá na základní desce (Intel, VIA, SIS, nVidia, ATI/AMD)
  8. Použitý grafický subsystém je zabudován na základní desce nebo je diskrétní (externí grafická karta s vlastní video pamětí a grafickým procesorem)
  9. Typ rozhraní pevného disku (HDD) – paralelní IDE nebo sériové SATA a SATA-2
  10. Mezipaměť pevného disku – 8, 16 nebo 32 MB.

Zvyšování uvedených technických charakteristik vždy zvyšuje produktivitu.

Jádra

V současnosti má většina vyráběných procesorů minimálně 2 jádra (kromě AMD Sempron, Athlon 64 a Intel Celeron D, Celeron 4xx). Počet jader je důležitý v úlohách 3D vykreslování nebo kódování videa, stejně jako v programech, jejichž kód je optimalizován pro multi-threading několika jader. V ostatních případech (například v kancelářských a internetových úlohách) jsou k ničemu.

Čtyři jádra mít procesory Intel Core 2 Extreme a Core 2 Quad s následujícím označením: QX9xxx, Q9xxx, Q8xxx, QX6xxx;
AMD Phenom X3 – 3 jádra;
AMD Phenom X4 – 4 jádra.

Musíme pamatovat na to, že počet jader výrazně zvyšuje spotřebu CPU a zvyšuje nároky na napájení základní desky a zdroje!

Ale generace a architektura jádra výrazně ovlivňuje výkon jakéhokoli procesoru.
Vezmeme-li například dvoujádrový Intel Pentium D a Core 2 Duo se stejnou frekvencí, systémovou sběrnicí a cache pamětí, pak nepochybně vyhraje Core 2 Duo.

Frekvence sběrnice procesoru, paměti a základní desky

Je také velmi důležité, aby se frekvence různých komponent shodovaly.
Řekněme, že pokud vaše základní deska podporuje frekvenci paměťové sběrnice 800 MHz a je nainstalován paměťový modul DDR2-677, frekvence paměťového modulu sníží výkon.

Současně, pokud základní deska nepodporuje frekvenci 800 MHz a je nainstalován modul DDR2-800, bude fungovat, ale na nižší frekvenci.

Mezipaměti

Mezipaměť procesoru ovlivňuje především při práci s CAD systémy, velkými databázemi a grafikou. Cache je paměť s vyšší přístupovou rychlostí, určená k urychlení přístupu k datům trvale uloženým v paměti s nižší přístupovou rychlostí (dále jen „hlavní paměť“). Ukládání do mezipaměti využívají procesory, pevné disky, prohlížeče a webové servery.

Když CPU přistupuje k datům, je nejprve prozkoumána mezipaměť. Pokud je ve vyrovnávací paměti nalezen záznam s identifikátorem odpovídajícím identifikátoru požadované datové položky, použijí se datové položky v mezipaměti. Tento případ se nazývá cache hit. Pokud v mezipaměti obsahující požadovaný datový prvek nejsou nalezeny žádné záznamy, je tento prvek načten z hlavní paměti do mezipaměti a bude k dispozici pro následný přístup. Tento případ se nazývá cache miss. Procento přístupů do mezipaměti, kde je nalezen výsledek, se nazývá četnost zásahů nebo poměr přístupů do mezipaměti.
Procento zásahů do mezipaměti je vyšší u procesorů Intel.

Všechny CPU se liší počtem cache (až 3) a jejich velikostí. Nejrychlejší cache je první úrovně (L1), nejpomalejší je třetí (L3). Pouze procesory AMD Phenom mají mezipaměť L3. Je tedy velmi důležité, aby mezipaměť L1 měla velkou velikost.

Testovali jsme závislost výkonu na velikosti cache paměti. Pokud porovnáte výsledky 3D stříleček Prey a Quake 4, což jsou typické herní aplikace, je rozdíl ve výkonu mezi 1 a 4 MB přibližně stejný jako mezi procesory s rozdílem frekvence 200 MHz. Totéž platí pro testy kódování videa pro kodeky DivX 6.6 a XviD 1.1.2 a také archivátor WinRAR 3.7. Aplikace náročné na procesor, jako je 3DStudio Max 8, Lame MP3 Encoder nebo H.264 Encoder V2 od MainConceptu však z větší velikosti mezipaměti příliš netěží.
Připomeňme, že L2 cache má mnohem větší vliv na výkon procesoru Intel Core 2 než AMD Athlon 64 X2 nebo Phenom, protože Intel má společnou L2 cache pro všechna jádra, zatímco AMD má samostatnou pro každé jádro. ! V tomto ohledu Phenom pracuje lépe s cache.

RAM

Jak již bylo řečeno, RAM se vyznačuje frekvencí a hlasitostí. Zároveň jsou nyní k dispozici 2 typy pamětí DDR2 a DDR3, které se liší architekturou, výkonem, frekvencí a napájecím napětím – tedy vším!
Frekvence paměťového modulu musí odpovídat frekvenci samotného modulu.

Množství paměti RAM také ovlivňuje výkon operačního systému a aplikací náročných na zdroje.
Výpočty jsou jednoduché – Windows XP po načtení zaberou 300-350 MB RAM. Pokud jsou při spouštění další programy, načítají také RAM. To znamená, že 150-200 MB zůstane volných. Vejdou se tam jen lehké kancelářské aplikace.
Pro pohodlnou práci s AutoCADem, grafickými aplikacemi, 3DMax, kódováním a grafikou je potřeba alespoň 1 GB RAM. Pokud používáte Windows Vista, tak alespoň 2 GB.

Grafický subsystém

Kancelářské počítače často používají základní desky, které mají vestavěnou grafiku. Základní desky na takových čipsetech (G31, G45, AMD 770G atd.) mají ve svém označení písmeno G.
Tyto integrované grafické karty využívají část paměti RAM pro videopaměť, čímž snižují množství místa v paměti RAM, které má uživatel k dispozici.

V souladu s tím, pro zvýšení výkonu, musí být vestavěná grafická karta deaktivována v BIOSu základní desky a musí být nainstalována externí (diskrétní) grafická karta do slotu PCI-Express.
Všechny grafické karty se liší grafickou čipovou sadou, provozní frekvencí kanálů, počtem kanálů, frekvencí videopaměti a šířkou sběrnice videopaměti.

Úložný subsystém

Výkon jednotek je značně ovlivněn při přístupu k velkému množství dat – videa, zvuku, stejně jako při otevírání velkého množství malých souborů.

Mezi technické vlastnosti, které ovlivňují rychlost přístupu k souborům, je třeba poznamenat typ rozhraní pevného disku (HDD) - paralelní IDE nebo sériové SATA a SATA-2 a mezipaměť pevného disku - 8, 16 nebo 32 MB.
V tuto chvíli se doporučuje instalovat pevné disky pouze s rozhraním SATA-2, které má největší šířku pásma a největší mezipaměť.

Faktory výkonu softwaru:

  1. Počet nainstalovaných programů
  2. Fragmentace souborového systému
  3. Chyby souborového systému, vadné sektory
  4. Fragmentace registru OS
  5. chyby registru OS
  6. Velikost souboru stránky (velikost virtuální paměti)
  7. Zahrnuté prvky vizualizace OS GUI
  8. Načítání programů a služeb Windows při spuštění

Toto není úplný seznam, ale toto jsou funkce operačního systému Windows, které mohou značně zpomalit jeho provoz.
O těchto vlastnostech, nastavení a parametrech si ale povíme až v příštím článku.

procesor je základní výpočetní komponenta, která výrazně ovlivňuje výkon počítače. Jak moc ale závisí herní výkon na procesoru? Měli byste změnit procesor, abyste zlepšili herní výkon? Jaké zvýšení to přinese? Na tyto otázky se pokusíme najít odpověď v tomto článku.

1. Co vyměnit grafickou kartu nebo procesor

Před nedávnem jsem se opět setkal s nedostatkem výkonu počítače a bylo jasné, že je čas na další upgrade. V té době byla moje konfigurace následující:

  • Phenom II X4 945 (3 GHz)
  • 8 GB DDR2 800 MHz
  • GTX 660 2 GB

Celkově jsem byl s výkonem počítače celkem spokojený, systém fungoval celkem rychle, většina her běžela na vysoké nebo střední/vysoké grafické nastavení a videa jsem tak často nestříhal, takže 15-30 minut renderování nevadilo mě.

První problémy nastaly ve hře World of Tanks, kdy změna nastavení grafiky z vysokého na střední nepřinesla očekávaný nárůst výkonu. Snímková frekvence pravidelně klesala z 60 na 40 FPS. Bylo jasné, že výkon byl omezen procesorem. Poté bylo rozhodnuto jít až na 3,6 GHz, což vyřešilo problémy ve WoT.

Jenže čas plynul, vycházely nové těžké hry a z WoT jsem přešel na nějakou náročnější na systémové prostředky (Armata). Situace se opakovala a vyvstala otázka, co změnit - grafickou kartu nebo procesor. Nemělo smysl měnit GTX 660 na 1060, bylo nutné vzít alespoň GTX 1070. Starý Phenom by ale takovou grafickou kartu rozhodně nezvládl. A už při změně nastavení v Armatě bylo jasné, že výkon je opět limitován procesorem. Proto bylo rozhodnuto nejprve nahradit procesor přechodem na produktivnější platformu Intel pro hry.

Výměna procesoru znamenala výměnu základní desky a RAM. Ale nebylo jiné východisko; kromě toho existovala naděje, že výkonnější procesor umožní staré grafické kartě, aby byla plně schopná ve hrách závislých na procesoru.

2. Výběr procesoru

V té době neexistovaly žádné procesory Ryzen, jejich vydání se pouze očekávalo. Aby bylo možné je plně vyhodnotit, bylo nutné počkat na jejich vydání a hromadné testování pro identifikaci silných a slabých stránek.

Navíc se už vědělo, že cena v době jejich vydání bude dost vysoká a bylo potřeba počkat ještě asi půl roku, než za ně budou ceny adekvátnější. Nebyla chuť čekat tak dlouho, stejně jako nebyla chuť rychle přejít na stále hrubou platformu AM4. A vzhledem k věčným chybám AMD to bylo také riskantní.

S procesory Ryzen se tedy nepočítalo a přednost dostala již osvědčená, vybroušená a osvědčená platforma Intel na socketu 1151. A jak ukázala praxe, ne nadarmo, jelikož procesory Ryzen dopadly ve hrách hůř, a v jiných výkonových úlohách už jsem měl výkonu dost .

Nejprve byla volba mezi procesory Core i5:

  • Core i5-6600
  • Core i5-7600
  • Core i5-6600K
  • Core i5-7600K

Pro herní počítač střední třídy byl i5-6600 minimální volbou. Do budoucna jsem ale chtěl mít nějakou rezervu pro případ výměny grafické karty. Core i5-7600 se příliš nelišil, takže původní plán byl nákup Core i5-6600K nebo Core i5-7600K s možností přetaktování na stabilních 4,4 GHz.

Ale po přečtení výsledků testů v moderních hrách, kde se zatížení těchto procesorů blížilo 90 %, bylo jasné, že v budoucnu nemusí stačit. Ale chtěl jsem mít dobrou platformu s rezervou už dlouho, protože doby, kdy se dalo upgradovat PC každý rok, jsou pryč

Začal jsem tedy hledat procesory Core i7:

  • Core i7-6700
  • Core i7-7700
  • Core i7-6700K
  • Core i7-7700K

V moderních hrách ještě nejsou plně vytížené, ale někde kolem 60-70%. Ale Core i7-6700 má základní frekvenci pouze 3,4 GHz a Core i7-7700 nemá o moc více - 3,6 GHz.

Podle výsledků testů v moderních hrách se špičkovými grafickými kartami je největší nárůst výkonu pozorován kolem 4 GHz. Pak už to není tak výrazné, někdy skoro neviditelné.

Navzdory skutečnosti, že procesory i5 a i7 jsou vybaveny technologií automatického přetaktování (), neměli byste s tím příliš počítat, protože ve hrách, kde se používají všechna jádra, bude nárůst nevýznamný (pouze 100-200 MHz).

Procesory Core i7-6700K (4 GHz) a i7-7700K (4,2 GHz) jsou tedy optimálnější a vzhledem k možnosti přetaktování na stabilních 4,4 GHz jsou i výrazně perspektivnější než i7-6700 (3,4 GHz ) a i7-7700 (3,6 GHz), protože rozdíl ve frekvenci bude již 800-1000 MHz!

V době upgradu se právě objevily procesory Intel 7. generace (Core i7-7xxx) a byly výrazně dražší než procesory 6. generace (Core i7-6xxx), jejichž ceny již začaly klesat. Zároveň v nové generaci aktualizovali pouze vestavěnou grafiku, která není pro hry potřeba. A jejich možnosti přetaktování jsou téměř stejné.

Kromě toho byly základní desky s novými čipsety také dražší (i když můžete osadit procesor na starší čipset, může to způsobit určité problémy).

Proto bylo rozhodnuto vzít Core i7-6700K se základní frekvencí 4 GHz a možností přetaktování do budoucna na stabilních 4,4 GHz.

3. Výběr základní desky a paměti

Jako většina nadšenců a technických expertů preferuji kvalitní a stabilní základní desky od ASUSu. Pro procesor Core i7-6700K s možností přetaktování jsou nejlepší volbou základní desky založené na čipové sadě Z170. Navíc jsem chtěl mít lepší vestavěnou zvukovku. Proto bylo rozhodnuto vzít nejlevnější herní základní desku od společnosti ASUS na čipové sadě Z170 -.

Paměti s ohledem na podporu základní desky pro modulové frekvence až 3400 MHz chtěly být také rychlejší. Pro moderní herní PC je nejlepší variantou paměťová sada 2x8 GB DDR4. Zbývalo jen najít optimální sestavu z hlediska poměru cena/frekvence.

Zpočátku padla volba na AMD Radeon R7 (2666 MHz), protože cena byla velmi lákavá. Ale v době objednání nebyl skladem. Musel jsem si vybrat mezi mnohem dražším G.Skill RipjawsV (3000 MHz) a o něco levnějším Team T-Force Dark (2666 MHz).

Byla to obtížná volba, protože jsem chtěl rychlejší paměť a finanční prostředky byly omezené. Na základě testů v moderních hrách (které jsem studoval) byl výkonnostní rozdíl mezi pamětí 2133 MHz a 3000 MHz 3-13% a průměrně 6%. Není to moc, ale chtěl jsem dostat maximum.

Faktem ale je, že rychlá paměť se vyrábí továrním přetaktováním pomalejších čipů. Paměť G.Skill RipjawsV (3000 MHz) není výjimkou a pro dosažení této frekvence je její napájecí napětí 1,35 V. Kromě toho procesory těžce tráví paměť s příliš vysokou frekvencí a již při frekvenci 3000 MHz systém nemusí fungovat stabilně. No a zvýšené napájecí napětí vede k rychlejšímu opotřebení (degradaci) jak paměťových čipů, tak řadiče procesoru (Intel to oficiálně oznámil).

Paměť Team T-Force Dark (2666 MHz) zároveň pracuje s napětím 1,2 V a podle výrobce umožňuje zvýšení napětí na 1,4 V, což v případě potřeby umožní přetaktování ručně . Po zvážení všech pro a proti padla volba ve prospěch pamětí se standardním napětím 1,2 V.

4. Testy herního výkonu

Před změnou platforem jsem na starém systému v některých hrách prováděl výkonnostní testy. Po výměně platformy se opakovaly stejné testy.

Testy byly provedeny na čistém systému Windows 7 se stejnou grafickou kartou (GTX 660) při vysokém grafickém nastavení, protože cílem výměny procesoru bylo zvýšení výkonu bez snížení kvality obrazu.

Pro dosažení přesnějších výsledků byly v testech použity pouze hry s vestavěným benchmarkem. Výjimečně byl test výkonu v online střílečce tanků Armored Warfare proveden nahráním opakování a následným přehráním se čtením pomocí Fraps.

Vysoké nastavení grafiky.

Test na Phenom X4 (@3,6 GHz).

Výsledky testu ukazují, že průměrná FPS se mírně změnila (z 36 na 38). To znamená, že výkon v této hře závisí na grafické kartě. Minimální poklesy FPS ve všech testech se však výrazně snížily (z 11-12 na 21-26), což znamená, že hra bude stále o něco pohodlnější.

V naději na zlepšení výkonu s DirectX 12 jsem později provedl test ve Windows 10.

Ale výsledky byly ještě horší.

Batman: Arkham Knight

Vysoké nastavení grafiky.

Test na Phenom X4 (@3,6 GHz).

Test na Core i7-6700K (4,0 GHz).

Hra je velmi náročná jak na grafickou kartu, tak na procesor. Z testů je zřejmé, že výměna procesoru vedla k výraznému nárůstu průměrných FPS (z 14 na 23), snížení minimálních úběrů (z 0 na 15), zvýšila se i maximální hodnota (z 27 na 37). Tyto indikátory však neumožňují pohodlné hraní, proto jsem se rozhodl spustit testy se středním nastavením a zakázat různé efekty.

Střední nastavení grafiky.

Test na Phenom X4 (@3,6 GHz).

Test na Core i7-6700K (4,0 GHz).

Při středním nastavení se také mírně zvýšily průměrné FPS (z 37 na 44) a výrazně se snížily drawdowny (z 22 na 35), čímž překročily minimální hranici 30 FPS pro pohodlnou hru. Mezera v maximální hodnotě také zůstala (z 50 na 64). V důsledku výměny procesoru se hraní stalo docela pohodlným.

Přechod na Windows 10 nezměnil absolutně nic.

Deus Ex: Mankind Divided

Vysoké nastavení grafiky.

Test na Phenom X4 (@3,6 GHz).

Test na Core i7-6700K (4,0 GHz).

Výsledkem výměny procesoru byl pouze pokles FPS drawdownů (ze 13 na 18). Bohužel jsem zapomněl spustit testy se středním nastavením, ale testoval jsem na DirectX 12.

Tím pádem kleslo pouze minimální FPS.

Obrněný Válčení: Projekt Armata

Tuto hru hraji často a stala se jedním z hlavních důvodů pro upgrade mého počítače. Při vysokých nastaveních hra produkovala 40-60 FPS se vzácnými, ale nepříjemnými poklesy na 20-30.

Snížení nastavení na střední odstranilo vážné propady, ale průměrné FPS zůstaly téměř stejné, což je nepřímá známka nedostatku výkonu procesoru.

Byl zaznamenán záznam a testy byly provedeny v režimu přehrávání pomocí FRAPS při vysokých nastaveních.

Jejich výsledky jsem shrnul do tabulky.

procesor FPS (min) FPS (středa) FPS (Max)
Phenom X4 (@3,6 GHz) 28 51 63
Core i7-6700K (4,0 GHz) 57 69 80

Výměna procesoru zcela odstranila kritické poklesy FPS a výrazně zvýšila průměrnou snímkovou frekvenci. To umožnilo povolit vertikální synchronizaci, takže obraz je plynulejší a příjemnější. Hra přitom produkuje stabilních 60 FPS bez propadů a hraje se velmi pohodlně.

Jiné hry

Neprováděl jsem testy, ale obecně je podobný obrázek pozorován u většiny online her a her závislých na procesoru. Procesor vážně ovlivňuje FPS v online hrách, jako je Battlefield 1 a Overwatch. A také ve hrách s otevřeným světem jako GTA 5 a Watch Dogs.

Pro experiment jsem nainstaloval GTA 5 na staré PC s procesorem Phenom a nové s Core i7. Pokud dříve, s vysokým nastavením, FPS zůstávalo v rozmezí 40-50, nyní se stabilně drží nad 60 s prakticky žádnými ztrátami a často dosahuje 70-80. Tyto změny jsou patrné pouhým okem, ale ozbrojený prostě uhasí každého

5. Test výkonnosti vykreslování

Nedělám mnoho úprav videa a provedl jsem pouze jeden jednoduchý test. Full HD video o délce 17:22 a objemu 2,44 GB jsem vyrenderoval na nižší bitrate v programu Camtasia, který používám. Výsledkem byl soubor o velikosti 181 MB. Zpracovatelé dokončili úkol v následujícím čase.

procesor Čas
Phenom X4 (@3,6 GHz) 16:34
Core i7-6700K (4,0 GHz) 3:56

Na vykreslování se samozřejmě podílela grafická karta (GTX 660), protože si nedovedu představit, kdo by vymyslel vykreslování bez grafické karty, protože to trvá 5-10krát déle. Kromě toho plynulost a rychlost přehrávání efektů při střihu také velmi závisí na grafické kartě.

Závislost na procesoru však nebyla zrušena a Core i7 si s tímto úkolem poradilo 4x rychleji než Phenom X4. Jak se zvyšuje složitost úprav a efektů, může se tato doba výrazně prodloužit. Co zvládne Phenom X4 za 2 hodiny, Core i7 zvládne za 30 minut.

Pokud se plánujete vážně zapojit do střihu videa, pak vám výkonný vícevláknový procesor a velké množství paměti výrazně ušetří čas.

6. Závěr

Chuť po moderních hrách a profesionálních aplikacích velmi rychle roste a vyžaduje neustálé investice do upgradu vašeho počítače. Ale pokud máte slabý procesor, pak nemá smysl měnit grafickou kartu, prostě ji neotevře, tzn. Výkon bude limitován procesorem.

Moderní platforma založená na výkonném procesoru s dostatkem RAM zajistí vysoký výkon vašeho PC na mnoho let. To snižuje náklady na upgrade počítače a eliminuje nutnost kompletní výměny PC po několika letech.

7. Odkazy

Procesor Intel Core i7-8700
Procesor Intel Core i5-8400
Procesor Intel Core i3 8100