Параметри комп'ютера, що впливають швидкість роботи. Архітектура мікропроцесора Intel та основні фактори, що впливають на його продуктивність. Щоб ми збираємось робити

У сучасних умовах зростання прибутку є основною необхідною тенденцією розвитку підприємств. Зростання прибутку може бути забезпечене різними шляхами, серед яких можна окремо виділити ефективніше використання персоналу компанії.

Показником виміру результативності трудових ресурсів підприємства є продуктивність.

Загальне уявлення

Продуктивність праці за формулою розрахунку - це критерій, з допомогою якого можна охарактеризувати продуктивність використання труда.

Під продуктивністю праці розглядається ефективність, яку має праця у виробничому процесі. Її можна виміряти певним проміжком витрат часу, які необхідні виробництва одиниці виробленої продукції.

Виходячи з визначення, яке міститься в енциклопедичному словнику Ф. А. Брокгауза та І. А. Єфрона, під продуктивністю або продуктивністю праці належить розглядати співвідношення, що утворюється між обсягом витраченої праці та тим результатом, який може бути отриманий при здійсненні праці.

Л. Є. Басовським продуктивність праці може бути визначена як продуктивність персоналу, яким володіє підприємство. Вона може бути визначена кількістю продукції, яка вироблена в одиницю робочого часу. Цей показник також визначають витрати, які можна віднести до одиниці випущеної продукції.

Продуктивність є та кількість продукції, що виробляє один співробітник за встановлений проміжок часу.

Вона є критерієм, який характеризує продуктивність певної живої праці та результативність виробничої роботи відповідно до формування продукту, що припадає на кожну одиницю витраченого на їх виготовлення трудового часу.

Ефективність роботи збільшується на основі технологічного прогресу, лінією запровадження нових технологій, збільшення кваліфікації співробітників та їхньої фінансової зацікавленості.

Етапи аналізу

Оцінка продуктивність праці складається з наступних основних етапів:

  • аналіз абсолютних показників за кілька років;
  • визначення впливу певних факторних показників на динаміку продуктивності;
  • визначення резервів приросту продуктивності.

Основні показники

Основними найважливішими показниками продуктивності, що аналізуються на сучасних підприємствах, що працюють у ринкових умовах, можуть бути такі, як необхідність повної зайнятості персоналу, висока вироблення.

Вироблення продукції є значення продуктивності, що припадає на одиницю витрат праці. Вона може бути визначена при співвіднесенні кількості випущеної продукції або наданих послуг, які були здійснені за певну одиницю часу.

Трудомісткість - це співвідношення між витратами робочого дня та обсягом виробництва, що характеризує витрати на одну одиницю продукції чи послуг.

Способи розрахунку

З метою вимірювання продуктивності роботи використовують три способи розрахунку продуктивності:

  • Натуральний метод. Він використовують у організаціях, що випускають гомогенну продукцію. Цей метод враховує обчислення продуктивності роботи як відповідність між обсягом виготовленої продукції у природному вираженні та середньообліковою чисельністю співробітників;
  • трудовий метод використовується, якщо на робочих ділянках виконується величезна кількість продукту з асортиментом, що часто змінюється; формування визначається в нормо-годинах (обсяг робіт, помножений на норму часу), а підсумки підсумовуються згідно з різними типами товару;
  • вартісний метод. Він використовують у організаціях, які випускають неоднорідну продукцію. Даний метод враховує обчислення продуктивності роботи як відповідність між обсягом виготовленої продукції у вартісному формулюванні та середньообліковою чисельністю співробітників.

З метою оцінки рівня продуктивності роботи застосовується концепція особистих, додаткових та узагальнюючих показників.

Приватні властивості - це тимчасові витрати, які потрібні випуск одиниці виробленої продукції у природному вираженні за єдиний чел.-день чи чел.-час. Допоміжні властивості враховують витрати часу здійснення одиниці певного виду робіт чи обсяг виконаних робіт за одиницю періоду.

Методика розрахунку

Серед можливих варіантів продуктивності праці можна виділити такі показники: вироблення, яке може бути середньорічним, середньоденним і середньогодинним щодо одного співробітника. Між цими ознаками є прямий взаємозв'язок: кількість робочих днів і тривалість трудового дня можуть визначати значення середньогодинної виробітку, яка, у свою чергу, визначає значення середньорічного виробітку працівника.

Продуктивність праці за формулою розрахунку виглядає так:

ВГ = КР * ПРД * ВСЧ

де ВГ - вироблення робітника середньорічне, т. н.;

КР – кількість робочих днів, дн.;

ВСЧ - середньогодинна вироблення, т. н. на чол.;

ПРД – тривалість робочої зміни (дня), год.

Рівень впливу цих умов може бути визначений при застосуванні методики ланцюгової підстановки показників, методик абсолютних різниць, методик відносних різниць, а також інтегральним способом.

Маючи відомості про рівень впливу різних умов на досліджуваний показник, можна встановити рівень впливу їх на обсяг виробництва. Для цього значення, що описує вплив будь-якої з умов, множать на чисельність працівників підприємства за середнім значенням.

Основні фактори

Подальше дослідження продуктивності роботи спрямовано деталізацію впливу різних умов вироблення робітника (середньорічну). Умови поділяють на дві категорії: екстенсивні та інтенсивні. До екстенсивних зараховують чинники, що мають великий вплив застосування робочого часу, до інтенсивним - чинники, надають великий вплив часову ефективність роботи.

Аналіз екстенсивних чинників спрямовано виявлення витрат трудового часу з невиробничого його використання. Недоліки трудового часу встановлюють зіставленням планового та практичного фонду трудового часу. Підсумки впливу витрат на виробництво продукту встановлюють множенням їх кількості днів або годин на середньогодинну (або середньоденну) вироблення за планом, що припадає на одного робітника.

Аналіз інтенсивних чинників спрямовано виявлення умов, пов'язаних зі зміною трудомісткістю продукту. Зниження трудомісткості - основна умова збільшення продуктивності роботи. Спостерігається і зворотний зв'язок.

Факторний аналіз

Розглянемо основні формули продуктивності факторів виробництва.

Для розгляду факторів впливу застосовуємо загальновизнані в економічній науці методи та принципи розрахунків.

Формула продуктивності праці представлена ​​нижче.

де W - продуктивність праці, т. н. на чол.;

Q - обсяг продукції, що була випущена у вартісному вираженні, т. н.;

Т – чисельність персоналу, чол.

Виділимо з цієї формули продуктивності значення Q:

Таким чином, обсяг продукції змінюється в залежності від зміни продуктивності праці та кількості персоналу.

Динаміка зміни обсягу продукції під впливом зміни показника продуктивності може бути розрахована за такою формулою:

ΔQ (W) = (W1-W0) * Т1

Динаміка зміни кількості продукції під впливом зміни чисельності співробітників розрахуємо за такою формулою:

ΔQ (Т) = (Т1-Т0) * W0

Загальна дія факторів:

ΔQ(W) + ΔQ(Т) = ΔQ (загальне)

Зміна за рахунок впливу факторів можна розрахувати за факторною моделлю формули продуктивності:

ПТ = Уд * Д * Тсм * ЧВ

де ПТ - продуктивність праці, т. н. на чол.

Уд - питома вага робітників у загальній чисельності персоналу

Д - відпрацьовано днів одним робітником за рік, днів

Тсм – середня тривалість робочого дня, година.

ЧВ - середньогодинна продуктивність праці робітника, т. н. на чол.

Основні резерви

Дослідження продуктивності виконується з метою встановлення резервів її зростання. Резервами збільшення можуть бути такі фактори, що впливають на продуктивність праці:

  • збільшення технологічного рівня виготовлення, тобто додавання новітніх науково-технічних процесів, отримання високоякісного матеріалу, механізування та автоматизування виготовлення;
  • удосконалення структури компанії та підбір найбільш грамотних співробітників, усунення плинності співробітників, збільшення кваліфікації працівників;
  • структурні зміни у виготовленні, які враховують заміну частини одиничних типів продукту, збільшення ваги новітнього продукту, зміну трудомісткості виробничої програми тощо;
  • формування та вдосконалення необхідної суспільної інфраструктури - це вирішення труднощів, пов'язаних із задоволенням потреб підприємства, трудових товариств.

Напрями підвищення

Питання про те, як підвищити продуктивність праці, дуже актуальне для багатьох підприємств.

Сутність зростання продуктивності праці на підприємстві проявляється у:

  • зміні кількості продукції під час використання одиниці праці;
  • зміні вироблених витрат праці на встановлену одиницю продукції;
  • зміну витрат зарплати на 1 карбованець;
  • зниження частки витрат за працю у собівартості;
  • підвищення якості товарів та послуг;
  • скорочення шлюбу виробництва;
  • збільшення кількості продукції;
  • збільшення маси реалізації та прибутку.

Щоб забезпечити високу віддачу співробітників компанії, керівництву необхідно забезпечити нормальні трудові умови. На рівень продуктивності людини, а також і на ефективність її праці може впливати безліч факторів як інтенсивного, так і екстенсивного характеру. Облік даних факторів, що впливають на продуктивність праці, необхідний при розрахунку показника продуктивності та резервів її зростання.

Системи зберігання даних для більшості веб-проектів (і не тільки) відіграють ключову роль. Адже найчастіше завдання зводиться не лише до зберігання певного типу контенту, але й до забезпечення його віддачі відвідувачам, а також обробки, що накладає певні вимоги до продуктивності.

У той час, як при виробництві накопичувачів використовується безліч інших метрик, щоб описати і гарантувати належну продуктивність, на ринку систем зберігання та дискових накопичувачів, прийнято використовувати IOPS як порівняльну метрику з метою «зручності» порівняння. Однак продуктивність систем зберігання, що вимірюється в IOPS (Input Output Operations per Second), операціях введення/виведення (запису/читання), схильна до впливу великої кількості факторів.

У цій статті я хотів би розглянути ці фактори, щоб зробити міру продуктивності, виражену в IOPS, більш зрозумілою.

Почнемо з того, що IOPS зовсім не IOPS і навіть зовсім не IOPS, тому що існує безліч змінних, які визначають скільки IOPS ми отримаємо в одних та інших випадках. Також слід взяти до уваги, що системи зберігання використовують функції читання та запису та забезпечують різну кількість IOPS для цих функцій залежно від архітектури та типу програми, особливо у випадках, коли операції введення/виводу відбуваються одночасно. Різні робочі навантаження висувають різні вимоги до операцій введення/виведення (I/O). Таким чином, системи зберігання, які на перший погляд мали б забезпечувати належну продуктивність, насправді можуть не впоратися з поставленим завданням.

Основи продуктивності накопичувачів

А, щоб набути повноцінне розуміння у питанні, почнемо з основ. IOPS, пропускна здатність (MB/s або MiB/s) та час відгуку в мілісекундах (мс) є загальноприйнятими одиницями вимірювання продуктивності накопичувачів та масивів із них.

IOPS зазвичай розглядають у ключі вимірювання здатності пристрою зберігання проводити читання/запис блоками розміром 4-8КБ у випадковому порядку. Що типово для завдань онлайн-обробки транзакцій, баз даних та для запуску різних програм.

Поняття пропускну здатність накопичувача зазвичай застосовується під час читання / запису великого файла, наприклад, блоками 64КБ і більше, послідовно (в 1 потік, 1 файл).

Час відгуку - час, що потрібно накопичувачу у тому, щоб почати виконувати операцію записи / читання.

Перетворення між IOPS та пропускною здатністю може бути виконано наступним чином:

IOPS = пропускна здатність/розмір блоку;
Пропускна спроможність = IOPS * розмір блоку,

Де розмір блоку - кількість інформації, передана протягом однієї операції введення/виведення (I/O). Таким чином, знаючи таку характеристику жорсткого диска (HDD SATA), як пропускну здатність - ми легко можемо обчислити кількість IOPS.

Наприклад, візьмемо стандартний розмір блоку - 4КБ та стандартну пропускну здатність, заявлену виробником для послідовного запису або читання (I/O) - 121 Мбайт/с. IOPS = 121 МБ/4 КБ, в результаті чого отримаємо значення 30 000 IOPS для нашого жорсткого диска SATA. Якщо розмір блоку збільшити і зробити рівним 8 КБ, значення буде близько 15 000 IOPS, тобто знизиться практично пропорційно збільшенню розміру блоку. Однак потрібно чітко розуміти, що Тут ми розглядали IOPS у ключі послідовного запису чи читання.

Все змінюється драматичним чином для традиційних жорстких дисків SATA, якщо читання і запис будуть випадковими. Тут починає грати роль затримка (latency), яка дуже критична у разі жорстких дисків HDDs (Hard Disk Drives) SATA/SAS, а часом навіть у разі твердотільних накопичувачів SSD (Solid State Drive). Хоча останні найчастіше забезпечують продуктивність на порядки кращу, ніж у «накопичувачів, що обертаються», за рахунок відсутності рухомих елементів, але все ж можуть виникати відчутні затримки при записі, через особливості технології, і, як наслідок, при використанні їх в масивах. Поважний amarao провів досить корисне дослідження з використання твердотільних накопичувачів в масивах, як з'ясувалося, продуктивність залежатиме від latency найповільнішого з дисків. Більш детально з результатами Ви можете ознайомитись у його статті: SSD + raid0 – не все так просто.

Але повернемось до продуктивності окремо взятих накопичувачів. Розглянемо випадок з «накопичувачами, що обертаються». Час, необхідний для виконання однієї випадкової операції введення/виведення, буде визначатися такими складовими:

T(I/O) = T(A)+T(L)+T(R/W),

Де T(A) - час доступу (access time чи seek time), також відоме, як час пошуку, тобто час, необхідне у тому, щоб зчитує голівка, було поміщено доріжку з потрібним нам блоком інформації. Найчастіше у специфікації диска виробником вказуються 3 параметри:

Час, необхідний, щоб переміститися з найдальшою доріжці до найближчої;
- час, необхідний переміщення між суміжними доріжками;
- Середній час доступу.

Таким чином ми приходимо до чарівного висновку, що показник T(A) може бути покращений, якщо ми розміщуємо наші дані на якомога ближче доріжках, а всі дані розташовуються якнайдалі від центру пластини (потрібно менше часу для переміщення блоку магнітних головок, а на зовнішніх доріжках даних більше, тому що більша довжина доріжки і вона обертається швидше, ніж внутрішня). Тепер стає зрозуміло чому дефрагментація може бути така корисна. Особливо з умовою розміщення даних на зовнішніх доріжках насамперед.

T(L) - затримка, викликана обертанням диска, тобто час, необхідне у тому, щоб рахувати чи записати конкретний сектор нашій доріжці. Легко зрозуміти, що воно лежатиме в межах від 0 до 1/RPS, де RPS – кількість обертів на секунду. Наприклад при характеристиці диска в 7200 RPM (оборотів на хвилину) ми отримаємо 7200/60 = 120 обертів на секунду. Тобто один оборот відбувається за (1/120) * 1000 (кількість мілісекунд за секунду) = 8,33 мс. Середня ж затримка в цьому випадку дорівнюватиме половині часу, що витрачається на один оборот - 8,33/2 = 4,16 мс.

T(R/W) - час читання або запису сектора, який визначається розміром обраного при форматуванні блоку (від 512 байт і до... декількох мегабайт, у разі більш ємних накопичувачів - від 4 кілобайт, стандартний розмір кластера) і пропускною здатністю, яка вказано в характеристиках накопичувача.

Середню затримку обертання, яка дорівнює приблизно часу, витраченому на половину обороту, знаючи швидкість обертання 7200, 10 000 або 15 000 RPM, легко визначити. Та вище ми вже показали як.

Інші ж параметри (середній час пошуку читання та запису) визначити складніше, вони визначаються вже в результаті тестів та вказуються виробником.

Для розрахунку кількості випадкових IOPs жорсткого диска можна застосувати таку формулу, за умови коли кількість одночасних операцій читання та запису однакова (50%/50%):

1/(((середній час пошуку читання + середній час пошуку запису) / 2) / 1000) + (середня затримка обертання / 1000)).

Багато хто цікавиться, чому саме таке походження формули? IOPS – кількість операцій введення або виведення на секунду. Саме тому ми ділимо в чисельнику 1 секунду (1000 мілісекунд) на якийсь час з урахуванням всіх затримок у знаменнику (виражене також у секундах або мілісекундах), необхідне для здійснення однієї операції введення або виведення.

Тобто формула може бути записана таким чином:

1000 (мс) / ((середній час пошуку читання (мс) + середній час пошуку запису (мс)) /2) + середня затримка обертання (мс))

Для накопичувачів з різною кількістю RPM (обертання в хвилину), ми отримаємо наступні значення:

Для 7200 RPM накопичувача IOPS = 1/(((8,5+9,5)/2)/1000) + (4,16/1000)) = 1/((9/1000) +
(4,16/1000)) = 1000/13,16 = 75,98;
Для 10K RPM SAS накопичувача IOPS = 1/(((3,8+4,4)/2)/1000) + (2,98/1000)) =
1/((4,10/1000) + (2,98/1000)) = 1000/7,08 = 141,24;
Для 15K RPM SAS накопичувача IOPS = 1/((((3,48+3,9)/2)/1000) + (2,00/1000)) =
1/((3,65/1000) + (2/1000)) = 1000/5,65 = 176,99.

Таким чином, ми бачимо драматичні зміни, коли з десятків тисяч IOPS при послідовному читанні або запису, продуктивність падає до декількох десятків IOPS.

І вже, при стандартному розмірі сектора в 4КБ, і наявності такого малого числа IOPS, ми отримаємо значення пропускної спроможності аж ніяк не в сотню мегабайт, а менше, ніж у мегабайт.

Ці приклади також ілюструють причину незначних змін у номінальних дискових IOPS від різних виробників для дисків з одним і тим самим показником RPM.

Тепер стає зрозумілим, чому дані продуктивності лежать у досить широких діапазонах:

7200 RPM (Rotate per Minute) HDD SATA – 50-75 IOPS;
10K RPM HDD SAS – 110-140 IOPS;
15K RPM HDD SAS – 150-200 IOPS;
SSD (Solid State Drive) – десятки тисяч IOPS на читання, сотні та тисячі на запис.

Однак номінальний дисковий IOPS залишається все ж таки далеко неточними, тому що не враховує відмінностей у характері навантажень в окремо взятих випадках, що дуже важливо розуміти.

Також, для кращого розуміння теми, рекомендую ознайомитися ще з однією корисною статтею від amarao: Як правильно міряти продуктивність диска, завдяки якій ставати також зрозумілим, що latency цілком не фіксована і також залежить від навантаження та її характеру.

Єдине, хотілося б додати:

При розрахунку продуктивності жорсткого диска можна знехтувати зниженням кількості IOPS зі збільшенням розміру блоку, чому?

Ми вже зрозуміли, що для накопичувачів, що обертаються, час, необхідний для випадкового читання або запису, складається з наступних компонентів:

T(I/O) = T(A)+T(L)+T(R/W).

І далі навіть розрахували продуктивність при випадковому читанні та запису в IOPS. Ось тільки параметром T(R/W) ми там, по суті, знехтували, і це не випадково. Ми знаємо, що припустимо, послідовне читання може бути забезпечене на швидкості 120 мегабайт в секунду. Стає зрозумілим, що блок в 4КБ, буде рахований приблизно за 0,03 мс, час на два порядки менший, ніж час інших затримок (8 мс + 4 мс).

Таким чином, якщо при розмірі блоку 4КБ ми маємо 76 IOPS(основна затримка була викликана обертанням накопичувача і часом позиціонування головки, а не самим процесом читання або запису), то при розмірі блоку в 64КБ, падіння IOPS буде не в 16 разів, як при послідовному читанні, а лише на кілька IOPS. Оскільки час, що витрачається безпосередньо читання чи запис, зросте на 0,45 мс, що становить лише близько 4% від загального часу затримки.

В результаті ми отримаємо 76-4% = 72,96 IOPS, що погодьтеся, зовсім не критично при розрахунках, оскільки падіння IOPS не в 16 разів, а лише на кілька відсотків! І при розрахунках продуктивності систем набагато важливіше не забути врахувати інші важливі параметри.

Чарівний висновок:при розрахунку продуктивності систем зберігання, заснованих на жорстких дисках, слід підбирати оптимальний розмір блоку (кластера), для забезпечення потрібної нам максимальної пропускної спроможності в залежності від типу даних і додатків, причому падінням IOPS при збільшенні розміру блоку з 4КБ до 64КБ або навіть 128КБ можна знехтувати, або враховувати, як 4 і 7% відповідно, якщо у поставленому завданні вони відіграватимуть важливу роль.

Також стає зрозуміло, чому не завжди є сенс використовувати дуже великі блоки. Скажімо, при відеостримінгу, двомегабайтний розмір блоку може виявитися далеко не найоптимальнішим варіантом. Так як падіння кількості IOPS буде більш ніж у 2 рази. Крім іншого, додадуться інші деградаційні процеси в масивах, пов'язані з багатопоточністю та обчислювальним навантаженням при розподілі даних по масиву.

Оптимальний розмір блоку (кластера)

Оптимальний розмір блоку потрібно враховувати в залежності від характеру навантаження та типу програм, що використовуються. Якщо йдеться з даними невеликого розміру, наприклад з базами даних - слід вибрати стандартні 4 КБ, якщо йдеться про стрімінг відеофайлів - розмір кластера краще вибирати від 64 КБ і більше.

Слід пам'ятати, що розмір блоку не настільки критичний для SSD, скільки для стандартних HDD, оскільки дозволяє забезпечити потрібну пропускну здатність через невелику кількість випадкових IOPS, кількість яких знижується незначно при збільшенні розміру блоку, на відміну від SSD, де спостерігається практично пропорційна залежність .

Чому стандарт 4 КБ?

Для багатьох накопичувачів, особливо твердотільних, значення продуктивності, наприклад записи, починаючи з 4 КБ, стають раціональними, це видно з графіка:

У той час, як на читання, швидкість також досить істотна і більш-менш стерпна починаючи з 4 КБ:

Саме з цієї причини 4 КБ розмір блоку дуже часто застосовують за стандартний, тому що при меншому розмірі йдуть великі втрати продуктивності, а при збільшенні розміру блоку, у разі роботи з невеликими даними, дані будуть розподілені менш ефективно, займати весь розмір блоку та квота накопичувача використовуватиметься не ефективно.

Рівень RAID

Якщо Ваша система зберігання є масивом накопичувачів об'єднаних у RAID певного рівня, то продуктивність системи залежатиме значною мірою від того, який саме рівень RAID був застосований і який відсоток від загальної кількості операцій припадає на операції запису, адже саме запис є причиною зниження продуктивності в більшості випадків.

Так, при RAID0, на кожну операцію введення витрачатиметься лише 1 IOPS, адже дані будуть розподілені по всіх накопичувачах без дублювання. У випадку ж дзеркала (RAID1, RAID10), кожна операція запису буде споживати вже 2 IOPS, оскільки інформація має бути записана на 2 накопичувачі.

У вищих рівнях RAID втрати набагато істотніше, наприклад у RAID5 штрафний коефіцієнт буде вже 4, що з тим, як дані розподіляються по дисках.

RAID5 використовується замість RAID4 у більшості випадків, оскільки розподіляє парність (контрольні суми) по всіх дисках. У масиві RAID4 один із дисків відповідальний за всю парність, тоді як дані поширені більш ніж 3 диска. Саме тому ми застосовуємо штрафний коефіцієнт 4 в масиві RAID5, тому що ми читаємо дані, читаємо парність, потім пишемо дані та пишемо парність.

У масиві RAID6 все аналогічно, за винятком того, що ми замість обчислення парності один раз, робимо це двічі і таким чином маємо 3 операції читання та 3 записи, що дає нам штрафний коефіцієнт 6.

Здавалося б, що в такому масиві, як RAID-DP, все буде аналогічно, оскільки це по суті модифікований масив RAID6. Але не тут було… Хитрість полягає в тому, що застосовується окрема файлова система WAFL (Write Anywhere File Layout), де всі операції запису послідовні і виробляються на вільне місце. WAFL в основному напише нові дані в нове місце на диску і потім перемістить покажчики на нові дані, усуваючи таким чином операції читання, які повинні мати місце. Крім того, йде запис журналу в NVRAM, який відстежує транзакції запису, ініціює запис і може відновити їх за необхідності. Йде запис у буфер на початку, а потім вони вже зливаються на диск, що прискорює процес. Ймовірно, експерти в NetApp можуть просвітити нас більш докладно в коментарях, за рахунок чого досягається економія, я поки що ще не до кінця розібрався в цьому питанні, але запам'ятав, що штрафний коефіцієнт RAID буде лише 2, а не 6. «Хитрість» вельми суттєва.

При великих масивах RAID-DP, які складаються з десятків дисків, існує поняття зменшення "штрафу парності", що виникає під час запису парності. Так при зростанні масиву RAID-DP, потрібно менше дисків, що виділяються під парність, що призведе до зниження втрат, пов'язаних із записами парностей. Однак у невеликих масивах, або з метою підвищення консерватизму, ми можемо знехтувати цим явищем.

Тепер, знаючи про втрати IOPS внаслідок застосування тієї чи іншої рівня RAID, ми можемо розрахувати продуктивність масиву. Однак, будь ласка, зверніть увагу, що інші фактори, такі як пропускна здатність інтерфейсу, неоптимальний розподіл переривань по ядрах процесора і т.п., пропускна здатність RAID-контролера, перевищення допустимої глибини черги - можуть негативно впливати.

У разі нехтування цими факторами формула буде наступною:

Функціональні IOPS = (Вихідні IOPS * % операцій запису / штрафний коефіцієнт RAID) + (Вихідні IOPS * % читання), де Вихідні IOPS = усереднений IOPS накопичувачів * кількість накопичувачів.

Розрахуємо для прикладу продуктивність масиву RAID10 з 12 дисків HDD SATA, якщо відомо, що одночасно відбувається 10% операцій запису та 90% операцій читання. Припустимо, що диск забезпечує 75 випадкових IOPS при розмірі блоку 4КБ.

Вихідні IOPS = 75 * 12 = 900;
Функціональні IOPS = (900 * 0,1 / 2) + (900 * 0,9) = 855.

Таким чином бачимо, що при малій інтенсивності запису, що в основному спостерігається в системах, розрахованих на віддачу контенту, вплив штрафного коефіцієнта RAID мінімальний.

Залежність від додатків

Продуктивність нашого рішення дуже може залежати від додатків, які будуть виконуватися згодом. Так це може бути обробка транзакцій – «структурованих» даних, які організовані, послідовні та передбачувані. Найчастіше в цих процесах можна застосувати принцип пакетної обробки, розподіливши ці процеси в часі так, коли навантаження мінімальне, оптимізувавши споживання IOPS. Проте останнім часом з'являється дедалі більше медійних проектів, де дані «не структуровані» і потребують зовсім інших принципів їхньої обробки.

Тому підрахунок необхідної продуктивності рішення для конкретного проекту може стати дуже складним завданням. Деякі з виробників сторедж-сховищ та експертів стверджують, що IOPS не мають значення, оскільки клієнти переважно використовують до 30-40 тисяч IOPS, у той час, як сучасні системи зберігання забезпечують сотні тисяч і навіть мільйони IOPS. Тобто сучасні сховища задовольняють потреби 99% клієнтів. Тим не менш це твердження може бути справедливо далеко не завжди, лише для бізнес-сегменту, який розміщує сховища у себе, локально, але не для проектів, що розміщуються в дата-центрах, які найчастіше, навіть при використанні готових рішень зберігання, повинні забезпечувати досить високу продуктивність та відмовостійкість.

У разі розміщення проекту в дата-центрі, в більшості випадків, все ж таки економічніше будувати системи зберігання самостійно на основі виділених серверів, ніж використовувати готові рішення, оскільки стає можливим більш ефективно розподілити навантаження і підібрати оптимальне обладнання для тих чи інших процесів. Крім іншого, показники продуктивності готових систем зберігання, далекі від реальних, оскільки здебільшого засновані на даних профілів синтетичних тестів продуктивності, при застосуванні 4 або 8 КБ розміру блоку, тоді як більшість клієнтських програм працює зараз у середовищах з розміром блоку від 32 до 64 КБ.

Як бачимо з графіка:

Менш ніж 5% систем зберігання налаштовані із застосуванням блоку менше 10 КБ і менше ніж 15% використовують блоки з розміром менше 20 КБ. Крім того, навіть для певної програми, рідко коли виникає споживання I/O лише одного типу.Наприклад у бази даних будуть різні профілі I/O для різних процесів (файли з даними, логування, індекси...). Отже, заявлені синтетичні тести продуктивності систем, можуть бути далекими від істини.

А що щодо затримок?

Навіть якщо ми ігноруватимемо той факт, що інструменти, що застосовуються для вимірювання latency, мають тенденцію вимірювати середні часи очікування і упускають те, що один єдиний I/O в якомусь із процесів може займати куди більше часу, ніж інші, таким чином уповільнюючи хід всього процесу , то зовсім не враховують те, наскільки час очікування I/O зміниться залежно від розміру блоку. Крім того, цей час також буде залежати від конкретної програми.

Таким чином ми приходимо до ще одного чарівного висновку, що не тільки розмір блоку є не дуже гарною характеристикою при вимірюванні продуктивності IOPS систем, але й latency може бути марним параметром.

Добре, якщо ні IOPS, ні час очікування не є гарним заходом вимірювання продуктивності системи зберігання, то що тоді?

Тільки реальний тест виконання програми на конкретному рішенні.

Цей тест буде тим реальним методом, який, напевно, дозволить зрозуміти, наскільки продуктивним буде рішення для Вашого випадку. Для цього потрібно запустити копію програми на окремо взятому сховищі і симулювати навантаження за певний період. Тільки так можна отримати достовірні дані. І, зрозуміло, потрібно вимірювати не метрики сховища, а метрики програми.

Проте облік наведених вище факторів, що впливають на продуктивність наших систем, може бути дуже корисним при виборі сховища або побудові певної інфраструктури на основі виділених серверів. З певним ступенем консерватизму стає можливим підібрати більш-менш реальне рішення, виключити деякі технічні та програмні вади у вигляді не оптимального розміру блоку при розбивці або оптимальної роботи з дисками. Рішення, звичайно, не буде на 100% гарантувати розрахункову продуктивність, але в 99% випадків можна буде говорити, що рішення впорається з навантаженням, особливо якщо додавати консерватизм залежно від типу додатка та його особливостей у розрахунок.

За будь-якого виробництва продукції однією з головних цілей, яку переслідує керівництво компанії, є отримання результату. Питання лише тому, скільки зусиль і ресурсів знадобиться у процесі роботи задля досягнення головної мети. Для визначення ефективності роботи підприємства було запроваджено поняття «продуктивність праці», що є показником плідності персоналу. Робота, яку може зробити одна людина за одиницю часу, умовно називають «виробітком».

Для кожного підприємства дуже важливо отримати високий результат і при цьому якнайменше витратити ресурсів на виробництво (сюди входить плата за електроенергію, орендна плата тощо).

Найважливішим завданням будь-якому підприємстві, що займається виготовленням товарів чи наданням послуг, є підвищення продуктивності. При цьому існує низка заходів, яких прийнято дотримуватись для зниження кількості витрат, необхідних для робочого процесу. Таким чином, за період розвитку підприємства продуктивність праці може змінюватись.

Зазвичай, класифікують кілька груп чинників, які можуть впливати зміну, саме зростання показників виробництва. Насамперед це економіко-географічний фактор, який включає наявність вільних ресурсів робочої сили, води, електроенергії, будівельних матеріалів, а також відстань до комунікацій, рельєф місцевості тощо. Не менш важливим є значення прискорення НТП, що сприяє впровадженню нових поколінь сучасної техніки та використанню прогресивних технологій та автоматизованих систем. Також можна вважати, що продуктивність праці залежить і від фактора структурних зрушень, під яким мають на увазі зміну частки комплектуючих виробів та покупних напівфабрикатів, а також структури виробництва та частки окремих видів продукції.

Величезне значення все ж таки залишається за соціальним (людським) моментом, адже саме турбота про соціальні блага лежить в основі підвищення продуктивності праці. Сюди відносять: занепокоєння про фізичне здоров'я людини, рівень її інтелектуального розвитку, професіоналізму тощо.

Фактори зростання продуктивності праці є найважливішою складовою всього робочого процесу, адже саме вони впливають на темпи розвитку будь-якого підприємства та, відповідно, сприяють збільшенню прибутку.

Також варто відзначити організаційний момент, який визначає рівень виробництва та управління праці. До нього можна віднести вдосконалення організації управління підприємством, покращення кадрової, матеріальної та технічної підготовки.

Говорячи про продуктивність, неможливо залишити без уваги інтенсивність праці. Це поняття є відображенням показника кількості розумової та фізичної енергії, що витрачається працівником, за певний відрізок робочого часу.

Дуже важливо визначити оптимальну для цього робочого процесу інтенсивність, адже надмірна активність може призвести до неминучих втрат продуктивності. Як правило, це відбувається внаслідок людської перевтоми, виникнення профзахворювань, травматизму тощо.

Варто зазначити, що було виділено основні показники, що визначають інтенсивність праці. Насамперед це завантаженість людини робочою діяльністю. Це дозволяє визначити напруженість робочого процесу та, відповідно, доцільність витрат. Одночасно із цим прийнято розраховувати темп роботи, тобто частоту дій щодо одиниці часу. З урахуванням цих чинників для підприємства, зазвичай, існують певні нормативи, з показників яких, встановлюється виробничий план роботи.

Фактори продуктивності праці є предметом пильної уваги працівників науки, практики, оскільки вони виступають як першопричини, що визначають його рівень та динаміку. Досліджувані в аналізі фактори можуть бути класифіковані за різними ознаками. Найбільш докладну класифікацію подаємо у таблиці 1

Таблиця 1

Класифікація факторів, що впливають на продуктивність праці

Класифікаційна ознака

Групи факторів

За своєю природою

Природно-кліматичні

Соціально-економічні

Виробничо-економічні

За ступенем впливу на результат

Основні

Другорядні

Стосовно об'єкта дослідження

Внутрішні

Залежно від колективу

Об'єктивні

Суб'єктивні

За ступенем поширеності

Специфічні

За часом дії

Постійні

Змінні

За характером дії

Екстенсивні

Інтенсивні

За властивостями явищ, що відображаються

Кількісні

Якісні

За своїм складом

За рівнем супідрядності (ієрархії)

Першого порядку

Другий порядок і т.д.

По можливості вимірювання впливу

Вимірювані

Невимірювані

За своєю природою фактори поділяються на природно-кліматичні, соціально-економічні та виробничо-економічні.

Природно-кліматичні чинники дуже впливають на результати діяльності у сільському господарстві, у добувній промисловості, лісовому господарстві та інших галузях. Облік їхнього впливу дозволяє точніше оцінити результати роботи суб'єктів господарювання. До соціально-економічних чинників ставляться житлові умови працівників, організація культурно-масової, спортивної та оздоровчої роботи для підприємства, загальний рівень культури та освіти кадрів та інших. Вони сприяють повнішому використанню виробничих ресурсів підприємства міста і підвищенню ефективності роботи. Виробничо-економічні чинники визначають повноту та ефективність використання виробничих ресурсів підприємства та кінцеві результати його діяльності. За ступенем впливу на результати господарської діяльності фактори поділяються на основні та другорядні. До основних відносяться фактори, які мають вирішальний вплив на результативний показник. Другорядними вважаються ті, які не надають вирішального впливу на результати господарської діяльності в умовах, що склалися. Тут необхідно зауважити, що той самий фактор залежно від обставин може бути і основним, і другорядним. Уміння виділити з різноманітності факторів головні, що визначають правильність висновків за результатами аналізу.

Стосовно об'єкту дослідження чинники класифікуються на внутрішні та зовнішні, тобто. що залежать і які від діяльності даного підприємства. Основна увага при аналізі має приділятись дослідженню внутрішніх факторів, на які підприємство може впливати.

Водночас у багатьох випадках при розвинених виробничих зв'язках та відносинах на результати роботи кожного підприємства значною мірою впливає діяльність інших підприємств, наприклад, рівномірність та своєчасність поставок сировини, матеріалів, їх якість, вартість, кон'юнктура ринку, інфляційні процеси та ін. Ці фактори є зовнішніми. Не характеризують зусилля даного колективу, та його дослідження дозволяє точніше визначити ступінь впливу внутрішніх чинників і тим більше повно виявити внутрішні резерви виробництва.

Для правильної оцінки діяльності підприємств фактори необхідно поділяти ще на об'єктивні та суб'єктивні. Об'єктивні чинники, наприклад, стихійне лихо, не залежать від волі та бажання людей. На відміну від об'єктивних, суб'єктивні причини залежать від діяльності юридичних та фізичних осіб.

За ступенем поширеності фактори поділяються на загальні та специфічні. До загальних відносяться фактори, що діють у всіх галузях економіки. Специфічними є ті, що діють в умовах окремої галузі економіки чи підприємства. Такий поділ чинників дозволяє повніше врахувати особливості окремих підприємств, галузей виробництва та точніше оцінити їхню діяльність.

По тривалості на результати діяльності розрізняють чинники постійні і змінні. Постійні чинники впливають на досліджуване явище безперервно протягом усього часу. Вплив змінних чинників проявляється періодично, наприклад освоєння нової техніки, нових видів продукції, нової технології виробництва і т.д.

p align="justify"> Велике значення для оцінки діяльності підприємств має поділ факторів за характером їх дії на інтенсивні та екстенсивні. До екстенсивних відносяться фактори, які пов'язані з кількісним, а не з якісним приростом результативного показника, наприклад, збільшення обсягу виробництва продукції шляхом розширення посівної площі, збільшення поголів'я тварин, чисельності робітників і т.д. Інтенсивні чинники характеризують ступінь зусиль, напруженості праці процесі виробництва, наприклад підвищення врожайності сільськогосподарських культур, продуктивності худоби, рівня продуктивність праці.

Якщо під час аналізу ставиться мета виміряти вплив кожного чинника на результати господарську діяльність, їх поділяють на кількісні і якісні, прості і складні, вимірювані і неизмеряемые.

Кількісними вважаються фактори, що виражають кількісну визначеність явищ (кількість робітників, обладнання, сировини тощо). Якісні фактори визначають внутрішні якості, ознаки та особливості об'єктів, що вивчаються (продуктивність праці, якість продукції, родючість грунту і т.д.).

Більшість факторів, що вивчаються, за своїм складом є складними, складаються з декількох елементів. Проте є й такі, які не розкладаються на складові. Залежно від складу фактори поділяються на складні (комплексні) та прості (елементні). Прикладом складного чинника є продуктивність праці, а найпростішого - кількість робочих днів у звітному періоді.

Як зазначалося, одні чинники безпосередньо впливають на результативний показник, інші - непряме. За рівнем супідрядності (ієрархії) розрізняють чинники першого, другого, третього тощо. рівнів підпорядкування. До факторів першого рівня належать ті, що безпосередньо впливають на результативний показник. Чинники, які визначають результативний показник опосередковано, з допомогою чинників першого рівня, називаються чинниками другого рівня тощо. Наприклад, щодо валової продукції факторами першого рівня є середньорічна чисельність робітників та середньорічне вироблення продукції одним робітником. Кількість відпрацьованих днів одним робітником та середньоденне вироблення - це фактори другого рівня. До факторів третього рівня відносяться тривалість робочого дня і середньогодинна вироблення.

Основа ведення будь-якого бізнесу – це раціональне та ефективне використання наявних ресурсів, у тому числі праці. Цілком логічно, що менеджмент прагне збільшити обсяг продукції без додаткових витрат на наймання працівників. Експерти виділяють кілька факторів, які дозволяють покращити продуктивність:

    Управлінський стиль (головне завдання керівника - мотивувати персонал, створити організаційну культуру, в якій цінується активність та працьовитість).

    Інвестиції в технічні інновації (придбання нового обладнання, що відповідає запитам часу, дозволяє значно скоротити часові витрати кожного працівника).

    Тренінги та семінари щодо підвищення кваліфікації (знання специфіки виробництва дозволяє персоналу брати участь у вдосконаленні виробничого процесу).

Чи багато користувачів запитують, що найбільше впливає на продуктивність комп'ютера?

Виявляється, однозначної відповіді це питання дати не можна. Комп'ютер – це набір підсистем (пам'яті, обчислювальна, графічна, зберігання), що взаємодіють один з одним через материнську плату та драйвери пристроїв. При неправильному налаштуванні підсистем вони не забезпечують максимальної продуктивності, яку могли б видати.

Комплексна продуктивність складається з програмних та апаратних налаштувань та особливостей.
Перелічимо їх.

Апаратні фактори продуктивності:

  1. Кількість ядер процесора – 1, 2, 3 чи 4
  2. Частота процесора та частота системної шини (FSB) процесора – 533, 667, 800, 1066, 1333 або 1600 МГц
  3. Об'єм та кількість кеш-пам'яті процесора (CPU) – 256, 512 Кбайт; 1, 2, 3, 4, 6, 12 Мбайт.
  4. Збіг частоти системної шини CPU та материнської плати
  5. Частота оперативної пам'яті (RAM) та частота шини пам'яті материнської плати – DDR2-667, 800, 1066
  6. Об'єм оперативної пам'яті – 512 і більше Мбайт
  7. Чипсет, що використовується на материнській платі (Intel, VIA, SIS, nVidia, ATI/AMD)
  8. Використовувана графічна підсистема – вбудована в материнську плату або дискретна (зовнішня відеокарта зі своєю відеопам'яттю та графічним процесором)
  9. Тип інтерфейсу вінчестера (HDD) – паралельний IDE або послідовні SATA та SATA-2
  10. Кеш вінчестера – 8, 16 чи 32 МБ.

Збільшення цих технічних характеристик завжди збільшує продуктивність.

Ядра

На даний момент більшість процесорів, що випускаються, мають як мінімум 2 ядра (крім AMD Sempron, Athlon 64 і Intel Celeron D, Celeron 4xx). Кількість ядер актуальна у завданнях 3D-рендерингу або кодування відео, а також у програмах, код яких оптимізовано під багатопоточність кількох ядер. В інших випадках (наприклад, в офісних та інтернет-завданнях) вони марні.

Чотири ядрамають процесори Intel Core 2 Extreme та Core 2 Quad з наступними маркуваннями: QX9xxx, Q9xxx, Q8xxx, QX6xxx;
AMD Phenom X3 – 3 ядра;
AMD Phenom X4 – 4 ядра.

Треба пам'ятати, що кількість ядер значно збільшує енергоспоживання CPU та підвищує вимоги щодо живлення до материнської плати та блоку живлення!

А ось покоління та архітектура ядра сильно впливають на продуктивність будь-якого процесора.
Наприклад, якщо взяти двоядерні Intel Pentium D і Core 2 Duo з однаковою частою, системною шиною та кеш-пам'яттю, то Core 2 Duo безперечно виграє.

Частоти процесора, пам'яті та шин материнської плати

Також дуже важливо, щоб збіг частот різних комплектуючих.
Скажімо, якщо ваша материнська плата підтримує частоту шини пам'яті 800 МГц, а встановлений модуль пам'яті DDR2-677, частота модуля пам'яті буде знижувати продуктивність.

У той же час, якщо материнська плата не підтримує частоту 800 МГц, а в той час, як встановлений модуль DDR2-800, він працюватиме, але на меншій частоті.

Кеші

Кеш пам'яті процесора в першу чергу позначається під час роботи з CAD-системами, великими базами даних та графікою. Кеш - це пам'ять з більшою швидкістю доступу, призначена для прискорення звернення до даних, які постійно містяться в пам'яті з меншою швидкістю доступу (далі «основна пам'ять»). Кешування застосовується ЦПУ, жорсткими дисками, браузерами та веб-серверами.

Коли CPU звертається до даних, насамперед досліджується кеш. Якщо в кеші знайдено запис з ідентифікатором, що збігається з ідентифікатором потрібного елемента даних, використовуються елементи даних у кеші. Такий випадок називається попаданням кешу. Якщо в кеші не знайдено записів, що містять потрібний елемент даних, він читається з основної пам'яті в кеш, і стають доступним для наступних звернень. Такий випадок називається промахом кешу. Відсоток звернень до кешу, коли знайдено результат, називається рівнем потраплянь чи коефіцієнтом попадань у кеш.
Відсоток попадань у кеш у процесорів Intel вищий.

Всі CPU відрізняються кількістю кешів (до 3) та їх обсягом. Найшвидший кеш – першого рівня (L1), найповільніший – третього (L3). Кеш L3 мають тільки процесори AMD Phenom Так що дуже важливо, щоб саме кеш L1 мав великий обсяг.

Ми протестували залежність продуктивності від обсягу кеш-пам'яті. Якщо ви порівняєте результати 3D-шутерів Prey і Quake 4, що є типовими ігровими програмами, різниця в продуктивності між 1 і 4 Мбайт приблизно така, як між процесорами з різницею за частотою 200 МГц. Те саме стосується тестів кодування відео для кодеків DivX 6.6 і XviD 1.1.2, а також архіватора WinRAR 3.7. Однак, такі інтенсивно навантажувальні CPU програми, як 3DStudio Max 8, Lame MP3 Encoder або H.264 Encoder V2 від MainConcept не надто сильно виграють від збільшення розміру кешу.
Нагадаємо, що кеш L2 набагато більше впливає на продуктивність CPU Intel Core 2, ніж AMD Athlon 64 X2 або Phenom, оскільки Intel кеш L2 загальний для всіх ядер, а у AMD окремий для кожного ядра! У цьому плані Phenom оптимальніше працюють з кешем.

Оперативна пам'ять

Як було зазначено, оперативна пам'ять характеризується частотою і обсягом. У той же час зараз випускається 2 типи пам'яті DDR2 та DDR3, які відрізняються архітектурною, продуктивністю, частотою та напругою живлення – тобто всім!
Частота модуля пам'яті повинна збігатися із частотою самого модуля.

Обсяг оперативної пам'яті також впливає на продуктивність операційної системи та ресурсомісткі програми.
Розрахунки прості - Windows XP займає в оперативній пам'яті після завантаження 300-350 МБ. Якщо автозавантаження знаходяться додаткові програми, вони також завантажують RAM. Тобто вільних лишається 150-200 МБ. Туди можуть поміститися лише легкі офісні програми.
Для комфортної роботи з AutoCAD, графічними програмами, 3DMax, кодуванням та графікою потрібно не менше 1 ГБ оперативної пам'яті. Якщо ж використовується Windows Vista, то не менше 2 ГБ.

Графічна підсистема

Часто в офісних комп'ютерах використовуються материнські плати, що мають вбудовану графіку. Материнські плати на таких чіпсетах (G31, G45, AMD 770G тощо) мають букву G у маркуванні.
Такі вбудовані відеокарти використовують частину RAM для відеопам'яті, тим самим зменшуючи обсяг доступного для користувача простору RAM.

Відповідно, для збільшення продуктивності вбудовану відеокарту треба відключати в BIOS материнської плати, а слот PCI-Express встановлювати зовнішню (дискретну) відеокарту.
Всі відеокарти відрізняються графічним чіпсетом, частотою роботи конвеєрів, кількістю конвеєрів, частотою відеопам'яті, розрядністю шини відеопам'яті.

Підсистема накопичувачів

Продуктивність накопичувачів дуже сильно дається взнаки при зверненні до великих обсягів даних - відео, аудіо, а також при відкритті великої кількості маленьких файлів.

З технічних характеристик, що впливають на швидкість доступу до файлів, треба відзначити Тип інтерфейсу вінчестера (HDD) - паралельний IDE або послідовні SATA і SATA-2 і кеш вінчестера - 8, 16 або 32 МБ.
На даний момент рекомендується встановлювати вінчестери тільки з інтерфейсом SATA-2, що має найбільшу пропускну здатність та з найбільшим кешем.

Програмні фактори продуктивності:

  1. Кількість встановлених програм
  2. Фрагментація файлової системи
  3. Помилки файлової системи, bad-сектори
  4. Фрагментація реєстру ОС
  5. Помилки реєстру ОС
  6. Розмір файлу підкачки (обсяг віртуальної пам'яті)
  7. Включені елементи візуалізації графічного інтерфейсу ОС
  8. Програми та служби Windows, які завантажують в автозавантаженні

Це далеко не повний список, але саме ці особливості Windows можуть сильно гальмувати її роботу.
Але про ці характеристики, налаштування та параметри ми поговоримо в наступній статті.

Процесор– це основний обчислювальний компонент, який дуже впливає на продуктивність комп'ютера. Але скільки продуктивність в іграх залежить від процесора? Чи варто змінювати процесор підвищення продуктивності в іграх? Який приріст це дасть? На ці запитання ми спробуємо знайти відповідь у цій статті.

1. Що міняти відеокарту чи процесор

Нещодавно я знову зіткнувся з нестачею продуктивності комп'ютера і стало зрозуміло, що настав час чергового апгрейду. На той момент моя конфігурація була такою:

  • Phenom II X4 945 (3 ГГц)
  • 8 Гб DDR2 800 МГц
  • GTX 660 2 Гб

Загалом продуктивність комп'ютера мене цілком влаштовувала, система працювала досить спритно, більшість ігор йшли на високих або середньо/високих налаштуваннях графіки, а відео я монтував не так часто, тому 15-30 хвилин рендерингу мене не напружували.

Перші проблеми виникли ще у грі World of Tanks, коли зміна налаштувань графіки з високих на середні не давала очікуваного приросту продуктивності. Частота кадрів періодично просідала з 60 до 40 FPS. Стало ясно, що продуктивність упирається в процесор. Тоді було вирішено до 3.6 ГГц, що вирішило проблеми у WoT.

Але йшов час, виходили нові важкі ігри, а з WoT я пересів більш вимогливу до системних ресурсів (Армата). Ситуація повторилася і постало питання що міняти - відеокарту або процесор. Сенсу міняти GTX 660 на 1060 не було, потрібно було брати хоча б GTX 1070. Але таку відеокарту дідок Phenom точно не потягнув би. Та й при зміні налаштувань в Арматі було ясно, що продуктивність знову уперлася в процесор. Тому було вирішено замінити спочатку процесор із переходом на більш продуктивну в іграх платформу Intel.

Заміна процесора тягла за собою заміну материнської плати та оперативної пам'яті. Але іншого виходу не було, крім того була надія на те, що потужніший процесор дозволить повніше розкритися старій відеокарті в процесорозалежних іграх.

2. Вибір процесора

Процесорів Ryzen на той момент ще не було, їхній вихід тільки очікувався. Для того, щоб повноцінно оцінити їх, потрібно було дочекатися їхнього виходу та масового тестування для виявлення сильних та слабких сторін.

Крім того, вже було відомо, що ціна на момент їх виходу буде досить високою і потрібно було чекати ще близько півроку, поки ціни на них стануть адекватнішими. Бажання стільки чекати не було, так само як і швидко переходити на ще сиру платформу AM4. А з огляду на вічні ляпи AMD, це було ще й ризиковано.

Тому процесори Ryzen не розглядалися і перевага віддавалася вже перевіреній, відточеній платформі Intel на сокеті 1151, що добре себе зарекомендувала. І, як показала практика, не дарма, так як процесори Ryzen виявилися гіршими в іграх, а в інших завданнях продуктивності мені і так було достатньо .

Спочатку вибір був між процесорами Core i5:

  • Core i5-6600
  • Core i5-7600
  • Core i5-6600K
  • Core i5-7600K

Для ігрового комп'ютера середнього класу i5-6600 був варіантом мінімум. Але на перспективу заміни відеокарти хотілося мати запас. Core i5-7600 відрізнявся не сильно, тому від початку планувалося придбати Core i5-6600K або Core i5-7600K з можливістю розгону до стабільних 4.4 ГГц.

Але, ознайомившись із результатами тестів у сучасних іграх, де завантаження цих процесорів наближалося до 90%, було ясно, що в перспективі їх може трохи не вистачити. А хотілося мати хорошу платформу із запасом на довго, бо минули ті часи, коли можна було робити апгрейд ПК щороку

Тому я почав придивлятися до процесорів Core i7:

  • Core i7-6700
  • Core i7-7700
  • Core i7-6700K
  • Core i7-7700K

У сучасних іграх вони завантажуються ще на повну, а десь на 60-70%. Але, у Core i7-6700 базова частота всього 3.4 ГГц, а в Core i7-7700 не набагато більше – 3.6 ГГц.

За результатами тестів у сучасних іграх із топовими відеокартами найбільший приріст продуктивності спостерігається на позначці 4 ГГц. Далі він не настільки значний, іноді практично непомітний.

Незважаючи на те, що процесори i5 та i7 оснащені технологією авторозгону (), розраховувати на неї особливо не варто, тому що в іграх, де задіяні всі ядра, приріст буде незначний (всього 100-200 МГц).

Таким чином, процесори Core i7-6700K (4 ГГц) та i7-7700K (4.2 ГГц) є більш оптимальними, а враховуючи можливість розгону до стабільних 4.4 ГГц, ще й значно перспективнішими ніж i7-6700 (3.4 ГГц) та i7-7700 (3.6 ГГц), оскільки різниця у частоті вже становитиме 800-1000 МГц!

На момент апгрейду процесори Intel 7-го покоління (Core i7-7xxx) тільки з'явилися і коштували відчутно дорожче за процесори 6-го покоління (Core i7-6xxx), ціни на які вже почали знижуватися. При цьому в новому поколінні оновили лише вбудовану графіку, яка для ігор не потрібна. А можливості розгону вони практично однакові.

Крім того, материнки на нових чіпсетах теж коштували дорожче (хоча можна поставити процесор на старіший чіпсет, це може бути пов'язане з деякими проблемами).

Тому було вирішено брати Core i7-6700K з базовою частотою 4 ГГц та можливістю розгону до стабільних 4.4 ГГц у майбутньому.

3. Вибір материнської плати та пам'яті

Я, як більшість ентузіастів та технічних експертів, віддаю перевагу якісним та стабільним материнкам від ASUS. Для процесора Core i7-6700K з можливістю розгону оптимальним варіантом є материнські плати на чіпсеті Z170. Крім того, хотілося мати якіснішу вбудовану звукову карту. Тому було вирішено взяти найдешевшу ігрову материнку від ASUS на чіпсеті Z170 – .

Пам'ять, з урахуванням підтримки материнкою частоти модулів до 3400 МГц, хотілося також швидше. Для сучасного ігрового комп'ютера оптимальним варіантом є комплект пам'яті DDR4 2×8 Гб. Залишалося знайти оптимальний за співвідношенням ціна/частота комплект.

Спочатку вибір упав на AMD Radeon R7 (2666 МГц), оскільки ціна була дуже привабливою. Але на момент замовлення її не виявилося на складі. Довелося вибирати між набагато дорожчою G.Skill RipjawsV (3000 МГц) та трохи менш дорогою Team T-Force Dark (2666 МГц).

Це був складний вибір, оскільки пам'ять хотілося якнайшвидше, а кошти були обмежені. За результатами тестів у сучасних іграх (які я вивчив), різниця у продуктивності між пам'яттю з частотою 2133 МГц та 3000 МГц становила 3-13% та в середньому 6%. Це не так багато, але хотілося б отримати максимум.

Але річ у тому, що швидка пам'ять робиться шляхом заводського розгону повільніших чіпів. Пам'ять G.Skill RipjawsV (3000 МГц) не виняток і, для досягнення такої частоти, напруга живлення у неї становить 1.35 В. Крім того, процесори важко перетравлюють пам'ять із занадто високою частотою і вже на частоті 3000 МГц система може працювати не стабільно. Та й підвищена напруга живлення призводить до більш швидкого зношування (деградації) як чіпів пам'яті, так і контролера процесора (про це офіційно заявляла компанія Intel).

У той же час пам'ять Team T-Force Dark (2666 МГц) працює при напрузі 1.2 і, за заявами виробника, допускає підвищення напруги до 1.4 В, що при бажанні дозволить розігнати її вручну. Зваживши всі за і проти, вибір був зроблений на користь пам'яті зі стандартною напругою 1.2.

4. Тести продуктивності в іграх

Перед зміною платформи я зробив тести продуктивності старої системи у деяких іграх. Після зміни платформи ті ж випробування були проведені повторно.

Тести проводилися на чистій системі Windows 7 з однією і тією ж відеокартою (GTX 660) на високих налаштуваннях графіки, оскільки метою заміни процесора було підвищення продуктивності без зниження якості зображення.

Для досягнення точніших результатів у тестах використовувалися лише ігри із вбудованим бенчмарком. Як виняток тест продуктивності в танковому онлайн шутері Armored Warfare проводився шляхом запису реплея та подальшого його програвання зі зняттям показників за допомогою Fraps.

Високі налаштування графіки.

Тест на Phenom X4 (@3.6 ГГц).

За результатами тесту видно, що середній FPS незначно змінився (з 36 до 38). Значить продуктивність у цій грі впирається у відеокарту. Тим не менш, мінімальні просідання FPS у всіх тестах значно зменшилися (з 11-12 до 21-26), а значить грати все одно буде трохи комфортніше.

В надії на підвищення продуктивності з DirectX 12 пізніше я зробив тест у Windows 10.

Але результати виявилися навіть гіршими.

Batman: Arkham Knight

Високі налаштування графіки.

Тест на Phenom X4 (@3.6 ГГц).

Тест Core i7-6700K (4.0 ГГц).

Гра дуже вимоглива як до відеокарти, і до процесора. З тестів видно, що заміна процесора призвела до суттєвого зростання середнього FPS (з 14 до 23) і зменшення мінімальних просадок (з 0 до 15), максимальне значення також зросло (з 27 до 37). Тим не менш, ці показники не дозволяють комфортно грати, тому я вирішив провести тести із середніми налаштуваннями та відключив різні ефекти.

Середні параметри графіки.

Тест на Phenom X4 (@3.6 ГГц).

Тест Core i7-6700K (4.0 ГГц).

На середніх налаштуваннях середній FPS також трохи виріс (з 37 до 44), і суттєво знизилися просідання (з 22 до 35), перекривши мінімально допустимий для комфортної гри поріг 30 FPS. Розрив у максимальному значенні також зберігся (з 50 до 64). Внаслідок зміни процесора грати стало цілком комфортно.

Перехід на Windows 10 нічого не змінив.

Deus Ex: Mankind Divided

Високі налаштування графіки.

Тест на Phenom X4 (@3.6 ГГц).

Тест Core i7-6700K (4.0 ГГц).

Результатом заміни процесора стало лише зниження просадок FPS (з 13 до 18). Тести із середніми налаштуваннями, я на жаль забув провести Але провів тест на DirectX 12.

В результаті лише просів мінімальний FPS.

Armored Warfare: Проект Армата.

Я часто граю в цю гру і вона стала однією з основних причин оновлення комп'ютера. На високих налаштуваннях гра видавала 40-60 FPS з рідкісними, але неприємними просіданнями до 20-30.

Зниження налаштувань до середніх усувало серйозні просідання, але середній FPS залишався майже таким же, що є непрямою ознакою нестачі продуктивності процесора.

Було записано реплей і зроблено тести в режимі відтворення за допомогою FRAPS на високих налаштуваннях.

Їхні результати я звів у табличку.

Процесор FPS (хв) FPS (серед) FPS (макс)
Phenom X4 (@3.6 ГГц) 28 51 63
Core i7-6700K (4.0 ГГц) 57 69 80

Заміна процесора повністю виключила критичні просідання FPS і серйозно підвищила середню частоту кадрів. Це дозволило включити вертикальну синхронізацію, зробивши картинку більш плавною та приємною. При цьому гра видає стабільні 60 FPS без просідань і грати дуже комфортно.

Інші ігри

Я не проводив тести, але в цілому схожа картина спостерігається у більшості онлайн та процесорозалежних ігор. Процесор серйозно впливає на FPS у таких онлайн іграх як Battlefield 1 та Overwatch. А також в іграх з відкритим світом типу GTA 5 та Watch Dogs.

Сам я заради експерименту встановлював GTA 5 на старий ПК із процесором Phenom і новий із Core i7. Якщо раніше при високих налаштуваннях FPS тримався в межах 40-50, то тепер стабільно тримається вище за відмітку 60 практично без просідань і часто доходить до 70-80. Ці зміни помітні неозброєним оком, а озброєний просто гасить усіх підряд.

5. Тест продуктивності у рендерингу

Я не багато займаюся монтажем відео і провів лише один найпростіший тест. Отрендеріл Full HD відео довжиною 17:22 та об'ємом 2.44 Гб у менший бітрейт у програмі Camtasia, якою я користуюся. В результаті вийшов файл об'ємом 181 Мб. Процесори впоралися із завданням за наступний час.

Процесор Час
Phenom X4 (@3.6 ГГц) 16:34
Core i7-6700K (4.0 ГГц) 3:56

Само собою, в рендерингу була задіяна відеокарта (GTX 660), бо я не розумію кому прийде в голову проводити рендеринг без відеокарти, так як це займає в 5-10 разів більше часу. Крім того, плавність і швидкість відтворення ефектів при монтажі також дуже залежить від відеокарти.

Тим не менш, залежність від процесора ніхто не скасовував і Core i7 впорався з цим завданням у 4 рази швидше, ніж Phenom X4. З підвищенням складності монтажу та ефектів цей час може значно зростати. Те з чим Phenom X4 буде пихкати 2 години, Core i7 здолає за 30 хвилин.

Якщо ви плануєте серйозно займатися монтажем відео, то потужний багатопотоковий процесор і великий обсяг пам'яті суттєво заощадять час.

6. Висновок

Апетити сучасних ігор та професійних додатків дуже швидко зростають, вимагаючи постійних вкладень у модернізацію комп'ютера. Але якщо у вас слабкий процесор, то немає сенсу змінювати відеокарту, він її просто не розкриє, тобто. продуктивність упрється в процесор.

Сучасна платформа на основі потужного процесора з достатнім обсягом оперативної пам'яті забезпечить високу продуктивність ПК на роки вперед. При цьому знижуються витрати на апгрейд комп'ютера та відпадає потреба повністю змінювати ПК через кілька років.

7. Посилання

Процесор Intel Core i7-8700
Процесор Intel Core i5-8400
Процесор Intel Core i3 8100