Mga parameter ng computer na nakakaapekto sa bilis ng pagpapatakbo. Ang arkitektura ng Intel microprocessor at ang mga pangunahing salik na nakakaapekto sa pagganap nito. Ano ang gagawin natin

Sa modernong mga kondisyon, ang paglago ng kita ng kumpanya ay ang pangunahing kinakailangang kalakaran sa pag-unlad ng mga negosyo. Ang paglago ng kita ay maaaring makamit sa iba't ibang paraan, kung saan maaari nating i-highlight ang mas mahusay na paggamit ng mga tauhan ng kumpanya.

Ang indicator para sa pagsukat ng performance ng workforce ng kumpanya ay productivity.

Pangkalahatang-ideya

Ang produktibidad ng paggawa ayon sa pormula ng pagkalkula ay isang pamantayan kung saan maaaring makilala ng isa ang pagiging produktibo ng paggamit ng paggawa.

Ang produktibidad ng paggawa ay tumutukoy sa kahusayan ng paggawa sa proseso ng produksyon. Ito ay maaaring masukat sa pamamagitan ng isang tiyak na tagal ng panahon na kinakailangan upang makabuo ng isang yunit ng output.

Batay sa depinisyon na nakapaloob sa encyclopedic dictionary ng F. A. Brockhaus at I. A. Efron, ang produktibidad o produktibidad ng paggawa ay dapat isaalang-alang ang relasyon na nabuo sa pagitan ng dami ng ginastos sa paggawa at ang resulta na maaaring makuha sa panahon ng pagpapatupad ng paggawa.

Sa pamamagitan ng L. E. Basovsky, ang produktibidad sa paggawa ay maaaring tukuyin bilang ang pagiging produktibo ng mga tauhan na mayroon ang negosyo. Maaari itong matukoy sa pamamagitan ng dami ng mga produktong ginawa sa bawat yunit ng oras ng pagtatrabaho. Ang tagapagpahiwatig na ito ay tinutukoy din ng mga gastos sa paggawa, na maaaring maiugnay sa isang yunit ng output.

Ang pagiging produktibo ay ang dami ng output na ginawa ng isang empleyado sa isang tinukoy na tagal ng panahon.

Ito ay isang kriterya na nagpapakilala sa pagiging produktibo ng isang tiyak na buhay na paggawa at ang pagiging epektibo ng gawaing produksyon ayon sa pagbuo ng isang produkto sa bawat yunit ng oras ng paggawa na ginugol sa kanilang produksyon.

Tumataas ang kahusayan sa pagpapatakbo batay sa pag-unlad ng teknolohiya, sa pamamagitan ng pagpapakilala ng mga bagong teknolohiya, pagtaas ng mga kwalipikasyon ng mga empleyado at kanilang interes sa pananalapi.

Mga yugto ng pagsusuri

Ang pagtatasa ng produktibidad ng paggawa ay binubuo ng mga sumusunod na pangunahing yugto:

  • pagsusuri ng ganap na mga tagapagpahiwatig sa loob ng ilang taon;
  • pagtukoy sa epekto ng ilang mga tagapagpahiwatig ng salik sa dynamics ng produktibidad;
  • pagpapasiya ng mga reserba para sa mga natamo ng produktibidad.

Mga pangunahing tagapagpahiwatig

Ang pangunahing mahahalagang tagapagpahiwatig ng pagganap na sinusuri sa mga modernong negosyo na tumatakbo sa mga kondisyon ng merkado ay maaaring tulad ng pangangailangan para sa buong trabaho ng mga tauhan at mataas na output.

Ang output ng produkto ay ang halaga ng produktibidad bawat yunit ng input ng paggawa. Maaari itong matukoy sa pamamagitan ng pag-uugnay sa bilang ng mga produktong ginawa o mga serbisyong ibinigay na ginawa sa isang partikular na yunit ng oras.

Ang intensity ng paggawa ay ang ratio sa pagitan ng mga gastos sa oras ng pagtatrabaho at dami ng produksyon, na nagpapakilala sa mga gastos sa paggawa bawat yunit ng produkto o serbisyo.

Mga paraan ng pagkalkula

Upang sukatin ang pagiging produktibo sa trabaho, tatlong paraan ng pagkalkula ng pagiging produktibo ay ginagamit:

  • natural na pamamaraan. Ginagamit ito sa mga organisasyong gumagawa ng mga homogenous na produkto. Isinasaalang-alang ng pamamaraang ito ang pagkalkula ng pagiging produktibo sa trabaho bilang ang pagsusulatan sa pagitan ng dami ng mga produkto na ginawa sa natural na mga termino at ang average na bilang ng mga empleyado;
  • ang paraan ng paggawa ay ginagamit kung ang mga lugar ng trabaho ay gumagawa ng isang malaking halaga ng produkto na may madalas na pagbabago ng assortment; ang pagbuo ay tinutukoy sa mga karaniwang oras (dami ng trabaho na pinarami ng karaniwang oras), at ang mga resulta ay ibinubuod ayon sa iba't ibang uri ng produkto;
  • paraan ng gastos. Ginagamit ito sa mga organisasyong gumagawa ng mga magkakaiba na produkto. Isinasaalang-alang ng pamamaraang ito ang pagkalkula ng pagiging produktibo sa trabaho bilang ang pagsusulatan sa pagitan ng dami ng mga produkto na ginawa sa mga tuntunin ng gastos at ang average na bilang ng mga empleyado.

Upang masuri ang antas ng pagganap ng trabaho, ang konsepto ng personal, karagdagang at pangkalahatang mga katangian ay ginagamit.

Ang mga pribadong pag-aari ay ang mga gastos sa oras na kinakailangan upang makagawa ng isang yunit ng produkto sa natural na mga termino para sa isang araw ng tao o oras ng tao. Isinasaalang-alang ng mga pantulong na pag-aari ang oras na ginugol sa pagsasagawa ng isang yunit ng isang tiyak na uri ng trabaho o ang dami ng gawaing isinagawa bawat yunit ng panahon.

Paraan ng pagkalkula

Kabilang sa mga posibleng opsyon para sa produktibidad ng paggawa, ang mga sumusunod na tagapagpahiwatig ay maaaring makilala: output, na maaaring ang average na taunang, average araw-araw at average na oras-oras para sa isang empleyado. Mayroong direktang ugnayan sa pagitan ng mga katangiang ito: ang bilang ng mga araw ng pagtatrabaho at ang haba ng araw ng pagtatrabaho ay maaaring paunang matukoy ang halaga ng average na oras-oras na output, na, naman, ay paunang tinutukoy ang halaga ng average na taunang output ng empleyado.

Ang pagiging produktibo ng paggawa ayon sa formula ng pagkalkula ay ang mga sumusunod:

VG = KR * PRD * VSC

kung saan ang VG ay ang average na taunang output ng manggagawa, t.r.;

KR - bilang ng mga araw ng trabaho, araw;

VCH - average na oras-oras na output, t.r. bawat tao;

LWP - tagal ng shift ng trabaho (araw), oras.

Ang antas ng epekto ng mga kundisyong ito ay maaaring matukoy sa pamamagitan ng paglalapat ng paraan ng pagpapalit ng kadena ng mga tagapagpahiwatig, ang paraan ng ganap na pagkakaiba, ang paraan ng mga kamag-anak na pagkakaiba, pati na rin ang integral na pamamaraan.

Ang pagkakaroon ng impormasyon tungkol sa antas ng epekto ng iba't ibang mga kondisyon sa tagapagpahiwatig na pinag-aaralan, posible na maitatag ang antas ng kanilang epekto sa dami ng produksyon. Upang gawin ito, ang halaga na naglalarawan sa epekto ng alinman sa mga kundisyon ay pinarami ng bilang ng mga empleyado ng kumpanya sa average na halaga.

Pangunahing Salik

Ang karagdagang pananaliksik sa pagiging produktibo sa trabaho ay nakatuon sa pagdedetalye ng epekto ng iba't ibang kondisyon sa output ng manggagawa (average na taunang output). Ang mga kondisyon ay nahahati sa dalawang kategorya: malawak at masinsinang. Ang mga salik na may malaking impluwensya sa paggamit ng oras ng pagtatrabaho ay itinuturing na malawak; ang mga salik na may malaking impluwensya sa oras-oras na kahusayan sa trabaho ay itinuturing na intensive.

Ang pagsusuri ng malawak na mga kadahilanan ay nakatuon sa pagtukoy ng mga gastos ng oras ng paggawa mula sa hindi produktibong paggamit nito. Ang mga gastos sa oras ng paggawa ay tinutukoy sa pamamagitan ng paghahambing ng nakaplano at praktikal na pondo sa oras ng paggawa. Ang mga resulta ng epekto ng mga gastos sa produksyon ng isang produkto ay tinutukoy sa pamamagitan ng pagpaparami ng kanilang bilang ng mga araw o oras sa average na oras-oras (o average na pang-araw-araw) na produksyon ayon sa plano ng bawat manggagawa.

Ang pagsusuri ng mga masinsinang salik ay nakatuon sa pagtukoy sa mga kondisyong nauugnay sa mga pagbabago sa lakas ng paggawa ng isang produkto. Ang pagbabawas ng lakas ng paggawa ay ang pangunahing kondisyon para sa pagtaas ng produktibo. Ang feedback ay sinusunod din.

Factor analysis

Isaalang-alang natin ang mga pangunahing pormula para sa pagiging produktibo ng mga salik ng produksyon.

Upang isaalang-alang ang mga salik na nakakaimpluwensya, gumagamit kami ng mga pamamaraan at prinsipyo ng mga kalkulasyon na karaniwang kinikilala sa agham pang-ekonomiya.

Ang pormula ng produktibidad ng paggawa ay ipinakita sa ibaba.

kung saan ang W ay produktibidad ng paggawa, t.r. bawat tao;

Ang Q ay ang dami ng mga produkto na ginawa sa mga tuntunin ng halaga, t.r.;

T - bilang ng mga tauhan, tao.

I-extract natin ang Q value mula sa productivity formula na ito:

Kaya, ang dami ng produksyon ay nagbabago depende sa mga pagbabago sa produktibidad ng paggawa at ang bilang ng mga tauhan.

Ang dinamika ng mga pagbabago sa dami ng produksyon sa ilalim ng impluwensya ng mga pagbabago sa mga tagapagpahiwatig ng pagiging produktibo ay maaaring kalkulahin gamit ang formula:

ΔQ (W) = (W1-W0)*T1

Ang dinamika ng mga pagbabago sa dami ng mga produkto sa ilalim ng impluwensya ng mga pagbabago sa bilang ng mga empleyado ay kakalkulahin gamit ang formula:

ΔQ (T) = (T1-T0)*W0

Pangkalahatang epekto ng mga kadahilanan:

ΔQ (W) + Δ Q (T) = ΔQ (kabuuan)

Ang pagbabago dahil sa impluwensya ng mga kadahilanan ay maaaring kalkulahin gamit ang modelo ng kadahilanan ng formula ng pagiging produktibo:

PT = UD * D * Tcm * CV

kung saan ang PT ay labor productivity, t.r. bawat tao

Ud - ang bahagi ng mga manggagawa sa kabuuang bilang ng mga tauhan

D - araw na pinagtatrabahuhan ng isang manggagawa bawat taon, araw

Tsm - karaniwang araw ng trabaho, oras.

CV - average na oras-oras na produktibidad sa paggawa ng isang manggagawa, t.r. bawat tao

Mga pangunahing reserba

Ang pagsasaliksik sa pagiging produktibo ay isinasagawa upang makapagtatag ng mga reserba para sa paglago nito. Maaaring kabilang sa mga reserba para sa pagtaas ang mga sumusunod na salik na nakakaapekto sa produktibidad ng paggawa:

  • pagtaas ng teknolohikal na antas ng pagmamanupaktura, i.e. pagdaragdag ng pinakabagong mga prosesong pang-agham at teknikal, pagkuha ng mga de-kalidad na materyales, mekanisasyon at automation ng pagmamanupaktura;
  • pagpapabuti ng istraktura ng kumpanya at pagpili ng mga pinaka karampatang empleyado, pag-aalis ng turnover ng empleyado, pagtaas ng mga kwalipikasyon ng mga empleyado;
  • mga pagbabago sa istruktura sa produksyon, na isinasaalang-alang ang pagpapalit ng ilang mga indibidwal na uri ng produkto, isang pagtaas sa bigat ng isang bagong produkto, isang pagbabago sa intensity ng paggawa ng programa ng produksyon, atbp.;
  • ang pagbuo at pagpapabuti ng kinakailangang pampublikong imprastraktura ay isang solusyon sa mga paghihirap na nauugnay sa pagtugon sa mga pangangailangan ng kumpanya at mga lipunan ng paggawa.

Mga direksyon para sa pagpapabuti

Ang tanong kung paano mapataas ang produktibidad ng paggawa ay napaka-kaugnay para sa maraming mga negosyo.

Ang kakanyahan ng paglago ng produktibidad ng paggawa sa isang negosyo ay ipinakita sa:

  • pagbabago sa dami ng produksyon kapag gumagamit ng isang yunit ng paggawa;
  • pagbabago sa mga gastos sa paggawa sa bawat naitatag na yunit ng produksyon;
  • pagbabago sa mga gastos sa suweldo sa pamamagitan ng 1 ruble;
  • pagbabawas ng bahagi ng mga gastos sa paggawa sa mga gastos sa produksyon;
  • pagpapabuti ng kalidad ng mga kalakal at serbisyo;
  • pagbawas ng mga depekto sa produksyon;
  • pagtaas ng bilang ng mga produkto;
  • pagtaas sa dami ng benta at kita.

Upang matiyak ang mataas na produktibo ng mga empleyado ng kumpanya, kailangang tiyakin ng pamamahala ang mga normal na kondisyon sa pagtatrabaho. Ang antas ng pagiging produktibo ng tao, pati na rin ang kahusayan ng kanyang trabaho, ay maaaring maimpluwensyahan ng isang malaking bilang ng mga kadahilanan, parehong intensive at malawak. Isinasaalang-alang ang mga salik na ito na nakakaapekto sa produktibidad ng paggawa ay kinakailangan kapag kinakalkula ang tagapagpahiwatig ng produktibidad at mga reserba para sa paglago nito.

Ang mga sistema ng pag-iimbak ng data para sa karamihan ng mga proyekto sa web (at hindi lamang) ay gumaganap ng isang mahalagang papel. Sa katunayan, kadalasan ang gawain ay bumababa hindi lamang sa pag-iimbak ng isang tiyak na uri ng nilalaman, kundi pati na rin sa pagtiyak ng pagbabalik nito sa mga bisita, pati na rin ang pagproseso, na nagpapataw ng ilang mga kinakailangan sa pagganap.

Bagama't ang industriya ng drive ay gumagamit ng maraming iba pang sukatan upang ilarawan at garantiya ang wastong pagganap, sa storage at disk drive market, karaniwan nang gamitin ang IOPS bilang isang comparative metric para sa layunin ng "convenience" ng paghahambing. Gayunpaman, ang performance ng mga storage system, na sinusukat sa IOPS (Input Output Operations per Second), input/output (write/read) na mga operasyon, ay naiimpluwensyahan ng malaking bilang ng mga salik.

Sa artikulong ito, gusto kong tingnan ang mga salik na ito para mas maunawaan ang sukat ng performance na ipinahayag sa IOPS.

Magsimula tayo sa katotohanan na ang IOPS ay hindi IOPS sa lahat at hindi kahit na IOPS sa lahat, dahil maraming mga variable na tumutukoy kung magkano ang IOPS na makukuha natin sa ilang mga kaso at sa iba pa. Dapat mo ring isaalang-alang na ang mga storage system ay gumagamit ng mga function ng read at write at nagbibigay ng iba't ibang halaga ng IOPS para sa mga function na ito depende sa arkitektura at uri ng application, lalo na sa mga kaso kung saan nagaganap ang mga operasyon ng I/O sa parehong oras. Ang iba't ibang workload ay may iba't ibang mga kinakailangan sa input/output (I/O). Kaya, ang mga sistema ng imbakan na sa unang tingin ay dapat magbigay ng sapat na pagganap ay maaaring, sa katunayan, ay hindi makayanan ang gawain.

Mga Pangunahing Kaalaman sa Pagganap ng Drive

Upang makakuha ng ganap na pag-unawa sa isyu, magsimula tayo sa mga pangunahing kaalaman. Ang IOPS, throughput (MB/s o MiB/s) at oras ng pagtugon sa millisecond (ms) ay mga karaniwang unit ng pagsukat para sa performance ng mga drive at storage array.

Ang IOPS ay karaniwang itinuturing bilang isang pagsukat ng kakayahan ng isang storage device na magbasa/magsulat ng 4-8KB na mga bloke sa random na pagkakasunud-sunod. Na karaniwan para sa mga gawain sa pagproseso ng online na transaksyon, mga database at para sa pagpapatakbo ng iba't ibang mga application.

Ang konsepto ng drive throughput ay karaniwang naaangkop kapag nagbabasa / nagsusulat ng isang malaking file, halimbawa, sa mga bloke ng 64 KB o higit pa, nang sunud-sunod (sa 1 ​​stream, 1 file).

Ang oras ng pagtugon ay ang oras na kinakailangan para sa drive upang magsimula ng isang write/read operation.

Ang conversion sa pagitan ng IOPS at throughput ay maaaring gawin tulad ng sumusunod:

IOPS = throughput/laki ng block;
Throughput = IOPS * laki ng bloke,

Kung saan ang laki ng block ay ang dami ng impormasyong inilipat sa isang operasyon ng input/output (I/O). Kaya, alam ang gayong katangian ng isang hard drive (HDD SATA) bilang bandwidth, madali nating makalkula ang bilang ng IOPS.

Halimbawa, kunin natin ang karaniwang laki ng bloke - 4KB at ang karaniwang throughput na idineklara ng tagagawa para sa sunud-sunod na pagsulat o pagbabasa (I/O) - 121 MB / s. IOPS = 121 MB / 4 KB, bilang resulta nakakakuha kami ng halaga na humigit-kumulang 30,000 IOPS para sa aming SATA hard drive. Kung ang laki ng bloke ay nadagdagan at ginawang katumbas ng 8 KB, ang halaga ay magiging humigit-kumulang 15,000 IOPS, ibig sabihin, ito ay bababa nang halos proporsyonal sa pagtaas ng laki ng bloke. Gayunpaman, dapat itong malinaw na maunawaan iyon dito namin isinasaalang-alang ang IOPS sa sequential write o read key.

Kapansin-pansing nagbabago ang mga bagay para sa mga tradisyonal na SATA hard drive kung random ang pagbabasa at pagsusulat. Dito nagsisimula ang latency na gumanap ng isang papel, na lubhang kritikal sa kaso ng mga HDD (Hard Disk Drive) SATA / SAS, at kung minsan kahit na sa kaso ng SSD (Solid State Drive) solid state drive. Kahit na ang huli ay madalas na nagbibigay ng mga order ng pagganap ng magnitude na mas mahusay kaysa sa "umiikot" na mga drive dahil sa kawalan ng mga gumagalaw na elemento, ang mga makabuluhang pagkaantala sa pag-record ay maaari pa ring mangyari dahil sa mga kakaiba ng teknolohiya, at, bilang isang resulta, kapag ginagamit ang mga ito sa mga array. . Ang mahal na amarao ay nagsagawa ng isang medyo kapaki-pakinabang na pag-aaral sa paggamit ng mga solid-state drive sa mga array, tulad ng nangyari, ang pagganap ay depende sa latency ng pinakamabagal na drive. Maaari mong basahin ang higit pa tungkol sa mga resulta sa kanyang artikulo: SSD + raid0 - hindi lahat ay napakasimple.

Ngunit bumalik tayo sa pagganap ng mga indibidwal na drive. Isaalang-alang natin ang kaso sa "umiikot" na mga drive. Ang oras na kinakailangan upang maisagawa ang isang random na operasyon ng I/O ay matutukoy ng mga sumusunod na bahagi:

T(I/O) = T(A)+T(L)+T(R/W),

Kung saan ang T(A) ay oras ng pag-access o oras ng paghahanap, na kilala rin bilang oras ng paghahanap, iyon ay, ang oras na kinakailangan para mailagay ang read head sa track na may block ng impormasyong kailangan namin. Kadalasan, tinutukoy ng tagagawa ang 3 mga parameter sa detalye ng disk:

Ang oras na kinakailangan upang lumipat mula sa pinakamalayong landas patungo sa pinakamalapit;
- oras na kinakailangan upang lumipat sa pagitan ng mga katabing track;
- average na oras ng pag-access.

Kaya dumating kami sa mahiwagang konklusyon na ang T(A) ay maaaring mapabuti kung ilalagay namin ang aming data sa pinakamalapit na mga track hangga't maaari, at lahat ng data ay matatagpuan sa malayo mula sa gitna ng platter hangga't maaari (mas kaunting oras ang kinakailangan upang ilipat ang head block, at mayroong higit pang data sa mga panlabas na track, dahil ang track ay mas mahaba at mas mabilis na umiikot kaysa sa panloob). Ngayon ay nagiging malinaw kung bakit maaaring maging kapaki-pakinabang ang defragmentation. Lalo na sa kondisyon ng paglalagay ng data sa mga panlabas na track sa unang lugar.

Ang T(L) ay ang pagkaantala na dulot ng pag-ikot ng disk, iyon ay, ang oras na kinakailangan upang basahin o isulat ang isang partikular na sektor sa aming track. Madaling maunawaan na ito ay nasa hanay mula 0 hanggang 1/RPS, kung saan ang RPS ay ang bilang ng mga rebolusyon bawat segundo. Halimbawa, na may katangian ng disk na 7200 RPM (revolutions per minute), nakakakuha tayo ng 7200/60 = 120 revolutions bawat segundo. Ibig sabihin, isang rebolusyon ang nagaganap sa (1/120) * 1000 (ang bilang ng mga millisecond sa isang segundo) = 8.33 ms. Ang average na pagkaantala sa kasong ito ay magiging katumbas ng kalahati ng oras na ginugol sa isang rebolusyon - 8.33/2 = 4.16 ms.

T(R/W) - oras upang magbasa o magsulat ng isang sektor, na tinutukoy ng laki ng bloke na napili sa panahon ng pag-format (mula sa 512 bytes hanggang ... ilang megabytes, sa kaso ng mas malawak na mga drive - mula sa 4 kilobytes, karaniwang laki ng kumpol) at ang bandwidth, na ipinahiwatig sa mga detalye ng drive.

Ang average na pagkaantala ng pag-ikot, na tinatayang katumbas ng oras na ginugol sa kalahating rebolusyon, na alam ang bilis ng pag-ikot na 7200, 10,000 o 15,000 RPM, ay madaling matukoy. At ipinakita na namin kung paano sa itaas.

Ang natitirang mga parameter (average na read at write na oras ng paghahanap) ay mas mahirap matukoy; ang mga ito ay tinutukoy bilang resulta ng mga pagsubok at ipinahiwatig ng tagagawa.

Upang kalkulahin ang bilang ng mga random na IOP ng isang hard drive, posibleng ilapat ang sumusunod na formula, sa kondisyon na ang bilang ng sabay-sabay na mga operasyon sa pagbasa at pagsulat ay pareho (50%/50%):

1/(((average read search time + average write search time) / 2) / 1000) + (average na pagkaantala sa pag-ikot / 1000)).

Maraming tao ang interesado sa kung bakit eksakto ito ang pinagmulan ng formula? Ang IOPS ay ang bilang ng mga pagpapatakbo ng input o output bawat segundo. Iyon ang dahilan kung bakit hinahati namin ang 1 segundo sa numerator (1000 millisecond) sa oras, isinasaalang-alang ang lahat ng mga pagkaantala sa denominator (ipinahayag din sa mga segundo o millisecond), na kinakailangan upang makumpleto ang isang input o output na operasyon.

Iyon ay, ang formula ay maaaring isulat sa ganitong paraan:

1000 (ms) / ((average read seek time (ms) + average write seek time (ms)) /2) + average rotation delay (ms))

Para sa mga drive na may iba't ibang bilang ng RPM (mga pag-ikot bawat minuto), nakukuha namin ang mga sumusunod na halaga:

Para sa 7200 RPM drive IOPS = 1/(((8.5+9.5)/2)/1000) + (4.16/1000)) = 1/((9/1000) +
(4,16/1000)) = 1000/13,16 = 75,98;
Para sa isang 10K RPM SAS drive IOPS = 1/(((3.8+4.4)/2)/1000) + (2.98/1000)) =
1/((4,10/1000) + (2,98/1000)) = 1000/7,08 = 141,24;
Para sa isang 15K RPM SAS drive IOPS = 1/(((3.48+3.9)/2)/1000) + (2.00/1000)) =
1/((3,65/1000) + (2/1000)) = 1000/5,65 = 176,99.

Kaya, nakikita natin ang mga dramatikong pagbabago kapag mula sa sampu-sampung libong IOPS para sa sunud-sunod na pagbabasa o pagsulat, ang pagganap ay bumaba sa ilang sampu ng IOPS.

At mayroon na, na may karaniwang laki ng sektor na 4 KB, at ang pagkakaroon ng napakaliit na bilang ng IOPS, makakakuha tayo ng halaga ng throughput na hindi isang daang megabytes, ngunit mas mababa sa isang megabyte.

Ang mga halimbawang ito ay naglalarawan din kung bakit may maliit na pagkakaiba-iba sa rated disk IOPS mula sa iba't ibang mga tagagawa para sa mga drive na may parehong RPM.

Ngayon ay nagiging malinaw na kung bakit ang data ng pagganap ay nasa medyo malawak na hanay:

7200 RPM (I-rotate bawat Minuto) HDD SATA - 50-75 IOPS;
10K RPM HDD SAS - 110-140 IOPS;
15K RPM HDD SAS - 150-200 IOPS;
SSD (Solid State Drive) - sampu-sampung libong IOPS para sa pagbabasa, daan-daan at libo-libo para sa pagsusulat.

Gayunpaman, ang nominal na disk IOPS ay malayo pa rin sa tumpak, dahil hindi nito isinasaalang-alang ang mga pagkakaiba sa likas na katangian ng mga pag-load sa mga indibidwal na kaso, na napakahalagang maunawaan.

Gayundin, para sa isang mas mahusay na pag-unawa sa paksa, inirerekumenda ko ang pagbabasa ng isa pang kapaki-pakinabang na artikulo mula sa amarao: Paano sukatin nang tama ang pagganap ng disk, salamat sa kung saan nagiging malinaw din na ang latency ay hindi naayos at nakasalalay din sa pag-load at likas na katangian nito.

Ang tanging bagay na nais kong idagdag:

Kapag kinakalkula ang pagganap ng hard disk, maaari nating pabayaan ang pagbawas sa bilang ng IOPS habang tumataas ang laki ng bloke, bakit?

Naunawaan na namin na para sa "umiikot" na mga drive, ang oras na kinakailangan para sa isang random na pagbasa o pagsulat ay binubuo ng mga sumusunod na bahagi:

T(I/O) = T(A)+T(L)+T(R/W).

At pagkatapos ay kinakalkula pa namin ang pagganap para sa random na pagbabasa at pagsusulat sa IOPS. Sadyang napabayaan natin ang T(R/W) na parameter doon, at hindi ito sinasadya. Alam natin na sabihin nating makakamit ang mga sequential read sa 120 megabytes bawat segundo. Nagiging malinaw na ang isang 4KB block ay babasahin sa humigit-kumulang 0.03 ms, isang oras na dalawang order ng magnitude na mas maikli kaysa sa oras ng iba pang mga pagkaantala (8 ms + 4 ms).

Kaya, kung may block size na 4KB mayroon kaming 76 IOPS(ang pangunahing pagkaantala ay sanhi ng pag-ikot ng drive at ang oras ng pagpoposisyon ng ulo, at hindi sa mismong proseso ng pagbabasa o pagsulat), pagkatapos ay sa laki ng bloke na 64 KB, ang pagbaba sa IOPS ay hindi magiging 16 beses, tulad ng sa sequential reading, ngunit sa pamamagitan lamang ng ilang IOPS. Dahil ang oras na ginugugol sa direktang pagbabasa o pagsusulat ay tataas ng 0.45 ms, na halos 4% lamang ng kabuuang latency.

Bilang resulta, nakakakuha kami ng 76-4% = 72.96 IOPS, na, nakikita mo, ay hindi kritikal sa mga kalkulasyon, dahil ang pagbaba sa IOPS ay hindi 16 beses, ngunit sa pamamagitan lamang ng ilang porsyento! At kapag kinakalkula ang pagganap ng system, mas mahalaga na huwag kalimutang isaalang-alang ang iba pang mahahalagang parameter.

mahiwagang konklusyon: Kapag kinakalkula ang pagganap ng mga sistema ng imbakan batay sa mga hard drive, dapat nating piliin ang pinakamainam na laki ng block (cluster) upang matiyak ang maximum na throughput na kailangan natin, depende sa uri ng data at mga application na ginamit, na bumababa ang IOPS habang tumataas ang laki ng block mula sa 4KB sa 64KB o kahit na 128KB ay maaaring mapabayaan o isaalang-alang bilang 4 at 7%, ayon sa pagkakabanggit, kung sila ay may mahalagang papel sa gawaing nasa kamay.

Nagiging malinaw din kung bakit hindi palaging makatuwirang gumamit ng napakalaking mga bloke. Halimbawa, kapag nag-stream ng video, maaaring hindi ang dalawang-megabyte na laki ng block ang pinakamainam na opsyon. Dahil ang pagbaba sa bilang ng IOPS ay higit sa 2 beses. Sa iba pang mga bagay, ang iba pang mga proseso ng pagkasira sa mga array ay idaragdag, na nauugnay sa multithreading at computational load kapag namamahagi ng data sa kabuuan ng array.

Pinakamainam na laki ng bloke (kumpol).

Ang pinakamainam na laki ng bloke ay kailangang isaalang-alang depende sa likas na katangian ng pagkarga at ang uri ng mga aplikasyon na ginamit. Kung nagtatrabaho ka sa maliit na data, halimbawa sa mga database, dapat mong piliin ang karaniwang 4 KB, ngunit kung pinag-uusapan mo ang tungkol sa pag-stream ng mga video file, mas mahusay na pumili ng laki ng kumpol na 64 KB o higit pa.

Dapat alalahanin na ang laki ng bloke ay hindi kasing kritikal para sa mga SSD tulad ng para sa mga karaniwang HDD, dahil pinapayagan ka nitong magbigay ng kinakailangang throughput dahil sa isang maliit na bilang ng mga random na IOPS, ang bilang nito ay bahagyang bumababa habang tumataas ang laki ng bloke, hindi katulad Mga SSD, kung saan mayroong halos proporsyonal na pag-asa .

Bakit 4 KB ang pamantayan?

Para sa maraming mga drive, lalo na ang mga solid-state drive, ang mga halaga ng pagganap, halimbawa ay nagsusulat, simula sa 4 KB, ay nagiging pinakamainam, tulad ng makikita mula sa graph:

Habang para sa pagbabasa, ang bilis ay medyo makabuluhan din at higit pa o hindi gaanong matitiis simula sa 4 KB:

Ito ay para sa kadahilanang ito na ang isang 4 KB na laki ng bloke ay madalas na ginagamit bilang isang pamantayan, dahil sa isang mas maliit na sukat ay may malaking pagkalugi sa pagganap, at sa isang pagtaas sa laki ng bloke, sa kaso ng pagtatrabaho sa maliit na data, ang ang data ay ipapamahagi nang hindi gaanong mahusay, na sumasakop sa buong laki ng bloke at quota ng imbakan ay hindi magagamit nang epektibo.

antas ng RAID

Kung ang iyong storage system ay isang hanay ng mga drive na pinagsama sa isang RAID ng isang tiyak na antas, kung gayon ang pagganap ng system ay nakasalalay sa malaking lawak sa kung anong antas ng RAID ang inilapat at kung anong porsyento ng kabuuang bilang ng mga operasyon ang mga operasyon sa pagsulat, dahil ito ay isinusulat. na nagdudulot ng pagkasira ng pagganap Sa karamihan ng mga kaso.

Kaya, sa RAID0, 1 IOPS lang ang gagamitin para sa bawat operasyon ng pag-input, dahil ang data ay ipapamahagi sa lahat ng drive nang walang duplikasyon. Sa kaso ng salamin (RAID1, RAID10), ang bawat write operation ay makakakonsumo na ng 2 IOPS, dahil ang impormasyon ay dapat na nakasulat sa 2 drive.

Sa mas mataas na antas ng RAID, ang mga pagkalugi ay mas makabuluhan; halimbawa, sa RAID5 ang penalty factor ay magiging 4, na dahil sa paraan ng pagbabahagi ng data sa mga disk.

Ginagamit ang RAID5 sa halip na RAID4 sa karamihan ng mga kaso dahil namamahagi ito ng parity (mga checksum) sa lahat ng disk. Sa isang RAID4 array, isang drive ang responsable para sa lahat ng parity habang ang data ay kumakalat sa higit sa 3 drive. Ito ang dahilan kung bakit naglalapat kami ng penalty factor na 4 sa isang RAID5 array, dahil nagbabasa kami ng data, nagbabasa ng parity, pagkatapos ay nagsusulat ng data at nagsusulat ng parity.

Sa isang RAID6 array, ang lahat ay magkatulad, maliban na sa halip na kalkulahin ang parity nang isang beses, ginagawa namin ito nang dalawang beses at sa gayon ay mayroong 3 reads at 3 writes, na nagbibigay sa amin ng penalty factor na 6.

Mukhang sa isang array tulad ng RAID-DP ang lahat ay magiging katulad, dahil ito ay mahalagang isang binagong RAID6 array. Ngunit hindi iyon ang kaso... Ang lansihin ay ang isang hiwalay na WAFL (Write Anywhere File Layout) na sistema ng file ay ginagamit, kung saan ang lahat ng mga operasyon sa pagsulat ay sunud-sunod at ginagawa sa libreng espasyo. Ang WAFL ay karaniwang magsusulat ng bagong data sa isang bagong lokasyon sa disk at pagkatapos ay ililipat ang mga pointer sa bagong data, kaya inaalis ang mga read operation na kailangang maganap. Bilang karagdagan, ang isang log ay isinulat sa NVRAM, na sumusubaybay sa mga transaksyon sa pagsulat, nagpasimula ng pagsusulat, at maaaring ibalik ang mga ito kung kinakailangan. Isinulat ang mga ito sa buffer sa simula, at pagkatapos ay "pinagsama" sila sa disk, na nagpapabilis sa proseso. Marahil ang mga eksperto sa NetApp ay maaaring maliwanagan sa amin nang mas detalyado sa mga komento sa kung paano nakakamit ang pagtitipid, hindi ko pa lubos na naiintindihan ang isyung ito, ngunit naalala ko na ang kadahilanan ng parusa ng RAID ay magiging 2 lamang, hindi 6. Ang "panlinlang" ay medyo makabuluhan.

Sa malalaking array ng RAID-DP na binubuo ng dose-dosenang mga drive, mayroong konsepto ng pagbabawas ng "parity penalty" na nangyayari kapag nangyari ang parity writes. Kaya, habang lumalaki ang array ng RAID-DP, kinakailangan ang isang mas maliit na bilang ng mga disk na nakalaan para sa parity, na hahantong sa pagbawas sa mga pagkalugi na nauugnay sa mga talaan ng parity. Gayunpaman, sa maliliit na hanay, o upang mapataas ang konserbatismo, maaari nating pabayaan ang hindi pangkaraniwang bagay na ito.

Ngayon, alam ang tungkol sa mga pagkalugi ng IOPS bilang resulta ng paggamit ng isa o ibang antas ng RAID, maaari nating kalkulahin ang pagganap ng array. Gayunpaman, pakitandaan na ang ibang mga salik, gaya ng bandwidth ng interface, suboptimal na pamamahagi ng interrupt sa mga core ng processor, atbp., bandwidth ng controller ng RAID, o paglampas sa pinahihintulutang lalim ng pila, ay maaaring magkaroon ng negatibong epekto.

Kung ang mga salik na ito ay napapabayaan, ang formula ay ang mga sumusunod:

Functional IOPS = (Raw IOPS * % of writes / RAID penalty factor) + (Raw IOPS * % of read), kung saan Raw IOPS = average IOPS ng mga drive * bilang ng mga drive.

Halimbawa, kalkulahin natin ang pagganap ng isang RAID10 array ng 12 HDD SATA drive, kung alam na 10% ng write operations at 90% ng read operation ay nangyayari nang sabay-sabay. Sabihin nating ang disk ay nagbibigay ng 75 random na IOPS, na may block na laki na 4KB.

Paunang IOPS = 75*12 = 900;
Functional na IOPS = (900*0.1/2) + (900*0.9) = 855.

Kaya, nakikita namin na sa mababang intensity ng pagsulat, na pangunahing sinusunod sa mga system na idinisenyo para sa paghahatid ng nilalaman, ang impluwensya ng RAID penalty factor ay minimal.

Dependency sa aplikasyon

Ang pagganap ng aming solusyon ay maaaring depende sa mga application na isasagawa pagkatapos. Kaya maaaring ito ay pagproseso ng transaksyon - "nakabalangkas" na data na organisado, pare-pareho at mahuhulaan. Kadalasan sa mga prosesong ito, maaari mong ilapat ang prinsipyo ng pagproseso ng batch, pamamahagi ng mga prosesong ito sa oras upang ang pag-load ay minimal, at sa gayon ay na-optimize ang pagkonsumo ng IOPS. Gayunpaman, kamakailan lamang parami nang parami ang mga proyekto ng media na lumitaw kung saan ang data ay "hindi nakabalangkas" at nangangailangan ng ganap na magkakaibang mga prinsipyo para sa pagproseso nito.

Para sa kadahilanang ito, ang pagkalkula ng kinakailangang pagganap ng isang solusyon para sa isang partikular na proyekto ay maaaring maging isang napakahirap na gawain. Ang ilan sa mga nagtitinda at eksperto ng imbakan ay nangangatuwiran na ang IOPS ay hindi mahalaga, dahil ang mga customer ay labis na gumagamit ng hanggang 30-40 libong IOPS, habang ang mga modernong sistema ng imbakan ay nagbibigay ng daan-daang libo at kahit milyon-milyong IOPS. Iyon ay, ang mga modernong pasilidad ng imbakan ay nakakatugon sa mga pangangailangan ng 99% ng mga kliyente. Gayunpaman, maaaring hindi palaging totoo ang pahayag na ito, para lamang sa segment ng negosyo na lokal na nagho-host ng storage, ngunit hindi para sa mga proyektong naka-host sa mga data center, na kadalasan, kahit na gumagamit ng mga handa na solusyon sa storage, ay dapat magbigay ng medyo mataas na performance at fault tolerance.

Kung ang proyekto ay matatagpuan sa isang data center, sa karamihan ng mga kaso, mas matipid pa rin na bumuo ng mga sistema ng imbakan sa iyong sarili batay sa mga dedikadong server kaysa gumamit ng mga handa na solusyon, dahil nagiging posible na mas epektibong ipamahagi ang load at piliin ang pinakamainam na kagamitan para sa ilang mga proseso. Sa iba pang mga bagay, ang mga tagapagpahiwatig ng pagganap ng mga ready-made na storage system ay malayo sa tunay, dahil ang mga ito ay kadalasang nakabatay sa data ng profile mula sa mga sintetikong pagsubok sa pagganap kapag gumagamit ng 4 o 8 KB na laki ng block, habang Karamihan sa mga application ng kliyente ay tumatakbo na ngayon sa mga kapaligiran na may mga laki ng block sa pagitan ng 32 at 64 KB.

Tulad ng nakikita natin mula sa graph:

Mas mababa sa 5% ng mga storage system ang na-configure na may block size na mas mababa sa 10 KB at mas mababa sa 15% ang gumagamit ng blocks na may block size na mas mababa sa 20 KB. Bilang karagdagan, kahit na para sa isang naibigay na aplikasyon, bihira lamang na isang uri ng pagkonsumo ng I/O ang nangyayari. Halimbawa, ang isang database ay magkakaroon ng iba't ibang I/O profile para sa iba't ibang proseso (data file, pag-log, index...). Nangangahulugan ito na maaaring malayo sa katotohanan ang nakasaad na mga pagsubok sa pagganap ng synthetic system.

Paano ang tungkol sa mga pagkaantala?

Kahit na balewalain natin ang katotohanan na ang mga tool na ginagamit sa pagsukat ng latency ay may posibilidad na sukatin ang average na latency na mga oras at hindi nakuha ang katotohanan na ang isang solong I/O sa ilang proseso ay maaaring tumagal nang mas matagal kaysa sa iba, kaya nagpapabagal sa pag-usad ng buong proseso, sila huwag mong isasaalang-alang kung ano kung magkano ang I/O latency ay magbabago depende sa laki ng block. Sa iba pang mga bagay, ang oras na ito ay magdedepende rin sa partikular na aplikasyon.

Kaya, dumating kami sa isa pang mahiwagang konklusyon: hindi lamang ang laki ng bloke ay hindi isang napakahusay na katangian kapag sinusukat ang pagganap ng mga sistema ng IOPS, ngunit ang latency ay maaari ding maging isang ganap na walang silbi na parameter.

Well, kung alinman sa IOPS o latency ay hindi isang mahusay na sukatan ng pagganap ng sistema ng imbakan, kung gayon ano?

Tanging isang tunay na pagsubok ng pagpapatupad ng aplikasyon sa isang partikular na solusyon...

Ang pagsubok na ito ay magiging isang tunay na paraan na tiyak na magbibigay-daan sa iyo na maunawaan kung gaano ka-produktibo ang solusyon para sa iyong kaso. Upang gawin ito, kakailanganin mong magpatakbo ng isang kopya ng application sa isang hiwalay na imbakan at gayahin ang pag-load para sa isang tiyak na panahon. Ito ang tanging paraan upang makakuha ng maaasahang data. At siyempre, kailangan mong sukatin hindi ang mga sukatan ng imbakan, ngunit ang mga sukatan ng aplikasyon.

Gayunpaman, ang pagsasaalang-alang sa mga salik sa itaas na nakakaapekto sa pagganap ng aming mga system ay maaaring maging lubhang kapaki-pakinabang kapag pumipili ng storage o pagbuo ng isang partikular na imprastraktura batay sa mga nakalaang server. Sa isang tiyak na antas ng konserbatismo, nagiging posible na pumili ng higit pa o hindi gaanong makatotohanang solusyon, upang maalis ang ilang mga teknikal at software na mga bahid sa anyo ng hindi pinakamainam na laki ng bloke kapag naghahati o hindi pinakamainam na trabaho sa mga disk. Ang solusyon, siyempre, ay hindi 100% magagarantiyahan ang kinakalkula na pagganap, ngunit sa 99% ng mga kaso maaari itong sabihin na ang solusyon ay makayanan ang pag-load, lalo na kung magdagdag ka ng konserbatismo depende sa uri ng aplikasyon at mga tampok nito sa pagkalkula.

Sa anumang produksyon, isa sa mga pangunahing layunin na hinahabol ng pamamahala ng kumpanya ay ang makakuha ng mga resulta. Ang tanging tanong ay kung gaano karaming pagsisikap at mapagkukunan ang kakailanganin sa proseso ng trabaho upang makamit ang pangunahing layunin. Upang matukoy ang kahusayan ng isang negosyo, ang konsepto ng "produktibidad ng paggawa" ay ipinakilala, na isang tagapagpahiwatig ng pagiging produktibo ng kawani. Ang gawain na maaaring gawin ng isang tao sa bawat yunit ng oras ay karaniwang tinatawag na "output".

Para sa bawat negosyo napakahalaga na makakuha ng matataas na resulta at sa parehong oras ay gumastos ng kakaunting mapagkukunan hangga't maaari sa produksyon (kabilang dito ang mga singil sa kuryente, upa, atbp.).

Ang pinakamahalagang gawain sa anumang negosyo na gumagawa ng mga kalakal o nagbibigay ng mga serbisyo ay ang pagtaas ng produktibidad. Kasabay nito, mayroong ilang mga hakbang na karaniwang sinusunod upang mabawasan ang halaga ng mga gastos na kinakailangan para sa proseso ng trabaho. Kaya, sa panahon ng pag-unlad ng negosyo, maaaring magbago ang produktibidad ng paggawa.

Bilang isang patakaran, ang ilang mga grupo ng mga kadahilanan ay inuri na maaaring maka-impluwensya sa pagbabago, lalo na ang paglago ng mga tagapagpahiwatig ng produksyon. Una sa lahat, ito ay isang pang-ekonomiya at heograpikal na kadahilanan, na kinabibilangan ng pagkakaroon ng magagamit na mga mapagkukunan ng paggawa, tubig, kuryente, mga materyales sa gusali, pati na rin ang distansya sa mga komunikasyon, terrain, atbp. Hindi gaanong mahalaga ang kahalagahan ng pagpapabilis ng siyentipiko at teknikal na pag-unlad, pagtataguyod ng pagpapakilala ng mga bagong henerasyon ng modernong teknolohiya at ang paggamit ng mga advanced na teknolohiya at mga awtomatikong sistema. Maaari ding ipagpalagay na ang produktibidad ng paggawa ay nakasalalay din sa salik ng mga pagbabago sa istruktura, na nangangahulugan ng pagbabago sa bahagi ng mga bahagi at biniling semi-tapos na mga produkto, pati na rin ang istraktura ng produksyon at bahagi ng mga indibidwal na uri ng mga produkto.

Ang aspetong panlipunan (tao) ay nananatiling may malaking kahalagahan, dahil ito ang pag-aalala para sa mga benepisyong panlipunan na pinagbabatayan ng pagtaas ng produktibidad ng paggawa. Kabilang dito ang: pag-aalala tungkol sa pisikal na kalusugan ng isang tao, antas ng intelektwal na pag-unlad, propesyonalismo, atbp.

Ang mga kadahilanan na nagpapataas ng produktibidad ng paggawa ay ang pinakamahalagang bahagi ng buong proseso ng trabaho, dahil naiimpluwensyahan nila ang rate ng pag-unlad ng anumang negosyo at, nang naaayon, nag-aambag sa pagtaas ng kita.

Nararapat din na tandaan ang punto ng organisasyon na tumutukoy sa antas ng produksyon at pamamahala ng paggawa. Kabilang dito ang pagpapabuti ng organisasyon ng pamamahala ng negosyo, pagpapabuti ng mga tauhan, materyal at teknikal na pagsasanay.

Kung pinag-uusapan ang pagiging produktibo, imposibleng huwag pansinin ang intensity ng paggawa. Ang konseptong ito ay isang salamin ng dami ng mental at pisikal na enerhiya na ginugol ng isang empleyado sa isang tiyak na panahon ng oras ng pagtatrabaho.

Napakahalaga na matukoy ang pinakamainam na intensity para sa isang naibigay na proseso ng trabaho, dahil ang labis na aktibidad ay maaaring humantong sa hindi maiiwasang pagkalugi sa pagiging produktibo. Bilang isang patakaran, ito ay nangyayari bilang isang resulta ng labis na trabaho ng tao, mga sakit sa trabaho, mga pinsala, atbp.

Kapansin-pansin na ang mga pangunahing tagapagpahiwatig na tumutukoy sa intensity ng paggawa ay nakilala. Una sa lahat, ito ay workload ng isang tao. Pinapayagan ka nitong matukoy ang intensity ng proseso ng trabaho at, nang naaayon, ang pagiging posible ng mga gastos. Kasabay nito, kaugalian na kalkulahin ang bilis ng trabaho, iyon ay, ang dalas ng mga aksyon na nauugnay sa isang yunit ng oras. Isinasaalang-alang ang mga salik na ito, ang negosyo, bilang panuntunan, ay may ilang mga pamantayan, batay sa mga tagapagpahiwatig kung saan itinatag ang plano sa paggawa ng produksyon.

Ang mga salik ng produktibidad ng paggawa ay ang paksa ng malapit na atensyon ng mga siyentipiko at practitioner, dahil sila ang nagsisilbing ugat na dahilan na tumutukoy sa antas at dinamika nito. Ang mga salik na pinag-aralan sa pagsusuri ay maaaring uriin ayon sa iba't ibang pamantayan. Ipinakita namin ang pinaka detalyadong pag-uuri sa Talahanayan 1

Talahanayan 1

Pag-uuri ng mga salik na nakakaapekto sa produktibidad ng paggawa

Tampok ng pag-uuri

Mga pangkat ng mga kadahilanan

Sa likas na katangian nito

Natural at klimatiko

Socio-economic

Produksyon at pang-ekonomiya

Sa antas ng epekto sa resulta

Basic

menor de edad

Kaugnay ng bagay na pinag-aaralan

Domestic

Depende sa team

Layunin

Subjective

Sa pamamagitan ng paglaganap

Tukoy

Sa tagal

Permanente

Mga variable

Sa pamamagitan ng likas na katangian ng pagkilos

Malawak

Intensive

Ayon sa mga katangian ng masasalamin na phenomena

Dami

Kalidad

Ayon sa komposisyon nito

Ayon sa antas ng subordination (hierarchy)

Unang order

Pangalawang order, atbp.

Kung posible, mga sukat ng epekto

Masusukat

Hindi masusukat

Sa kanilang likas na katangian, ang mga salik ay nahahati sa natural-climatic, socio-economic at production-economic.

Ang natural at klimatiko na mga kadahilanan ay may malaking impluwensya sa mga resulta ng mga aktibidad sa agrikultura, industriya ng pagmimina, kagubatan at iba pang industriya. Ang pagsasaalang-alang sa kanilang impluwensya ay nagpapahintulot sa amin na mas tumpak na masuri ang mga resulta ng gawain ng mga entidad ng negosyo. Kasama sa mga salik na sosyo-ekonomiko ang mga kondisyon ng pamumuhay ng mga manggagawa, ang organisasyon ng gawaing pangkultura, palakasan at libangan sa negosyo, ang pangkalahatang antas ng kultura at edukasyon ng mga tauhan, atbp. Nag-aambag sila sa isang mas kumpletong paggamit ng mga mapagkukunan ng produksyon ng enterprise at pagtaas ang kahusayan ng trabaho nito. Tinutukoy ng mga salik ng produksiyon at pang-ekonomiya ang pagkakumpleto at kahusayan ng paggamit ng mga mapagkukunan ng produksyon ng negosyo at ang mga huling resulta ng mga aktibidad nito. Batay sa antas ng epekto sa mga resulta ng pang-ekonomiyang aktibidad, ang mga kadahilanan ay nahahati sa major at minor. Ang mga pangunahing ay kinabibilangan ng mga salik na may mapagpasyang epekto sa tagapagpahiwatig ng pagganap. Ang mga walang mapagpasyang epekto sa mga resulta ng aktibidad sa ekonomiya sa kasalukuyang mga kondisyon ay itinuturing na pangalawa. Narito ito ay kinakailangan upang tandaan na ang parehong kadahilanan, depende sa mga pangyayari, ay maaaring maging parehong pangunahin at pangalawa. Ang kakayahang tukuyin ang pangunahing, pagtukoy ng mga kadahilanan mula sa iba't ibang mga kadahilanan ay nagsisiguro sa kawastuhan ng mga konklusyon batay sa mga resulta ng pagsusuri.

May kaugnayan sa object ng pag-aaral, ang mga kadahilanan ay inuri sa panloob at panlabas, i.e. umaasa at malaya sa mga aktibidad ng negosyong ito. Ang pangunahing pansin sa pagsusuri ay dapat bayaran sa pag-aaral ng mga panloob na kadahilanan na maaaring maimpluwensyahan ng negosyo.

Kasabay nito, sa maraming mga kaso, na may binuo na mga koneksyon at relasyon sa produksyon, ang mga resulta ng bawat negosyo ay makabuluhang naiimpluwensyahan ng mga aktibidad ng iba pang mga negosyo, halimbawa, ang pagkakapareho at pagiging maagap ng mga supply ng mga hilaw na materyales, materyales, kanilang kalidad, gastos. , mga kondisyon sa merkado, mga proseso ng inflationary, atbp. Ang mga salik na ito ay panlabas. Hindi nila nailalarawan ang mga pagsisikap ng isang partikular na pangkat, ngunit ginagawang posible ng kanilang pag-aaral na mas tumpak na matukoy ang antas ng impluwensya ng mga panloob na sanhi at sa gayon ay mas ganap na makilala ang mga panloob na reserba ng produksyon.

Upang masuri nang tama ang mga aktibidad ng mga negosyo, ang mga kadahilanan ay dapat na higit pang nahahati sa layunin at subjective. Ang mga layunin na kadahilanan, tulad ng isang natural na sakuna, ay hindi nakasalalay sa kagustuhan at kagustuhan ng mga tao. Hindi tulad ng mga layuning dahilan, ang mga pansariling dahilan ay nakasalalay sa mga aktibidad ng mga legal na entity at indibidwal.

Ayon sa antas ng pagkalat, ang mga kadahilanan ay nahahati sa pangkalahatan at tiyak. Kabilang sa mga pangkalahatang salik ang mga salik na gumagana sa lahat ng sektor ng ekonomiya. Ang mga partikular ay ang mga nagpapatakbo sa isang partikular na sektor ng ekonomiya o negosyo. Ang paghahati ng mga salik na ito ay nagpapahintulot sa amin na mas ganap na isaalang-alang ang mga katangian ng mga indibidwal na negosyo at industriya at mas tumpak na masuri ang kanilang mga aktibidad.

Batay sa tagal ng epekto sa mga resulta ng pagganap, ang mga salik ay nakikilala sa pagitan ng pare-pareho at variable. Ang patuloy na mga kadahilanan ay nakakaimpluwensya sa hindi pangkaraniwang bagay na pinag-aaralan nang tuluy-tuloy sa buong panahon. Ang epekto ng mga variable na kadahilanan ay nagpapakita ng sarili sa pana-panahon, halimbawa, ang pagbuo ng bagong teknolohiya, mga bagong uri ng mga produkto, bagong teknolohiya ng produksyon, atbp.

Ang malaking kahalagahan para sa pagtatasa ng mga aktibidad ng mga negosyo ay ang paghahati ng mga kadahilanan ayon sa likas na katangian ng kanilang pagkilos sa masinsinang at malawak. Kasama sa mga malawak na salik ang mga salik na nauugnay sa isang dami sa halip na isang pagtaas ng husay sa tagapagpahiwatig ng pagganap, halimbawa, isang pagtaas sa dami ng produksyon sa pamamagitan ng pagpapalawak ng lugar na inihasik, pagtaas ng bilang ng mga hayop, bilang ng mga manggagawa, atbp. Ang masinsinang mga kadahilanan ay nagpapakilala sa antas ng pagsisikap at intensity ng paggawa sa proseso ng produksyon, halimbawa, pagtaas ng mga ani ng agrikultura, produktibidad ng mga hayop, at ang antas ng produktibidad ng paggawa.

Kung ang pagsusuri ay naglalayong sukatin ang impluwensya ng bawat kadahilanan sa mga resulta ng aktibidad sa ekonomiya, kung gayon ang mga ito ay nahahati sa dami at husay, simple at kumplikado, masusukat at hindi masusukat.

Ang mga salik na nagpapahayag ng quantitative na katiyakan ng mga phenomena (bilang ng mga manggagawa, kagamitan, hilaw na materyales, atbp.) ay itinuturing na quantitative. Ang mga salik ng husay ay tumutukoy sa mga panloob na katangian, katangian at katangian ng mga bagay na pinag-aaralan (produktibo sa paggawa, kalidad ng produkto, pagkamayabong ng lupa, atbp.).

Karamihan sa mga salik na pinag-aralan ay kumplikado sa komposisyon at binubuo ng ilang elemento. Gayunpaman, mayroon ding mga hindi maaaring hatiin sa kanilang mga bahaging bahagi. Depende sa kanilang komposisyon, ang mga kadahilanan ay nahahati sa kumplikado (kumplikado) at simple (elemental). Ang isang halimbawa ng isang kumplikadong kadahilanan ay ang produktibidad ng paggawa, at ang isang simple ay ang bilang ng mga araw ng trabaho sa panahon ng pag-uulat.

Gaya ng nasabi na, ang ilang salik ay may direktang epekto sa tagapagpahiwatig ng pagganap, habang ang iba ay may hindi direktang epekto. Batay sa antas ng subordination (hierarchy), nakikilala ang mga salik ng una, pangalawa, pangatlo, atbp. antas ng subordination. Kabilang sa mga salik sa unang antas ang mga direktang nakakaapekto sa tagapagpahiwatig ng pagganap. Ang mga salik na hindi direktang tumutukoy sa tagapagpahiwatig ng pagganap, gamit ang mga salik sa unang antas, ay tinatawag na mga salik sa pangalawang antas, atbp. Halimbawa, kaugnay sa kabuuang output, ang mga salik sa unang antas ay ang average na taunang bilang ng mga manggagawa at ang average na taunang output bawat manggagawa. Ang bilang ng mga araw na nagtrabaho ng isang manggagawa at ang average na pang-araw-araw na output ay pangalawang antas na mga salik. Kabilang sa mga salik ng ikatlong antas ang haba ng araw ng trabaho at average na oras-oras na output.

Ang batayan ng pagpapatakbo ng anumang negosyo ay ang makatwiran at mahusay na paggamit ng mga magagamit na mapagkukunan, kabilang ang paggawa. Ito ay lubos na lohikal na ang pamamahala ay naglalayong dagdagan ang dami ng output nang walang karagdagang gastos para sa pagkuha ng mga manggagawa. Tinutukoy ng mga eksperto ang ilang salik na maaaring mapabuti ang pagiging produktibo:

    Estilo ng pamamahala (ang pangunahing gawain ng isang tagapamahala ay upang mag-udyok sa mga kawani, lumikha ng isang kultura ng organisasyon na pinahahalagahan ang aktibidad at pagsusumikap).

    Ang mga pamumuhunan sa mga teknikal na inobasyon (pagbili ng mga bagong kagamitan na nakakatugon sa mga hinihingi ng oras ay maaaring makabuluhang bawasan ang oras na ginugol ng bawat empleyado).

    Mga pagsasanay at seminar para sa advanced na pagsasanay (ang kaalaman sa mga detalye ng produksyon ay nagpapahintulot sa mga tauhan na lumahok sa pagpapabuti ng proseso ng produksyon).

Maraming mga gumagamit ang nagtataka kung ano ang higit na nakakaapekto sa pagganap ng computer?

Lumalabas na imposibleng magbigay ng tiyak na sagot sa tanong na ito. Ang computer ay isang set ng mga subsystem (memorya, computing, graphics, storage) na nakikipag-ugnayan sa isa't isa sa pamamagitan ng motherboard at device drivers. Kung ang mga subsystem ay hindi na-configure nang tama, hindi sila nagbibigay ng maximum na pagganap na magagawa nila.

Ang komprehensibong pagganap ay binubuo ng mga setting at feature ng software at hardware.
Ilista natin sila.

Mga Salik sa Pagganap ng Hardware:

  1. Bilang ng mga core ng processor – 1, 2, 3 o 4
  2. Dalas ng processor at dalas ng processor system bus (FSB) – 533, 667, 800, 1066, 1333 o 1600 MHz
  3. Dami at dami ng memorya ng cache ng processor (CPU) – 256, 512 KB; 1, 2, 3, 4, 6, 12 MB.
  4. Pagtutugma sa dalas ng system bus ng CPU at motherboard
  5. Random access memory (RAM) frequency at motherboard memory bus frequency – DDR2-667, 800, 1066
  6. Kapasidad ng RAM – 512 MB o higit pa
  7. Chipset na ginamit sa motherboard (Intel, VIA, SIS, nVidia, ATI/AMD)
  8. Ang graphics subsystem na ginamit ay binuo sa motherboard o discrete (panlabas na video card na may sarili nitong memorya ng video at graphics processor)
  9. Uri ng interface ng hard drive (HDD) – parallel IDE o serial SATA at SATA-2
  10. Hard drive cache – 8, 16 o 32 MB.

Ang pagpapataas ng mga nakalistang teknikal na katangian ay palaging nagpapataas ng produktibidad.

Mga core

Sa ngayon, karamihan sa mga manufactured processor ay may hindi bababa sa 2 core (maliban sa AMD Sempron, Athlon 64 at Intel Celeron D, Celeron 4xx). Ang bilang ng mga core ay mahalaga sa 3D rendering o video encoding na mga gawain, gayundin sa mga program na ang code ay na-optimize para sa multi-threading ng ilang mga core. Sa ibang mga kaso (halimbawa, sa mga gawain sa opisina at Internet) sila ay walang silbi.

Apat na core magkaroon ng mga processor ng Intel Core 2 Extreme at Core 2 Quad na may mga sumusunod na marka: QX9xxx, Q9xxx, Q8xxx, QX6xxx;
AMD Phenom X3 – 3 core;
AMD Phenom X4 – 4 na core.

Dapat nating tandaan na ang bilang ng mga core ay makabuluhang pinatataas ang pagkonsumo ng kuryente ng CPU at pinatataas ang mga kinakailangan sa kuryente para sa motherboard at power supply!

Ngunit ang henerasyon at arkitektura ng core ay lubos na nakakaimpluwensya sa pagganap ng anumang processor.
Halimbawa, kung kukuha kami ng dual-core Intel Pentium D at Core 2 Duo na may parehong frequency, system bus at memorya ng cache, walang alinlangan na mananalo ang Core 2 Duo.

Mga frequency ng processor, memory at motherboard bus

Napakahalaga rin na tumutugma ang mga frequency ng iba't ibang bahagi.
Sabihin natin, kung ang iyong motherboard ay sumusuporta sa isang dalas ng memory bus na 800 MHz, at isang DDR2-677 memory module ay naka-install, kung gayon ang dalas ng memory module ay magbabawas ng pagganap.

Kasabay nito, kung ang motherboard ay hindi sumusuporta sa isang dalas ng 800 MHz, at habang ang isang DDR2-800 module ay naka-install, pagkatapos ito ay gagana, ngunit sa isang mas mababang dalas.

Mga cache

Pangunahing nakakaapekto ang cache ng memorya ng processor kapag nagtatrabaho sa mga CAD system, malalaking database at graphics. Ang cache ay isang memorya na may mas mabilis na bilis ng pag-access, na idinisenyo upang pabilisin ang pag-access sa data na permanenteng nilalaman sa memorya na may mas mabagal na bilis ng pag-access (mula dito ay tinutukoy bilang "pangunahing memorya"). Ang pag-cache ay ginagamit ng mga CPU, hard drive, browser, at web server.

Kapag na-access ng CPU ang data, susuriin muna ang cache. Kung ang isang entry na may isang identifier na tumutugma sa identifier ng hiniling na data item ay matatagpuan sa cache, pagkatapos ay ang data item sa cache ay ginagamit. Ang kasong ito ay tinatawag na cache hit. Kung walang makikitang mga entry sa cache na naglalaman ng hiniling na elemento ng data, ito ay babasahin mula sa pangunahing memorya papunta sa cache at magiging available para sa kasunod na pag-access. Ang kasong ito ay tinatawag na cache miss. Ang porsyento ng mga hit ng cache kung saan natagpuan ang isang resulta ay tinatawag na rate ng hit o ratio ng hit ng cache.
Ang porsyento ng mga hit ng cache ay mas mataas para sa mga processor ng Intel.

Ang lahat ng mga CPU ay naiiba sa bilang ng mga cache (hanggang sa 3) at ang kanilang laki. Ang pinakamabilis na cache ay ang unang antas (L1), ang pinakamabagal ay ang pangatlo (L3). Ang mga processor ng AMD Phenom lamang ang may L3 cache. Kaya napakahalaga na ang L1 cache ay may malaking sukat.

Sinubukan namin ang pag-asa ng pagganap sa laki ng memorya ng cache. Kung ihahambing mo ang mga resulta ng 3D shooters na Prey at Quake 4, na karaniwang mga application sa paglalaro, ang pagkakaiba sa pagganap sa pagitan ng 1 at 4 MB ay humigit-kumulang pareho sa pagitan ng mga processor na may pagkakaiba sa dalas ng 200 MHz. Ang parehong naaangkop sa mga pagsubok sa pag-encode ng video para sa DivX 6.6 at XviD 1.1.2 codec, pati na rin ang WinRAR 3.7 archiver. Gayunpaman, ang mga application na masinsinan sa CPU tulad ng 3DStudio Max 8, Lame MP3 Encoder, o H.264 Encoder V2 ng MainConcept ay hindi masyadong nakikinabang mula sa mas malalaking laki ng cache.
Tandaan natin na ang L2 cache ay may mas malaking epekto sa pagganap ng Intel Core 2 CPU kaysa sa AMD Athlon 64 X2 o Phenom, dahil ang Intel ay may karaniwang L2 cache para sa lahat ng mga core, habang ang AMD ay may hiwalay na isa para sa bawat core. ! Sa bagay na ito, mas gumagana ang Phenom sa cache.

RAM

Tulad ng nabanggit na, ang RAM ay nailalarawan sa dalas at dami. Kasabay nito, mayroon na ngayong 2 uri ng memorya na magagamit, DDR2 at DDR3, na naiiba sa arkitektura, pagganap, dalas at boltahe ng supply - iyon ay, lahat!
Ang dalas ng module ng memorya ay dapat tumugma sa dalas ng mismong module.

Ang dami ng RAM ay nakakaapekto rin sa pagganap ng operating system at mga resource-intensive na application.
Ang mga kalkulasyon ay simple - ang Windows XP ay tumatagal ng 300-350 MB ng RAM pagkatapos mag-load. Kung may mga karagdagang programa sa pagsisimula, naglo-load din sila ng RAM. Ibig sabihin, mananatiling libre ang 150-200 MB. Tanging mga magaan na aplikasyon sa opisina ang maaaring magkasya doon.
Para sa kumportableng trabaho sa AutoCAD, mga application ng graphics, 3DMax, coding at graphics, hindi bababa sa 1 GB ng RAM ang kinakailangan. Kung gumagamit ka ng Windows Vista, pagkatapos ay hindi bababa sa 2 GB.

Subsystem ng graphics

Ang mga computer sa opisina ay kadalasang gumagamit ng mga motherboard na may built-in na graphics. Ang mga motherboard sa naturang mga chipset (G31, G45, AMD 770G, atbp.) ay may letrang G sa kanilang mga marka.
Ang mga pinagsama-samang graphics card na ito ay gumagamit ng ilan sa RAM para sa memorya ng video, sa gayon ay binabawasan ang dami ng espasyo ng RAM na magagamit sa user.

Alinsunod dito, upang mapataas ang pagganap, ang built-in na video card ay dapat na hindi pinagana sa motherboard BIOS, at isang panlabas (discrete) na video card ay dapat na naka-install sa PCI-Express slot.
Ang lahat ng mga video card ay naiiba sa graphics chipset, ang operating frequency ng mga pipeline nito, ang bilang ng mga pipeline, ang video memory frequency, at ang video memory bus width.

Subsystem ng imbakan

Ang pagganap ng mga drive ay lubhang naaapektuhan kapag nag-a-access ng malaking halaga ng data - video, audio, pati na rin kapag nagbubukas ng malaking bilang ng maliliit na file.

Kabilang sa mga teknikal na katangian na nakakaapekto sa bilis ng pag-access sa mga file, dapat itong tandaan ang uri ng hard drive interface (HDD) - parallel IDE o serial SATA at SATA-2 at hard drive cache - 8, 16 o 32 MB.
Sa ngayon, inirerekomenda na mag-install lamang ng mga hard drive gamit ang interface ng SATA-2, na may pinakamataas na bandwidth at pinakamalaking cache.

Mga salik sa pagganap ng software:

  1. Bilang ng mga naka-install na programa
  2. Pagkapira-piraso ng file system
  3. Mga error sa file system, masamang sektor
  4. Pagkapira-piraso ng registry ng OS
  5. Mga error sa pagpapatala ng OS
  6. Laki ng file ng page (virtual memory size)
  7. Kasama ang mga elemento ng visualization ng OS GUI
  8. Naglo-load ang mga programa at serbisyo ng Windows sa pagsisimula

Ito ay hindi isang kumpletong listahan, ngunit ito ang mga tampok ng Windows OS na maaaring lubos na makapagpabagal sa operasyon nito.
Ngunit pag-uusapan natin ang mga katangian, setting at parameter na ito sa susunod na artikulo.

CPU ay isang pangunahing bahagi ng computing na lubos na nakakaimpluwensya sa pagganap ng isang computer. Ngunit gaano kalaki ang nakasalalay sa pagganap ng paglalaro sa processor? Dapat mo bang baguhin ang iyong processor upang mapabuti ang pagganap ng paglalaro? Anong uri ng pagtaas ang ibibigay nito? Susubukan naming hanapin ang sagot sa mga tanong na ito sa artikulong ito.

1. Ano ang palitan ng video card o processor

Hindi nagtagal, muli akong nakatagpo ng kakulangan sa pagganap ng computer at naging malinaw na oras na para sa isa pang pag-upgrade. Sa oras na iyon ang aking configuration ay ang mga sumusunod:

  • Phenom II X4 945 (3 GHz)
  • 8 GB DDR2 800 MHz
  • GTX 660 2 GB

Sa pangkalahatan, medyo masaya ako sa performance ng computer, mabilis gumana ang system, karamihan sa mga laro ay tumatakbo sa mataas o katamtaman/mataas na mga setting ng graphics, at hindi ako ganoon kadalas mag-edit ng mga video, kaya hindi nakakaabala ang 15-30 minuto ng pag-render. ako.

Ang mga unang problema ay lumitaw sa larong World of Tanks, kapag ang pagbabago ng mga setting ng graphics mula sa mataas hanggang sa daluyan ay hindi nagbigay ng inaasahang pagtaas ng pagganap. Pana-panahong bumaba ang frame rate mula 60 hanggang 40 FPS. Naging malinaw na ang pagganap ay limitado ng processor. Pagkatapos ay napagpasyahan na umakyat sa 3.6 GHz, na nalutas ang mga problema sa WoT.

Ngunit lumipas ang oras, inilabas ang mga bagong mabibigat na laro, at mula sa WoT ay lumipat ako sa isa na mas hinihingi ng mga mapagkukunan ng system (Armata). Ang sitwasyon ay paulit-ulit at ang tanong ay naging kung ano ang babaguhin - ang video card o ang processor. Walang punto sa pagpapalit ng GTX 660 sa isang 1060; ito ay kinakailangan na kumuha ng hindi bababa sa isang GTX 1070. Ngunit ang lumang Phenom ay tiyak na hindi makakayanan ang gayong video card. At kahit na binabago ang mga setting sa Armata, malinaw na ang pagganap ay muling limitado ng processor. Samakatuwid, napagpasyahan na palitan muna ang processor ng isang paglipat sa isang mas produktibong platform ng Intel para sa mga laro.

Ang pagpapalit ng processor ay nangangailangan ng pagpapalit ng motherboard at RAM. Ngunit walang ibang paraan; bukod sa, may pag-asa na ang isang mas malakas na processor ay magpapahintulot sa lumang video card na maging mas ganap na may kakayahan sa mga larong umaasa sa processor.

2. Pagpili ng processor

Walang mga Ryzen processor sa oras na iyon; ang kanilang paglabas ay inaasahan lamang. Upang lubos na masuri ang mga ito, kinailangang hintayin ang kanilang paglabas at mass testing upang matukoy ang mga kalakasan at kahinaan.

Bilang karagdagan, alam na ang presyo sa oras ng kanilang paglabas ay medyo mataas at kinakailangang maghintay pa ng anim na buwan hanggang sa maging mas sapat ang mga presyo para sa kanila. Walang pagnanais na maghintay ng ganoon katagal, tulad ng walang pagnanais na mabilis na lumipat sa pa rin na krudo na platform ng AM4. At, dahil sa walang hanggang mga pagkakamali ng AMD, ito ay mapanganib din.

Samakatuwid, ang mga processor ng Ryzen ay hindi isinasaalang-alang at ang kagustuhan ay ibinigay sa napatunayan na, pinakintab at mahusay na napatunayang Intel platform sa socket 1151. At, tulad ng ipinakita ng kasanayan, hindi walang kabuluhan, dahil ang mga processor ng Ryzen ay naging mas masahol pa sa mga laro, at sa iba pang mga gawain sa pagganap ay mayroon na akong sapat na pagganap.

Sa una ang pagpipilian ay sa pagitan ng mga processor ng Core i5:

  • Core i5-6600
  • Core i5-7600
  • Core i5-6600K
  • Core i5-7600K

Para sa isang mid-range na gaming computer, ang i5-6600 ang pinakamababang opsyon. Ngunit sa hinaharap, gusto kong magkaroon ng ilang reserba kung sakaling palitan ang video card. Ang Core i5-7600 ay hindi masyadong naiiba, kaya ang orihinal na plano ay bumili ng Core i5-6600K o Core i5-7600K na may kakayahang mag-overclock sa isang matatag na 4.4 GHz.

Ngunit, nang basahin ang mga resulta ng pagsubok sa mga modernong laro, kung saan ang pag-load sa mga processor na ito ay malapit sa 90%, malinaw na sa hinaharap ay maaaring hindi sila sapat. Ngunit nais kong magkaroon ng isang magandang platform na may reserba sa mahabang panahon, dahil ang mga araw na maaari mong i-upgrade ang iyong PC bawat taon ay wala na

Kaya nagsimula akong tumingin sa mga processor ng Core i7:

  • Core i7-6700
  • Core i7-7700
  • Core i7-6700K
  • Core i7-7700K

Sa modernong mga laro hindi pa sila ganap na na-load, ngunit sa isang lugar sa paligid ng 60-70%. Ngunit, ang Core i7-6700 ay may base frequency na 3.4 GHz lamang, at ang Core i7-7700 ay wala nang higit pa - 3.6 GHz.

Ayon sa mga resulta ng pagsubok sa mga modernong laro na may nangungunang mga video card, ang pinakamalaking pagtaas ng performance ay makikita sa humigit-kumulang 4 GHz. Pagkatapos ito ay hindi na napakahalaga, kung minsan ay halos hindi nakikita.

Sa kabila ng katotohanan na ang mga processor ng i5 at i7 ay nilagyan ng teknolohiyang auto-overclocking (), hindi ka dapat umasa dito, dahil sa mga laro kung saan ginagamit ang lahat ng mga core, ang pagtaas ay hindi gaanong mahalaga (100-200 MHz lamang).

Kaya, ang mga processor ng Core i7-6700K (4 GHz) at i7-7700K (4.2 GHz) ay mas optimal, at binigyan ng posibilidad na mag-overclocking sa isang stable na 4.4 GHz, mas promising din ang mga ito kaysa sa i7-6700 (3.4 GHz). ) at i7-7700 (3.6 GHz), dahil ang pagkakaiba sa dalas ay magiging 800-1000 MHz na!

Sa panahon ng pag-upgrade, ang mga processor ng Intel 7th generation (Core i7-7xxx) ay kalalabas lamang at mas mahal kaysa sa mga processor ng ika-6 na henerasyon (Core i7-6xxx), na nagsimula nang bumaba ang mga presyo. Kasabay nito, sa bagong henerasyon na-update lamang nila ang mga built-in na graphics, na hindi kinakailangan para sa mga laro. At ang kanilang mga kakayahan sa overclocking ay halos pareho.

Bilang karagdagan, ang mga motherboard na may mga bagong chipset ay mas mahal din (bagaman maaari kang mag-install ng processor sa isang mas lumang chipset, maaari itong magdulot ng ilang mga problema).

Samakatuwid, napagpasyahan na kunin ang Core i7-6700K na may base frequency na 4 GHz at ang kakayahang mag-overclock sa isang matatag na 4.4 GHz sa hinaharap.

3. Pagpili ng motherboard at memorya

Ako, tulad ng karamihan sa mga mahilig at teknikal na eksperto, ay mas gusto ang mataas na kalidad at matatag na mga motherboard mula sa ASUS. Para sa processor ng Core i7-6700K na may mga kakayahan sa overclocking, ang pinakamagandang opsyon ay ang mga motherboard batay sa Z170 chipset. Bilang karagdagan, gusto kong magkaroon ng mas mahusay na built-in na sound card. Samakatuwid, napagpasyahan na kunin ang pinakamurang gaming motherboard mula sa ASUS sa Z170 chipset -.

Ang memorya, na isinasaalang-alang ang suporta ng motherboard para sa mga frequency ng module hanggang sa 3400 MHz, ay nais ding maging mas mabilis. Para sa modernong gaming PC, ang pinakamagandang opsyon ay isang 2x8 GB DDR4 memory kit. Ang natitira na lang ay upang mahanap ang pinakamainam na hanay sa mga tuntunin ng ratio ng presyo/dalas.

Sa una, ang pagpipilian ay nahulog sa AMD Radeon R7 (2666 MHz), dahil ang presyo ay napaka mapang-akit. Ngunit sa oras ng pag-order, ito ay wala sa stock. Kinailangan kong pumili sa pagitan ng mas mahal na G.Skill RipjawsV (3000 MHz) at ang medyo murang Team T-Force Dark (2666 MHz).

Ito ay isang mahirap na pagpipilian, dahil gusto ko ng mas mabilis na memorya, at ang mga pondo ay limitado. Batay sa mga pagsubok sa mga modernong laro (na pinag-aralan ko), ang pagkakaiba sa pagganap sa pagitan ng 2133 MHz at 3000 MHz memory ay 3-13% at isang average na 6%. Ito ay hindi gaanong, ngunit nais kong makuha ang maximum.

Ngunit ang katotohanan ay ang mabilis na memorya ay ginawa ng factory overclocking slower chips. Ang memorya ng G.Skill RipjawsV (3000 MHz) ay walang pagbubukod at, upang makamit ang dalas na ito, ang boltahe ng supply nito ay 1.35 V. Bilang karagdagan, ang mga processor ay nahihirapan sa pagtunaw ng memorya na may masyadong mataas na frequency at nasa dalas na ng 3000 MHz ang maaaring hindi gumana nang maayos ang system. Buweno, ang pagtaas ng boltahe ng supply ay humahantong sa mas mabilis na pagkasira (pagkasira) ng parehong memory chips at controller ng processor (opisyal na inihayag ito ng Intel).

Kasabay nito, ang Team T-Force Dark memory (2666 MHz) ay nagpapatakbo sa isang boltahe na 1.2 V at, ayon sa tagagawa, pinapayagan ang boltahe na tumaas sa 1.4 V, na, kung ninanais, ay magbibigay-daan sa iyo na i-overclock ito nang manu-mano . Matapos timbangin ang lahat ng mga kalamangan at kahinaan, ang pagpili ay ginawa pabor sa memorya na may karaniwang boltahe na 1.2 V.

4. Mga pagsubok sa pagganap ng gaming

Bago lumipat ng mga platform, nagsagawa ako ng mga pagsubok sa pagganap sa lumang sistema sa ilang mga laro. Matapos baguhin ang platform, ang parehong mga pagsubok ay naulit.

Ang mga pagsubok ay isinagawa sa isang malinis na Windows 7 system na may parehong video card (GTX 660) sa mataas na mga setting ng graphics, dahil ang layunin ng pagpapalit ng processor ay upang mapataas ang pagganap nang hindi binabawasan ang kalidad ng imahe.

Upang makamit ang mas tumpak na mga resulta, mga laro lamang na may built-in na benchmark ang ginamit sa mga pagsubok. Bilang isang pagbubukod, ang isang pagsubok sa pagganap sa online na tank shooter na Armored Warfare ay isinagawa sa pamamagitan ng pag-record ng isang replay at pagkatapos ay i-play ito pabalik sa mga pagbabasa gamit ang Fraps.

Mga setting ng mataas na graphics.

Pagsubok sa Phenom X4 (@3.6 GHz).

Ang mga resulta ng pagsubok ay nagpapakita na ang average na FPS ay bahagyang nagbago (mula 36 hanggang 38). Nangangahulugan ito na ang pagganap sa larong ito ay nakasalalay sa video card. Gayunpaman, ang pinakamababang pagbaba ng FPS sa lahat ng mga pagsubok ay makabuluhang nabawasan (mula 11-12 hanggang 21-26), na nangangahulugang magiging mas komportable pa rin ang laro.

Sa pag-asa na mapabuti ang pagganap sa DirectX 12, nagsagawa ako ng pagsubok sa Windows 10.

Ngunit ang mga resulta ay mas masahol pa.

Batman: Arkham Knight

Mga setting ng mataas na graphics.

Pagsubok sa Phenom X4 (@3.6 GHz).

Pagsubok sa Core i7-6700K (4.0 GHz).

Ang laro ay napaka-demanding sa parehong video card at sa processor. Mula sa mga pagsubok ay malinaw na ang pagpapalit ng processor ay humantong sa isang makabuluhang pagtaas sa average na FPS (mula 14 hanggang 23), at isang pagbawas sa mga minimum na drawdown (mula 0 hanggang 15), ang pinakamataas na halaga ay tumaas din (mula 27 hanggang 37). Gayunpaman, hindi pinapayagan ng mga tagapagpahiwatig na ito ang kumportableng paglalaro, kaya nagpasya akong magpatakbo ng mga pagsubok na may mga medium na setting at huwag paganahin ang iba't ibang mga epekto.

Mga setting ng medium na graphics.

Pagsubok sa Phenom X4 (@3.6 GHz).

Pagsubok sa Core i7-6700K (4.0 GHz).

Sa mga katamtamang setting, bahagyang tumaas ang average na FPS (mula 37 hanggang 44), at makabuluhang bumaba ang mga drawdown (mula 22 hanggang 35), na lumampas sa minimum na threshold na 30 FPS para sa komportableng laro. Ang puwang sa pinakamataas na halaga ay nanatili din (mula 50 hanggang 64). Bilang resulta ng pagpapalit ng processor, naging komportable ang paglalaro.

Ang paglipat sa Windows 10 ay ganap na walang nagbago.

Deus Hal: Nahati ang Sangkatauhan

Mga setting ng mataas na graphics.

Pagsubok sa Phenom X4 (@3.6 GHz).

Pagsubok sa Core i7-6700K (4.0 GHz).

Ang resulta ng pagpapalit ng processor ay isang pagbaba lamang sa mga drawdown ng FPS (mula 13 hanggang 18). Sa kasamaang palad, nakalimutan kong magpatakbo ng mga pagsubok na may mga medium na setting, ngunit sinubukan ko sa DirectX 12.

Bilang resulta, bumaba lang ang pinakamababang FPS.

Nakabaluti Digmaan: Armata Project

Madalas kong nilalaro ang larong ito at naging isa ito sa mga pangunahing dahilan sa pag-upgrade ng aking computer. Sa mataas na mga setting, ang laro ay gumawa ng 40-60 FPS na may bihirang ngunit hindi kasiya-siyang pagbaba sa 20-30.

Ang pagbabawas ng mga setting sa medium ay nag-alis ng mga seryosong pagbaba, ngunit ang average na FPS ay nanatiling halos pareho, na isang hindi direktang tanda ng isang kakulangan ng pagganap ng processor.

Nag-record ng replay at isinagawa ang mga pagsubok sa playback mode gamit ang FRAPS sa matataas na setting.

Binuod ko ang kanilang mga resulta sa isang talahanayan.

CPU FPS (min) FPS (Miyerkules) FPS (Max)
Phenom X4 (@3.6 GHz) 28 51 63
Core i7-6700K (4.0 GHz) 57 69 80

Ang pagpapalit ng processor ay ganap na tinanggal ang mga kritikal na pagbaba ng FPS at seryosong tumaas ang average na rate ng frame. Ginawa nitong posible na paganahin ang patayong pag-synchronize, na ginagawang mas makinis at mas kaaya-aya ang larawan. Kasabay nito, ang laro ay gumagawa ng isang matatag na 60 FPS na walang mga patak at napaka komportableng laruin.

Iba pang mga laro

Hindi ako nagsagawa ng mga pagsubok, ngunit sa pangkalahatan ang isang katulad na larawan ay sinusunod sa karamihan sa mga online at mga larong umaasa sa processor. Ang processor ay seryosong nakakaapekto sa FPS sa mga online na laro tulad ng Battlefield 1 at Overwatch. At gayundin sa mga open world na laro tulad ng GTA 5 at Watch Dogs.

Para sa kapakanan ng eksperimento, nag-install ako ng GTA 5 sa isang lumang PC na may Phenom processor at isang bago na may Core i7. Kung dati, na may mataas na mga setting, ang FPS ay nanatili sa loob ng 40-50, ngayon ito ay matatag na nananatili sa itaas ng 60 na halos walang mga drawdown at madalas na umabot sa 70-80. Ang mga pagbabagong ito ay kapansin-pansin sa mata, ngunit ang isang armado ay pinapatay lamang ang lahat

5. Pagsubok sa pagganap ng pag-render

Hindi ako masyadong nag-e-edit ng video at isang simpleng pagsubok lang ang pinatakbo ko. Nag-render ako ng Full HD na video na may haba na 17:22 at volume na 2.44 GB sa mas mababang bitrate sa Camtasia program na ginagamit ko. Ang resulta ay isang file na 181 MB. Nakumpleto ng mga processor ang gawain sa susunod na oras.

CPU Oras
Phenom X4 (@3.6 GHz) 16:34
Core i7-6700K (4.0 GHz) 3:56

Siyempre, isang video card (GTX 660) ang kasama sa pag-render, dahil hindi ko maisip kung sino ang mag-iisip na mag-render nang walang video card, dahil mas tumatagal ito ng 5-10 beses. Bilang karagdagan, ang kinis at bilis ng pag-playback ng mga epekto sa panahon ng pag-edit ay nakasalalay din sa video card.

Gayunpaman, ang pag-asa sa processor ay hindi nakansela at ang Core i7 ay nakayanan ang gawaing ito ng 4 na beses na mas mabilis kaysa sa Phenom X4. Habang tumataas ang pagiging kumplikado ng pag-edit at mga epekto, ang oras na ito ay maaaring tumaas nang malaki. Kung ano ang kayang hawakan ng Phenom X4 sa loob ng 2 oras, kakayanin ng Core i7 sa loob ng 30 minuto.

Kung plano mong seryosong makisali sa pag-edit ng video, kung gayon ang isang malakas na multi-threaded na processor at isang malaking halaga ng memorya ay makabuluhang makakatipid sa iyo ng oras.

6. Konklusyon

Ang gana sa mga modernong laro at propesyonal na mga application ay lumalaki nang napakabilis, na nangangailangan ng patuloy na pamumuhunan sa pag-upgrade ng iyong computer. Ngunit kung mayroon kang isang mahina na processor, kung gayon walang punto sa pagpapalit ng video card, hindi ito magbubukas, i.e. Ang pagganap ay lilimitahan ng processor.

Ang isang modernong platform na batay sa isang malakas na processor na may sapat na RAM ay titiyakin ang mataas na pagganap ng iyong PC sa mga darating na taon. Binabawasan nito ang gastos sa pag-upgrade ng isang computer at inaalis ang pangangailangan na ganap na palitan ang PC pagkatapos ng ilang taon.

7. Mga link

Processor Intel Core i7-8700
Processor Intel Core i5-8400
Intel Core i3 8100 processor