Datamaskinparametere som påvirker driftshastigheten. Intels mikroprosessorarkitektur og hovedfaktorene som påvirker ytelsen. Hva skal vi gjøre

Under moderne forhold er veksten av selskapets fortjeneste den viktigste nødvendige trenden i utviklingen av bedrifter. Resultatvekst kan oppnås på ulike måter, blant annet kan vi fremheve mer effektiv bruk av selskapets personell.

Indikatoren for å måle ytelsen til en bedrifts arbeidsstyrke er produktivitet.

Generell oversikt

Arbeidsproduktivitet i henhold til beregningsformelen er et kriterium som man kan karakterisere produktiviteten av arbeidskraftsbruk etter.

Arbeidsproduktivitet refererer til effektiviteten som arbeidskraft har i produksjonsprosessen. Det kan måles med en viss tidsperiode som kreves for å produsere en produksjonsenhet.

Basert på definisjonen i den encyklopediske ordboken til F. A. Brockhaus og I. A. Efron, antas produktiviteten eller produktiviteten til arbeidskraft å bli betraktet som forholdet som dannes mellom volumet av arbeidskraft brukt og resultatet som kan oppnås under implementeringen av arbeidskraft.

Av L. E. Basovsky kan arbeidsproduktivitet defineres som produktiviteten til personellet som bedriften har. Det kan bestemmes av mengden produkter som produseres per arbeidstidsenhet. Denne indikatoren bestemmes også av lønnskostnader, som kan tilskrives en produksjonsenhet.

Produktivitet er mengden produksjon produsert av en ansatt i en spesifisert tidsperiode.

Det er et kriterium som karakteriserer produktiviteten til en viss levende arbeidskraft og effektiviteten av produksjonsarbeid i henhold til dannelsen av et produkt per enhet arbeidstid brukt på produksjonen.

Operasjonell effektivitet øker basert på teknologisk fremgang, gjennom introduksjon av nye teknologier, øker de ansattes kvalifikasjoner og deres økonomiske interesser.

Analysestadier

Arbeidsproduktivitetsvurdering består av følgende hovedtrinn:

  • analyse av absolutte indikatorer over flere år;
  • bestemme virkningen av visse faktorindikatorer på produktivitetsdynamikken;
  • fastsettelse av reserver for produktivitetsgevinster.

Grunnleggende indikatorer

De viktigste viktige ytelsesindikatorene som analyseres i moderne virksomheter som opererer under markedsforhold kan være som behovet for full sysselsetting av personell og høy produksjon.

Produktproduksjon er verdien av produktivitet per enhet arbeidsinnsats. Det kan bestemmes ved å korrelere antall produserte produkter eller tjenester levert som ble produsert i en viss tidsenhet.

Arbeidsintensitet er forholdet mellom arbeidstidskostnader og produksjonsvolum, som kjennetegner lønnskostnadene per enhet produkt eller tjeneste.

Beregningsmetoder

For å måle arbeidsproduktivitet brukes tre metoder for å beregne produktivitet:

  • naturlig metode. Det brukes i organisasjoner som produserer homogene produkter. Denne metoden tar hensyn til beregningen av arbeidsproduktivitet som samsvaret mellom volumet av produkter laget i naturlige termer og gjennomsnittlig antall ansatte;
  • arbeidsmetoden brukes hvis arbeidsområder produserer en enorm mengde produkt med et sortiment som skifter ofte; dannelsen bestemmes i standardtimer (arbeidsmengde multiplisert med standardtid), og resultatene oppsummeres i henhold til forskjellige produkttyper;
  • kostnadsmetode. Det brukes i organisasjoner som produserer heterogene produkter. Denne metoden tar hensyn til beregningen av arbeidsproduktivitet som samsvaret mellom volumet av produkter laget i kostnadsmessige termer og gjennomsnittlig antall ansatte.

For å vurdere nivået på jobbytelsen brukes begrepet personlige, tilleggs- og generelle egenskaper.

Private eiendommer er de tidskostnadene som kreves for å produsere en produktenhet i naturlige termer for en enkelt persondøgn eller persontime. Hjelpeeiendommer tar hensyn til tiden brukt på å utføre en enhet av en bestemt type arbeid eller mengden arbeid som utføres per periodeenhet.

Beregningsmetode

Blant de mulige alternativene for arbeidsproduktivitet kan følgende indikatorer skilles: produksjon, som kan være gjennomsnittlig årlig, gjennomsnittlig daglig og gjennomsnittlig time for en ansatt. Det er en direkte sammenheng mellom disse egenskapene: antall arbeidsdager og lengden på arbeidsdagen kan forhåndsbestemme verdien av den gjennomsnittlige timeproduksjonen, som igjen forhåndsbestemmer verdien av den ansattes gjennomsnittlige årlige produksjon.

Arbeidsproduktiviteten i henhold til beregningsformelen er som følger:

VG = KR * PRD * VSC

der VG er arbeiderens gjennomsnittlige årlige produksjon, t.r.;

KR - antall virkedager, dager;

VCH - gjennomsnittlig timeproduksjon, t.r. per person;

LWP - varighet av arbeidsskift (dag), time.

Effektnivået av disse forholdene kan bestemmes ved å bruke metoden for kjedesubstitusjon av indikatorer, metoden for absolutte forskjeller, metoden for relative forskjeller, så vel som den integrerte metoden.

Ved å ha informasjon om nivået av påvirkning av forskjellige forhold på indikatoren som studeres, er det mulig å fastslå nivået på deres innvirkning på produksjonsvolumet. For å gjøre dette multipliseres verdien som beskriver virkningen av noen av forholdene med antall ansatte i selskapet til gjennomsnittsverdien.

Hovedfaktorer

Ytterligere forskning på arbeidsproduktivitet er fokusert på å detaljere innvirkningen av ulike forhold på arbeidernes produksjon (gjennomsnittlig årlig produksjon). Tilstandene er delt inn i to kategorier: omfattende og intensive. Faktorer som har stor innflytelse på bruken av arbeidstid regnes som omfattende, faktorer som har stor innvirkning på timearbeidseffektiviteten regnes som intensive.

Analysen av omfattende faktorer er fokusert på å identifisere kostnadene ved arbeidstid fra ikke-produktiv bruk. Arbeidstidskostnadene fastsettes ved å sammenligne det planlagte og praktiske arbeidstidsfondet. Resultatene av kostnadenes innvirkning på produksjonen av et produkt bestemmes ved å multiplisere antall dager eller timer med gjennomsnittlig timeproduksjon (eller gjennomsnittlig daglig) produksjon i henhold til planen per arbeider.

Analysen av intensive faktorer er fokusert på å identifisere forhold knyttet til endringer i arbeidsintensiteten til et produkt. Å redusere arbeidsintensiteten er hovedbetingelsen for å øke produktiviteten. Tilbakemeldinger observeres også.

Faktor analyse

La oss vurdere de grunnleggende formlene for produktiviteten til produksjonsfaktorer.

For å vurdere påvirkningsfaktorer bruker vi metoder og prinsipper for beregninger som er generelt anerkjent i økonomisk vitenskap.

Arbeidsproduktivitetsformelen er presentert nedenfor.

der W er arbeidsproduktivitet, t.r. per person;

Q er volumet av produkter som ble produsert i verdi, t.r.;

T - antall personell, personer.

La oss trekke ut Q-verdien fra denne produktivitetsformelen:

Dermed endres produksjonsvolumet avhengig av endringer i arbeidsproduktivitet og antall personell.

Dynamikken til endringer i produksjonsvolum under påvirkning av endringer i produktivitetsindikatorer kan beregnes ved å bruke formelen:

ΔQ (W) = (W1-W0)*T1

Dynamikken til endringer i mengden produkter under påvirkning av endringer i antall ansatte vil bli beregnet ved hjelp av formelen:

ΔQ (T) = (T1-TO)*W0

Generell effekt av faktorer:

ΔQ (W) + Δ Q (T) = ΔQ (totalt)

Endring på grunn av påvirkning av faktorer kan beregnes ved å bruke faktormodellen til produktivitetsformelen:

PT = UD * D * Tcm * CV

der PT er arbeidsproduktivitet, t.r. per person

Ud - andelen arbeidere i det totale antallet personell

D - dager arbeidet av én arbeider per år, dager

Tsm - gjennomsnittlig arbeidsdag, time.

CV - gjennomsnittlig timebasert arbeidsproduktivitet til en arbeider, t.r. per person

Grunnreserver

Produktivitetsforskning utføres for å etablere reserver for veksten. Reserver for økning kan inkludere følgende faktorer som påvirker arbeidsproduktiviteten:

  • øke det teknologiske nivået på produksjonen, det vil si å legge til de nyeste vitenskapelige og tekniske prosessene, skaffe materialer av høy kvalitet, mekanisering og automatisering av produksjonen;
  • forbedre selskapsstrukturen og velge de mest kompetente ansatte, eliminere medarbeideromsetning, øke kvalifikasjonene til ansatte;
  • strukturelle endringer i produksjonen, som tar hensyn til utskifting av noen individuelle produkttyper, en økning i vekten til et nytt produkt, en endring i arbeidsintensiteten til produksjonsprogrammet, etc.;
  • dannelse og forbedring av nødvendig offentlig infrastruktur er en løsning på vanskelighetene knyttet til å møte behovene til bedriften og arbeidsmiljøene.

Retningslinjer for forbedring

Spørsmålet om hvordan man kan øke arbeidsproduktiviteten er svært aktuelt for mange virksomheter.

Essensen av arbeidsproduktivitetsvekst i en bedrift er manifestert i:

  • endring i produksjonsmengden ved bruk av en arbeidsenhet;
  • endring i lønnskostnader per etablert produksjonsenhet;
  • endring i lønnskostnader med 1 rubel;
  • redusere andelen lønnskostnader i produksjonskostnadene;
  • forbedre kvaliteten på varer og tjenester;
  • reduksjon av produksjonsfeil;
  • øke antall produkter;
  • økning i salgsvolum og fortjeneste.

For å sikre høy produktivitet for selskapets ansatte, må ledelsen sikre normale arbeidsforhold. Nivået på menneskelig produktivitet, så vel som effektiviteten til arbeidet hans, kan påvirkes av et stort antall faktorer, både intensive og omfattende. Å ta hensyn til disse faktorene som påvirker arbeidsproduktiviteten er nødvendig når man beregner produktivitetsindikatoren og reserver for dens vekst.

Datalagringssystemer for de aller fleste nettprosjekter (og ikke bare) spiller en nøkkelrolle. Ofte handler oppgaven faktisk ikke bare om å lagre en bestemt type innhold, men også å sikre at det kommer tilbake til besøkende, samt behandling, som stiller visse ytelseskrav.

Mens stasjonsindustrien bruker mange andre beregninger for å beskrive og garantere riktig ytelse, i lagrings- og diskstasjonsmarkedet, er det vanlig å bruke IOPS som en komparativ beregning med det formål å "bekvemmelige" sammenligning. Ytelsen til lagringssystemer, målt i IOPS (Input Output Operations per Second), input/output (skrive/lese)-operasjoner, påvirkes imidlertid av et stort antall faktorer.

I denne artikkelen vil jeg se på disse faktorene for å gjøre ytelsesmålet uttrykt i IOPS mer forståelig.

La oss starte med at IOPS ikke er IOPS i det hele tatt og ikke engang IOPS i det hele tatt, siden det er mange variabler som bestemmer hvor mye IOPS vi vil få i noen tilfeller og i andre. Du bør også vurdere at lagringssystemer bruker lese- og skrivefunksjoner og gir forskjellige mengder IOPS for disse funksjonene avhengig av arkitektur og type applikasjon, spesielt i tilfeller der I/O-operasjoner skjer samtidig. Ulike arbeidsbelastninger har forskjellige input/output-krav (I/O). Dermed kan lagringssystemer som ved første øyekast skal gi tilstrekkelig ytelse, faktisk ikke takle oppgaven.

Grunnleggende om kjøreytelse

For å få en full forståelse av problemet, la oss starte med det grunnleggende. IOPS, gjennomstrømning (MB/s eller MiB/s) og responstid i millisekunder (ms) er vanlige måleenheter for ytelsen til stasjoner og lagringsarrayer.

IOPS er vanligvis tenkt som en måling av en lagringsenhets evne til å lese/skrive 4-8KB blokker i tilfeldig rekkefølge. Noe som er typisk for online transaksjonsbehandlingsoppgaver, databaser og for å kjøre ulike applikasjoner.

Konseptet med stasjonsgjennomstrømning er vanligvis anvendelig når du leser / skriver en stor fil, for eksempel i blokker på 64 KB eller mer, sekvensielt (i 1 strøm, 1 fil).

Responstid er tiden det tar før stasjonen starter en skrive-/leseoperasjon.

Konverteringen mellom IOPS og gjennomstrømning kan gjøres som følger:

IOPS = gjennomstrømning/blokkstørrelse;
Gjennomstrømning = IOPS * blokkstørrelse,

Der blokkstørrelse er mengden informasjon som overføres under én inngangs-/utgangsoperasjon (I/O). Ved å kjenne en slik karakteristikk av en harddisk (HDD SATA) som båndbredde, kan vi enkelt beregne antall IOPS.

La oss for eksempel ta standard blokkstørrelse - 4KB og standard gjennomstrømning deklarert av produsenten for sekvensiell skriving eller lesing (I/O) - 121 MB/s. IOPS = 121 MB / 4 KB, som et resultat får vi en verdi på rundt 30 000 IOPS for vår SATA-harddisk. Hvis blokkstørrelsen økes og gjøres lik 8 KB, vil verdien være omtrent 15 000 IOPS, det vil si at den vil avta nesten proporsjonalt med økningen i blokkstørrelsen. Det må imidlertid forstås tydelig her vurderte vi IOPS i den sekvensielle skrive- eller lesenøkkelen.

Ting endres dramatisk for tradisjonelle SATA-harddisker hvis lesing og skriving er tilfeldig. Det er her latens begynner å spille en rolle, noe som er svært kritisk når det gjelder HDD-er (harddisker) SATA / SAS, og noen ganger til og med når det gjelder SSD (Solid State Drive) solid state-stasjoner. Selv om sistnevnte ofte gir ytelsesordener bedre enn "roterende" stasjoner på grunn av fraværet av bevegelige elementer, kan det fortsatt oppstå betydelige opptaksforsinkelser på grunn av teknologiens særegenheter, og som et resultat når de brukes i arrays. . Kjære amarao utførte en ganske nyttig studie om bruken av solid-state-stasjoner i arrays, som det viste seg, vil ytelsen avhenge av latensen til den tregeste stasjonen. Du kan lese mer om resultatene i artikkelen hans: SSD + raid0 - ikke alt er så enkelt.

Men la oss gå tilbake til ytelsen til individuelle stasjoner. La oss vurdere saken med "roterende" stasjoner. Tiden som kreves for å utføre én tilfeldig I/O-operasjon, bestemmes av følgende komponenter:

T(I/O) = T(A)+T(L)+T(R/W),

Der T(A) er tilgangstid eller søketid, også kjent som søketid, det vil si tiden som kreves for at lesehodet skal plasseres på sporet med informasjonsblokken vi trenger. Ofte spesifiserer produsenten 3 parametere i diskspesifikasjonen:

Tiden som kreves for å flytte fra den fjerneste veien til den nærmeste;
- tid som kreves for å flytte mellom tilstøtende spor;
- gjennomsnittlig tilgangstid.

Dermed kommer vi til den magiske konklusjonen at T(A) kan forbedres hvis vi plasserer dataene våre på så nærme spor som mulig, og alle data er plassert så langt fra midten av tallerkenen som mulig (mindre tid kreves for å flytte hodeblokk, og det er mer data på de ytre sporene, siden sporet er lengre og roterer raskere enn det indre). Nå blir det klart hvorfor defragmentering kan være så nyttig. Spesielt med betingelsen om å plassere data på eksterne spor i utgangspunktet.

T(L) er forsinkelsen forårsaket av rotasjonen av disken, det vil si tiden som kreves for å lese eller skrive en bestemt sektor på sporet vårt. Det er lett å forstå at det vil ligge i området fra 0 til 1/RPS, der RPS er antall omdreininger per sekund. For eksempel, med en diskkarakteristikk på 7200 RPM (omdreininger per minutt), får vi 7200/60 = 120 omdreininger per sekund. Det vil si at én omdreining skjer i (1/120) * 1000 (antall millisekunder i et sekund) = 8,33 ms. Den gjennomsnittlige forsinkelsen i dette tilfellet vil være lik halvparten av tiden brukt på en omdreining - 8,33/2 = 4,16 ms.

T(R/W) - tid for å lese eller skrive en sektor, som bestemmes av størrelsen på blokken valgt under formatering (fra 512 byte til ... flere megabyte, i tilfelle av mer romslige stasjoner - fra 4 kilobyte, standard klyngestørrelse) og båndbredden, som er angitt i stasjonsspesifikasjonene.

Den gjennomsnittlige rotasjonsforsinkelsen, som er omtrent lik tiden brukt på en halv omdreining, med kjennskap til rotasjonshastigheten på 7200, 10.000 eller 15.000 RPM, er lett å bestemme. Og vi har allerede vist hvordan ovenfor.

De resterende parametrene (gjennomsnittlig lese- og skrivesøketid) er vanskeligere å bestemme; de ​​bestemmes som et resultat av tester og er angitt av produsenten.

For å beregne antall tilfeldige IOP-er på en harddisk, er det mulig å bruke følgende formel, forutsatt at antallet samtidige lese- og skriveoperasjoner er det samme (50%/50%):

1/(((gjennomsnittlig lesesøketid + gjennomsnittlig skrivesøketid) / 2) / 1000) + (gjennomsnittlig rotasjonsforsinkelse / 1000)).

Mange er interessert i hvorfor akkurat dette er opprinnelsen til formelen? IOPS er antall inngangs- eller utgangsoperasjoner per sekund. Det er derfor vi deler 1 sekund i telleren (1000 millisekunder) med tiden, tar hensyn til alle forsinkelsene i nevneren (også uttrykt i sekunder eller millisekunder), som kreves for å fullføre én inngangs- eller utgangsoperasjon.

Det vil si at formelen kan skrives slik:

1000 (ms) / ((gjennomsnittlig lesesøketid (ms) + gjennomsnittlig skrivesøketid (ms)) /2) + gjennomsnittlig rotasjonsforsinkelse (ms))

For frekvensomformere med forskjellige antall RPM (rotasjoner per minutt), får vi følgende verdier:

For en 7200 RPM-stasjon IOPS = 1/(((8,5+9,5)/2)/1000) + (4,16/1000)) = 1/((9/1000) +
(4,16/1000)) = 1000/13,16 = 75,98;
For en 10K RPM SAS-stasjon IOPS = 1/(((3,8+4,4)/2)/1000) + (2,98/1000)) =
1/((4,10/1000) + (2,98/1000)) = 1000/7,08 = 141,24;
For en 15K RPM SAS-stasjon IOPS = 1/(((3,48+3,9)/2)/1000) + (2,00/1000)) =
1/((3,65/1000) + (2/1000)) = 1000/5,65 = 176,99.

Dermed ser vi dramatiske endringer når fra titusenvis av IOPS for sekvensiell lesing eller skriving, synker ytelsen til flere titalls IOPS.

Og allerede, med en standard sektorstørrelse på 4 KB, og tilstedeværelsen av et så lite antall IOPS, vil vi få en gjennomstrømningsverdi på ikke hundre megabyte, men mindre enn en megabyte.

Disse eksemplene illustrerer også hvorfor det er liten variasjon i rangert disk IOPS fra forskjellige produsenter for stasjoner med samme RPM.

Nå blir det klart hvorfor ytelsesdataene ligger i ganske brede områder:

7200 RPM (Roter per minutt) HDD SATA - 50-75 IOPS;
10K RPM HDD SAS - 110-140 IOPS;
15K RPM HDD SAS - 150-200 IOPS;
SSD (Solid State Drive) - titusenvis av IOPS for lesing, hundrevis og tusenvis for skriving.

Imidlertid er den nominelle disken IOPS fortsatt langt fra nøyaktig, siden den ikke tar hensyn til forskjeller i belastningens natur i individuelle tilfeller, noe som er veldig viktig å forstå.

For en bedre forståelse av emnet anbefaler jeg også å lese en annen nyttig artikkel fra amarao: Hvordan måle diskytelse riktig, takket være at det også blir klart at latens ikke er løst i det hele tatt og også avhenger av belastningen og dens natur.

Det eneste jeg vil legge til:

Når vi beregner harddiskytelse, kan vi neglisjere reduksjonen i antall IOPS når blokkstørrelsen øker, hvorfor?

Vi har allerede forstått at for "roterende" stasjoner består tiden som kreves for en tilfeldig lesing eller skriving av følgende komponenter:

T(I/O) = T(A)+T(L)+T(R/W).

Og så regnet vi til og med ut ytelsen for tilfeldig lesing og skriving i IOPS. Det er bare det at vi i hovedsak forsømte T(R/W)-parameteren der, og dette er ikke tilfeldig. Vi vet at la oss si at sekvensiell lesing kan oppnås med 120 megabyte per sekund. Det blir klart at en 4KB blokk vil bli lest på omtrent 0,03 ms, en tid som er to størrelsesordener kortere enn tiden for andre forsinkelser (8 ms + 4 ms).

Så hvis med en blokkstørrelse på 4KB har vi 76 IOPS(hovedforsinkelsen ble forårsaket av rotasjonen av stasjonen og hodeposisjoneringstiden, og ikke av selve lese- eller skriveprosessen), så med en blokkstørrelse på 64 KB vil ikke fallet i IOPS være 16 ganger, som med sekvensiell lesing, men bare av flere IOPS. Siden tiden brukt direkte på lesing eller skriving vil øke med 0,45 ms, som bare er omtrent 4 % av den totale latensen.

Som et resultat får vi 76-4% = 72,96 IOPS, som du ser, ikke er i det hele tatt kritisk i beregningene, siden fallet i IOPS ikke er 16 ganger, men bare med noen få prosent! Og når du beregner systemytelse, er det mye viktigere å ikke glemme å ta hensyn til andre viktige parametere.

Magisk konklusjon: Når vi beregner ytelsen til lagringssystemer basert på harddisker, bør vi velge den optimale blokkstørrelsen (klynge) for å sikre den maksimale gjennomstrømningen vi trenger, avhengig av typen data og applikasjoner som brukes, med IOPS synkende når blokkstørrelsen øker fra 4KB til 64KB eller til og med 128KB kan neglisjeres eller tas i betraktning som henholdsvis 4 og 7%, hvis de spiller en viktig rolle i oppgaven.

Det blir også klart hvorfor det ikke alltid er fornuftig å bruke veldig store blokker. For eksempel, når du streamer video, er en blokkstørrelse på to megabyte kanskje ikke det mest optimale alternativet. Siden fallet i antall IOPS vil være mer enn 2 ganger. Blant annet vil andre degraderingsprosesser i arrays bli lagt til, assosiert med multithreading og beregningsmessig belastning ved distribusjon av data på tvers av arrayen.

Optimal blokkstørrelse (cluster).

Den optimale blokkstørrelsen må vurderes avhengig av belastningens art og typen applikasjoner som brukes. Hvis du jobber med små data, for eksempel med databaser, bør du velge standard 4 KB, men hvis du snakker om streaming av videofiler, er det bedre å velge en klyngestørrelse på 64 KB eller mer.

Det bør huskes at blokkstørrelsen ikke er så kritisk for SSD-er som for standard HDD-er, siden den lar deg gi den nødvendige gjennomstrømningen på grunn av et lite antall tilfeldige IOPS, hvor antallet reduseres litt når blokkstørrelsen øker, i motsetning til SSD-er, hvor det er en nesten proporsjonal avhengighet .

Hvorfor 4 KB standard?

For mange stasjoner, spesielt solid-state-stasjoner, blir ytelsesverdier, for eksempel skriver, fra 4 KB, optimale, som man kan se av grafen:

Mens for lesing er hastigheten også ganske betydelig og mer eller mindre utholdelig fra 4 KB:

Det er av denne grunn at en blokkstørrelse på 4 KB veldig ofte brukes som standard, siden med en mindre størrelse er det store ytelsestap, og med en økning i blokkstørrelsen, i tilfelle av arbeid med små data, data vil bli distribuert mindre effektivt, og opptar hele blokkstørrelsen og lagringskvoten vil ikke bli brukt effektivt.

RAID-nivå

Hvis lagringssystemet ditt er en rekke stasjoner kombinert til en RAID på et visst nivå, vil systemytelsen i stor grad avhenge av hvilket RAID-nivå som ble brukt og hvor stor prosentandel av det totale antallet operasjoner som er skriveoperasjoner, fordi det er skriveoperasjoner. som forårsaker ytelsesforringelse i de fleste tilfeller.

Så, med RAID0, vil bare 1 IOPS bli forbrukt for hver inngangsoperasjon, fordi dataene vil bli distribuert over alle stasjoner uten duplisering. Når det gjelder et speil (RAID1, RAID10), vil hver skriveoperasjon allerede forbruke 2 IOPS, siden informasjonen må skrives til 2 stasjoner.

Ved høyere RAID-nivåer er tapene enda mer betydelige; for eksempel i RAID5 vil straffefaktoren være 4, noe som skyldes måten dataene er distribuert på tvers av diskene.

RAID5 brukes i stedet for RAID4 i de fleste tilfeller fordi den fordeler paritet (sjekksummer) over alle disker. I en RAID4-matrise er én stasjon ansvarlig for all pariteten mens dataene er spredt over mer enn 3 stasjoner. Dette er grunnen til at vi bruker en straffefaktor på 4 i en RAID5-array, fordi vi leser data, leser paritet, skriver data og skriver paritet.

I en RAID6-matrise er alt likt, bortsett fra at i stedet for å beregne paritet én gang, gjør vi det to ganger og har dermed 3 lesinger og 3 skrivinger, noe som gir oss en straffefaktor på 6.

Det ser ut til at i en matrise som RAID-DP vil alt være likt, siden det i hovedsak er en modifisert RAID6-matrise. Men det var ikke tilfelle... Trikset er at det brukes et eget WAFL (Write Anywhere File Layout) filsystem, der alle skriveoperasjoner er sekvensielle og utføres på ledig plass. WAFL vil i utgangspunktet skrive nye data til en ny plassering på disken og deretter flytte pekere til de nye dataene, og dermed eliminere leseoperasjoner som må finne sted. I tillegg skrives en logg til NVRAM, som sporer skrivetransaksjoner, starter skrivinger og kan gjenopprette dem om nødvendig. De skrives til bufferen i begynnelsen, og deretter blir de "slått sammen" på disken, noe som fremskynder prosessen. Sannsynligvis kan eksperter hos NetApp opplyse oss mer detaljert i kommentarene om hvordan besparelser oppnås, jeg har ennå ikke helt forstått dette problemet, men jeg husket at RAID-strafffaktoren bare vil være 2, ikke 6. "Trikset" er ganske betydelige.

Med store RAID-DP-arrayer som består av dusinvis av stasjoner, er det konseptet med å redusere "paritetsstraffen" som oppstår når paritetsskriving oppstår. Så etter hvert som RAID-DP-arrayen vokser, kreves det et mindre antall disker som er allokert for paritet, noe som vil føre til en reduksjon i tap knyttet til paritetsposter. Men i små grupper, eller for å øke konservatismen, kan vi neglisjere dette fenomenet.

Når vi nå vet om IOPS-tapene som følge av bruk av ett eller annet RAID-nivå, kan vi beregne ytelsen til arrayet. Vær imidlertid oppmerksom på at andre faktorer, som grensesnittbåndbredde, suboptimal avbruddsfordeling over prosessorkjerner, etc., RAID-kontrollerbåndbredde eller overskridelse av tillatt kødybde, kan ha en negativ innvirkning.

Hvis disse faktorene neglisjeres, vil formelen være som følger:

Funksjonell IOPS = (Rå IOPS * % av skriv / RAID-strafffaktor) + (Rå IOPS * % av lest), hvor rå IOPS = gjennomsnittlig IOPS av stasjoner * antall stasjoner.

La oss for eksempel beregne ytelsen til et RAID10-array med 12 HDD SATA-stasjoner, hvis det er kjent at 10 % av skriveoperasjonene og 90 % av leseoperasjonene skjer samtidig. La oss si at disken gir 75 tilfeldige IOPS, med en blokkstørrelse på 4KB.

Innledende IOPS = 75*12 = 900;
Funksjonell IOPS = (900*0,1/2) + (900*0,9) = 855.

Dermed ser vi at ved lav skriveintensitet, som hovedsakelig observeres i systemer designet for innholdslevering, er påvirkningen av RAID-strafffaktoren minimal.

Applikasjonsavhengighet

Ytelsen til løsningen vår kan i stor grad avhenge av applikasjonene som vil bli utført i etterkant. Så det kan være transaksjonsbehandling – «strukturerte» data som er organisert, konsistent og forutsigbar. Ofte i disse prosessene kan du bruke prinsippet om batchbehandling, distribuere disse prosessene i tid slik at belastningen er minimal, og derved optimalisere IOPS-forbruket. I det siste har det imidlertid dukket opp flere og flere medieprosjekter der dataene er «ustrukturerte» og krever helt andre prinsipper for å behandle dem.

Av denne grunn kan det være en svært vanskelig oppgave å beregne den nødvendige ytelsen til en løsning for et spesifikt prosjekt. Noen av lagringsleverandørene og ekspertene hevder at IOPS ikke spiller noen rolle, siden kunder overveldende bruker opptil 30-40 tusen IOPS, mens moderne lagringssystemer gir hundretusener og til og med millioner av IOPS. Det vil si at moderne lagringsfasiliteter tilfredsstiller behovene til 99 % av kundene. Imidlertid er dette utsagnet kanskje ikke alltid sant, bare for forretningssegmentet som er vert for lagring lokalt, men ikke for prosjekter som er vert i datasentre, som ofte, selv ved bruk av ferdige lagringsløsninger, bør gi ganske høy ytelse og feiltoleranse.

Hvis prosjektet ligger i et datasenter, er det i de fleste tilfeller likevel mer økonomisk å bygge lagringssystemer på egenhånd basert på dedikerte servere enn å bruke ferdige løsninger, siden det blir mulig å mer effektivt fordele belastningen og velge det optimale utstyret for visse prosesser. Blant annet er ytelsesindikatorene til ferdige lagringssystemer langt fra reelle, siden de stort sett er basert på profildata fra syntetiske ytelsestester ved bruk av 4 eller 8 KB blokkstørrelser, mens De fleste klientapplikasjoner kjører nå i miljøer med blokkstørrelser mellom 32 og 64 KB.

Som vi kan se av grafen:

Mindre enn 5 % av lagringssystemene er konfigurert med en blokkstørrelse på mindre enn 10 KB og mindre enn 15 % bruker blokker med en blokkstørrelse på mindre enn 20 KB. I tillegg, selv for en gitt applikasjon, er det sjelden at kun én type I/O-forbruk forekommer. For eksempel vil en database ha forskjellige I/O-profiler for forskjellige prosesser (datafiler, logging, indekser...). Dette betyr at de uttalte syntetiske systemytelsestestene kan være langt fra sannheten.

Hva med forsinkelser?

Selv om vi ser bort fra det faktum at verktøyene som brukes til å måle latens har en tendens til å måle gjennomsnittlige latenstider og savner det faktum at en enkelt I/O i noen prosesser kan ta mye lengre tid enn andre, og dermed bremse fremdriften av hele prosessen, ikke ta hensyn til hva hvor mye I/U-latens vil endres avhengig av blokkstørrelse. Dette tidspunktet vil blant annet også avhenge av den konkrete søknaden.

Dermed kommer vi til en annen magisk konklusjon: Ikke bare er blokkstørrelse ikke en veldig god egenskap når man måler ytelsen til IOPS-systemer, men latens kan også vise seg å være en helt ubrukelig parameter.

Vel, hvis verken IOPS eller latens er et godt mål på lagringssystemytelse, hva er det da?

Bare en reell test av applikasjonskjøring på en spesifikk løsning...

Denne testen vil være en reell metode som helt sikkert vil tillate deg å forstå hvor produktiv løsningen vil være for ditt tilfelle. For å gjøre dette, må du kjøre en kopi av applikasjonen på et separat lager og simulere belastningen i en viss periode. Dette er den eneste måten å få pålitelige data på. Og selvfølgelig må du ikke måle lagringsverdier, men applikasjonsberegninger.

Å ta hensyn til faktorene ovenfor som påvirker ytelsen til systemene våre kan imidlertid være svært nyttig når du velger lagring eller bygger en viss infrastruktur basert på dedikerte servere. Med en viss grad av konservatisme blir det mulig å velge en mer eller mindre realistisk løsning, for å eliminere noen tekniske og programvarefeil i form av ikke-optimal blokkstørrelse ved partisjonering eller ikke-optimalt arbeid med disker. Løsningen vil selvfølgelig ikke garantere den beregnede ytelsen 100 %, men i 99 % av tilfellene kan det sies at løsningen vil takle belastningen, spesielt hvis du legger til konservatisme avhengig av type applikasjon og funksjoner i beregning.

I enhver produksjon er et av hovedmålene for selskapets ledelse å oppnå resultater. Spørsmålet er bare hvor mye innsats og ressurser som kreves i arbeidet med å nå hovedmålet. For å bestemme effektiviteten til en bedrift ble konseptet "arbeidsproduktivitet" introdusert, som er en indikator på personalets produktivitet. Arbeidet som kan utføres av én person per tidsenhet kalles konvensjonelt "output".

For hver virksomhet er det svært viktig å oppnå høye resultater og samtidig bruke så lite ressurser som mulig på produksjon (dette inkluderer strømregninger, husleie osv.).

Den viktigste oppgaven i enhver bedrift som produserer varer eller yter tjenester er å øke produktiviteten. Samtidig er det en rekke tiltak som vanligvis følges for å redusere kostnadene som kreves for arbeidsprosessen. I løpet av perioden med bedriftsutvikling kan arbeidsproduktiviteten derfor endre seg.

Som regel klassifiseres flere grupper av faktorer som kan påvirke endringen, nemlig veksten av produksjonsindikatorer. Først av alt er dette en økonomisk og geografisk faktor, som inkluderer tilgjengeligheten av tilgjengelige arbeidsressurser, vann, elektrisitet, byggematerialer, samt avstanden til kommunikasjon, terreng, etc. Ikke mindre viktig er viktigheten av å akselerere vitenskapelig og teknisk fremgang, fremme introduksjonen av nye generasjoner av moderne teknologi og bruken av avanserte teknologier og automatiserte systemer. Det kan også antas at arbeidsproduktiviteten også avhenger av faktoren strukturelle endringer, som innebærer en endring i andelen komponenter og innkjøpte halvfabrikater, samt produksjonsstrukturen og andelen enkelttyper produkter.

Det sosiale (menneskelige) aspektet er fortsatt av stor betydning, fordi det er bekymringen for sosiale goder som ligger til grunn for økningen i arbeidsproduktiviteten. Dette inkluderer: bekymring for en persons fysiske helse, nivå av intellektuell utvikling, profesjonalitet, etc.

Faktorer som øker arbeidsproduktiviteten er den viktigste komponenten i hele arbeidsprosessen, fordi de påvirker utviklingshastigheten til enhver bedrift og følgelig bidrar til en økning i fortjenesten.

Det er også verdt å merke seg det organisatoriske punktet som bestemmer nivået på produksjon og arbeidsledelse. Dette inkluderer forbedring av organiseringen av bedriftsledelsen, forbedring av personell, materiell og teknisk opplæring.

Når man snakker om produktivitet, er det umulig å se bort fra arbeidsintensiteten. Dette konseptet er en refleksjon av mengden mental og fysisk energi som en ansatt bruker i løpet av en viss arbeidstid.

Det er svært viktig å bestemme den optimale intensiteten for en gitt arbeidsprosess, fordi overdreven aktivitet kan føre til uunngåelige tap i produktivitet. Som regel skjer dette som følge av menneskelig overarbeid, yrkessykdommer, skader osv.

Det er verdt å merke seg at hovedindikatorene som bestemmer intensiteten av arbeidskraft er identifisert. Først av alt er dette en persons arbeidsmengde. Dette lar deg bestemme intensiteten av arbeidsprosessen og følgelig gjennomførbarheten av kostnadene. Samtidig er det vanlig å beregne arbeidstempoet, det vil si frekvensen av handlinger i forhold til en tidsenhet. Tatt i betraktning disse faktorene, har bedriften som regel visse standarder basert på indikatorene som produksjonsarbeidsplanen er etablert.

Faktorer for arbeidsproduktivitet er gjenstand for nøye oppmerksomhet fra forskere og utøvere, siden de fungerer som grunnårsaken som bestemmer nivået og dynamikken. Faktorene som er studert i analysen kan klassifiseres etter ulike kriterier. Vi presenterer den mest detaljerte klassifiseringen i tabell 1

Tabell 1

Klassifisering av faktorer som påvirker arbeidsproduktiviteten

Klassifiseringsfunksjon

Grupper av faktorer

Av sin natur

Naturlig og klimatisk

Sosioøkonomisk

Produksjon og økonomi

Etter grad av påvirkning på resultatet

Grunnleggende

Liten

I forhold til studieobjektet

Innenlands

Avhengig av laget

Objektiv

Subjektiv

Etter utbredelse

Spesifikk

Etter varighet

Fast

Variabler

Av handlingens natur

Omfattende

Intensiv

I henhold til egenskapene til de reflekterte fenomenene

Kvantitativ

Kvalitet

I henhold til sammensetningen

Etter nivå av underordning (hierarki)

Første orden

Andre orden osv.

Der det er mulig, påvirkningsmålinger

Målbare

Umålelig

Faktorer er i sin natur delt inn i naturlig-klimatiske, sosioøkonomiske og produksjonsøkonomiske.

Naturlige og klimatiske faktorer har stor innflytelse på resultatene av virksomhet innen landbruk, gruveindustri, skogbruk og andre næringer. Å ta hensyn til deres innflytelse lar oss vurdere resultatene av arbeidet til forretningsenheter mer nøyaktig. Sosioøkonomiske faktorer inkluderer arbeidstakernes levekår, organisering av kultur-, idretts- og fritidsarbeid i bedriften, det generelle kultur- og utdanningsnivået til personell osv. De bidrar til en mer fullstendig bruk av bedriftens produksjonsressurser og øker effektiviteten av sitt arbeid. Produksjon og økonomiske faktorer bestemmer fullstendigheten og effektiviteten av bruken av foretakets produksjonsressurser og de endelige resultatene av dens aktiviteter. Basert på graden av innvirkning på resultatene av økonomisk aktivitet, deles faktorer inn i større og mindre. De viktigste inkluderer faktorer som har en avgjørende innvirkning på resultatindikatoren. De som ikke har avgjørende betydning for resultatene av økonomisk aktivitet under dagens forhold, anses som sekundære. Her er det nødvendig å merke seg at den samme faktoren, avhengig av omstendighetene, kan være både primær og sekundær. Evnen til å identifisere de viktigste, bestemmende faktorene fra en rekke faktorer sikrer riktigheten av konklusjonene basert på resultatene av analysen.

I forhold til studieobjektet klassifiseres faktorer i interne og eksterne, d.v.s. avhengig og uavhengig av virksomheten til dette foretaket. Hovedoppmerksomheten i analysen bør rettes mot studiet av interne faktorer som virksomheten kan påvirke.

Samtidig, i mange tilfeller, med utviklede produksjonsforbindelser og relasjoner, blir resultatene til hver virksomhet betydelig påvirket av aktivitetene til andre virksomheter, for eksempel enhetligheten og aktualiteten til forsyninger av råvarer, materialer, deres kvalitet, kostnader , markedsforhold, inflasjonsprosesser osv. Disse faktorene er eksterne. De karakteriserer ikke innsatsen til et gitt team, men studien deres gjør det mulig å mer nøyaktig bestemme graden av påvirkning av interne årsaker og dermed mer fullstendig identifisere de interne produksjonsreservene.

For å kunne vurdere virksomheten til virksomheter riktig, må faktorer deles inn i objektive og subjektive. Objektive faktorer, som en naturkatastrofe, er ikke avhengig av folks vilje og ønske. I motsetning til objektive grunner, avhenger subjektive grunner av aktivitetene til juridiske enheter og enkeltpersoner.

I henhold til graden av prevalens deles faktorer inn i generelle og spesifikke. Generelle faktorer inkluderer faktorer som opererer i alle sektorer av økonomien. Spesifikke er de som opererer i en bestemt sektor av økonomien eller bedriften. Denne inndelingen av faktorer lar oss mer fullstendig ta hensyn til egenskapene til individuelle bedrifter og bransjer og mer nøyaktig vurdere deres aktiviteter.

Basert på varigheten av innvirkning på ytelsesresultater, skilles faktorer mellom konstant og variabel. Konstante faktorer påvirker fenomenet som studeres kontinuerlig over tid. Virkningen av variable faktorer manifesterer seg med jevne mellomrom, for eksempel utvikling av ny teknologi, nye typer produkter, ny produksjonsteknologi, etc.

Av stor betydning for å vurdere virksomhetens aktiviteter er inndelingen av faktorer etter arten av deres handling i intensiv og omfattende. Omfattende faktorer inkluderer faktorer som er assosiert med en kvantitativ snarere enn en kvalitativ økning i ytelsesindikatoren, for eksempel en økning i produksjonsvolumet ved å utvide sådd areal, øke antall dyr, antall arbeidere osv. Intensive faktorer kjennetegner graden av innsats og arbeidsintensitet i produksjonsprosessen, for eksempel økende jordbruksavlinger, husdyrproduktivitet og nivået på arbeidsproduktivitet.

Hvis analysen tar sikte på å måle påvirkningen av hver faktor på resultatene av økonomisk aktivitet, er de delt inn i kvantitative og kvalitative, enkle og komplekse, målbare og ikke-målbare.

Faktorer som uttrykker den kvantitative sikkerheten til fenomener (antall arbeidere, utstyr, råvarer osv.) anses som kvantitative. Kvalitative faktorer bestemmer de interne kvalitetene, egenskapene og egenskapene til objektene som studeres (arbeidsproduktivitet, produktkvalitet, jordfruktbarhet, etc.).

De fleste av faktorene som er studert er komplekse i sammensetning og består av flere elementer. Imidlertid er det også de som ikke kan brytes ned i sine komponenter. Avhengig av deres sammensetning er faktorer delt inn i komplekse (komplekse) og enkle (elementære). Et eksempel på en kompleks faktor er arbeidsproduktivitet, og en enkel er antall arbeidsdager i rapporteringsperioden.

Som allerede antydet har noen faktorer en direkte innvirkning på resultatindikatoren, mens andre har en indirekte innvirkning. Basert på nivået av underordning (hierarki) skilles faktorer fra den første, andre, tredje, etc. ut. nivåer av underordning. Faktorene på første nivå inkluderer de som direkte påvirker ytelsesindikatoren. Faktorer som bestemmer ytelsesindikatoren indirekte, ved å bruke førstenivåfaktorer, kalles andrenivåfaktorer osv. For eksempel, i forhold til bruttoproduksjon, er førstenivåfaktorene gjennomsnittlig årlig antall arbeidere og gjennomsnittlig årlig produksjon per arbeider. Antall dager arbeidet av en arbeider og gjennomsnittlig daglig produksjon er andrenivåfaktorer. Faktorer på det tredje nivået inkluderer lengden på arbeidsdagen og gjennomsnittlig timeproduksjon.

Grunnlaget for å drive enhver virksomhet er rasjonell og effektiv bruk av tilgjengelige ressurser, inkludert arbeidskraft. Det er ganske logisk at ledelsen søker å øke produksjonsvolumet uten ekstra kostnader for å ansette arbeidere. Eksperter identifiserer flere faktorer som kan forbedre produktiviteten:

    Lederstil (hovedoppgaven til en leder er å motivere ansatte, skape en organisasjonskultur som verdsetter aktivitet og hardt arbeid).

    Investeringer i tekniske innovasjoner (kjøp av nytt utstyr som møter tidens krav kan redusere tidsbruken til hver enkelt ansatt betydelig).

    Opplæring og seminarer for avansert opplæring (kunnskap om produksjonens spesifikasjoner gjør at personell kan delta i å forbedre produksjonsprosessen).

Mange brukere lurer på hva som påvirker datamaskinens ytelse mest?

Det viser seg at det er umulig å gi et sikkert svar på dette spørsmålet. En datamaskin er et sett med undersystemer (minne, databehandling, grafikk, lagring) som samhandler med hverandre gjennom hovedkortet og enhetsdrivere. Hvis delsystemer ikke er riktig konfigurert, gir de ikke den maksimale ytelsen de kunne.

Omfattende ytelse består av programvare- og maskinvareinnstillinger og funksjoner.
La oss liste dem opp.

Maskinvareytelsesfaktorer:

  1. Antall prosessorkjerner – 1, 2, 3 eller 4
  2. Prosessorfrekvens og prosessorsystembuss (FSB) frekvens – 533, 667, 800, 1066, 1333 eller 1600 MHz
  3. Volum og mengde prosessorbufferminne (CPU) – 256, 512 KB; 1, 2, 3, 4, 6, 12 MB.
  4. Matcher systembussfrekvensen til CPU og hovedkort
  5. Random Access Memory (RAM) frekvens og hovedkort minnebussfrekvens – DDR2-667, 800, 1066
  6. RAM-kapasitet – 512 MB eller mer
  7. Brikkesett brukt på hovedkortet (Intel, VIA, SIS, nVidia, ATI/AMD)
  8. Grafikkundersystemet som brukes er innebygd i hovedkortet eller diskret (eksternt skjermkort med eget videominne og grafikkprosessor)
  9. Harddisk (HDD) grensesnitttype – parallell IDE eller seriell SATA og SATA-2
  10. Harddiskbuffer – 8, 16 eller 32 MB.

Å øke de oppførte tekniske egenskapene øker alltid produktiviteten.

Kjerner

For øyeblikket har de fleste produserte prosessorer minst 2 kjerner (unntatt AMD Sempron, Athlon 64 og Intel Celeron D, Celeron 4xx). Antall kjerner er viktig i 3D-gjengivelse eller videokodingsoppgaver, så vel som i programmer hvis kode er optimert for flertråding av flere kjerner. I andre tilfeller (for eksempel i kontor- og internettoppgaver) er de ubrukelige.

Fire kjerner har Intel Core 2 Extreme- og Core 2 Quad-prosessorer med følgende merker: QX9xxx, Q9xxx, Q8xxx, QX6xxx;
AMD Phenom X3 – 3 kjerner;
AMD Phenom X4 – 4 kjerner.

Vi må huske at antall kjerner øker strømforbruket til CPUen betydelig og øker strømkravene til hovedkortet og strømforsyningen!

Men generasjonen og arkitekturen til kjernen påvirker i stor grad ytelsen til enhver prosessor.
Hvis vi for eksempel tar dual-core Intel Pentium D og Core 2 Duo med samme frekvens, systembuss og cache-minne, så vil Core 2 Duo utvilsomt vinne.

Bussfrekvenser for prosessor, minne og hovedkort

Det er også svært viktig at frekvensene til de ulike komponentene stemmer overens.
La oss si at hvis hovedkortet ditt støtter en minnebussfrekvens på 800 MHz, og en DDR2-677 minnemodul er installert, vil frekvensen til minnemodulen redusere ytelsen.

På samme tid, hvis hovedkortet ikke støtter en frekvens på 800 MHz, og mens en DDR2-800-modul er installert, vil det fungere, men med en lavere frekvens.

Cacher

Prosessorens minnebuffer påvirker først og fremst ved arbeid med CAD-systemer, store databaser og grafikk. En cache er et minne med en raskere tilgangshastighet, designet for å øke tilgangen til data som finnes permanent i minnet med en lavere tilgangshastighet (heretter referert til som "hovedminne"). Caching brukes av CPUer, harddisker, nettlesere og webservere.

Når CPU-en får tilgang til data, undersøkes cachen først. Hvis en oppføring med en identifikator som samsvarer med identifikatoren til det forespurte dataelementet blir funnet i hurtigbufferen, brukes dataelementene i hurtigbufferen. Denne saken kalles et cache-treff. Hvis ingen oppføringer blir funnet i hurtigbufferen som inneholder det forespurte dataelementet, blir det lest fra hovedminnet inn i hurtigbufferen og blir tilgjengelig for senere tilgang. Denne saken kalles en cache-miss. Prosentandelen av hurtigbuffertreff der et resultat blir funnet kalles trefffrekvensen eller cachetreffforholdet.
Prosentandelen av cache-treff er høyere for Intel-prosessorer.

Alle CPUer er forskjellige i antall cacher (opptil 3) og størrelse. Den raskeste cachen er det første nivået (L1), den tregeste er det tredje (L3). Bare AMD Phenom-prosessorer har L3-cache, så det er veldig viktig at L1-cachen har en stor størrelse.

Vi testet ytelsens avhengighet av størrelsen på cache-minnet. Hvis du sammenligner resultatene til 3D-skytespillene Prey og Quake 4, som er typiske spillapplikasjoner, er ytelsesforskjellen mellom 1 og 4 MB omtrent den samme som mellom prosessorer med en frekvensforskjell på 200 MHz. Det samme gjelder videokodingstester for DivX 6.6 og XviD 1.1.2 kodeker, samt WinRAR 3.7 arkiver. CPU-intensive applikasjoner som 3DStudio Max 8, Lame MP3 Encoder eller MainConcepts H.264 Encoder V2 har imidlertid ikke mye nytte av større cache-størrelser.
La oss huske at L2-cachen har mye større innvirkning på ytelsen til Intel Core 2 CPU enn AMD Athlon 64 X2 eller Phenom, siden Intel har en felles L2-cache for alle kjerner, mens AMD har en separat for hver kjerne ! I denne forbindelse fungerer Phenom bedre med cache.

RAM

Som allerede nevnt er RAM preget av frekvens og volum. Samtidig er det nå 2 typer minne tilgjengelig, DDR2 og DDR3, som er forskjellige i arkitektur, ytelse, frekvens og forsyningsspenning – det vil si alt!
Frekvensen til minnemodulen må samsvare med frekvensen til selve modulen.

Mengden RAM påvirker også ytelsen til operativsystemet og ressurskrevende applikasjoner.
Beregningene er enkle - Windows XP tar opp 300-350 MB RAM etter lasting. Hvis det er flere programmer under oppstart, laster de også RAM. Det vil si at 150-200 MB forblir ledig. Bare lette kontorapplikasjoner får plass der.
For komfortabelt arbeid med AutoCAD, grafikkapplikasjoner, 3DMax, koding og grafikk, kreves det minst 1 GB RAM. Hvis du bruker Windows Vista, så minst 2 GB.

Grafisk delsystem

Kontordatamaskiner bruker ofte hovedkort som har innebygd grafikk. Hovedkort på slike brikkesett (G31, G45, AMD 770G, etc.) har bokstaven G i merkingen.
Disse integrerte grafikkortene bruker noe av RAM-en til videominne, og reduserer dermed mengden RAM-plass som er tilgjengelig for brukeren.

Følgelig, for å øke ytelsen, må det innebygde skjermkortet deaktiveres i hovedkortets BIOS, og et eksternt (diskret) skjermkort må installeres i PCI-Express-sporet.
Alle skjermkort er forskjellige i grafikkbrikkesettet, driftsfrekvensen til rørledningene, antall rørledninger, videominnefrekvensen og videominnebussbredden.

Lagring delsystem

Ytelsen til stasjoner blir sterkt påvirket når du får tilgang til store datamengder - video, lyd, så vel som når du åpner et stort antall små filer.

Blant de tekniske egenskapene som påvirker hastigheten på tilgang til filer, bør det bemerkes typen harddiskgrensesnitt (HDD) - parallell IDE eller seriell SATA og SATA-2 og harddiskbuffer - 8, 16 eller 32 MB.
For øyeblikket anbefales det å installere harddisker kun med SATA-2-grensesnittet, som har den høyeste båndbredden og den største cachen.

Programvareytelsesfaktorer:

  1. Antall installerte programmer
  2. Filsystemfragmentering
  3. Filsystemfeil, dårlige sektorer
  4. OS-registerfragmentering
  5. OS-registerfeil
  6. Sidefilstørrelse (størrelse for virtuelt minne)
  7. Inkludert OS GUI-visualiseringselementer
  8. Windows-programmer og tjenester lastes inn ved oppstart

Dette er ikke en fullstendig liste, men dette er funksjonene til Windows OS som kan redusere driften betydelig.
Men vi vil snakke om disse egenskapene, innstillingene og parameterne i neste artikkel.

prosessor er en kjernedatakomponent som i stor grad påvirker ytelsen til en datamaskin. Men hvor mye avhenger spillytelsen av prosessoren? Bør du bytte prosessor for å forbedre spillytelsen? Hva slags økning vil dette gi? Vi vil prøve å finne svaret på disse spørsmålene i denne artikkelen.

1. Hva du skal bytte skjermkort eller prosessor

For ikke lenge siden møtte jeg igjen mangel på datamaskinytelse, og det ble klart at det var på tide med en ny oppgradering. På den tiden var konfigurasjonen min som følger:

  • Phenom II X4 945 (3 GHz)
  • 8 GB DDR2 800 MHz
  • GTX 660 2 GB

Totalt sett var jeg ganske fornøyd med datamaskinens ytelse, systemet fungerte ganske raskt, de fleste spill kjørte på høye eller middels/høye grafikkinnstillinger, og jeg redigerte ikke videoer så ofte, så 15-30 minutter med gjengivelse gadd ikke meg.

De første problemene oppsto i spillet World of Tanks, da endring av grafikkinnstillinger fra høy til medium ikke ga den forventede ytelsesøkningen. Bildefrekvensen falt med jevne mellomrom fra 60 til 40 FPS. Det ble klart at ytelsen var begrenset av prosessoren. Da ble det besluttet å gå opp til 3,6 GHz, noe som løste problemene i WoT.

Men tiden gikk, nye tunge spill ble sluppet, og fra WoT byttet jeg til et som var mer krevende for systemressurser (Armata). Situasjonen gjentok seg og spørsmålet ble hva som skulle endres - skjermkortet eller prosessoren. Det var ingen vits i å endre GTX 660 til en 1060, det var nødvendig å ta minst en GTX 1070. Men det gamle Phenom ville definitivt ikke klare et slikt skjermkort. Og selv når du endret innstillingene i Armata, var det tydelig at ytelsen igjen ble begrenset av prosessoren. Derfor ble det besluttet å først erstatte prosessoren med en overgang til en mer produktiv Intel-plattform for spill.

Bytte av prosessor innebar bytte av hovedkort og RAM. Men det var ingen annen utvei; dessuten var det håp om at en kraftigere prosessor ville tillate det gamle skjermkortet å være mer egnet i prosessoravhengige spill.

2. Prosessorvalg

Det var ingen Ryzen-prosessorer på den tiden; utgivelsen var bare forventet. For å kunne evaluere dem fullt ut, var det nødvendig å vente på utgivelsen og massetesting for å identifisere styrker og svakheter.

I tillegg var det allerede kjent at prisen på utgivelsestidspunktet ville være ganske høy, og det var nødvendig å vente ytterligere seks måneder til prisene for dem ble mer tilstrekkelige. Det var ikke noe ønske om å vente så lenge, akkurat som det ikke var noe ønske om å raskt bytte til den fortsatt rå AM4-plattformen. Og gitt AMDs evige tabber, var det også risikabelt.

Derfor ble ikke Ryzen-prosessorer vurdert og foretrukket ble den allerede utprøvde, polerte og velprøvde Intel-plattformen på socket 1151. Og, som praksis har vist, ikke forgjeves, siden Ryzen-prosessorer viste seg å være dårligere i spill, og i andre ytelsesoppgaver hadde jeg allerede nok ytelse.

Først var valget mellom Core i5-prosessorer:

  • Core i5-6600
  • Core i5-7600
  • Core i5-6600K
  • Core i5-7600K

For en spilldatamaskin i mellomklassen var i5-6600 minimumsalternativet. Men i fremtiden ønsket jeg å ha litt reserve i tilfelle bytte av skjermkort. Core i5-7600 var ikke veldig annerledes, så den opprinnelige planen var å kjøpe en Core i5-6600K eller Core i5-7600K med muligheten til å overklokke til en stabil 4,4 GHz.

Men etter å ha lest testresultatene i moderne spill, hvor belastningen på disse prosessorene var nær 90%, var det klart at det i fremtiden kanskje ikke var nok. Men jeg ønsket å ha en god plattform med reserve i lang tid, siden dagene da du kunne oppgradere PCen hvert år er borte

Så jeg begynte å se på Core i7-prosessorer:

  • Core i7-6700
  • Core i7-7700
  • Core i7-6700K
  • Core i7-7700K

I moderne spill er de ennå ikke fulladet, men et sted rundt 60-70%. Men Core i7-6700 har en basisfrekvens på bare 3,4 GHz, og Core i7-7700 har ikke mye mer - 3,6 GHz.

Ifølge testresultater i moderne spill med topp skjermkort, er den største ytelsesøkningen observert ved rundt 4 GHz. Da er det ikke lenger så betydningsfullt, noen ganger nesten usynlig.

Til tross for at i5- og i7-prosessorer er utstyrt med automatisk overklokkingsteknologi (), bør du ikke stole for mye på det, siden i spill der alle kjerner brukes, vil økningen være ubetydelig (bare 100-200 MHz).

Dermed er Core i7-6700K (4 GHz) og i7-7700K (4,2 GHz) prosessorer mer optimale, og gitt muligheten for overklokking til stabile 4,4 GHz, er de også betydelig mer lovende enn i7-6700 (3,4 GHz) ) og i7-7700 (3,6 GHz), siden forskjellen i frekvens allerede vil være 800-1000 MHz!

På tidspunktet for oppgraderingen hadde Intel 7. generasjons prosessorer (Core i7-7xxx) nettopp dukket opp og var betydelig dyrere enn 6. generasjons prosessorer (Core i7-6xxx), hvis priser allerede hadde begynt å synke. Samtidig oppdaterte de i den nye generasjonen bare den innebygde grafikken, som ikke er nødvendig for spill. Og deres overklokkingsevner er nesten de samme.

I tillegg var hovedkort med nye brikkesett også dyrere (selv om du kan installere en prosessor på et eldre brikkesett, kan dette by på noen problemer).

Derfor ble det besluttet å ta Core i7-6700K med en basisfrekvens på 4 GHz og muligheten til å overklokke til stabile 4,4 GHz i fremtiden.

3. Velge hovedkort og minne

Jeg, som de fleste entusiaster og tekniske eksperter, foretrekker høykvalitets og stabile hovedkort fra ASUS. For Core i7-6700K-prosessoren med overklokkingsmuligheter er det beste alternativet hovedkort basert på Z170-brikkesettet. I tillegg ønsket jeg å ha et bedre innebygd lydkort. Derfor ble det besluttet å ta det rimeligste spillhovedkortet fra ASUS på Z170-brikkesettet -.

Minnet, tatt i betraktning hovedkortets støtte for modulfrekvenser opp til 3400 MHz, ønsket også å være raskere. For en moderne spill-PC er det beste alternativet et 2x8 GB DDR4-minnesett. Det gjensto bare å finne det optimale settet med tanke på pris/frekvensforhold.

I utgangspunktet falt valget på AMD Radeon R7 (2666 MHz), siden prisen var veldig fristende. Men ved bestilling var den ikke på lager. Jeg måtte velge mellom den mye dyrere G.Skill RipjawsV (3000 MHz) og den litt rimeligere Team T-Force Dark (2666 MHz).

Det var et vanskelig valg, siden jeg ønsket raskere hukommelse, og midlene var begrenset. Basert på tester i moderne spill (som jeg studerte), var ytelsesforskjellen mellom 2133 MHz og 3000 MHz minne 3-13 % og et gjennomsnitt på 6 %. Det er ikke mye, men jeg ønsket å få det maksimale.

Men faktum er at raskt minne er laget av fabrikkoverklokking av langsommere brikker. G.Skill RipjawsV-minne (3000 MHz) er intet unntak, og for å oppnå denne frekvensen er forsyningsspenningen 1,35 V. I tillegg har prosessorer vanskelig for å fordøye minne med for høy frekvens og allerede ved en frekvens på 3000 MHz systemet fungerer kanskje ikke stabilt. Vel, økt forsyningsspenning fører til raskere slitasje (degradering) av både minnebrikker og prosessorkontrolleren (Intel kunngjorde offisielt dette).

Samtidig opererer Team T-Force Dark-minne (2666 MHz) med en spenning på 1,2 V og lar, ifølge produsenten, spenningen øke til 1,4 V, som om ønskelig lar deg overklokke den manuelt . Etter å ha veiet alle fordeler og ulemper, ble valget tatt til fordel for minne med en standardspenning på 1,2 V.

4. Spillytelsestester

Før jeg byttet plattform utførte jeg ytelsestester på det gamle systemet i noen spill. Etter bytte av plattform ble de samme testene gjentatt.

Tester ble utført på et rent Windows 7-system med samme skjermkort (GTX 660) med høye grafikkinnstillinger, siden målet med å bytte ut prosessoren var å øke ytelsen uten å redusere bildekvaliteten.

For å oppnå mer nøyaktige resultater ble det kun brukt spill med innebygd benchmark i testene. Som et unntak ble en ytelsestest i det nettbaserte tankskytespillet Armored Warfare utført ved å ta opp en reprise og deretter spille den av med avlesninger ved hjelp av Fraps.

Høye grafikkinnstillinger.

Test på Phenom X4 (@3,6 GHz).

Testresultatene viser at gjennomsnittlig FPS endret seg litt (fra 36 til 38). Dette betyr at ytelsen i dette spillet avhenger av skjermkortet. Imidlertid har minimum FPS-fall i alle tester redusert betydelig (fra 11-12 til 21-26), noe som betyr at spillet fortsatt vil være litt mer komfortabelt.

I håp om å forbedre ytelsen med DirectX 12, gjorde jeg senere en test i Windows 10.

Men resultatene var enda verre.

Batman: Arkham Knight

Høye grafikkinnstillinger.

Test på Phenom X4 (@3,6 GHz).

Test på Core i7-6700K (4,0 GHz).

Spillet er svært krevende både på skjermkortet og prosessoren. Fra testene er det klart at utskifting av prosessoren førte til en betydelig økning i gjennomsnittlig FPS (fra 14 til 23), og en reduksjon i minimumsuttak (fra 0 til 15), maksimalverdien økte også (fra 27 til 37). Disse indikatorene tillater imidlertid ikke komfortabel spilling, så jeg bestemte meg for å kjøre tester med middels innstillinger og deaktivere ulike effekter.

Middels grafikkinnstillinger.

Test på Phenom X4 (@3,6 GHz).

Test på Core i7-6700K (4,0 GHz).

Ved middels innstillinger økte også gjennomsnittlig FPS litt (fra 37 til 44), og nedtrekkene ble betydelig redusert (fra 22 til 35), og overskred minimumsterskelen på 30 FPS for et komfortabelt spill. Gapet i maksimalverdien forble også (fra 50 til 64). Som et resultat av å bytte prosessor ble det ganske behagelig å spille.

Bytte til Windows 10 endret absolutt ingenting.

Deus Ex: Mankind Divided

Høye grafikkinnstillinger.

Test på Phenom X4 (@3,6 GHz).

Test på Core i7-6700K (4,0 GHz).

Resultatet av å bytte ut prosessoren var bare en nedgang i FPS-nedtrekk (fra 13 til 18). Dessverre glemte jeg å kjøre tester med middels innstillinger, men jeg testet på DirectX 12.

Som et resultat falt minimum FPS bare.

Panser Krigføring: Armata-prosjektet

Jeg spiller dette spillet ofte, og det har blitt en av hovedgrunnene til å oppgradere datamaskinen min. Ved høye innstillinger produserte spillet 40-60 FPS med sjeldne, men ubehagelige fall til 20-30.

Å redusere innstillingene til middels eliminerte alvorlige fall, men gjennomsnittlig FPS forble nesten det samme, noe som er et indirekte tegn på mangel på prosessorytelse.

En replay ble tatt opp og tester ble utført i avspillingsmodus ved bruk av FRAPS ved høye innstillinger.

Jeg oppsummerte resultatene deres i en tabell.

prosessor FPS (min) FPS (onsdag) FPS (Maks)
Phenom X4 (@3,6 GHz) 28 51 63
Core i7-6700K (4,0 GHz) 57 69 80

Utskifting av prosessoren eliminerte fullstendig kritiske FPS-fall og økte den gjennomsnittlige bildefrekvensen alvorlig. Dette gjorde det mulig å aktivere vertikal synkronisering, noe som gjorde bildet jevnere og mer behagelig. Samtidig produserer spillet stabile 60 FPS uten fall og er veldig behagelig å spille.

Andre spill

Jeg har ikke utført tester, men generelt sett er et lignende bilde observert i de fleste online og prosessoravhengige spill. Prosessoren påvirker FPS alvorlig i nettspill som Battlefield 1 og Overwatch. Og også i open world-spill som GTA 5 og Watch Dogs.

For eksperimentets skyld installerte jeg GTA 5 på en gammel PC med Phenom-prosessor og en ny med Core i7. Hvis tidligere, med høye innstillinger, holdt FPS seg innenfor 40-50, nå holder den seg stabilt over 60 med praktisk talt ingen nedtrekk og når ofte 70-80. Disse endringene er merkbare for det blotte øye, men en væpnet en slukker rett og slett alle

5. Gjengivelsesytelsestest

Jeg gjør ikke mye videoredigering og kjørte bare en enkel test. Jeg gjengav en Full HD-video med en lengde på 17:22 og et volum på 2,44 GB med en lavere bitrate i Camtasia-programmet jeg bruker. Resultatet ble en fil på 181 MB. Prosessorene fullførte oppgaven i den påfølgende tiden.

prosessor Tid
Phenom X4 (@3,6 GHz) 16:34
Core i7-6700K (4,0 GHz) 3:56

Selvfølgelig var et skjermkort (GTX 660) involvert i gjengivelsen, for jeg kan ikke forestille meg hvem som kunne tenke seg å gjengi uten et skjermkort, siden det tar 5-10 ganger lengre tid. I tillegg avhenger jevnheten og hastigheten til avspilling av effekter under redigering også veldig av skjermkortet.

Avhengigheten av prosessoren har imidlertid ikke blitt kansellert, og Core i7 taklet denne oppgaven 4 ganger raskere enn Phenom X4. Ettersom kompleksiteten til redigering og effekter øker, kan denne tiden øke betraktelig. Det Phenom X4 kan håndtere i 2 timer, klarer Core i7 på 30 minutter.

Hvis du seriøst planlegger å engasjere deg i videoredigering, vil en kraftig flertrådsprosessor og en stor mengde minne spare deg betydelig for tid.

6. Konklusjon

Appetitten for moderne spill og profesjonelle applikasjoner vokser veldig raskt, noe som krever konstante investeringer i å oppgradere datamaskinen. Men hvis du har en svak prosessor, så er det ingen vits i å bytte skjermkort, det vil rett og slett ikke åpne det, dvs. Ytelsen vil være begrenset av prosessoren.

En moderne plattform basert på en kraftig prosessor med tilstrekkelig RAM vil sikre høy ytelse på PC-en din i årene som kommer. Dette reduserer kostnadene ved å oppgradere en datamaskin og eliminerer behovet for å erstatte PC-en fullstendig etter noen år.

7. Lenker

Prosessor Intel Core i7-8700
Prosessor Intel Core i5-8400
Intel Core i3 8100-prosessor