Computerparameter, die die Betriebsgeschwindigkeit beeinflussen. Intel-Mikroprozessorarchitektur und die wichtigsten Faktoren, die ihre Leistung beeinflussen. Was werden wir machen

Unter modernen Bedingungen ist das Wachstum der Unternehmensgewinne der wichtigste notwendige Trend in der Entwicklung von Unternehmen. Gewinnwachstum kann auf verschiedene Weise erreicht werden, unter anderem durch einen effizienteren Einsatz des Unternehmenspersonals.

Der Indikator zur Messung der Leistung der Belegschaft eines Unternehmens ist die Produktivität.

Gesamtübersicht

Die Arbeitsproduktivität nach der Berechnungsformel ist ein Kriterium, anhand dessen man die Produktivität des Arbeitseinsatzes charakterisieren kann.

Unter Arbeitsproduktivität versteht man die Effizienz der Arbeit im Produktionsprozess. Sie kann anhand einer bestimmten Zeitspanne gemessen werden, die zur Produktion einer Produktionseinheit erforderlich ist.

Basierend auf der Definition im enzyklopädischen Wörterbuch von F. A. Brockhaus und I. A. Efron soll die Produktivität oder Produktivität der Arbeit als das Verhältnis angesehen werden, das zwischen dem Volumen der aufgewendeten Arbeit und dem Ergebnis besteht, das bei der Umsetzung der Arbeit erzielt werden kann.

Nach L. E. Basovsky kann die Arbeitsproduktivität als die Produktivität des Personals definiert werden, über das das Unternehmen verfügt. Sie kann durch die Menge der pro Arbeitszeiteinheit produzierten Produkte bestimmt werden. Dieser Indikator wird auch durch die Arbeitskosten bestimmt, die einer Produktionseinheit zugeordnet werden können.

Produktivität ist die Menge an Leistung, die ein Mitarbeiter in einem bestimmten Zeitraum produziert.

Es ist ein Kriterium, das die Produktivität einer bestimmten lebendigen Arbeit und die Wirksamkeit der Produktionsarbeit anhand der Bildung eines Produkts pro für ihre Produktion aufgewendeter Arbeitszeiteinheit charakterisiert.

Die betriebliche Effizienz steigt aufgrund des technologischen Fortschritts durch die Einführung neuer Technologien, wodurch die Qualifikation der Mitarbeiter und ihr finanzielles Interesse erhöht werden.

Analysephasen

Die Bewertung der Arbeitsproduktivität besteht aus den folgenden Hauptphasen:

  • Analyse absoluter Indikatoren über mehrere Jahre;
  • Bestimmung des Einflusses bestimmter Faktorindikatoren auf die Produktivitätsdynamik;
  • Ermittlung von Reserven für Produktivitätssteigerungen.

Grundlegende Indikatoren

Die wichtigsten Leistungsindikatoren, die in modernen Unternehmen analysiert werden, die unter Marktbedingungen tätig sind, können beispielsweise die Notwendigkeit einer Vollbeschäftigung des Personals und einer hohen Produktivität sein.

Der Produktoutput ist der Wert der Produktivität pro Einheit Arbeitseinsatz. Sie lässt sich ermitteln, indem man die Anzahl der produzierten Produkte oder erbrachten Dienstleistungen in Beziehung setzt, die in einer bestimmten Zeiteinheit produziert wurden.

Die Arbeitsintensität ist das Verhältnis zwischen Arbeitszeitkosten und Produktionsvolumen, das die Arbeitskosten pro Produkt- oder Dienstleistungseinheit charakterisiert.

Berechnungsmethoden

Zur Messung der Arbeitsproduktivität werden drei Methoden zur Berechnung der Produktivität verwendet:

  • natürliche Methode. Es wird in Organisationen verwendet, die homogene Produkte herstellen. Diese Methode berücksichtigt die Berechnung der Arbeitsproduktivität als Entsprechung zwischen der Menge der natürlich hergestellten Produkte und der durchschnittlichen Anzahl der Mitarbeiter;
  • die Arbeitsmethode wird verwendet, wenn Arbeitsbereiche eine große Produktmenge mit einem häufig wechselnden Sortiment produzieren; Die Bildung wird in Standardstunden (Arbeitsaufwand multipliziert mit Standardzeit) bestimmt und die Ergebnisse werden nach verschiedenen Produkttypen zusammengefasst.
  • Kostenmethode. Es wird in Organisationen eingesetzt, die heterogene Produkte herstellen. Diese Methode berücksichtigt die Berechnung der Arbeitsproduktivität als Entsprechung zwischen der kostenmäßig hergestellten Produktmenge und der durchschnittlichen Anzahl der Mitarbeiter.

Zur Beurteilung des Arbeitsleistungsniveaus wird das Konzept der persönlichen, zusätzlichen und allgemeinen Merkmale verwendet.

Privateigentümer sind die Zeitkosten, die erforderlich sind, um eine Produkteinheit auf natürliche Weise für einen einzelnen Personentag oder eine einzelne Personenstunde herzustellen. Hilfseigenschaften berücksichtigen die für die Ausführung einer Einheit einer bestimmten Art von Arbeit aufgewendete Zeit oder den pro Zeiteinheit geleisteten Arbeitsumfang.

Rechenmethode

Unter den möglichen Optionen für die Arbeitsproduktivität lassen sich folgende Indikatoren unterscheiden: Output, der der durchschnittliche Jahresdurchschnitt, der durchschnittliche Tagesdurchschnitt und der durchschnittliche Stundendurchschnitt für einen Arbeitnehmer sein kann. Zwischen diesen Merkmalen besteht ein direkter Zusammenhang: Die Anzahl der Arbeitstage und die Länge des Arbeitstages können den Wert der durchschnittlichen Stundenleistung vorgeben, die wiederum den Wert der durchschnittlichen Jahresleistung des Arbeitnehmers vorgibt.

Die Arbeitsproduktivität nach der Berechnungsformel lautet wie folgt:

VG = KR * PRD * VSC

wobei VG die durchschnittliche Jahresleistung des Arbeitnehmers ist, t.r.;

KR - Anzahl der Arbeitstage, Tage;

VCH - durchschnittliche Stundenleistung, t.r. pro Person;

LWP - Dauer der Arbeitsschicht (Tag), Stunde.

Der Grad der Auswirkung dieser Bedingungen kann durch Anwendung der Methode der Kettensubstitution von Indikatoren, der Methode der absoluten Differenzen, der Methode der relativen Differenzen sowie der Integralmethode bestimmt werden.

Wenn Informationen über den Grad der Auswirkung verschiedener Bedingungen auf den untersuchten Indikator vorliegen, ist es möglich, den Grad ihrer Auswirkung auf das Produktionsvolumen zu ermitteln. Dazu wird der Wert, der die Auswirkung einer der Bedingungen beschreibt, mit der Anzahl der Mitarbeiter des Unternehmens zum Durchschnittswert multipliziert.

Hauptfaktoren

Weitere Untersuchungen zur Arbeitsproduktivität konzentrieren sich auf die detaillierte Beschreibung der Auswirkungen verschiedener Bedingungen auf die Arbeitsleistung (durchschnittliche Jahresleistung). Die Bedingungen werden in zwei Kategorien unterteilt: extensiv und intensiv. Faktoren, die einen großen Einfluss auf die Arbeitszeitnutzung haben, gelten als umfangreich; Faktoren, die einen großen Einfluss auf die Stundenarbeitseffizienz haben, gelten als intensiv.

Die Analyse umfangreicher Faktoren konzentriert sich auf die Ermittlung der Kosten der Arbeitszeit aus ihrer unproduktiven Nutzung. Die Arbeitszeitkosten werden durch den Vergleich des geplanten und des tatsächlichen Arbeitszeitfonds ermittelt. Die Ergebnisse der Kostenauswirkungen auf die Produktion eines Produkts werden ermittelt, indem die Anzahl der Tage oder Stunden mit der durchschnittlichen stündlichen (oder durchschnittlichen täglichen) Produktion gemäß dem Plan pro Arbeiter multipliziert wird.

Die Analyse intensiver Faktoren konzentriert sich auf die Identifizierung von Bedingungen, die mit Änderungen der Arbeitsintensität eines Produkts verbunden sind. Die Verringerung der Arbeitsintensität ist die wichtigste Voraussetzung für die Steigerung der Produktivität. Auch Feedback wird beobachtet.

Faktorenanalyse

Betrachten wir die Grundformeln für die Produktivität von Produktionsfaktoren.

Zur Berücksichtigung von Einflussfaktoren nutzen wir allgemein anerkannte wirtschaftswissenschaftliche Methoden und Berechnungsprinzipien.

Die Arbeitsproduktivitätsformel ist unten dargestellt.

wobei W die Arbeitsproduktivität ist, t.r. pro Person;

Q ist das wertmäßig produzierte Produktvolumen, t.r.;

T - Personalanzahl, Personen.

Extrahieren wir den Q-Wert aus dieser Produktivitätsformel:

Somit ändert sich das Produktionsvolumen in Abhängigkeit von Veränderungen der Arbeitsproduktivität und der Personalzahl.

Die Dynamik von Änderungen des Produktionsvolumens unter dem Einfluss von Änderungen der Produktivitätsindikatoren kann nach folgender Formel berechnet werden:

ΔQ (W) = (W1-W0)*T1

Die Dynamik von Änderungen der Produktmenge unter dem Einfluss von Änderungen der Mitarbeiterzahl wird nach folgender Formel berechnet:

ΔQ (T) = (T1-T0)*W0

Allgemeine Wirkung von Faktoren:

ΔQ (W) + Δ Q (T) = ΔQ (gesamt)

Veränderungen aufgrund des Einflusses von Faktoren können mit dem Faktormodell der Produktivitätsformel berechnet werden:

PT = UD * D * Tcm * CV

wobei PT die Arbeitsproduktivität ist, t.r. pro Person

Ud – der Anteil der Arbeitnehmer an der Gesamtzahl des Personals

D - Arbeitstage eines Arbeitnehmers pro Jahr, Tage

Tsm – durchschnittlicher Arbeitstag, Stunde.

Lebenslauf – durchschnittliche stündliche Arbeitsproduktivität eines Arbeitnehmers, d.h. pro Person

Grundreserven

Produktivitätsforschung wird durchgeführt, um Reserven für ihr Wachstum zu schaffen. Zu den Erhöhungsreserven können folgende Faktoren gehören, die sich auf die Arbeitsproduktivität auswirken:

  • Erhöhung des technologischen Niveaus der Fertigung, d. h. Hinzufügung neuester wissenschaftlicher und technischer Verfahren, Beschaffung hochwertiger Materialien, Mechanisierung und Automatisierung der Fertigung;
  • Verbesserung der Unternehmensstruktur und Auswahl der kompetentesten Mitarbeiter, Beseitigung der Mitarbeiterfluktuation, Erhöhung der Qualifikation der Mitarbeiter;
  • strukturelle Veränderungen in der Produktion, die den Ersatz einzelner Produkttypen, eine Gewichtszunahme eines neuen Produkts, eine Änderung der Arbeitsintensität des Produktionsprogramms usw. berücksichtigen;
  • Die Bildung und Verbesserung der notwendigen öffentlichen Infrastruktur ist eine Lösung für die Schwierigkeiten, die mit der Erfüllung der Bedürfnisse der Unternehmen und der Arbeitsgesellschaften verbunden sind.

Hinweise zur Verbesserung

Die Frage, wie die Arbeitsproduktivität gesteigert werden kann, ist für viele Unternehmen sehr relevant.

Das Wesen des Arbeitsproduktivitätswachstums in einem Unternehmen manifestiert sich in:

  • Änderung der Produktionsmenge bei Verwendung einer Arbeitseinheit;
  • Veränderung der Arbeitskosten pro etablierter Produktionseinheit;
  • Änderung der Gehaltskosten um 1 Rubel;
  • Reduzierung des Anteils der Arbeitskosten an den Produktionskosten;
  • Verbesserung der Qualität von Waren und Dienstleistungen;
  • Reduzierung von Produktionsfehlern;
  • Erhöhung der Produktanzahl;
  • Steigerung des Umsatzvolumens und des Gewinns.

Um eine hohe Produktivität der Mitarbeiter des Unternehmens sicherzustellen, muss das Management für normale Arbeitsbedingungen sorgen. Das Niveau der menschlichen Produktivität sowie die Effizienz seiner Arbeit können durch eine Vielzahl intensiver und umfangreicher Faktoren beeinflusst werden. Die Berücksichtigung dieser Faktoren, die die Arbeitsproduktivität beeinflussen, ist bei der Berechnung des Produktivitätsindikators und der Reserven für sein Wachstum erforderlich.

Datenspeichersysteme spielen für die allermeisten Webprojekte (und nicht nur) eine Schlüsselrolle. Tatsächlich besteht die Aufgabe häufig nicht nur darin, eine bestimmte Art von Inhalten zu speichern, sondern auch deren Rückgabe an die Besucher sowie die Verarbeitung sicherzustellen, was bestimmte Leistungsanforderungen mit sich bringt.

Während die Festplattenindustrie viele andere Kennzahlen verwendet, um die ordnungsgemäße Leistung zu beschreiben und zu gewährleisten, ist es auf dem Speicher- und Festplattenmarkt üblich, IOPS aus Gründen der „Bequemlichkeit“ des Vergleichs als Vergleichskennzahl zu verwenden. Die Leistung von Speichersystemen, gemessen in IOPS (Input Output Operations per Second), Ein-/Ausgabeoperationen (Schreiben/Lesen), wird jedoch von einer Vielzahl von Faktoren beeinflusst.

In diesem Artikel möchte ich auf diese Faktoren eingehen, um die in IOPS ausgedrückte Leistungsmessung verständlicher zu machen.

Beginnen wir mit der Tatsache, dass IOPS überhaupt nicht IOPS und nicht einmal IOPS sind, da es viele Variablen gibt, die bestimmen, wie viel IOPS wir in einigen Fällen und in anderen Fällen erhalten. Sie sollten auch berücksichtigen, dass Speichersysteme Lese- und Schreibfunktionen verwenden und je nach Architektur und Anwendungstyp unterschiedliche Mengen an IOPS für diese Funktionen bereitstellen, insbesondere in Fällen, in denen E/A-Vorgänge gleichzeitig stattfinden. Unterschiedliche Arbeitslasten haben unterschiedliche Eingabe-/Ausgabe-Anforderungen (I/O). Daher können Speichersysteme, die auf den ersten Blick eine ausreichende Leistung bieten sollten, dieser Aufgabe tatsächlich nicht gewachsen sein.

Grundlagen der Antriebsleistung

Um ein umfassendes Verständnis des Problems zu erlangen, beginnen wir mit den Grundlagen. IOPS, Durchsatz (MB/s oder MiB/s) und Antwortzeit in Millisekunden (ms) sind gängige Maßeinheiten für die Leistung von Laufwerken und Speicherarrays.

IOPS wird normalerweise als Maß für die Fähigkeit eines Speichergeräts angesehen, 4-8-KB-Blöcke in zufälliger Reihenfolge zu lesen/schreiben. Dies ist typisch für Online-Transaktionsverarbeitungsaufgaben, Datenbanken und die Ausführung verschiedener Anwendungen.

Das Konzept des Laufwerksdurchsatzes ist normalerweise anwendbar, wenn eine große Datei, beispielsweise in Blöcken von 64 KB oder mehr, nacheinander (in 1 Stream, 1 Datei) gelesen/geschrieben wird.

Die Reaktionszeit ist die Zeit, die das Laufwerk benötigt, um einen Schreib-/Lesevorgang zu starten.

Die Umrechnung zwischen IOPS und Durchsatz kann wie folgt erfolgen:

IOPS = Durchsatz/Blockgröße;
Durchsatz = IOPS * Blockgröße,

Dabei ist die Blockgröße die Menge an Informationen, die während eines Ein-/Ausgabevorgangs (E/A) übertragen wird. Wenn wir also ein Merkmal einer Festplatte (HDD SATA) wie die Bandbreite kennen, können wir die Anzahl der IOPS leicht berechnen.

Nehmen wir zum Beispiel die Standardblockgröße – 4 KB und den vom Hersteller angegebenen Standarddurchsatz für sequentielles Schreiben oder Lesen (I/O) – 121 MB/s. IOPS = 121 MB / 4 KB, Als Ergebnis erhalten wir für unsere SATA-Festplatte einen Wert von etwa 30.000 IOPS. Wenn die Blockgröße erhöht und auf 8 KB eingestellt wird, liegt der Wert bei etwa 15.000 IOPS, d. h. er nimmt fast proportional zur Erhöhung der Blockgröße ab. Es muss jedoch klar sein, dass dies der Fall ist Hier haben wir IOPS im sequentiellen Schreib- oder Leseschlüssel berücksichtigt.

Bei herkömmlichen SATA-Festplatten ändern sich die Dinge dramatisch, wenn Lese- und Schreibvorgänge zufällig erfolgen. Hier beginnt die Latenz eine Rolle zu spielen, die bei HDDs (Hard Disk Drives) SATA/SAS und manchmal sogar bei SSDs (Solid State Drive) Solid-State-Laufwerken sehr kritisch ist. Obwohl letztere aufgrund des Fehlens beweglicher Elemente häufig eine um Größenordnungen bessere Leistung als „rotierende“ Laufwerke bieten, kann es aufgrund der Besonderheiten der Technologie und damit bei der Verwendung in Arrays dennoch zu erheblichen Aufzeichnungsverzögerungen kommen . Dear Amarao hat eine ziemlich nützliche Studie über die Verwendung von Solid-State-Laufwerken in Arrays durchgeführt. Wie sich herausstellte, hängt die Leistung von der Latenz des langsamsten Laufwerks ab. Mehr zu den Ergebnissen können Sie in seinem Artikel lesen: SSD + Raid0 – nicht alles ist so einfach.

Doch zurück zur Leistung einzelner Antriebe. Betrachten wir den Fall mit „rotierenden“ Antrieben. Die für die Durchführung einer zufälligen E/A-Operation erforderliche Zeit wird durch die folgenden Komponenten bestimmt:

T(I/O) = T(A)+T(L)+T(R/W),

Dabei ist T(A) die Zugriffszeit oder Suchzeit, auch Suchzeit genannt, also die Zeit, die der Lesekopf benötigt, um auf der Spur mit dem benötigten Informationsblock platziert zu werden. Häufig gibt der Hersteller in der Datenträgerspezifikation drei Parameter an:

Die Zeit, die benötigt wird, um vom entferntesten Weg zum nächsten zu gelangen;
- erforderliche Zeit zum Bewegen zwischen benachbarten Gleisen;
- durchschnittliche Zugriffszeit.

Somit kommen wir zu dem magischen Schluss, dass T(A) verbessert werden kann, wenn wir unsere Daten auf möglichst nahe beieinander liegenden Spuren platzieren und alle Daten so weit wie möglich von der Mitte des Plattentellers entfernt sind (es wird weniger Zeit zum Verschieben benötigt). Kopfblock, und es gibt mehr Daten auf den äußeren Spuren, da die Spur länger ist und sich schneller dreht als die innere). Jetzt wird klar, warum eine Defragmentierung so nützlich sein kann. Insbesondere unter der Bedingung, dass Daten überhaupt auf externen Spuren platziert werden müssen.

T(L) ist die Verzögerung, die durch die Drehung der Festplatte verursacht wird, also die Zeit, die zum Lesen oder Schreiben eines bestimmten Sektors auf unserer Spur erforderlich ist. Es ist leicht zu verstehen, dass es im Bereich von 0 bis 1/RPS liegen wird, wobei RPS die Anzahl der Umdrehungen pro Sekunde ist. Bei einer Scheibenkennlinie von 7200 U/min (Umdrehungen pro Minute) erhalten wir beispielsweise 7200/60 = 120 Umdrehungen pro Sekunde. Das heißt, eine Umdrehung dauert (1/120) * 1000 (die Anzahl der Millisekunden in einer Sekunde) = 8,33 ms. Die durchschnittliche Verzögerung entspricht in diesem Fall der Hälfte der für eine Umdrehung benötigten Zeit – 8,33/2 = 4,16 ms.

T(R/W) – Zeit zum Lesen oder Schreiben eines Sektors, die durch die Größe des bei der Formatierung ausgewählten Blocks bestimmt wird (von 512 Byte bis ... mehrere Megabyte, bei größeren Laufwerken – von 4 Kilobyte, Standard-Clustergröße) und die Bandbreite, die in den Laufwerksspezifikationen angegeben ist.

Die durchschnittliche Rotationsverzögerung, die ungefähr der Zeit entspricht, die für eine halbe Umdrehung aufgewendet wird, lässt sich bei Kenntnis der Rotationsgeschwindigkeit von 7200, 10.000 oder 15.000 U/min leicht ermitteln. Und wie das geht, haben wir oben bereits gezeigt.

Die übrigen Parameter (durchschnittliche Lese- und Schreibsuchzeit) sind schwieriger zu bestimmen, sie werden durch Tests ermittelt und vom Hersteller angegeben.

Um die Anzahl der zufälligen IOPs einer Festplatte zu berechnen, kann die folgende Formel angewendet werden, sofern die Anzahl der gleichzeitigen Lese- und Schreibvorgänge gleich ist (50 %/50 %):

1/(((durchschnittliche Lesesuchzeit + durchschnittliche Schreibsuchzeit) / 2) / 1000) + (durchschnittliche Rotationsverzögerung / 1000)).

Viele Menschen interessieren sich dafür, warum genau dies der Ursprung der Formel ist? IOPS ist die Anzahl der Eingabe- oder Ausgabevorgänge pro Sekunde. Aus diesem Grund teilen wir 1 Sekunde im Zähler (1000 Millisekunden) durch die Zeit und berücksichtigen dabei alle Verzögerungen im Nenner (auch in Sekunden oder Millisekunden ausgedrückt), die zum Abschluss einer Eingabe- oder Ausgabeoperation erforderlich sind.

Das heißt, die Formel kann folgendermaßen geschrieben werden:

1000 (ms) / ((durchschnittliche Lesesuchzeit (ms) + durchschnittliche Schreibsuchzeit (ms)) /2) + durchschnittliche Rotationsverzögerung (ms))

Für Antriebe mit unterschiedlichen Drehzahlen (Umdrehungen pro Minute) ergeben sich folgende Werte:

Für ein 7200-RPM-Laufwerk IOPS = 1/(((8,5+9,5)/2)/1000) + (4,16/1000)) = 1/((9/1000) +
(4,16/1000)) = 1000/13,16 = 75,98;
Für ein 10.000 U/min SAS-Laufwerk IOPS = 1/(((3,8+4,4)/2)/1000) + (2,98/1000)) =
1/((4,10/1000) + (2,98/1000)) = 1000/7,08 = 141,24;
Für ein 15.000 U/min SAS-Laufwerk IOPS = 1/(((3,48+3,9)/2)/1000) + (2,00/1000)) =
1/((3,65/1000) + (2/1000)) = 1000/5,65 = 176,99.

Daher sehen wir dramatische Veränderungen, wenn die Leistung von Zehntausenden IOPS beim sequentiellen Lesen oder Schreiben auf mehrere Zehntausend IOPS sinkt.

Und bereits bei einer Standardsektorgröße von 4 KB und einer so geringen Anzahl von IOPS erhalten wir einen Durchsatzwert von nicht hundert Megabyte, sondern weniger als einem Megabyte.

Diese Beispiele veranschaulichen auch, warum es bei Laufwerken mit derselben Drehzahl kaum Unterschiede bei den bewerteten Festplatten-IOPS verschiedener Hersteller gibt.

Nun wird klar, warum die Leistungsdaten in recht großen Bandbreiten liegen:

7200 U/min (Rotation pro Minute) HDD SATA – 50–75 IOPS;
10.000 U/min HDD SAS – 110–140 IOPS;
15.000 U/min HDD SAS – 150–200 IOPS;
SSD (Solid State Drive) – Zehntausende IOPS beim Lesen, Hunderte und Abertausende beim Schreiben.

Allerdings sind die nominalen Festplatten-IOPS noch lange nicht genau, da sie Unterschiede in der Art der Belastungen in einzelnen Fällen nicht berücksichtigen, was sehr wichtig zu verstehen ist.

Zum besseren Verständnis des Themas empfehle ich außerdem die Lektüre eines weiteren nützlichen Artikels von amarao: So messen Sie die Festplattenleistung richtig. Dadurch wird auch klar, dass die Latenz keineswegs festgelegt ist und auch von der Last und ihrer Art abhängt.

Das Einzige, was ich hinzufügen möchte:

Bei der Berechnung der Festplattenleistung können wir die Verringerung der IOPS-Anzahl mit zunehmender Blockgröße vernachlässigen. Warum?

Wir haben bereits verstanden, dass sich bei „rotierenden“ Laufwerken die Zeit, die für ein zufälliges Lesen oder Schreiben benötigt wird, aus folgenden Komponenten zusammensetzt:

T(I/O) = T(A)+T(L)+T(R/W).

Und dann haben wir sogar die Leistung für zufälliges Lesen und Schreiben in IOPS berechnet. Es ist nur so, dass wir dort den T(R/W)-Parameter im Wesentlichen vernachlässigt haben, und das ist kein Zufall. Wir wissen, dass sequentielle Lesevorgänge beispielsweise mit 120 Megabyte pro Sekunde möglich sind. Es wird deutlich, dass ein 4-KB-Block in etwa 0,03 ms gelesen wird, eine Zeit, die zwei Größenordnungen kürzer ist als die Zeit anderer Verzögerungen (8 ms + 4 ms).

Bei einer Blockgröße von 4 KB haben wir also 76 IOPS(Die Hauptverzögerung wurde durch die Drehung des Laufwerks und die Kopfpositionierungszeit verursacht und nicht durch den Lese- oder Schreibvorgang selbst), dann beträgt der IOPS-Abfall bei einer Blockgröße von 64 KB nicht das 16-fache, wie bei sequentielles Lesen, allerdings nur um mehrere IOPS. Da sich die Zeit, die direkt zum Lesen oder Schreiben aufgewendet wird, um 0,45 ms erhöht, sind das nur etwa 4 % der Gesamtlatenz.

Als Ergebnis erhalten wir 76-4 % = 72,96 IOPS, was in den Berechnungen, wie Sie sehen, überhaupt nicht kritisch ist, da der Rückgang der IOPS nicht das 16-fache beträgt, sondern nur um wenige Prozent! Und viel wichtiger ist es, bei der Berechnung der Systemleistung auch andere wichtige Parameter nicht zu vergessen.

Magisches Fazit: Bei der Berechnung der Leistung von Speichersystemen auf Basis von Festplatten sollten wir die optimale Block-(Cluster-)Größe auswählen, um den maximalen Durchsatz zu gewährleisten, den wir benötigen, abhängig von der Art der verwendeten Daten und Anwendungen, wobei die IOPS sinken, wenn die Blockgröße von 4 KB ansteigt bis zu 64 KB oder sogar 128 KB können vernachlässigt oder mit 4 bzw. 7 % berücksichtigt werden, wenn sie für die jeweilige Aufgabe eine wichtige Rolle spielen.

Es wird auch deutlich, warum es nicht immer sinnvoll ist, sehr große Blöcke zu verwenden. Beim Streamen von Videos ist beispielsweise eine Blockgröße von zwei Megabyte möglicherweise nicht die optimale Option. Da der Rückgang der IOPS-Anzahl mehr als das Zweifache betragen wird. Unter anderem werden weitere Degradationsprozesse in Arrays hinzugefügt, die mit Multithreading und Rechenlast bei der Verteilung von Daten über das Array verbunden sind.

Optimale Block-(Cluster-)Größe

Abhängig von der Art der Last und der Art der verwendeten Anwendungen muss die optimale Blockgröße berücksichtigt werden. Wenn Sie mit kleinen Datenmengen arbeiten, beispielsweise mit Datenbanken, sollten Sie die Standardgröße von 4 KB wählen. Wenn Sie jedoch über Streaming-Videodateien sprechen, ist es besser, eine Clustergröße von 64 KB oder mehr zu wählen.

Es ist zu beachten, dass die Blockgröße bei SSDs nicht so kritisch ist wie bei Standard-HDDs, da Sie aufgrund einer geringen Anzahl zufälliger IOPS, deren Anzahl mit zunehmender Blockgröße im Gegensatz dazu leicht abnimmt, den erforderlichen Durchsatz bereitstellen können SSDs, bei denen eine nahezu proportionale Abhängigkeit besteht.

Warum 4 KB Standard?

Für viele Laufwerke, insbesondere Solid-State-Laufwerke, werden Leistungswerte, beispielsweise Schreibvorgänge, ab 4 KB optimal, wie aus der Grafik ersichtlich ist:

Auch beim Lesen ist die Geschwindigkeit durchaus beachtlich und ab 4 KB mehr oder weniger erträglich:

Aus diesem Grund wird sehr oft eine Blockgröße von 4 KB als Standard verwendet, da es bei einer kleineren Größe zu großen Leistungseinbußen kommt und bei einer Vergrößerung der Blockgröße bei der Arbeit mit kleinen Datenmengen die Daten werden weniger effizient verteilt, die gesamte Blockgröße wird belegt und das Speicherkontingent wird nicht effektiv genutzt.

RAID-Level

Если Ваша система хранения представляет собой массив накопителей объединенных в RAID определенного уровня, то производительность системы будет зависеть в значительной степени от того, какой именно уровень RAID был применен и какой процент от общего числа операций приходится на операции записи, ведь именно запись является причиной снижения производительности in den meisten Fällen.

Bei RAID0 wird also nur 1 IOPS für jeden Eingabevorgang verbraucht, da die Daten ohne Duplizierung auf alle Laufwerke verteilt werden. Bei einem Spiegel (RAID1, RAID10) verbraucht jeder Schreibvorgang bereits 2 IOPS, da die Informationen auf 2 Laufwerke geschrieben werden müssen.

Bei höheren RAID-Leveln fallen die Verluste noch deutlicher aus; bei RAID5 beträgt der Straffaktor beispielsweise 4, was auf die Art und Weise zurückzuführen ist, wie die Daten auf die Festplatten verteilt werden.

In den meisten Fällen wird RAID5 anstelle von RAID4 verwendet, da es die Parität (Prüfsummen) auf alle Festplatten verteilt. In einem RAID4-Array ist ein Laufwerk für die gesamte Parität verantwortlich, während die Daten auf mehr als drei Laufwerke verteilt sind. Aus diesem Grund wenden wir in einem RAID5-Array einen Straffaktor von 4 an, da wir Daten lesen, Parität lesen, dann Daten schreiben und Parität schreiben.

In einem RAID6-Array ist alles ähnlich, außer dass wir die Parität nicht nur einmal, sondern zweimal berechnen und somit 3 Lese- und 3 Schreibvorgänge haben, was einen Straffaktor von 6 ergibt.

Es scheint, dass in einem Array wie RAID-DP alles ähnlich wäre, da es sich im Wesentlichen um ein modifiziertes RAID6-Array handelt. Aber das war nicht der Fall... Der Trick besteht darin, dass ein separates WAFL-Dateisystem (Write Anywhere File Layout) verwendet wird, bei dem alle Schreibvorgänge sequentiell erfolgen und auf freiem Speicherplatz ausgeführt werden. WAFL schreibt grundsätzlich neue Daten an einen neuen Speicherort auf der Festplatte und verschiebt dann Zeiger auf die neuen Daten, sodass keine Lesevorgänge erforderlich sind. Darüber hinaus wird ein Protokoll in den NVRAM geschrieben, das Schreibtransaktionen verfolgt, Schreibvorgänge initiiert und diese bei Bedarf wiederherstellen kann. Sie werden zunächst in den Puffer geschrieben und dann auf der Festplatte „zusammengeführt“, was den Vorgang beschleunigt. Wahrscheinlich können uns Experten von NetApp in den Kommentaren genauer aufklären, wie Einsparungen erzielt werden. Ich habe dieses Problem noch nicht vollständig verstanden, aber mir ist eingefallen, dass der RAID-Straffaktor nur 2 und nicht 6 betragen wird. Der „Trick“ ist ziemlich bedeutsam.

Bei großen RAID-DP-Arrays, die aus Dutzenden von Laufwerken bestehen, gibt es das Konzept, die „Paritätsstrafe“ zu reduzieren, die beim Paritätsschreiben auftritt. Wenn also das RAID-DP-Array wächst, ist eine geringere Anzahl von Festplatten für die Parität erforderlich, was zu einer Verringerung der mit Paritätseinträgen verbundenen Verluste führt. Bei kleinen Arrays oder um den Konservatismus zu verstärken, können wir dieses Phänomen jedoch vernachlässigen.

Wenn wir nun die IOPS-Verluste kennen, die durch die Verwendung des einen oder anderen RAID-Levels entstehen, können wir die Leistung des Arrays berechnen. Bitte beachten Sie jedoch, dass andere Faktoren wie Schnittstellenbandbreite, suboptimale Interrupt-Verteilung über Prozessorkerne usw., RAID-Controller-Bandbreite oder Überschreitung der zulässigen Warteschlangentiefe einen negativen Einfluss haben können.

Wenn diese Faktoren vernachlässigt werden, lautet die Formel wie folgt:

Funktionale IOPS = (Roh-IOPS * % der Schreibvorgänge / RAID-Straffaktor) + (Roh-IOPS * % der Lesevorgänge), wobei Roh-IOPS = durchschnittliche IOPS der Laufwerke * Anzahl der Laufwerke.

Berechnen wir beispielsweise die Leistung eines RAID10-Arrays mit 12 SATA-Festplattenlaufwerken, wenn bekannt ist, dass 10 % der Schreibvorgänge und 90 % der Lesevorgänge gleichzeitig erfolgen. Nehmen wir an, dass die Festplatte 75 zufällige IOPS bei einer Blockgröße von 4 KB bereitstellt.

Anfängliche IOPS = 75*12 = 900;
Funktionale IOPS = (900*0,1/2) + (900*0,9) = 855.

Wir sehen also, dass bei geringer Schreibintensität, die hauptsächlich bei Systemen beobachtet wird, die für die Bereitstellung von Inhalten ausgelegt sind, der Einfluss des RAID-Straffaktors minimal ist.

Anwendungsabhängigkeit

Die Leistung unserer Lösung kann stark von den Anwendungen abhängen, die anschließend ausgeführt werden. Es könnte sich also um die Transaktionsverarbeitung handeln – „strukturierte“ Daten, die organisiert, konsistent und vorhersehbar sind. Bei diesen Prozessen können Sie häufig das Prinzip der Stapelverarbeitung anwenden und diese Prozesse zeitlich so verteilen, dass die Belastung minimal ist, wodurch der IOPS-Verbrauch optimiert wird. In letzter Zeit tauchen jedoch immer mehr Medienprojekte auf, bei denen die Daten „unstrukturiert“ sind und völlig andere Prinzipien für die Verarbeitung erfordern.

Aus diesem Grund kann die Berechnung der erforderlichen Leistung einer Lösung für ein bestimmtes Projekt eine sehr schwierige Aufgabe sein. Einige Speicheranbieter und Experten argumentieren, dass IOPS keine Rolle spielen, da die überwiegende Mehrheit der Kunden bis zu 30.000 bis 40.000 IOPS nutzt, während moderne Speichersysteme Hunderttausende oder sogar Millionen IOPS liefern. Das heißt, moderne Lagereinrichtungen erfüllen die Bedürfnisse von 99 % der Kunden. Allerdings trifft diese Aussage möglicherweise nicht immer zu, und zwar nur für das Geschäftssegment, das Speicher lokal hostet, nicht jedoch für Projekte, die in Rechenzentren gehostet werden, die oft selbst bei Verwendung vorgefertigter Speicherlösungen eine recht hohe Leistung und Fehlertoleranz bieten sollten.

Wenn sich das Projekt in einem Rechenzentrum befindet, ist es in den meisten Fällen immer noch wirtschaftlicher, Speichersysteme auf Basis dedizierter Server selbst aufzubauen, als vorgefertigte Lösungen zu verwenden, da eine effektivere Lastverteilung und Auswahl möglich wird die optimale Ausrüstung für bestimmte Prozesse. Unter anderem sind die Leistungsindikatoren vorgefertigter Speichersysteme alles andere als real, da sie meist auf Profildaten aus synthetischen Leistungstests bei Verwendung von 4- oder 8-KB-Blockgrößen basieren Die meisten Clientanwendungen laufen mittlerweile in Umgebungen mit Blockgrößen zwischen 32 und 64 KB.

Wie wir aus der Grafik sehen können:

Weniger als 5 % der Speichersysteme sind mit einer Blockgröße von weniger als 10 KB konfiguriert und weniger als 15 % verwenden Blöcke mit einer Blockgröße von weniger als 20 KB. Darüber hinaus kommt es selbst bei einer bestimmten Anwendung selten vor, dass nur eine Art von E/A-Verbrauch auftritt. Beispielsweise verfügt eine Datenbank über unterschiedliche E/A-Profile für unterschiedliche Prozesse (Datendateien, Protokollierung, Indizes usw.). Dies bedeutet, dass die angegebenen Leistungstests für synthetische Systeme möglicherweise weit von der Wahrheit entfernt sind.

Was ist mit Verzögerungen?

Selbst wenn wir die Tatsache außer Acht lassen, dass die zur Messung der Latenz verwendeten Tools dazu neigen, durchschnittliche Latenzzeiten zu messen, und die Tatsache außer Acht lassen, dass ein einzelner I/O in einem Prozess viel länger dauern kann als in anderen, wodurch der Fortschritt des gesamten Prozesses verlangsamt wird, sind sie es Berücksichtigen Sie überhaupt nicht, was Wie viel E/A-Latenz ändert sich je nach Blockgröße?. Diese Zeit hängt unter anderem auch vom konkreten Anwendungsfall ab.

Somit kommen wir zu einer weiteren magischen Schlussfolgerung: Nicht nur ist die Blockgröße kein sehr gutes Merkmal bei der Messung der Leistung von IOPS-Systemen, sondern die Latenz kann sich auch als völlig nutzloser Parameter erweisen.

Nun, wenn weder IOPS noch Latenz ein gutes Maß für die Leistung eines Speichersystems sind, was dann?

Nur ein echter Test der Anwendungsausführung auf einer bestimmten Lösung ...

Dieser Test wird eine echte Methode sein, mit der Sie sicherlich verstehen können, wie produktiv die Lösung für Ihren Fall sein wird. Dazu müssen Sie eine Kopie der Anwendung auf einem separaten Speicher ausführen und die Belastung für einen bestimmten Zeitraum simulieren. Nur so lassen sich verlässliche Daten erhalten. Und natürlich müssen Sie nicht Speichermetriken, sondern Anwendungsmetriken messen.

Die Berücksichtigung der oben genannten Faktoren, die sich auf die Leistung unserer Systeme auswirken, kann jedoch bei der Speicherauswahl oder dem Aufbau einer bestimmten Infrastruktur auf Basis dedizierter Server sehr hilfreich sein. Mit einem gewissen Maß an Konservatismus wird es möglich, eine mehr oder weniger realistische Lösung zu wählen, um einige technische und Softwarefehler in Form einer nicht optimalen Blockgröße bei der Partitionierung oder einer nicht optimalen Arbeit mit Festplatten zu beseitigen. Natürlich wird die Lösung die berechnete Leistung nicht zu 100 % garantieren, aber in 99 % der Fälle kann man sagen, dass die Lösung der Belastung gewachsen ist, insbesondere wenn man je nach Art der Anwendung und ihren Funktionen Konservatismus hinzufügt Berechnung.

In jeder Produktion ist es eines der Hauptziele der Unternehmensleitung, Ergebnisse zu erzielen. Die Frage ist nur, wie viel Aufwand und Ressourcen im Arbeitsprozess erforderlich sein werden, um das Hauptziel zu erreichen. Um die Effizienz eines Unternehmens zu bestimmen, wurde das Konzept der „Arbeitsproduktivität“ eingeführt, das ein Indikator für die Produktivität des Personals ist. Die Arbeit, die eine Person pro Zeiteinheit leisten kann, wird üblicherweise als „Output“ bezeichnet.

Für jedes Unternehmen ist es sehr wichtig, hohe Ergebnisse zu erzielen und gleichzeitig so wenig Ressourcen wie möglich für die Produktion aufzuwenden (dazu gehören Stromrechnungen, Miete usw.).

Die wichtigste Aufgabe in jedem Unternehmen, das Waren herstellt oder Dienstleistungen erbringt, ist die Steigerung der Produktivität. Gleichzeitig gibt es eine Reihe von Maßnahmen, die in der Regel ergriffen werden, um die für den Arbeitsprozess erforderlichen Kosten zu senken. Daher kann sich die Arbeitsproduktivität während der Unternehmensentwicklungsphase ändern.

In der Regel werden mehrere Gruppen von Faktoren klassifiziert, die die Veränderung beeinflussen können, nämlich das Wachstum der Produktionsindikatoren. Dies ist in erster Linie ein wirtschaftlicher und geografischer Faktor, zu dem die Verfügbarkeit der verfügbaren Arbeitsressourcen, Wasser, Strom, Baumaterialien sowie die Entfernung zu Kommunikationsmitteln, Gelände usw. gehören. Nicht weniger wichtig ist die Beschleunigung des wissenschaftlichen und technischen Fortschritts, die Förderung der Einführung neuer Generationen moderner Technologie sowie der Einsatz fortschrittlicher Technologien und automatisierter Systeme. Es ist auch davon auszugehen, dass die Arbeitsproduktivität auch vom Faktor des Strukturwandels abhängt, also einer Veränderung des Anteils der Komponenten und zugekauften Halbzeuge sowie der Produktionsstruktur und des Anteils einzelner Produktarten.

Der soziale (menschliche) Aspekt bleibt nach wie vor von großer Bedeutung, denn es ist die Sorge um soziale Vorteile, die der Steigerung der Arbeitsproduktivität zugrunde liegt. Dazu gehören: Sorge um die körperliche Gesundheit, den Grad der intellektuellen Entwicklung, die Professionalität usw. einer Person.

Faktoren, die die Arbeitsproduktivität steigern, sind der wichtigste Bestandteil des gesamten Arbeitsprozesses, da sie das Entwicklungstempo eines jeden Unternehmens beeinflussen und dementsprechend zu einer Gewinnsteigerung beitragen.

Erwähnenswert ist auch der organisatorische Punkt, der das Niveau der Produktion und des Arbeitsmanagements bestimmt. Dazu gehört die Verbesserung der Organisation der Unternehmensführung sowie die Verbesserung der personellen, materiellen und technischen Ausbildung.

Wenn es um Produktivität geht, darf die Arbeitsintensität nicht außer Acht gelassen werden. Dieses Konzept spiegelt die Menge an geistiger und körperlicher Energie wider, die ein Arbeitnehmer während eines bestimmten Zeitraums seiner Arbeitszeit aufwendet.

Es ist sehr wichtig, die optimale Intensität für einen bestimmten Arbeitsprozess zu ermitteln, da übermäßige Aktivität unweigerlich zu Produktivitätseinbußen führen kann. Dies geschieht in der Regel als Folge menschlicher Überlastung, Berufskrankheiten, Verletzungen etc.

Es ist erwähnenswert, dass die Hauptindikatoren identifiziert wurden, die die Arbeitsintensität bestimmen. Dies ist zunächst einmal die Arbeitsbelastung einer Person. Dadurch können Sie die Intensität des Arbeitsprozesses und damit die Machbarkeit der Kosten ermitteln. Dabei ist es üblich, das Arbeitstempo, also die Häufigkeit von Aktionen bezogen auf eine Zeiteinheit, zu berechnen. Unter Berücksichtigung dieser Faktoren verfügt das Unternehmen in der Regel über bestimmte Standards, auf deren Grundlage der Produktionsarbeitsplan erstellt wird.

Faktoren der Arbeitsproduktivität stehen im Mittelpunkt der Aufmerksamkeit von Wissenschaftlern und Praktikern, da sie als Grundursache für deren Höhe und Dynamik fungieren. Die in der Analyse untersuchten Faktoren können nach unterschiedlichen Kriterien klassifiziert werden. Die detaillierteste Klassifizierung stellen wir in Tabelle 1 vor

Tabelle 1

Klassifizierung von Faktoren, die die Arbeitsproduktivität beeinflussen

Klassifizierungsfunktion

Gruppen von Faktoren

Von Natur aus

Natürlich und klimatisch

Sozioökonomisch

Produktion und Wirtschaft

Nach Grad der Auswirkung auf das Ergebnis

Basic

Unerheblich

Bezogen auf den Studiengegenstand

Inländisch

Abhängig vom Team

Zielsetzung

Subjektiv

Nach Prävalenz

Spezifisch

Nach Dauer

Dauerhaft

Variablen

Aufgrund der Art der Aktion

Umfangreich

Intensiv

Entsprechend den Eigenschaften der reflektierten Phänomene

Quantitativ

Qualität

Entsprechend seiner Zusammensetzung

Nach Unterordnungsgrad (Hierarchie)

Erste Bestellung

Zweite Ordnung usw.

Wo möglich, Wirkungsmessungen

Messbar

Unmessbar

Faktoren werden ihrer Natur nach in natürlich-klimatische, sozioökonomische und produktionsökonomische Faktoren unterteilt.

Natürliche und klimatische Faktoren haben einen großen Einfluss auf die Ergebnisse der Aktivitäten in der Landwirtschaft, im Bergbau, in der Forstwirtschaft und anderen Industriezweigen. Die Berücksichtigung ihres Einflusses ermöglicht es uns, die Ergebnisse der Arbeit von Unternehmen genauer einzuschätzen. Zu den sozioökonomischen Faktoren zählen die Lebensbedingungen der Arbeitnehmer, die Organisation der Kultur-, Sport- und Freizeitarbeit im Unternehmen, das allgemeine Kultur- und Bildungsniveau des Personals usw. Sie tragen zu einer umfassenderen Nutzung und Steigerung der Produktionsressourcen des Unternehmens bei die Effizienz seiner Arbeit. Produktions- und Wirtschaftsfaktoren bestimmen die Vollständigkeit und Effizienz der Nutzung der Produktionsressourcen des Unternehmens und die Endergebnisse seiner Aktivitäten. Basierend auf dem Grad der Auswirkung auf die Ergebnisse der Wirtschaftstätigkeit werden Faktoren in Haupt- und Nebenfaktoren unterteilt. Zu den wichtigsten zählen Faktoren, die einen entscheidenden Einfluss auf die Leistungskennzahl haben. Als zweitrangig gelten diejenigen, die unter den aktuellen Bedingungen keinen entscheidenden Einfluss auf die Ergebnisse der Wirtschaftstätigkeit haben. Hierbei ist zu beachten, dass derselbe Faktor je nach den Umständen sowohl primär als auch sekundär sein kann. Die Fähigkeit, aus einer Vielzahl von Faktoren die wichtigsten bestimmenden Faktoren zu identifizieren, gewährleistet die Richtigkeit der Schlussfolgerungen aus den Ergebnissen der Analyse.

Bezogen auf den Untersuchungsgegenstand werden Faktoren in interne und externe Faktoren eingeteilt, d.h. abhängig und unabhängig von den Aktivitäten dieses Unternehmens. Das Hauptaugenmerk der Analyse sollte auf die Untersuchung interner Faktoren gelegt werden, auf die das Unternehmen Einfluss nehmen kann.

Gleichzeitig werden die Ergebnisse jedes Unternehmens bei entwickelten Produktionsverbindungen und -beziehungen in vielen Fällen erheblich von den Aktivitäten anderer Unternehmen beeinflusst, beispielsweise der Einheitlichkeit und Pünktlichkeit der Lieferung von Rohstoffen, Materialien, deren Qualität und Kosten , Marktbedingungen, Inflationsprozesse usw. Diese Faktoren sind externer Natur. Sie charakterisieren nicht die Bemühungen eines bestimmten Teams, aber ihre Untersuchung ermöglicht es, den Grad des Einflusses interner Ursachen genauer zu bestimmen und dadurch die internen Produktionsreserven besser zu identifizieren.

Um die Aktivitäten von Unternehmen richtig beurteilen zu können, müssen die Faktoren weiter in objektive und subjektive Faktoren unterteilt werden. Objektive Faktoren wie eine Naturkatastrophe hängen nicht vom Willen und Wunsch der Menschen ab. Im Gegensatz zu objektiven Gründen hängen subjektive Gründe von den Aktivitäten juristischer Personen und Einzelpersonen ab.

Je nach Prävalenzgrad werden die Faktoren in allgemeine und spezifische Faktoren unterteilt. Zu den allgemeinen Faktoren zählen Faktoren, die in allen Wirtschaftszweigen wirken. Spezifisch sind diejenigen, die in einem bestimmten Wirtschaftszweig oder Unternehmen tätig sind. Diese Aufteilung der Faktoren ermöglicht es uns, die Besonderheiten einzelner Unternehmen und Branchen besser zu berücksichtigen und deren Aktivitäten genauer einzuschätzen.

Basierend auf der Dauer der Auswirkung auf die Leistungsergebnisse werden Faktoren zwischen konstanten und variablen Faktoren unterschieden. Konstante Faktoren beeinflussen das untersuchte Phänomen im Laufe der Zeit kontinuierlich. Der Einfluss variabler Faktoren manifestiert sich periodisch, beispielsweise die Entwicklung neuer Technologien, neuer Produkttypen, neuer Produktionstechnologien usw.

Von großer Bedeutung für die Beurteilung der Tätigkeit von Unternehmen ist die Einteilung der Faktoren nach der Art ihrer Wirkung in intensive und umfangreiche. Zu den Umfangsfaktoren zählen Faktoren, die mit einer quantitativen und nicht mit einer qualitativen Steigerung des Leistungsindikators verbunden sind, beispielsweise eine Erhöhung der Produktionsmenge durch Erweiterung der Aussaatfläche, eine Erhöhung der Tierzahl, der Arbeitskräfte usw. Intensive Faktoren charakterisieren den Aufwand und die Arbeitsintensität im Produktionsprozess, beispielsweise steigende landwirtschaftliche Erträge, Viehproduktivität und das Niveau der Arbeitsproduktivität.

Zielt die Analyse darauf ab, den Einfluss jedes Faktors auf die Ergebnisse der Wirtschaftstätigkeit zu messen, dann werden diese in quantitativ und qualitativ, einfach und komplex, messbar und nicht messbar unterteilt.

Als quantitativ gelten Faktoren, die die quantitative Gewissheit von Phänomenen ausdrücken (Anzahl der Arbeiter, Ausrüstung, Rohstoffe usw.). Qualitative Faktoren bestimmen die inneren Qualitäten, Eigenschaften und Merkmale der untersuchten Objekte (Arbeitsproduktivität, Produktqualität, Bodenfruchtbarkeit usw.).

Die meisten der untersuchten Faktoren sind komplex zusammengesetzt und bestehen aus mehreren Elementen. Es gibt jedoch auch solche, die nicht in ihre Bestandteile zerlegt werden können. Abhängig von ihrer Zusammensetzung werden Faktoren in komplexe (komplexe) und einfache (elementare) Faktoren unterteilt. Ein Beispiel für einen komplexen Faktor ist die Arbeitsproduktivität, ein einfacher Faktor ist die Anzahl der Arbeitstage im Berichtszeitraum.

Wie bereits angedeutet, haben einige Faktoren einen direkten Einfluss auf die Leistungskennzahl, während andere einen indirekten Einfluss haben. Basierend auf dem Grad der Unterordnung (Hierarchie) werden Faktoren des ersten, zweiten, dritten usw. unterschieden. Ebenen der Unterordnung. Zu den Faktoren der ersten Ebene zählen diejenigen, die sich direkt auf den Leistungsindikator auswirken. Faktoren, die den Leistungsindikator indirekt über Faktoren der ersten Ebene bestimmen, werden als Faktoren der zweiten Ebene usw. bezeichnet. Im Verhältnis zur Bruttoproduktion sind die Faktoren der ersten Ebene beispielsweise die durchschnittliche jährliche Zahl der Arbeitnehmer und die durchschnittliche jährliche Produktion pro Arbeitnehmer. Die Anzahl der Arbeitstage eines Arbeitnehmers und die durchschnittliche Tagesleistung sind Faktoren zweiter Ebene. Zu den Faktoren der dritten Ebene zählen die Länge des Arbeitstages und die durchschnittliche Stundenleistung.

Die Grundlage für die Führung eines jeden Unternehmens ist die rationelle und effiziente Nutzung der verfügbaren Ressourcen, einschließlich der Arbeitskräfte. Es ist völlig logisch, dass das Management versucht, das Produktionsvolumen ohne zusätzliche Kosten für die Einstellung von Arbeitskräften zu steigern. Experten identifizieren mehrere Faktoren, die die Leistung verbessern können:

    Führungsstil (die Hauptaufgabe eines Managers besteht darin, Mitarbeiter zu motivieren und eine Organisationskultur zu schaffen, die Aktivität und harte Arbeit schätzt).

    Investitionen in technische Innovationen (die Anschaffung neuer, zeitgerechter Geräte kann den Zeitaufwand jedes Mitarbeiters deutlich reduzieren).

    Schulungen und Seminare zur Fortbildung (Kenntnisse über die Besonderheiten der Produktion ermöglichen es dem Personal, an der Verbesserung des Produktionsprozesses mitzuwirken).

Viele Benutzer fragen sich, was die Computerleistung am meisten beeinflusst?

Es stellt sich heraus, dass es unmöglich ist, eine eindeutige Antwort auf diese Frage zu geben. Ein Computer besteht aus einer Reihe von Subsystemen (Speicher, Computer, Grafik, Speicher), die über das Motherboard und die Gerätetreiber miteinander interagieren. Wenn Subsysteme nicht richtig konfiguriert sind, erbringen sie nicht die maximale Leistung, die sie könnten.

Die umfassende Leistung setzt sich aus Software- und Hardwareeinstellungen und -funktionen zusammen.
Lassen Sie uns sie auflisten.

Hardware-Leistungsfaktoren:

  1. Anzahl der Prozessorkerne – 1, 2, 3 oder 4
  2. Prozessorfrequenz und Prozessorsystembusfrequenz (FSB) – 533, 667, 800, 1066, 1333 oder 1600 MHz
  3. Volumen und Menge des Prozessor-Cache-Speichers (CPU) – 256, 512 KB; 1, 2, 3, 4, 6, 12 MB.
  4. Anpassung an die Systembusfrequenz von CPU und Motherboard
  5. Frequenz des Arbeitsspeichers (RAM) und Frequenz des Motherboard-Speicherbusses – DDR2-667, 800, 1066
  6. RAM-Kapazität – 512 MB oder mehr
  7. Auf dem Motherboard verwendeter Chipsatz (Intel, VIA, SIS, nVidia, ATI/AMD)
  8. Das verwendete Grafiksubsystem ist in das Motherboard integriert oder diskret (externe Grafikkarte mit eigenem Videospeicher und Grafikprozessor).
  9. Schnittstellentyp der Festplatte (HDD): paralleles IDE oder seriell SATA und SATA-2
  10. Festplatten-Cache – 8, 16 oder 32 MB.

Eine Erhöhung der aufgeführten technischen Eigenschaften erhöht immer die Produktivität.

Kerne

Derzeit verfügen die meisten hergestellten Prozessoren über mindestens 2 Kerne (außer AMD Sempron, Athlon 64 und Intel Celeron D, Celeron 4xx). Die Anzahl der Kerne ist wichtig bei 3D-Rendering- oder Videokodierungsaufgaben sowie bei Programmen, deren Code für Multithreading mehrerer Kerne optimiert ist. In anderen Fällen (zum Beispiel bei Büro- und Internetaufgaben) sind sie nutzlos.

Vier Kerneüber Intel Core 2 Extreme- und Core 2 Quad-Prozessoren mit den folgenden Markierungen verfügen: QX9xxx, Q9xxx, Q8xxx, QX6xxx;
AMD Phenom X3 – 3 Kerne;
AMD Phenom X4 – 4 Kerne.

Wir müssen bedenken, dass die Anzahl der Kerne den Stromverbrauch der CPU deutlich erhöht und den Strombedarf für Motherboard und Netzteil erhöht!

Aber die Generation und Architektur des Kerns hat großen Einfluss auf die Leistung eines jeden Prozessors.
Wenn wir zum Beispiel einen Intel Pentium D mit zwei Kernen und einen Core 2 Duo mit der gleichen Frequenz, dem gleichen Systembus und dem gleichen Cache-Speicher nehmen, wird der Core 2 Duo zweifellos gewinnen.

Prozessor-, Speicher- und Motherboard-Busfrequenzen

Es ist auch sehr wichtig, dass die Frequenzen der verschiedenen Komponenten übereinstimmen.
Nehmen wir an, wenn Ihr Motherboard eine Speicherbusfrequenz von 800 MHz unterstützt und ein DDR2-677-Speichermodul installiert ist, verringert die Frequenz des Speichermoduls die Leistung.

Wenn das Motherboard eine Frequenz von 800 MHz nicht unterstützt und ein DDR2-800-Modul installiert ist, funktioniert es gleichzeitig, jedoch mit einer niedrigeren Frequenz.

Caches

Der Cache des Prozessorspeichers wirkt sich vor allem bei der Arbeit mit CAD-Systemen, großen Datenbanken und Grafiken aus. Ein Cache ist ein Speicher mit schnellerer Zugriffsgeschwindigkeit, der dazu dient, den Zugriff auf dauerhaft im Speicher mit langsamerer Zugriffsgeschwindigkeit enthaltene Daten zu beschleunigen (im Folgenden „Hauptspeicher“ genannt). Caching wird von CPUs, Festplatten, Browsern und Webservern verwendet.

Wenn die CPU auf Daten zugreift, wird zunächst der Cache untersucht. Wenn im Cache ein Eintrag mit einer Kennung gefunden wird, die mit der Kennung des angeforderten Datenelements übereinstimmt, werden die Datenelemente im Cache verwendet. Dieser Fall wird als Cache-Hit bezeichnet. Wenn im Cache keine Einträge gefunden werden, die das angeforderte Datenelement enthalten, wird es aus dem Hauptspeicher in den Cache gelesen und steht für den späteren Zugriff zur Verfügung. Dieser Fall wird als Cache-Miss bezeichnet. Der Prozentsatz der Cache-Treffer, bei denen ein Ergebnis gefunden wird, wird als Trefferquote oder Cache-Trefferquote bezeichnet.
Der Prozentsatz der Cache-Treffer ist bei Intel-Prozessoren höher.

Alle CPUs unterscheiden sich in der Anzahl der Caches (bis zu 3) und ihrer Größe. Der schnellste Cache ist die erste Ebene (L1), der langsamste die dritte (L3). Nur AMD Phenom-Prozessoren verfügen über L3-Cache. Daher ist es sehr wichtig, dass der L1-Cache groß ist.

Wir haben die Abhängigkeit der Leistung von der Cache-Speichergröße getestet. Vergleicht man die Ergebnisse der 3D-Shooter Prey und Quake 4, die typische Gaming-Anwendungen sind, ist der Leistungsunterschied zwischen 1 und 4 MB in etwa derselbe wie zwischen Prozessoren mit einem Frequenzunterschied von 200 MHz. Gleiches gilt für Videokodierungstests für die Codecs DivX 6.6 und XviD 1.1.2 sowie den Archivierer WinRAR 3.7. Allerdings profitieren CPU-intensive Anwendungen wie 3DStudio Max 8, Lame MP3 Encoder oder MainConcepts H.264 Encoder V2 nicht viel von größeren Cache-Größen.
Denken Sie daran, dass der L2-Cache einen viel größeren Einfluss auf die Leistung der Intel Core 2-CPU hat als der AMD Athlon 64 X2 oder Phenom, da Intel über einen gemeinsamen L2-Cache für alle Kerne verfügt, während AMD für jeden Kern einen separaten hat ! In dieser Hinsicht funktioniert Phenom besser mit Cache.

Rom

Wie bereits erwähnt, zeichnet sich RAM durch Frequenz und Lautstärke aus. Gleichzeitig stehen mittlerweile 2 Speichertypen zur Verfügung, DDR2 und DDR3, die sich in Architektur, Leistung, Frequenz und Versorgungsspannung unterscheiden – also in allem!
Die Frequenz des Speichermoduls muss mit der Frequenz des Moduls selbst übereinstimmen.

Die Größe des Arbeitsspeichers beeinflusst auch die Leistung des Betriebssystems und ressourcenintensiver Anwendungen.
Die Berechnungen sind einfach: Windows XP belegt nach dem Laden 300-350 MB RAM. Wenn sich weitere Programme im Start befinden, belasten diese auch den Arbeitsspeicher. Das heißt, es bleiben 150-200 MB frei. Dort passen nur leichte Office-Anwendungen hinein.
Für komfortables Arbeiten mit AutoCAD, Grafikanwendungen, 3DMax, Coding und Grafiken ist mindestens 1 GB RAM erforderlich. Wenn Sie Windows Vista verwenden, dann mindestens 2 GB.

Grafiksubsystem

Bürocomputer verwenden häufig Motherboards mit integrierter Grafik. Motherboards mit solchen Chipsätzen (G31, G45, AMD 770G usw.) tragen den Buchstaben G in ihrer Kennzeichnung.
Diese integrierten Grafikkarten nutzen einen Teil des RAM für den Videospeicher und reduzieren dadurch den für den Benutzer verfügbaren RAM-Speicherplatz.

Um die Leistung zu steigern, muss dementsprechend die integrierte Grafikkarte im Motherboard-BIOS deaktiviert und eine externe (diskrete) Grafikkarte im PCI-Express-Steckplatz installiert werden.
Alle Grafikkarten unterscheiden sich im Grafikchipsatz, der Betriebsfrequenz ihrer Pipelines, der Anzahl der Pipelines, der Videospeicherfrequenz und der Breite des Videospeicherbusses.

Speichersubsystem

Die Leistung von Laufwerken wird stark beeinträchtigt, wenn auf große Datenmengen (Video, Audio) sowie eine große Anzahl kleiner Dateien zugegriffen wird.

Zu den technischen Merkmalen, die sich auf die Zugriffsgeschwindigkeit auf Dateien auswirken, gehört die Art der Festplattenschnittstelle (HDD) – paralleles IDE oder seriell SATA und SATA-2 und Festplattencache – 8, 16 oder 32 MB.
Derzeit wird empfohlen, Festplatten nur mit der SATA-2-Schnittstelle zu installieren, die über die höchste Bandbreite und den größten Cache verfügt.

Software-Leistungsfaktoren:

  1. Anzahl der installierten Programme
  2. Fragmentierung des Dateisystems
  3. Dateisystemfehler, fehlerhafte Sektoren
  4. Fragmentierung der Betriebssystemregistrierung
  5. Fehler in der Betriebssystemregistrierung
  6. Größe der Auslagerungsdatei (Größe des virtuellen Speichers)
  7. Enthaltene OS-GUI-Visualisierungselemente
  8. Windows-Programme und -Dienste werden beim Start geladen

Dies ist keine vollständige Liste, aber dies sind die Funktionen des Windows-Betriebssystems, die seinen Betrieb erheblich verlangsamen können.
Aber über diese Eigenschaften, Einstellungen und Parameter werden wir im nächsten Artikel sprechen.

CPU ist eine zentrale Computerkomponente, die die Leistung eines Computers stark beeinflusst. Doch wie stark hängt die Spieleleistung vom Prozessor ab? Sollten Sie Ihren Prozessor wechseln, um die Spieleleistung zu verbessern? Welche Steigerung wird das bringen? Wir werden versuchen, in diesem Artikel eine Antwort auf diese Fragen zu finden.

1. Was soll die Grafikkarte oder den Prozessor wechseln?

Vor nicht allzu langer Zeit stellte ich erneut einen Mangel an Computerleistung fest und mir wurde klar, dass es Zeit für ein weiteres Upgrade war. Zu diesem Zeitpunkt war meine Konfiguration wie folgt:

  • Phenom II X4 945 (3 GHz)
  • 8 GB DDR2 800 MHz
  • GTX 660 2 GB

Insgesamt war ich mit der Leistung des Computers recht zufrieden, das System arbeitete recht schnell, die meisten Spiele liefen mit hohen oder mittleren/hohen Grafikeinstellungen und ich habe Videos nicht so oft bearbeitet, sodass 15-30 Minuten Rendern nicht störten Mich.

Die ersten Probleme traten im Spiel World of Tanks auf, als die Änderung der Grafikeinstellungen von hoch auf mittel nicht die erwartete Leistungssteigerung brachte. Die Bildrate sank periodisch von 60 auf 40 FPS. Es zeigte sich, dass die Leistung durch den Prozessor begrenzt war. Dann wurde beschlossen, auf 3,6 GHz zu steigen, was die Probleme in WoT löste.

Aber die Zeit verging, neue schwere Spiele wurden veröffentlicht und ich wechselte von WoT zu einem, das die Systemressourcen stärker beanspruchte (Armata). Die Situation wiederholte sich und es stellte sich die Frage, was geändert werden sollte – die Grafikkarte oder der Prozessor. Es hatte keinen Sinn, die GTX 660 auf eine 1060 umzustellen, man musste mindestens eine GTX 1070 nehmen. Aber der alte Phenom würde mit einer solchen Grafikkarte definitiv nicht zurechtkommen. Und selbst beim Ändern der Einstellungen in Armata war klar, dass die Leistung erneut durch den Prozessor begrenzt wurde. Daher wurde beschlossen, zunächst den Prozessor durch einen Übergang zu einer produktiveren Intel-Plattform für Spiele zu ersetzen.

Der Austausch des Prozessors erforderte den Austausch des Motherboards und des RAM. Aber es gab keinen anderen Ausweg; außerdem bestand die Hoffnung, dass ein leistungsstärkerer Prozessor es der alten Grafikkarte ermöglichen würde, in prozessorabhängigen Spielen voll leistungsfähig zu sein.

2. Prozessorauswahl

Damals gab es noch keine Ryzen-Prozessoren, ihre Veröffentlichung wurde nur erwartet. Um sie vollständig bewerten zu können, war es notwendig, auf ihre Veröffentlichung und Massentests zu warten, um Stärken und Schwächen zu identifizieren.

Darüber hinaus war bereits bekannt, dass der Preis zum Zeitpunkt ihrer Veröffentlichung recht hoch sein würde und man noch etwa sechs Monate warten musste, bis die Preise dafür angemessener wurden. Es bestand keine Lust, so lange zu warten, genauso wenig wie die Lust, schnell auf die noch unproduktive AM4-Plattform umzusteigen. Und angesichts der ewigen Fehler von AMD war es auch riskant.

Daher wurden Ryzen-Prozessoren nicht berücksichtigt und der bereits bewährten, ausgefeilten und bewährten Intel-Plattform auf Sockel 1151 der Vorzug gegeben. Und das nicht umsonst, wie die Praxis gezeigt hat, denn Ryzen-Prozessoren erwiesen sich in Spielen als schlechter, und Bei anderen Performance-Aufgaben hatte ich schon genug Leistung.

Zunächst fiel die Wahl zwischen Core i5-Prozessoren:

  • Core i5-6600
  • Core i5-7600
  • Core i5-6600K
  • Core i5-7600K

Für einen Mittelklasse-Gaming-Computer war der i5-6600 die Mindestoption. Aber in Zukunft wollte ich etwas Reserve für den Fall eines Austauschs der Grafikkarte haben. Beim Core i5-7600 war es nicht viel anders, daher war ursprünglich geplant, einen Core i5-6600K oder Core i5-7600K mit der Möglichkeit einer Übertaktung auf stabile 4,4 GHz zu kaufen.

Doch nachdem man die Testergebnisse in modernen Spielen gelesen hatte, bei denen die Auslastung dieser Prozessoren bei fast 90 % lag, war klar, dass sie in Zukunft möglicherweise nicht mehr ausreichen würden. Aber ich wollte schon lange eine gute Plattform mit Reserven haben, denn die Zeiten, in denen man seinen PC jedes Jahr aufrüsten konnte, sind vorbei

Also fing ich an, mir Core i7-Prozessoren anzusehen:

  • Core i7-6700
  • Core i7-7700
  • Core i7-6700K
  • Core i7-7700K

In modernen Spielen sind sie noch nicht vollständig ausgelastet, aber bei etwa 60-70 %. Allerdings hat der Core i7-6700 eine Basisfrequenz von nur 3,4 GHz und der Core i7-7700 hat nicht viel mehr – 3,6 GHz.

Laut Testergebnissen bei modernen Spielen mit Top-Grafikkarten ist die größte Leistungssteigerung bei etwa 4 GHz zu beobachten. Dann ist es nicht mehr so ​​bedeutsam, manchmal fast unsichtbar.

Trotz der Tatsache, dass i5- und i7-Prozessoren mit der Auto-Overclocking-Technologie ausgestattet sind (), sollten Sie sich nicht zu sehr darauf verlassen, da in Spielen, in denen alle Kerne verwendet werden, die Steigerung unbedeutend sein wird (nur 100-200 MHz).

Somit sind die Prozessoren Core i7-6700K (4 GHz) und i7-7700K (4,2 GHz) optimaler und angesichts der Möglichkeit der Übertaktung auf stabile 4,4 GHz auch deutlich erfolgsversprechender als der i7-6700 (3,4 GHz). ) und i7-7700 (3,6 GHz), da der Frequenzunterschied bereits 800-1000 MHz betragen wird!

Zum Zeitpunkt des Upgrades waren Intel-Prozessoren der 7. Generation (Core i7-7xxx) gerade erst erschienen und deutlich teurer als Prozessoren der 6. Generation (Core i7-6xxx), deren Preise bereits zu sinken begannen. Gleichzeitig wurden in der neuen Generation nur die integrierten Grafiken aktualisiert, die für Spiele nicht benötigt werden. Und ihre Übertaktungsfähigkeiten sind nahezu gleich.

Darüber hinaus waren Motherboards mit neuen Chipsätzen auch teurer (man kann zwar einen Prozessor auf einem älteren Chipsatz installieren, dies kann jedoch zu Problemen führen).

Daher entschied man sich für den Core i7-6700K mit einer Basisfrequenz von 4 GHz und der Möglichkeit, künftig auf stabile 4,4 GHz zu übertakten.

3. Auswahl eines Motherboards und Speichers

Ich bevorzuge, wie die meisten Enthusiasten und Technikexperten, hochwertige und stabile Motherboards von ASUS. Für den Core i7-6700K-Prozessor mit Übertaktungsfunktionen sind Motherboards auf Basis des Z170-Chipsatzes die beste Option. Außerdem wollte ich eine bessere eingebaute Soundkarte haben. Daher wurde beschlossen, das kostengünstigste Gaming-Motherboard von ASUS mit dem Z170-Chipsatz zu verwenden.

Auch der Speicher wollte unter Berücksichtigung der Unterstützung des Motherboards für Modulfrequenzen bis 3400 MHz schneller sein. Für einen modernen Gaming-PC ist ein 2x8 GB DDR4-Speicherkit die beste Option. Es blieb nur noch, das optimale Set hinsichtlich Preis-/Frequenzverhältnis zu finden.

Die Wahl fiel zunächst auf AMD Radeon R7 (2666 MHz), da der Preis sehr verlockend war. Zum Zeitpunkt der Bestellung war es jedoch nicht vorrätig. Ich musste mich zwischen dem deutlich teureren G.Skill RipjawsV (3000 MHz) und dem etwas günstigeren Team T-Force Dark (2666 MHz) entscheiden.

Es war eine schwierige Entscheidung, da ich einen schnelleren Speicher wollte und die Mittel begrenzt waren. Basierend auf Tests in modernen Spielen (die ich untersucht habe) betrug der Leistungsunterschied zwischen 2133-MHz- und 3000-MHz-Speicher 3-13 % und durchschnittlich 6 %. Es ist nicht viel, aber ich wollte das Maximum herausholen.

Tatsache ist jedoch, dass schneller Speicher durch werkseitiges Übertakten langsamerer Chips entsteht. G.Skill RipjawsV-Speicher (3000 MHz) bildet da keine Ausnahme und um diese Frequenz zu erreichen, beträgt seine Versorgungsspannung 1,35 V. Darüber hinaus fällt es Prozessoren schwer, Speicher mit einer zu hohen Frequenz und bereits bei einer Frequenz von 3000 MHz zu verdauen Das System funktioniert möglicherweise nicht stabil. Nun, eine erhöhte Versorgungsspannung führt zu einem schnelleren Verschleiß (Degradation) sowohl der Speicherchips als auch des Prozessorcontrollers (Intel hat dies offiziell angekündigt).

Gleichzeitig arbeitet der Team T-Force Dark-Speicher (2666 MHz) mit einer Spannung von 1,2 V und ermöglicht laut Hersteller eine Spannungserhöhung auf 1,4 V, die auf Wunsch eine manuelle Übertaktung ermöglicht . Nach Abwägung aller Vor- und Nachteile fiel die Wahl auf einen Speicher mit einer Standardspannung von 1,2 V.

4. Gaming-Leistungstests

Bevor ich die Plattform wechselte, habe ich bei einigen Spielen Leistungstests auf dem alten System durchgeführt. Nach einem Plattformwechsel wurden die gleichen Tests wiederholt.

Die Tests wurden auf einem sauberen Windows 7-System mit derselben Grafikkarte (GTX 660) bei hohen Grafikeinstellungen durchgeführt, da das Ziel des Prozessoraustauschs darin bestand, die Leistung zu steigern, ohne die Bildqualität zu beeinträchtigen.

Um genauere Ergebnisse zu erzielen, wurden in den Tests ausschließlich Spiele mit integriertem Benchmark verwendet. Ausnahmsweise wurde ein Leistungstest im Online-Panzer-Shooter Armored Warfare durchgeführt, indem ein Replay aufgezeichnet und anschließend mit Fraps mit Messwerten abgespielt wurde.

Hohe Grafikeinstellungen.

Test auf Phenom X4 (@3,6 GHz).

Die Testergebnisse zeigen, dass sich die durchschnittliche FPS leicht verändert hat (von 36 auf 38). Das bedeutet, dass die Leistung in diesem Spiel von der Grafikkarte abhängt. Allerdings sind die minimalen FPS-Einbrüche in allen Tests deutlich zurückgegangen (von 11-12 auf 21-26), was bedeutet, dass das Spiel immer noch etwas komfortabler sein wird.

In der Hoffnung, die Leistung mit DirectX 12 zu verbessern, habe ich später einen Test unter Windows 10 durchgeführt.

Aber die Ergebnisse waren noch schlimmer.

Batman: Arkham Knight

Hohe Grafikeinstellungen.

Test auf Phenom X4 (@3,6 GHz).

Test auf Core i7-6700K (4,0 GHz).

Das Spiel stellt sowohl an die Grafikkarte als auch an den Prozessor hohe Anforderungen. Aus den Tests geht hervor, dass der Austausch des Prozessors zu einem deutlichen Anstieg der durchschnittlichen FPS (von 14 auf 23) und einer Verringerung der minimalen Drawdowns (von 0 auf 15) führte, der Maximalwert stieg ebenfalls (von 27 auf 37). Da diese Indikatoren jedoch kein komfortables Spielen ermöglichen, habe ich mich entschieden, Tests mit mittleren Einstellungen durchzuführen und verschiedene Effekte zu deaktivieren.

Mittlere Grafikeinstellungen.

Test auf Phenom X4 (@3,6 GHz).

Test auf Core i7-6700K (4,0 GHz).

Bei mittleren Einstellungen stiegen auch die durchschnittlichen FPS leicht an (von 37 auf 44) und die Drawdowns gingen deutlich zurück (von 22 auf 35), wodurch die Mindestschwelle von 30 FPS für ein komfortables Spiel überschritten wurde. Auch die Lücke beim Maximalwert blieb bestehen (von 50 auf 64). Durch den Wechsel des Prozessors wurde das Spielen recht komfortabel.

Durch den Umstieg auf Windows 10 hat sich absolut nichts geändert.

Deus Ex: Die geteilte Menschheit

Hohe Grafikeinstellungen.

Test auf Phenom X4 (@3,6 GHz).

Test auf Core i7-6700K (4,0 GHz).

Das Ergebnis des Prozessoraustauschs war lediglich eine Verringerung der FPS-Abfälle (von 13 auf 18). Leider habe ich vergessen, Tests mit mittleren Einstellungen durchzuführen, aber ich habe unter DirectX 12 getestet.

Dadurch sanken nur die minimalen FPS.

Gepanzert Krieg: Projekt Armata

Ich spiele dieses Spiel oft und es ist zu einem der Hauptgründe für die Aufrüstung meines Computers geworden. Bei hohen Einstellungen erreichte das Spiel 40–60 FPS mit seltenen, aber unangenehmen Einbrüchen auf 20–30.

Durch die Reduzierung der Einstellungen auf „Mittel“ konnten gravierende Einbrüche vermieden werden, die durchschnittlichen FPS blieben jedoch nahezu gleich, was ein indirektes Zeichen für mangelnde Prozessorleistung ist.

Es wurde eine Wiederholung aufgezeichnet und Tests im Wiedergabemodus mit FRAPS bei hohen Einstellungen durchgeführt.

Ihre Ergebnisse habe ich in einer Tabelle zusammengefasst.

CPU FPS (Mindest) FPS (Mittwoch) FPS (Max)
Phenom X4 (@3,6 GHz) 28 51 63
Core i7-6700K (4,0 GHz) 57 69 80

Durch den Austausch des Prozessors wurden kritische FPS-Einbrüche vollständig beseitigt und die durchschnittliche Bildrate deutlich erhöht. Dadurch war es möglich, eine vertikale Synchronisierung zu ermöglichen, wodurch das Bild flüssiger und angenehmer wurde. Gleichzeitig liefert das Spiel stabile 60 FPS ohne Einbrüche und ist sehr angenehm zu spielen.

Andere Spiele

Ich habe keine Tests durchgeführt, aber im Allgemeinen ist bei den meisten Online- und prozessorabhängigen Spielen ein ähnliches Bild zu beobachten. Der Prozessor beeinträchtigt die FPS in Online-Spielen wie Battlefield 1 und Overwatch erheblich. Und auch in Open-World-Spielen wie GTA 5 und Watch Dogs.

Aus Versuchsgründen habe ich GTA 5 auf einem alten PC mit Phenom-Prozessor und einem neuen mit Core i7 installiert. Während die FPS früher bei hohen Einstellungen zwischen 40 und 50 blieben, bleiben sie jetzt stabil über 60, praktisch ohne Einbußen, und erreichen oft 70 bis 80. Diese Veränderungen sind mit bloßem Auge erkennbar, aber ein Bewaffneter löscht einfach jeden aus

5. Rendering-Leistungstest

Ich bearbeite nicht viel Video und habe nur einen einfachen Test durchgeführt. Ich habe in dem von mir verwendeten Camtasia-Programm ein Full-HD-Video mit einer Länge von 17:22 und einem Volumen von 2,44 GB mit einer niedrigeren Bitrate gerendert. Das Ergebnis war eine Datei von 181 MB. Die Bearbeiter haben die Aufgabe in der folgenden Zeit erledigt.

CPU Zeit
Phenom X4 (@3,6 GHz) 16:34
Core i7-6700K (4,0 GHz) 3:56

Beim Rendern war natürlich eine Grafikkarte (GTX 660) beteiligt, denn ich kann mir nicht vorstellen, wer auf die Idee kommen würde, ohne Grafikkarte zu rendern, da es 5-10 mal länger dauert. Darüber hinaus hängt die Laufruhe und Geschwindigkeit der Effektwiedergabe während der Bearbeitung auch stark von der Grafikkarte ab.

Die Abhängigkeit vom Prozessor wurde jedoch nicht aufgehoben und der Core i7 bewältigte diese Aufgabe viermal schneller als der Phenom X4. Da die Bearbeitungs- und Effektkomplexität zunimmt, kann sich diese Zeit deutlich erhöhen. Was der Phenom X4 in 2 Stunden schafft, schafft der Core i7 in 30 Minuten.

Wenn Sie sich ernsthaft mit der Videobearbeitung befassen möchten, sparen Sie mit einem leistungsstarken Multithread-Prozessor und viel Speicher erheblich Zeit.

6. Fazit

Der Appetit auf moderne Spiele und professionelle Anwendungen wächst sehr schnell und erfordert ständige Investitionen in die Aufrüstung Ihres Computers. Aber wenn Sie einen schwachen Prozessor haben, macht es keinen Sinn, die Grafikkarte zu wechseln, sie öffnet sie einfach nicht, d.h. Die Leistung wird durch den Prozessor begrenzt.

Eine moderne Plattform auf Basis eines leistungsstarken Prozessors mit ausreichend RAM sorgt für eine hohe Leistung Ihres PCs über Jahre hinweg. Dies reduziert die Kosten für die Aufrüstung eines Computers und macht einen kompletten PC-Austausch nach einigen Jahren überflüssig.

7. Links

Prozessor Intel Core i7-8700
Prozessor Intel Core i5-8400
Intel Core i3 8100 Prozessor