Ein Betriebssytem für einen Rechner ist eine Menge von Porgrammen, die es ermöglichen, den Rechner zu betreiben und Applikationen auf ihm auszuführen.
Um Betriebssystem-Virtualisierung durchzuführen, ist in der Regel die Installation einer Virtualisierungssoftware wie ein Hypervisor (griechisch "Aufseher") oder ein Virtual Machine Monitor (VMM) erforderlich. Beispiele hierfür sind Parallels Desktop für MacOS, VirtualBox und VMware Workstation.
Unter Windows 10 kann ein Windows-Subsystem für Linux (WSL) aufgerufen werden, ohne dass eine separate Virtualisierungssoftware installiert werden muss.
In einer Controllerschicht verwaltet der VMM Hardware, Schnittstellen und Gastbetriebssysteme, um sicherzustellen, dass Betriebssysteme und Anwendungen nicht in Konflikt geraten.
Bei der System-Virtualisierung wird ein oder mehrere vollständige Systeme nachgebildet, auf denen beliebige Betriebssysteme ausgeführt werden können. Diese Systeme orientieren sich an echter Hardware und können bedarfsgerecht und virtuell an die jeweiligen Anforderungen angepasst oder auf verschiedene virtuelle Maschinen verteilt werden.
Am Mainboard sind alle Komponenten angeschlossen
Der Mikroprozessor, auch bekannt als Central Processing Unit (CPU), Hauptprozessor oder zentrale Verarbeitungseinheit im Computer, ruft nacheinander Befehle aus dem Speicher ab und führt die Informationsverarbeitung sowie Steuerung und Kontrolle der Systeme durch. Zusätzlich zum Hauptprozessor gibt es weitere Prozessoren, die für spezielle Aufgaben eingesetzt werden, wie zum Beispiel der Grafikprozessor (GPU) für grafische Berechnungen.
Als Mikrocontroller verfügt der Prozessor über zusätzliche analoge und digitale Ein- und Ausgänge und übernimmt Steuerungsaufgaben. Mikrocontroller werden häufig in Embedded-Systems, wie zum Beispiel im Internet der Dinge (IoT), eingesetzt.
Sie erhalten Codenamen wie z.B. bei Intel : Ice Lake; Nachfolger: Tiger Lake AMD : Zen 3; Nachfolger: Zen 4 oder bei ARM Prozessoren mit RISC-Architektur (Reduced Instruction Set Computer) mit verschiedenen Cortex-Architekturen.
Chip-Hersteller konkurrieren darum, die kleinste Strukturgröße (Flächennutzung) in Nanometern (nm) bei Chips zu erreichen. Intel zielt auf 7-nm-Chips ab, während AMD, TSMC und Samsung bereits 5-nm-Designgrößen realisiert haben.
Je kleiner die nm-Angabe ist, desto leistungsstärker (durch höhere Taktraten und mehr Kerne) und energieeffizienter ist der Chip. Ein Nanometer ist etwa 500-mal dünner als ein Menschenhaar.
Es ist jedoch wichtig zu beachten, dass die Angaben der Unternehmen nicht mit denselben Maßstäben berechnet werden, weshalb der Vergleich eher innerhalb der einzelnen Hersteller erfolgen sollte.
In der Vergangenheit wurde die Leistungsfähigkeit von Prozessoren kontinuierlich optimiert, indem immer mehr Transistoren auf dieselbe Chipfläche gebracht wurden. Dadurch wurden Zugriffszeiten verkürzt, interne Rechnerstrukturen optimiert und Betriebsspannungen gesenkt, um höhere Taktfrequenzen zu ermöglichen. Allerdings ist man mittlerweile an die Grenzen der technisch möglichen Taktfrequenz gelangt.
Um die Leistung weiter zu steigern, wurden Erweiterungskarten eingeführt und Funktionseinheiten im Prozessor mehrfach integriert. Heutzutage ist ein Ein-Kern-Prozessor etwa 5000-mal schneller als ein Prozessor der ersten Generationen. Allerdings ist es aufgrund physikalischer Grenzen des aktuell verwendeten Materials nicht mehr möglich, wie früher nach Moores Gesetz alle 18 Monate die Taktfrequenz zu verdoppeln.
Bei der Funktionalität von Prozessoren spielt auch die Unterstützung von Speicher- (z.B. DDR4-XXXX) und Schnittstellenstandards (z.B. PCI Express X.0, USB 3.X, Gen 2 und WiFi 6) eine wichtige Rolle. Da wichtige Prozessoranbieter wie Intel und AMD eigene Spezifikationen haben, ist die Abhängigkeit im Systemverbund (Mainboard, Sockets usw.) groß.
Für anspruchsvolle Rechnersysteme ist es entscheidend, eine dauerhafte Belastbarkeit und eine hohe Taktstabilität sicherzustellen. Aus diesem Grund bieten einige Anbieter für ausgewählte Prozessortypen zusätzliche Garantien an, die über die standardmäßige Herstellergarantie hinausgehen. Diese Garantien können beispielsweise als "vorgetestet" (pretested) bezeichnet werden.
Ein wichtiger Bestandteil des Prozessors ist der Cache oder Zwischenspeicher, ein besonders schneller Speicher, der direkt mit der CPU verbunden ist. Der Cache dient dazu, den Prozessor zu entlasten und Prozesse sowie Daten durch Zwischenspeicherung zu beschleunigen.
Bei der Auswahl eines Prozessors für Anwendungen mit großem Cache-Bedarf ist es daher wichtig, die Größen der Cachespeicher zu beachten. Dabei handelt es sich typischerweise um verschiedene Ebenen des Caches, nämlich L1, L2 und L3. Je größer diese Caches sind, desto mehr Daten können zwischengespeichert werden, was die Leistung in bestimmten Anwendungen verbessern kann.
Der Chipsatz auf dem Mainboard fungiert als Hauptcontroller zwischen den einzelnen Komponenten eines Computers. Es handelt sich um einen Halbleiterbaustein, der eine Vielzahl von Controllern in sich vereint. Diese sorgen für die Anbindung des Hauptprozessors (CPU), der Bus-Systeme, des Arbeitsspeichers, der Laufwerke, der Erweiterungskarten und anderer Geräte über die entsprechenden Schnittstellen.
Die Auswahl des Chipsatzes beeinflusst maßgeblich die Gesamtleistung des Computersystems. Chipsätze werden sowohl vom Prozessorhersteller selbst als auch von unabhängigen Herstellern angeboten. Die Konfiguration des Chipsatzes erfolgt über die Einstellungen im BIOS.
Fehlende Bausteine im Chipsatz können vom Mainboard-Hersteller zusätzlich auf dem Mainboard integriert werden. Dies betrifft beispielsweise Schnittstellen wie USB, SATA, Ethernet, HD Audio, I2C (SM-Bus), SPI oder Low-Pin-Count (LPC) für einen Super-I/O-Chip, der ältere Schnittstellen unterstützt. Falls dies nicht ausreicht, kann das System nur durch den Einsatz von Erweiterungskarten aufgerüstet werden. Die Verbindung zwischen Hauptprozessor und Chipsatz erfolgt häufig über eine abgewandelte Form von PCI Express (PCIe).
Bisher war es für Prozessorhersteller nicht möglich, die Taktfrequenz der Prozessoren dauerhaft über 5 GHz zu erhöhen. Aus diesem Grund wird versucht, die Gesamtrechnerleistung durch eine intelligentere Nutzung der CPU und zeitweise Übertaktung zu steigern.
Die direkte Erhöhung der Taktfrequenz birgt auch Nachteile. Dazu gehören ein höherer Energieverbrauch, eine gesteigerte Wärmeentwicklung und lautere Computer aufgrund der aktiven Kühlung, die erforderlich ist, um die höheren Temperaturen zu bewältigen.
Im Verlauf der Zeit haben die Entwickler von Prozessoren festgestellt, dass die Geschwindigkeit eines Prozessors nicht allein durch eine Erhöhung der Taktrate gesteigert werden kann. Aus diesem Grund wurde versucht, den Prozessor effizienter zu nutzen.
Bei der Abarbeitung von Programmcodes treten häufig Verzögerungen auf, beispielsweise durch Speicher- und Peripheriezugriffe. Um diese Wartezeiten zu nutzen, wird versucht, den Prozessor intelligenter zu gestalten, sodass er während dieser Verzögerungen andere Programmcodes ausführen kann. Dies trägt dazu bei, die Gesamtleistung des Systems zu verbessern.
Folgende Möglichkeiten der Parallelverarbeitung werden genutzt:
Mehrere Programmabläufe, auch Threads genannt, sowie Funktionen werden parallel verwaltet und je nach Bedarf abwechselnd zugeschaltet, mit bis zu 32 Threads beispielsweise.
Simultaneous Multithreading (SMT) ermöglicht es, dass mehrere Threads gleichzeitig ausgeführt werden können.
Hyper-Threading stellt dem Betriebssystem zusätzliche Funktionen weiterer Prozessorkerne zur Verfügung.
Es ist jedoch wichtig zu beachten, dass nicht alle Programme diese Möglichkeiten nutzen können. Daher sollten Programmierer, insbesondere bei zeitkritischen Anwendungen, für die Optimierungsmöglichkeiten dieser Technologien geschult sein.
Befehlsausführung parallel in mehreren Stufen und Phasen
Spezieller Prozessor, der den Hauptprozessor und bestimmte Funktionen erweitert und ihn bei bestimmten Rechenaufgaben entlastet.
Mehrere Prozessoren werden überwiegend in sehr leitstungsstarken Großrechnern, Supercomputern und Servern eingebaut, weniger in Personal Computern.
In einem Prozessor sind mehrere Rechenkerne (Cores) zusammengeschaltet, sodass das Betriebssystem mehrere Recheneinheiten verwalten kann.
Derzeit werden nicht nur Dual-Core-Prozessoren für zwei Rechenkerne oder Quad-Core-Prozessoren für vier Rechenkerne angeboten, sondern die Anzahl der Kerne kann auf ein Vielfaches hin zu Many-Core-CPUs mit 256 oder sogar 1024 Rechenkernen pro Prozessor gesteigert werden.
Intel bezeichnet seine Prozessoren, die insbesondere in Desktops und Notebooks verbaut werden, je nach Anzahl der Cores mit Bezeichnungen wie i5, i7 oder i9. Dabei ist zu beachten, dass diese Zahlen nicht die Anzahl der Cores darstellen.
In Servern und leistungsstärkeren Workstations kommen häufig Xeon-Prozessoren zum Einsatz.
Bei Multi-Core-CPUs wird eine automatische Übertaktung implementiert, um Ein-Kern-Programme schneller zu bearbeiten, Energie zu sparen und die Wärmeentwicklung bis zur TDP-Grenze zu optimieren. Bei ausreichender Kühlung kann sogar eine Übertaktung über diese Grenze hinaus erfolgen (Super-Turbo, Overdrive).
Kerne werden nur dann zugeschaltet, wenn ein einzelner Kern selbst mit Übertaktung nicht ausreicht und zu heiß wird.
Anwendungen, die nicht alle Kerne eines Mehrkern-Prozessors vollständig auslasten, können beschleunigt werden, indem einzelne Kerne des Prozessors auf eine höhere Taktfrequenz erhöht werden, während die anderen Kerne in den Wartezustand versetzt werden.
Prozessorhersteller haben Befehlssätze wie MMX, XMM und SEE für Entwickler bereitgestellt, die auf 64- und 128-Bit-Basis arbeiten. Diese Befehlssätze wurden entwickelt, um den hohen Anforderungen von Multimedia- und Spielsoftware gerecht zu werden.
Als wichtiger Parameter eines Prozessors gibt die TDP die maximale abgegebene Wärmeleistung (Kernspannung und Temperatur) an, wobei sie etwas unterhalb der maximalen elektrischen Leistungsaufnahme liegt. Die TDP-Parameter werden je nach Hersteller etwas unterschiedlich berechnet.
Kühler dienen dazu, den Prozessor vor Überhitzung und Ausfall zu schützen. Es gibt verschiedene Arten von Kühlern, darunter Luftkühler, Wasserkühler und All-in-One-Wasserkühlungen. Die TDP des Kühlers sollte deutlich höher sein als die des Prozessors, um eine effektive Kühlung zu gewährleisten. All-in-One-Wasserkühlungen (CLC-Kühler) mit geschlossenem Kreislauf kombinieren die besten Aspekte von Luft- und Wasserkühlern für den Prozessor. Sie sind einfach zu montieren wie Luftkühler, bieten jedoch die gute Kühlleistung einer Wasserkühlung und sind besonders beliebt bei Gaming-PCs.
GPGPU (General Purpose Computation on Graphics Processing Unit) ist eine Programmierschnittstelle, die es ermöglicht, allgemeine Berechnungen auf dem Grafikprozessor (GPU) einer Grafikkarte auszuführen.
Diese Technologie wird hauptsächlich in Hochleistungscomputern eingesetzt, die über sehr leistungsstarke Grafikprozessoren verfügen. Beim Kauf von Grafikkarten für solche Anwendungen ist es wichtig, auf deren GPGPU-Eigenschaften zu achten.
RAM steht für "Random Access Memory". Die Leistungsfähigkeit eines Systems wird maßgeblich vom Arbeitsspeicher beeinflusst. Ein größerer Arbeitsspeicher ermöglicht es dem System, schneller zu arbeiten und mehr aktive Daten zu verwenden.
Die Leistungsfähigkeit wird auch von der unterstützten Geschwindigkeit des RAM-Moduls in Megatransfers pro Sekunde (MT/s) beeinflusst. Zusätzlich ist die Bandbreite wichtig, die die Gesamtdatenmenge angibt, die das Speichermodul auf einmal verarbeiten kann.
Um das beste Leistungsverhältnis der Komponenten zu erreichen, müssen der Prozessor, das Mainboard mit Chipsatz, der Cachespeicher und der Arbeitsspeicher gut aufeinander abgestimmt sein.
Microsoft empfiehlt für Windows 10 in der 32-Bit-Version mindestens 1 GB RAM und für die 64-Bit-Version 2 GB. In der Praxis wird jedoch für einen Standard-PC mindestens 4 GB RAM empfohlen. Wenn viele Programme gleichzeitig genutzt werden, sollten mindestens 8 GB oder sogar 16 GB Arbeitsspeicher integriert sein.
Diese Organisation legt die Spezifikationen für die elektrischen und zeitlichen Parameter der Speicher-Controller und der Speicherchips fest. Die JEDEC schreibt spezifische Chip-Kombinationen vor, um sicherzustellen, dass die Chips mit unterschiedlicher Kapazität und von verschiedenen Herstellern kompatibel sind.
Je nach Art des Computers kann er entweder fertig konfiguriert sein oder Erweiterungen über Steckplätze (Slots) zulassen. Die Anzahl der freien Speicherbänke auf der Hauptplatine bestimmt die Möglichkeiten des Speicherausbaus, sofern die Speicherbänke nicht durch andere Komponenten wie Lüfter blockiert sind.
RAM wird in Riegeln unterschiedlicher Größe angeboten, typischerweise in Größen von 1, 2, 4, 8 und 16 GB pro Riegel. DIMM-Riegel (Dual Inline Memory Module) sind Arbeitsspeichermodule für Desktop-Systeme, während RAM im SO-DIMM-Format in Laptops und oft auch in Mini-PCs (oft fest verbaut) verwendet wird.
UDIMM oder ungepufferte Dual-Inline-Speichermodule sind der am häufigsten verwendete Formfaktor für Arbeitsspeicher in Desktop-Computern. Laptops oder andere kleine Systeme verwenden SO-DIMM oder Small Outline DIMMs, die weniger Pins aufweisen (goldfarbige Steckkanten auf der Unterseite des Moduls) und physisch kürzer sind als UDIMMs. Für Server sind andere Formfaktoren vorgesehen.
Hier wird jedes Datenbit auf einem seperaten Kondensator gespeichert. Es handelt sich um die häufigste Art von Arbeitsspeichern.
Synchrones DRAM ist eine Form von dynamischem RAM, das im Gleichschritt mit dem Systembus Daten überträgt. Die Taktfrequenz wird dabei vom Systembus oder gegebenenfalls einem separaten Speicherbus festgelegt. Eine spezielle Spezifikation namens Low Power SDRAM wurde für den Einsatz in mobilen Geräten entwickelt.
DDR, oder Double Data Rate, ist eine Art von Speichertechnologie, die Daten mit der doppelten Geschwindigkeit von SDRAM übertragen kann. Die Ziffer nach DDR bezeichnet die Generation der Technologie, aus der das Modul stammt. Bei DDR werden pro Taktzyklus zwei Datentransfers durchgeführt. Nach der Einführung von DDR-RAM folgten weitere Generationen wie DDR2, DDR3, DDR4 und schließlich DDR5. Es ist jedoch wichtig zu beachten, dass die verschiedenen Generationen von DDR-RAM nicht miteinander kompatibel sind. Zum Beispiel ist es nicht möglich, DDR4-RAM in ein Mainboard einzusetzen, das DDR3-RAM erfordert.
DDR-SDRAM ist eine Weiterentwicklung der SDRAM-Technologie und wird hauptsächlich in Speichermodulen nach dem DIMM- und SO-DIMM-Standard als Arbeitsspeicher in PCs und Laptops eingesetzt.
Der Front Side Bus (FSB) befindet sich auf dem Mainboard und dient als Hauptpfad für den Datenaustausch im Computer. Er verbindet den Prozessor, den Chipsatz, den DRAM und den Grafikcontroller miteinander. Die Eigenschaften des FSB werden durch seine Breite in Bits und seine Geschwindigkeit in Megahertz beschrieben.
Die Reaktionszeit des Speichers auf einen Befehl wird als Latenz bezeichnet. Im Allgemeinen gilt: Je niedriger die Latenz, desto schneller das Gerät. Es ist jedoch wichtig zu beachten, dass bei zunehmender Geschwindigkeit die höhere Gesamtgeschwindigkeit möglicherweise schneller ist, auch wenn die Latenz höher ist.
RAM, das in herkömmlichen Desktop-PCs und Notebooks verwendet wird, ist in der Regel "unbuffered", "unregistered" und ohne ECC (Error-Correcting Code). Im Gegensatz dazu wird das teurere "fully buffered, registered ECC RAM" häufig in hochwertigen Servern und Workstations eingesetzt, wo es dazu beiträgt, Speicherfehler zu minimieren oder automatisch zu korrigieren.
Mit kostenloser Diagnosesoftware wie CPU-Z ist es möglich, herauszufinden, welche Art von RAM bereits in Ihrem PC verbaut ist und ob noch Steckplätze ("Bänke") frei sind, um weiteren RAM hinzuzufügen.
Bei kleineren Systemen und Notebooks wird der Prozessor, sofern er nicht fest verlötet ist, auf einem Sockel platziert und mithilfe eines Aluminiumbügels fixiert. Die Art des Sockels variiert je nach Chipsatz und Hersteller des Mainboards.
Der Arbeitsspeicher (RAM), auch bekannt als Random Access Memory, wird in die entsprechenden Steckplätze (Slots) eingesteckt. Diese gibt es in verschiedenen Größen und Ausführungen. DDR3-RAM war lange Zeit Standard, während DDR4-RAM derzeit am weitesten verbreitet ist und als schneller gilt.
PCI und PCIe sind Standards zur Verbindung von Peripheriegeräten mit dem Chipsatz eines Hauptprozessors. Sie ermöglichen das Hot-Plugging, was bedeutet, dass Zusatzkarten im laufenden Betrieb ein- und ausgebaut werden können, sofern die Hardware und das Betriebssystem dies unterstützen.
PCI Express (Peripheral Component Interconnect Express) ist der Nachfolger von PCI, PCI-X und AGP und bietet im Vergleich zu seinen Vorgängern eine höhere Datenübertragungsrate pro Pin. Ein PCI-Express-Steckplatz kann das angeschlossene Gerät auch mit Strom versorgen.
Über diese Steckplätze können verschiedene Zusatzkarten angeschlossen werden, darunter Grafikkarten, Soundkarten, TV-Tuner, Thunderbolt-Karten oder RAID-Controller für die sichere Datenspeicherung. PCIe-Steckplätze gibt es in verschiedenen Versionen und Konfigurationen auf dem Mainboard.
Für anspruchsvolle Programme oder Spiele wird möglicherweise eine zusätzliche Grafikkarte benötigt, die in einen PCI-Steckplatz je nach Anforderung eingesetzt wird. Die PCI-Express-Steckplätze sind mittlerweile mit Transferraten von bis zu 32 GByte/s zum Standard geworden, wobei die Anzahl der Lanes (x1 bis x32) die Geschwindigkeit beeinflusst. Typischerweise werden lange x16-Slots für Grafikkarten und kurze x1-Slots für andere Erweiterungskarten verwendet. Einige Mainboards verfügen auch über x4- und x8-Slots. Es ist möglich, dass kürzere Karten auch in längeren Slots funktionieren, da die Bezeichnung x1, x4, x8 und x16 angibt, wie viele PCIe-Lanes in dem Slot kaskadiert sind.
Über die SATA-Anschlüsse werden die Festplatten, SSD-Laufwerke und optischen Laufwerke verbunden.
Blaue SATA-Buchsen
Schwarze und rote SATA-Buchsen
Am Mainboard sind bereits Anschlüsse für USB-Geräte vorhanden. Diese Anschlüsse verbinden in der Regel die Schnittstellen, die dann über die Rückseite des Gehäuses zugänglich sind.
USB-C-Kabel können in jede Richtung in den Steckplatz gesetzt werden, was das "Verdreh-Problem" der älterren USB-Technik beseitigt.
Eine M.2-Karte wird in den entsprechenden Port auf der Platine eingesteckt und mit einer Befestigungsschraube fixiert. Komponenten können auf beiden Seiten der Karte angebracht sein. Der M.2-Standard wurde entwickelt, um mSATA abzulösen. Dank der kleineren und flexibleren Abmessungen sowie erweiterter Funktionen eignet sich M.2 besser für den Anschluss von SSDs, insbesondere in kompakten Geräten wie Ultrabooks oder Tablets. Der M.2-Standard ermöglicht Steckkarten mit Breiten von 12, 16, 22 oder 30 mm und Längen von 16 bis 110 mm. Die derzeit üblichen M.2-SSDs sind 22 mm breit und 42, 60 oder 80 mm lang.
Der Lüfter muss mit Strom versorgt werden. Das geschieht über kleine 3-Pin-Anschlüsse.
Das Mainboard wird über einen 24-poligen Anschluss mit Strom versorgt. Bei älteren Modellen kann dieser Anschluss auch nur 20-polig sein. Zusätzlich befindet sich oft in der Nähe der CPU ein kleiner, 8-poliger Anschluss, der den Prozessor mit Strom versorgt.
Die Schnittstellen HDMI, VGA und DVI transportieren die Bilddaten zum Monitor. Die neueren Standards HDMI und DisplayPort übertragen sogar Ton.
Sie können externe Festplatten, USB-Sticks, Mikrofone, Smartphones und vieles mehr anschließen. Den aktuellen, schnellen Standard USB 3.0 bis 3.2 erkennt man an den blauen Anschlüssen am Mainboard. Es ist jedoch auch möglich, ältere Geräte mit USB 2.0 oder sogar USB 1.0 anzuschließen, allerdings mit einer geringeren Übertragungsrate.
Über den veralteten P/S2-Port werden ältere Mäuse und Tastaturen mit den breiten, runden Steckern angeschlossen.
Über den LAN-Port werden Rechner mit dem LAN verbunden.
Die zahlreichen verschiedenen 3,5-mm-Eingänge in unterschiedlichen Farben übertragen den Ton bzw. Sound, möglichst eine Schnittstelle 7.1 für ein Sound-System, wenn gewünscht.
80 Plus ist eine nordamerikanische Organisation, die sich für energieeffiziente PC-Netzteile einsetzt. Sie vergibt Zertifikate, wenn die getesteten Netzteile einen Wirkungsgrad von über 80% aufweisen. Die Tests werden bei verschiedenen Auslastungen durchgeführt. Abhängig von den Ergebnissen können neben dem 80-Plus-Zertifikat auch solche in Bronze, Silber, Gold, Platin und Titan vergeben werden.
Interne Festplatten, externe Festplatten, Laptop-Festplatten, NAS- und WLAN-Festplatten, USB-Sticks, Festplattengehäuse
Dieser Typ ist Namensgeber der Festplatte und damit die ältere Technologie. Sie weist jedoch bis heute wichtige Vorzüge auf. Bei HDD werden Daten auf sich drehenden, magnetischen Metallscheiben durch bewegliche Schreib-Leseköpfe (Heads) gespeichert. HDDs sind üblicherweise in den Größen 2,5 Zoll (insbesondere für Notebooks und kleine Rechner) und 3,5 Zoll erhältlich und bieten Speicherkapazitäten von bis zu 16 TB. Aufgrund der beweglichen Teile und der Umdrehungsgeschwindigkeit von bis zu 10.000 Umdrehungen pro Minute können jedoch auch kleinere Stöße eine HDD beschädigen.
Die Bezeichnung steht für einen unbeweglichen Block als Flash-Speicher. Eine ähnliche Technologie findet man in USB-Sticks, Speicherkarten und Geräten mit fest verbautem Speicher. SSDs sind sehr schnell, etwa dreimal schneller als die schnellsten HDD-Festplatten. Die Geräte sind leicht, haben keine beweglichen Teile und sind in der Regel in den Größen 2,5 Zoll oder 3,5 Zoll erhältlich. Dank ihrer Schnelligkeit ist der Bootvorgang des Rechners sowie der Zugriff auf Programme und Daten wesentlich schneller. Sie sind besser für den mobilen Einsatz geeignet, robuster, unempfindlich gegenüber Magnetismus, Temperaturschwankungen und geräuschlos. Zudem sind sie tendenziell deutlich länger haltbar, erzeugen kaum Wärme und benötigen keine Defragmentierung. Mit einem SATA-zu-USB-Adapter können ausgediente SSDs als externe Laufwerke genutzt werden. Es ist jedoch wichtig zu beachten, dass nicht alle SSD-PCI-Modelle startfähig sind, daher sollte man sich informieren, ob das System von der SSD gestartet werden kann.
Hierbei liegen die eigentlichen Daten auf einer HDD, während die aktuell vom System genutzten Daten auf einem zusätzlichen Flash-Speicher zwischengespeichert werden, um den Datentransfer zu beschleunigen. Im Vergleich zu rein mechanischen Festplatten sind Hybridfestplatten bis zu fünfmal schneller und daher besonders für Gaming, Multimedia und rechenintensive Programme geeignet. Hybride Festplatten bieten eine kostengünstige Lösung, wenn nur ein Festplattenslot zur Verfügung steht, jedoch großes Datenvolumen und der Geschwindigkeitsgewinn des Flashspeichers genutzt werden sollen. Daher sind sie auch in Laptops zu finden, die nur einen Datenträger aufnehmen können.
USB-Massenspeicher nutzen schnellen Flash-Speicher zur Datenspeicherung. Sie sind klein, leise, mobil und bieten Speicherkapazitäten von bis zu ca. 128 GB. Es gibt sie in verschiedenen Ausführungen wie dem klassischen Bar-Design, Fit Stick oder One-to-Go (OTG), die den Austausch von Daten zwischen Rechnern, Smartphones und Tablets ermöglichen. Zudem gibt es Modelle wie den Connect, der drahtlose Datenkommunikation unterstützt.
1,8 Zoll oder 2,5 für Notebooks, sonst 3,5.
z.T. sehr dünn, i.d.R. als SSD und in verschieden Farben (wichtig! ;-))
Die interne SSD ist deutlich kleiner und erinnert eher an einen Speicherriegel als an eine Festplatte. Je nach verfügbarem Festplattenslot und Anschlussart ist ein Einbaurahmen notwendig, um die interne SSD in den Rechner einzubauen. Bei einem PC ist beispielsweise ein 3,5-Zoll-Rahmen erforderlich.
Die Leistung einer Festplatte ist abhängig von der mittleren Zugriffszeit, der Datentransferrate und der Leistung der Schnittstellen. Neben der Umdrehungsgeschwindigkeit der Magnetplatten sind auch die Geschwindigkeit des Spurwechsels des Magnetkopfes und die Latenzzeit, die die Lesbarkeit eines Sektors in Abhängigkeit von der Umdrehungsgeschwindigkeit angibt, von Bedeutung.
HDD gibt es mit 5.400 rpm (Rounds per Minute), 7.200 rpm und 10.000 rpm.
Der interne Anschluss ist entscheidend für die Leistung. Der aktuelle Standard ist SATA, wobei M.2 der Nachfolgestandard ist. SATA-Kabel sind schmal und platzsparend. Zudem benötigen SATA-HDDs weniger Strom. Die Übertragungsraten von SATA-Übertragungskabeln reichen von 150 MB/s (SATA) bis 600 MB/s (SATA-6). In älteren Rechnern kann man eventuell noch den langsameren IDE-Anschluss mit Transferraten von 130 MB/s finden.
Je größer der Cache (Zwischenspeicher) einer Festplatte ist, desto schneller arbeitet sie bei Vorgängen wie dem Entpacken, Kopieren, Verschieben und Duplizieren von Daten auf demselben Laufwerk. Bei Standardfestplatten wird ein Cache von 16 MB bis 64 MB empfohlen, während bei rechenintensiven Programmen und Gaming 64 MB bis 128 MB bevorzugt werden.
Der Speicherplatz eines Speicherlaufwerkes wird in seperate Datenbereiche eingeteilt, den sog. Partitionen.
NAND bezieht sich auf Flashspeicher und unterscheidet die NAND-Arten:
In Flash-Speichern kann jede Zelle nur einen Bit speichern, wodurch die Kapazität im Vergleich zu anderen Speichertypen niedriger ausfällt. Allerdings sind die Zugriffszeiten schneller, sie sind aufgrund der geringeren Datendichte zuverlässiger und haben eine längere Lebensdauer. Jedoch ist der Preis für Flash-Speicher in der Regel höher, besonders bei Einsatz in Servern.
Das stimmt. In MLC (Multi-Level Cell) Flash-Speichern kann jede Zelle zwei Bit-Zustände speichern, was zu einer höheren Kapazität führt. Allerdings dauert das Auslesen etwas länger, und die Zellen nutzen sich schneller ab als bei SLC (Single-Level Cell) Verfahren. Dennoch sind MLC Flash-Speicher in der Regel günstiger als solche mit SLC-Verfahren, was sie zu einer beliebten Wahl für Spielerechner macht.
Jede Zelle kann drei Bits speichern, daher noch mehr Kapazität, günstiger, aber auch langsamer, für Standardrechner.
Genau, TLC (Triple-Level Cell) Flash-Speicher können vier Bits pro Speicherzelle speichern, was zu einer noch größeren Speicherkapazität und günstigeren Preisen führt. Allerdings ist die Lebensdauer im Vergleich zu MLC (Multi-Level Cell) Flash-Speichern geringer. Sie eignen sich daher gut für große Speicher mit weniger Zugriffen, bei denen die hohe Kapazität und der günstigere Preis wichtiger sind als eine besonders hohe Schreib- und Leseleistung.
virtuell, integriert, extern kabelgebunden oder per Funk (verschiedene Standards)
Rubberdome-Modelle werden als preisgünstige Variante für Büroanwendungen, Office-Programme, E-Mails und das Surfen im Internet angeboten. Ihre Haltbarkeit liegt bei etwa 5 Millionen Anschlägen, was nur etwa 10% oder weniger der Lebensdauer mechanischer Tastaturen entspricht. Bei diesen Modellen lösen die Tasten per Kontaktfolien auf einer Gummimatte aus, wodurch der Anschlag leiser ist. Sie sind einfach und funktional gestaltet, mit Zwischenräumen für zügiges und genaues Schreiben, einem guten Druckpunkt und einem relativ leisen Tastenanschlag. In der Regel bieten sie auch eine angenehme Handballenauflage.
Mechanische Tastaturen sind mit einem eigenen Schalter für jede einzelne Taste ausgestattet und können einen linearen/durchgehenden Anschlag oder einen taktilen Anschlag haben. Sie sind auch schon im sehr preiswerten Segment erhältlich und leicht zu reinigen. Im Vergleich zu Rubberdome-Modellen halten mechanische Tastaturen bis zu zehnmal länger. Sie bieten über die gesamte Verwendungsdauer ein nahezu unverändertes Tippverhalten.
Die mechanische Tastatur bietet ein durchgehend gleiches Druckgefühl, das im Umschaltpunkt nicht spürbar ist. Der Schaltweg ist kürzer, oft unter 2 mm, was eine schnelle Betätigung ermöglicht und sie daher auch gut für Gaming geeignet macht.
Die mechanische Tastatur hat einen definierten Schaltpunkt und oft ein spürbares Klickgeräusch. Dieses Klickgeräusch kann je nach Modell eventuell per Switch eingestellt oder mit Gummiringen gedämpft werden. Der Schaltweg ist in der Regel länger, oft über 2 mm. Mechanische Tastaturen mit diesem Design sind besser für Büroarbeit geeignet.
Funktastaturen bieten zusätzliche Bewegungsfreiheit beim Arbeiten am Schreibtisch und sind auch zu Hause auf dem Sofa, besonders beim Surfen auf dem Smart-TV, komfortabel. Sie eignen sich als Eingabegeräte für PCs, Smart-TVs, Tablets und Smartphones. Funktastaturen benötigen keine Kabel und werden über Funk oder Bluetooth mit einem beliebigen Endgerät verbunden. Allerdings müssen Batterien regelmäßig gewechselt oder für die Akkuaufladung gesorgt werden.
Für Tablets werden auch andockbare Tastaturen angeboten, die über mechanische oder magnetische Verbindungen befestigt werden. Sie ermöglichen es, das Tablet als Klappständer offen, als Laptop oder zusammengeklappt als Tablet zu verwenden.
Unterschriften und elektronische Signaturen sind über Signaturfelder, Signaturpads oder bei Tablets über Touchscreen möglich.
Abgebrochene, nicht mehr lesbare oder klemmende Tasten sowie falsche oder internationale Tasten anstelle einer deutschen Tastatur können häufig durch den schnellen Austausch mit Ersatztastaturen behoben werden. Es gibt verschiedene Befestigungssysteme für den Austausch, darunter Klicksysteme, Schraubsysteme und kombinierte Systeme. Bei mechanischen Tastaturen können bei Bedarf auch einzelne Tastenkappen extra beschafft und eingebaut werden.
typisch 24 oder 27 Zoll, Auflösung 1920x1080 Pixel, Reaktionszeit 1-5 ms, um 4 kg schwer
4-K-Monitor, fließendes Full-HD oder Ultra-HD-Erlebnis, zwischen 24 und 34 Zoll, Seitenverhältnis 16:9 oder 21:9
mit berührungssensitiver Bildschirmoberfläche, kann gleichzeitig mehrere und unterschiedliche Berührungen erkennen: in vielen Größen als Infopoint oder bei Tablets ohne großes Zubehör verwendbar.
mit möglichst schneller Darstellung und guter Bilddarstellung
mit sehr guter Bilddarstellung
Gewölbter, gekrümmter Monitor für natürlichere, räumlich tiefere Bilder
Die Liquid-Crystal-Display-Technologie (LCD-Technologie) ist die derzeit gängige Bauweise für Monitore. Bei LCD-Monitoren kommt insbesondere die Thin-Film-Transistor-Technologie (TFT-Technologie) zum Einsatz. Diese Technologie findet sich auch bei LCD-Fernsehern. In einem LCD-Monitor bilden Flüssigkristalle die einzelnen Bildpunkte (Pixel). Jeder Pixel besteht aus drei Farbfiltern, auch RGB-Subpixel genannt (Rot, Grün, Blau), die von hinten beleuchtet werden. Die Art der Lichtpolarisation durch die Kristalle unterscheidet sich jedoch nach den Panel-Typen (Display-Typen):
preisgünstig, schnelle Reaktionszeit, unterschiedliche Bildqualität je nach Blickwinkel, energiesparend
gute Bildqualität, etwas geringere Reaktionszeit
sehr gute Bildqualität aus größtem Blickwinkel 178 Grad, höhere Anschaffungskosten
ein hoher Blickwinkel von mindestens 160 Grad horizontal und vertikal (LED, LCD und OLED)
Anwender sollten ungefähr das 1,6-fache der Bildschirmdiagonale entfernt vom Monitor sitzen. Bei einem PC-Monitor mit 24 Zoll Bildschirmdiagonale bedeutet dies einen Sitzabstand von knapp 97 Zentimetern, und bei 27 Zoll eine Entfernung von etwa 110 Zentimetern.
Er ist in etwa der Rundung des Auges nachempfunden, das Sichtfeld wird zu den Seiten hin erweitert, wodurch ein räumlicheres Erlebnis vor dem Rechner entsteht.
horizontale Neigung des Bildschirms nach oben und unten
vertikale Drehbarkeit des Monitors
höheverstellbar und horizontale Drehbarkeit des Monitors
Monitore werden heute auch als Fernseher betrachtet, daher ist die Angabe der Effizienzklasse vorgeschrieben. Die neuen Labels sollen ab 2021 in den Geschäften eingeführt werden. Das Energy-Star-Kennzeichnungsprogramm für energieeffiziente Geräte gilt in Europa auch für Bürogeräte. Der Energy Star wird an Computer, Monitore, Scanner und Drucker vergeben, die einen Mindeststandard an Energieeffizienz erfüllen. Der Blaue Engel wird an Geräte vergeben, die einen besonders optimierten Energieverbrauch haben. Das TCO-Siegel zertifiziert Notebooks, Monitore, Computer und Beamer und zählt zu den renommiertesten Siegeln der Branche in Bezug auf Green-IT. TCO Certified Edge ist eine ergänzende Zertifizierung zu TCO Certified und ist den besten Produkten vorbehalten, die den modernsten Nachhaltigkeitskriterien entsprechen.
Die Adaptive-Contrast-Management-Funktion sorgt für Energieökonomie und optimale Bildwiedergabe, indem sie das Kontrastverhältnis für verbesserte Farbabstufung in sehr hellen oder dunklen Szenen automatisch anpasst.
Monitore werden oft als Multimedia- und Infodisplays an die Wand montiert. Arbeitsplätze werden häufig mit mehreren Monitoren ausgestattet, die mit verschiedenen Monitorhalterungen befestigt werden. Diese Halterungen ermöglichen es, die Monitore in der Höhe zu verstellen, zu drehen und zu schwenken. Monitorarme oder -ständer verbessern den ergonomischen Komfort und reduzieren das Risiko haltungsbedingter Gesundheitsprobleme wie Hals-, Schulter- und Rückenschmerzen, indem sie die Körperhaltung verbessern oder korrigieren. Sie ermöglichen auch das Arbeiten im Stehen und eine flexible Positionierung des Monitors. Darüber hinaus schaffen sie Platz für Tastatur, Laptop und andere Arbeitsutensilien. Es gibt preisgünstige Halterungen für ein bis drei Monitore und für spezielle Anwendungen sogar für bis zu neun Monitore. Diese Halterungen können beispielsweise per Tischklemme oder über Schreibtische mit Durchbohrloch montiert werden. Beim Kauf ist darauf zu achten, dass die Halterung den Anforderungen bezüglich des Gewichts der Monitore entspricht.
LEDs wandeln elektrischen Strom direkt in Licht um, wobei die Helligkeit proportional zur Stromstärke ist. Sie können direkt ein farbiges Bild erzeugen, indem sie Licht in den Grundfarben Rot, Grün und Blau (RGB) emittieren. Durch Überlagerung dieser Grundfarben können alle anderen Farben dargestellt werden. LEDs werden oft als Hintergrundbeleuchtung von LCDs verwendet.
Flüssigkeitskristalle produzieren selbst kein Licht. Als Lichtquelle dient eine Hintergrundbeleuchtung. Hier gibt es zwei Varianten:
Das Licht der Hintergrundbeleuchtung hinterleuchtet das Pixel-Panel aus Flüssigkristallen (Pixel in den Farben Rot, Grün und Blau). Wegen der Hintergrundbeleuchtung und den vielen Filtern sind dünnere Displays schwierig herzustellen.
sind eine eigene Lichtquelle und benötigen keine Hintergrundbeleuchtung. Dadurch ist der Aufbau wesentlich flacher. Zwischen den Elektroden, von denen eine transparent ist, befinden sich verschiedene organische Halbleiterschichten. Wird Strom durch die Elektroden geschickt, leuchten die Halbleiterschichten. Die Stromstärke reguliert die Helligkeit.
Durch die kleinere Größe der einzelnen Pixel sind eine wesentlich höhere Auflösung, Pixeldichte (um 0,2 mm) und damit Bildqualität möglich.
Bildwiederholfrequenz Anzahl der Bilder pro Sekunde. Bei einem Bildschirm liegt sie z.B. bei 60, 120, 144, 240 Hz. Bei einer Wiederholrate von 144 Hz = 144 Vollbilder/Sekunde oder alle kompatibel sein. Bei höheren Hertzzahlen kann es zu Nebeneffekten (Screen Tearing, Ruckeln, zerrissene Bilder) kommen, dann ist auf Freesync- und G-Sync-Techniken zu achten. HDMI-Kabel bieten je nach Modell maximal 120 Hz an, DVI und Displayport unterstützen auch mehr.
Candela (cd) bezieht sich auf die Lichtstärke (Lichtkerze hat 1 cd), wird als Einheit cd/m² angegeben. Die aktuellen Displays sind mit ca. 200 bis ca. 400 cd/m² ausgestattet. Für unser Auge ist ein WErt von 250 bis 300 cd/m² optimal.
Es ist wichtig, dass die Füße beim Sitzen nicht in der Luft hängen. Fußstützen dienen dazu, den Höhenunterschied zwischen dem Boden und der Tischhöhe auszugleichen. Sie können präventiv gegen Durchblutungsstörungen, Gefäßerkrankungen und allgemeines Unwohlsein wirken. Fußstützen mit Wipp- und Schaukelmechanik fördern und fordern die Beinbewegung, indem sie als kleiner Bewegungstrainer dienen. Es gibt auch Fußstützen für Stehtische, um dynamisches Stehen zu unterstützen. In einigen Fällen sind Fußstützen gemäß der Arbeitsstättenverordnung vorgeschrieben.
Es gibt eine Vielzahl ergonomischer Geräte, die speziell darauf ausgelegt sind, den Bedürfnissen des Menschen gerecht zu werden. Dazu gehören ergonomische Mäuse, Mauspads, Tastaturen, Handballenauflagen, Handgelenkauflagen, Tastaturhalter, Laptopständer, Laptophalter, Lapdesks und ergonomische Bildschirme.
LED-Flachbildschirme können aggressive Blaulichtstrahlung haben. Störungen im Hormonhaushalt oder Schlafstörungen können sich ergeben, die durch eine Filterfolie oder Blaulichtfilterbrille behoben werden können.
Spezielle Sehhilfen für die Arbeit an Bildschirmgeräten werden gewährt, wenn spezielle Sehhilfen notwendig und normale Sehhilfen nicht geeignet sind, Tests: z.B. Fehlsichtigkeitstests, Kontrasttests, Skalierungs- und DPI-Tests
Sehbehinderte können das Smartphone auch zum Vorlesen und als Einkaufshilfe einsetzen, z.B. mithilfe von Tools wie Android Accessibility Suite, Talkback Screenreader oder Nuance Accessebility Suite
Windows 10 oder Apple OS bieten viele Einstellungsmöglichkeiten, um Menschen mit Einschränkungen zu unterstützen, z.B. die Lupenfunktion
Blindenlese-/Braillezeilen und Notizgeräte, Vorlese- Abspielgeräte, z.B. tragbare Mini-Kamerasysteme oder Drucker für Blinden-/Brailleschrift.
Unter diesen Stichworten sind viele gesetzliche Anforderungen, Maßnahmen und Funktionen in Software und Softwareentwicklung zu finden.
Informationen und Bestandteile der Benutzerschnittstelle müssen den Benutzern so präsentiert werden, dass sie sie wahrnehmen können.
Bestandteile der Benutzerschnittstelle und Navigation müssen bedienbar sein, z.B Tastatur
Informationen und Bedienung der Benutzerschnittstelle müssen verständlich sein.
Inhalte müssen zuverlässig nutzbar sein.
Grundgesetzt (GG), Arbeitsstättenverordnung (§3 a), Allgemeines Gleichstellungsgesetz (AGG), Behindertengleichstellungsgesetz (BGG), Bundesteilhabegesetz (BTHG), Neuntes Sozialgesetzbuch (§ 81 IX), Barrierefreie-Informationstechnik-Verordnung (BITV 2.0), Accessebility Requirements for ICT Products and Services (EU-Norm EN 301 549), Web Content Accessebility Guidelines (WCAG 2.1)
Betriebliche Anwenderprogramme sind universell für betriebliche Belange erstellt worden, z.B. Auftragsbearbeitung, Warenwirtschaft mit Bestellwesen und Lagerhaltung, Lohn- und Gehaltsabrechnung und Finanzbuchhaltung. Diese Programme werden als integrierte Programme auch unter dem Sammelbegriff ERP (Enterprise Resource Planning) geführt.
Für fast alle Branchen werden spezielle Programme für kaufmännische, organisatorische und technische Belange angeboten.
Office-Programme sind Standardprogramme, die grundlegende Büroanwendungen wie Textverarbeitung, Tabellenkalkultion, Teamarbeit oder Präsentationen professionell ermöglichen.
Hierzu zählen die Office-Programme und alle universell (allgemein) einsetzbaren Programme, z.B. für Textverarbeitung, Tabellenkalkultion, Geschätsgrafik, Datenbanken, Bildbearbeitung oder Zeichnen.
Apps sind kleinere Programme, die nicht selten kostenlos Anwendungen zur Verfügung stellen, z.B. Wetter-App, Taschenrechner-App
Für besondere Funktionen und Anwendungen lassen Unternehmen individuell Anwenderprogramme entwickeln.
Vergleichsportale für Software bieten häufig kostenlose Empfehlungen und Tipps, um die passende Besinesssoftware für das Unternehmen zu finden.
Stufe 1: transparent Stufe 2: reaktionsfähig Stufe 3: selbst regelnd Stufe 4: funktional vernetzt
Manufacturing Execution Systems (MES) sind Softwaresysteme für digitale Produktionsleitsysteme. Sie fungieren als Bindeglied zwischen der Produktionsebene und ERP-Systemen, entweder teilweise oder vollständig integriert. MES erfasst, sammelt, verwaltet und analysiert Maschinen- und Betriebsdaten, um die Produktionsprozesse zu optimieren.
Supervisory Control And Data Acquisition (SCADA) bezeichnet die übergeordnete Prozessleitebene zur Datenerfassung, Steuerung und Überwachung technischer Prozesse. Ein SCADA-System verfügt in der Regel über einen oder mehrere SCADA-Server. Die Kommunikation innerhalb von SCADA-Systemen erfolgt sowohl über TCP-basierte Internettechniken als auch in Verbindung mit "intelligenten" Komponenten wie SPS und/oder RTU. Der Grad der Vernetzung hängt von den Protokollen und Standards ab, die berücksichtigt werden.
Die Speicher-Programmierbare Steuerung (SPS), auch bekannt als PLC (Programmable Logic Controller), ist ein Gerät, das zur Steuerung oder Regelung einer Maschine oder Anlage eingesetzt wird und auf digitaler Basis programmiert wird. Ebenso werden Remote Terminal Units (RTUs), auch als entfernte Terminaleinheiten bekannt, als regeltechnische oder steuerungstechnische Instrumente zur Fernsteuerung eingesetzt. Die Anbindung der SPS oder RTU an die Maschine oder Anlage erfolgt über Sensoren und Aktoren.
Aktoren, auch Aktuatoren genannt, sind in der Regel antriebstechnische Baueinheiten, die elektrische Signale in mechanische Bewegungen oder physikalische Daten wie Druck oder Temperaturen umsetzen. Sensoren hingegen wandeln in der Regel nicht-elektrische Messgrößen in elektrische Signale um. Durch RFID (Radio Frequency Identification) werden Daten eines Transponders, wie zum Beispiel eines Chips oder Etiketts, von einem Lesegerät erfasst. NFC (Near Field Communication) ermöglicht eine drahtlose RFID-Kommunikation mit kurzer Reichweite.
Cyber-physische Systeme (CPS) bestehen aus drei Teilen:
In verschiedenen Betriebsarten (Modbus ASCII, Modbus TCP, Modbus RTU) können die Komponenten miteinander kommunizieren
Hersteller für MES, Steuerungs- und Kommunikationstechnologien, je nach Produkten und Branchen unterschiedlich
IT-Ressourcen (Infrastruktur, Plattformen und Anwendungen) werden über Internettechnologien ortsunabhängig, virtualisiert und abstrahiert (vom Nutzer nur in der Web-Benutzeroberfläche erkennbar) als Services zur Selbstbedienung mit nutzerbasierter Abrechnung bereitgestellt.
Infrastruktur und Dienste werden jedem (der breiten Öffentlichkeit) über das Internet, i.d.R. bei nutzerbasierter Bezahlung, zur Verfügung gestellt. Die Cloud ist Eigentum des Betreibers und Dienstleisters (i.d.R. Hosting-Service-Provider, Telekommunikationsunternehmen, Internetunternehmen).
Infrastruktur und Dienste werden in geschlossenen Bereichen (für Unternehmen, Organisationen, Behörden) zum eigenen Gebrauch für Berechtigte (z.B. Mitarbeiter, Geschäftspartner, Kunden), i.d.R Zugriff über Intranet, zur Verfügung gestellt. Die Cloud ist Eigentum des Anbieters, Kontrolle, Sicherheit und Anpassungen der Dienste besser regelbar.
Kombination von Public Cloud, Private Cloud und traditioneller IT-Umgebung nach den Bedürfnissen der Nutzer. Vertrauliche Daten werden in der Private Cloud, andere in der Public Cloud gespeichert und bearbeitet.
Angebote von Providern für On-Demand-Infrastruktur (Server, Speicher, Netze, Archivierungs- und Backup-Systeme, Softwarekomponenten für das Management der Systeme), die von Nutzern eigenverantwortlich eingerichtet und administriert werden.
Dieser Begriff ist weiter gefasst als IaaS. PaaS-Provider stellen komplette Plattformen bereit. Sie bieten Hardware- und Softwareleistungen als Service. Diese Plattform können Anwender nutzen, um eigene SaaS-Lösungen zu entwickeln und zu betreiben oder um SaaS-Dienste mit traditionellen Softwareanwendungen zu integrieren.
Der Provider stellt On-Demand-Software für Betriebssysteme, Anwendungen, Middleware, Management- und Entwicklungs-Tools über das Internet bereit, verantwortet die Wartung und die Administration. Der Kunde nutzt die Anwendungen über das Internet, ohne sie zu besitzen, bezahlt für die Nutzung der Anwendung.
Je nach Leistungsinstanzen für Rechnerzeit in Stunden
nach Speicherkapazität in GB oder TB und Anzahl Transaktionen
Datentransfer in GB und Anzahl Transaktionen
Speichervolumen in GB und Anzahl Transaktionen
© 2024 Netzwerk-Barbaren - AP1
E-Mail