Green IT Über Cybertrading

IT-Glossar



Unser IT-Lexikon für Unternehmen & Interessierte


Die grenzenlose Digitalisierung und weltweite Vernetzung bringt eine Vielzahl neuer Fachbegriffe mit sich an denen wir oft nicht mehr vorbei kommen. In unserem Glossar finden Sie daher einfache Erklärungen zu den relevantesten Fachbegriffen rund um die Themen IT und Technik.

Glossar: Begriffe von A-Z


# A B C D E F G H I J K L M N O P Q R S T U V W X Y Z


#


3rd-Party:

3rd Party (Drittanbieter) beschreibt im Allgemeinen eine dritte Partei, die neben zwei anderen Parteien an etwas beteiligt ist. Der Begriff 3rd Party findet im EDV- oder IT-Bereich oft Anwendung. Wird ein Gerät als 3rd Party eingestuft, dann handelt es sich um ein Gerät, welches von Drittherstellern (Fremdherstellern) produziert und angeboten wird. Demnach legen 3rd Party Unternehmen ihren Fokus auf die Herstellung von Zusatzleistungen oder -Komponenten, wie Ersatzteile für Produkte und Produktfamilien. Zudem beauftragen Telekommunikationshersteller sogenannte Drittherstellern mit der Produktion von bestimmten Bauteilen wie Netzteile, Speicher und sonstige Zubehörartikel, da sie diese in ihrer eigenen Produktion nicht abdecken. 3rd Party Produkte sind mit Originalgeräten zu 100% kompatibel und eine deutlich preisgünstigere und oftmals attraktivere Alternative zu den Originalartikeln.

4in6 und 6in4:

4in6 beschreibt den Transport von IPv4-Datenpaketen innerhalb einer IPv6 Umgebung. 6in4 beschreibt die umgekehrte Variante, in der ein IPv6-Datenpaket eine IPv4 Umgebung durchquert. 4in6 oder auch 6in4 erfordert an den Endstellen, dem Start- und Endpunkt des Datentransfers, einen Dual Stack Router. Dual Stack bedeutet, dass der Router den Parallelbetrieb beider Protokolle unterstützt. Dadurch kann am Startpunkt, an einem Dual-Stack-Router, das IPv4-Datenpaket mit einer IPv6-Hülle verpackt werden. Daraufhin durchquert das Datenpaket den erweiterten Adressraum durch sogenannte “Tunnel”. Bevor das Paket anschließend wieder in eine IPv4-Umgebung eintritt, wird die IPv6-Hülle wieder in einem Dual-Stack-Router am Endpunkt entfernt. Den gleichen Prozess, nur umgekehrt, durchläuft auch ein IPv6-Datenpaket in einer IPv4 Umgebung.


A


Access Control:

Bei der Zugriffskontrolle (englisch: Access Control) werden verschiedene Ressourcen (beispielsweise Dateien) überwacht. Der Zugriff auf diese Ressourcen wird entweder erlaubt oder untersagt. Mit der Zugriffskontrolle wird gewährleistet, dass nur bestimmte Personen bzw. Personengruppen auf die Ressourcen zugreifen können. Die Access Control stellt sicher, dass Dateien sicher und vertraulich aufbewahrt und vor dem Zugriff unbefugter Dritter geschützt sind. Es gibt logische und physische Zugriffskontrollen. Logische Access Controls schränken den Zugriff in Computernetzwerken und in Dateien ein. Physische Access Controls sind beispielsweise für den Schutz von Gebäuden, IT-Maschinen und Räumen zuständig.

Access Networking:

Das Access Network, zu deutsch Zugangsnetz, ist aus dem Telefonnetz heraus entstanden. Vor einigen Jahren wurde für das Telefon eine Kupfer-Doppelader benötigt, welche mit einer Vermittlungsstelle verbunden war. Eine Vermittlungsstelle ist dabei ein Knotenpunkt, der sich in einem Nachrichtennetz befindet. Diese Technik benötigte jede Menge Vermittlungspunkte. In vielen Ländern war die Anschlussdichte sehr hoch, so dass auf steuernde Netzelemente umgestellt werden musste. Umgangssprachlich bezeichnet man diese steuernden Netzelemente als Access Nodes und die Vermittlungsstellen als Service Nodes. In der heutigen Zeit beinhaltet das Zugangsnetz nicht nur Telefonie, sondern auch die DSL-Technik, VDSL, Mobilfunknetze sowie das Kabelfernsehnetz, welches umgangssprachlich auch als Breitbandnetz bezeichnet wird.

Access Point:

Ein Access Point oder auch Wireless Accesspoint ein vergleichsweise kleines und verbindendes Netzwerkgerät und dient als Schnittstelle für die kabellose Kommunikation in Büros oder Unternehmen. Ein Access Point, häufig auch bezeichnet als AP, sieht einem Router nicht nur ähnlich, sondern arbeitet auch fast genau wie einer. Mit einem WLAN Access Points (WiFi AP) kann ein Local Area Network aufgebaut werden. Wird der WiFi AP über ein Ethernetkabel mit einem Router, Switch oder Hub verbunden, kann er ein WLAN-Signal aussenden und bislang nicht oder schlecht mit WLAN versorgte Bereiche versorgen. 

Active Directory:

Bei einem Active Directory handelt es sich um einen von Microsoft betriebenen Verzeichnisdienst. Mit diesem Verzeichnisdienst werden IT-Anlagen wie Drucker, Computer und Nutzer verwaltet. Microsoft bietet das Active Directory in seiner Produktfamilie bei Desktopanwendungen, dem Windows Server, Exchange sowie Sharepoint uvm. an. Seit den Windows Servern 2008 besteht der Active Directory-Dienst aus fünf Rollen mit einer Hauptkomponente. Die Hauptkomponente wird Active Directory Domain Services (ADDS) genannt. Das Active Directory dient dazu, Benutzer und Computer einfacher verwalten zu können. Dabei werden die Informationen zu den Benutzern und Computern in einem jeweiligen Verzeichnis gespeichert. Ohne solch ein Verzeichnis müsste in einem Unternehmen ein jeder Benutzer zu jeder Anwendung einen Benutzernamen und ein Passwort angeben und die Administratoren müssten jeden Benutzer jeder einzelnen Anwendung zuordnen, etc.

Adapter:

Adapter sind Geräte, die eine Kompatibilität zwischen Buchsen, Steckern und Kabeln, welche über unterschiedliche Anschlüsse verfügen, herstellen und es somit ermöglichen, diese miteinander zu verbinden. Mit einem Gigabit-Adapter ist es beispielsweise möglich, dass ein computerfähiges Endgerät über den USB-Anschluss mit einem Rj45-Ethernet-Port verbunden wird. Es gibt passive und aktive Adapter. Bei einem passiven Adapter wird die Verbindung der Geräte über das reine übertragene Signal hergestellt, welches nicht verändert wird. Der aktive Adapter dagegen verändert das Signal, indem zum Beispiel von ihm die Spannung geändert wird. Für die Umwandlung dieser Signale durch den Adapter ist dieser mit zusätzlichen Bauteilen versehen. Diese müssen wiederum mit Strom versorgt werden.

API:

Die Abkürzung API steht für Application Programming Interface und ist eine Sammlung von Befehlen, Protokollen, Funktionen und Objekten. Programmierer können APIs verwenden um eine Software oder Webanwendung mit einem Fremdsystem interagieren oder kommunizieren zu lassen. Application Programming Interfaces werden in der heutigen Zeit oft für Webservices genutzt, um den Benutzern eine Anbindung ihrer Systeme an gewisse Online-Dienste zu ermöglichen. Zu jeder Schnittstelle gehört eine ausführliche Dokumentation der Funktionen und Parameter.

Application Layer Gateway:

Ein Application Layer Gateway (abgekürzt ALG) bildet die “letzte Instanz” einer mehrstufigen Sicherheitskontrolle, bevor externe Inhalte die Grenze zu einem abgeschirmten Netzwerk überschreiten dürfen. Hierbei werden ein- und ausgehende Datenströme jeweils individuellen Kontrollprogrammen, sogenannten Sicherheitsproxies, zugewiesen. Diese unterbrechen kurz, analysieren und leiten die Inhalte an einen verfügbaren Port weiter oder weisen sie zurück. Die Abwicklung des Datenverkehrs erfolgt über eine vergleichsweise geringe Zahl an freigegebenen Ports. Durch die wenig offen zu haltenden Übergängen erhöht sich die Sicherheit des Netzwerks.

APT:

Gemäß der APT Definition handelt es sich bei einem Advanced Persistent Threat (zu deutsch fortgeschrittene andauernde Bedrohung) um einen zielgerichteten Cyber-Angriff, der im Gegensatz zu anderen Angriffsarten oft spezifische Spionage- oder Sabotageziele verfolgt und dabei auf eine ausreichende finanzielle Unterstützung zurückgreift. Eine APT Attacke ist nicht nur komplex und effektiv, sondern setzt auch eine technische Raffinesse des Angreifers voraus. Aufgrund des technologischen Fortschrittes versuchen sich immer mehr feindliche Organisationen Zugang zu Verteidigungs-, Finanz- und anderen sensiblen Informationen von Regierungen und Unternehmen, aber auch von Behörden und Einzelpersonen zu verschaffen. Die über einen längeren Zeitraum anhaltende, mehrstufige Attacke stellt die IT stetig vor neue Herausforderungen. Der noch immer wirksamste APT Schutz ist eine intelligente Sicherheitsvorkehrung, die auch eine End-to-End-Strategie umfasst.

AS:

Autonome Systeme (kurz AS) sind große Netzwerke, die in ihrer Gesamtheit das Internet bilden. Dabei muss ein großes Netzwerk oder eine Gruppe von Netzwerken über eine einheitliche Routing-Richtlinie verfügen, um als Autonomes System bezeichnet werden zu können. Jedes Gerät, welches das Internet nutzt, ist mit einem AS verbunden. Gleichzeitig ist der Verbund von Routern und Netzwerken in der Regel einer einzigen großen Organisation unterstellt. Diese Organisation kann ein großes Unternehmen oder eine Universität darstellen. 

ASA:

Die Adaptive Security Appliance (ASA) Software ist eine bewährte und weit verbreitete Sicherheitslösung. Die bekannte Firewall von Cisco ermöglicht es den IT-Verantwortlichen oder anderen Benutzern innerhalb des eigenen Unternehmensnetzwerkes oder Rechenzentrums sicher und zuverlässig auf Daten und Netzwerkressourcen zuzugreifen. Die ASA-Firewall basierend auf Linux bildet das Kernbetriebssystem der gesamten Cisco ASA-Familie. Dennoch lässt sich die ASA-Software auch in andere Sicherheitstechnologien integrieren und bietet damit den optimalen Schutz vor Bedrohungen und Angriffen. Die Produktlinie der Cisco Adaptive Security Appliances umfasst unterschiedliche Serien, zu denen beispielsweise die ASA 5500-Serie zählt.

ATM:

Seit 1988 wird das asynchrone Übertragungsverfahren (ATM, Asynchronous Transfer Mode) zum Transport von größeren Datenmengen über Telefonleitungen genutzt. Die Übermittlung findet mit einer hohen Geschwindigkeit statt, weshalb das ATM oft auch in Hochleistungsnetzen mit sehr hohen Übertragungsraten Anwendung findet. Die zügige Übertragung erfolgt durch die Zerlegung der Daten, unabhängig von Größe und Art, in kleine Pakete. Die Größe der zerlegten Pakete beträgt jeweils 53 Byte. Für die eigentlichen Informationen stehen 48 Byte eines Paketes zur Verfügung. Die restlichen 5 Byte sind für den Transport zum gewünschten Zielort und der dortigen erneuten Zusammensetzung notwendig.


B


Backbone:

Der englische Begriff Backbone (zu deutsch Rückgrat oder Basisnetz) impliziert den Kernbereich eines Netzwerks, der kleinere Teilnetze miteinander verbindet. Da sich in einem Backbone-Netzwerk die Datenraten aller Endbenutzer bündeln, sind besonders große Datenübertragungsraten notwendig, die meistens über Glasfaserleitungen realisiert werden. Ein Backbone-Router verbindet separate Systeme innerhalb dieses Netzwerkes miteinander und weist eine sehr starke Verarbeitungsfähigkeit und viel Speicherplatz auf. Ein Backbone- oder Core-Switch ist ebenfalls Bestandteil eines Backbones und dient als Gateway für ein Wide Area Netzwerk oder das Internet. Auch der Core-Switch muss eine sehr hohe Kapazität aufweisen, um die an ihn gesendete Last zu verarbeiten.

Bandbreite:

Die Bandbreite ist eine Kennzahl der Signalverarbeitung und wird in verschiedenen Bereichen der Informatik und Physik genutzt, um den Frequenzbereich zu beschreiben. Im Bereich der IT-Hardware wird dieser Begriff oft als Synonym für die Datenübertragungsrate verwendet. Die Netzwerkbandbreite beschreibt die Fähigkeit einer Netzwerk-Kommunikationsverbindung, die eine maximale Datenmenge von einem Punkt zu einem anderen über ein Netzwerk oder das Internet übertragen kann. Je mehr Bandbreite eine Datenverbindung hat, desto mehr Daten können gesendet und empfangen werden.

BCM:

Der Business Communication Manager (BCM) beispielsweise von Nortel/Avaya ist ideal für kleine und mittlere Unternehmen geeignet, um zukunftsweisende IP-Telefonie für bis zu 250 Personen zu betreiben. Der Business Communication Manager verfügt über zahlreiche Lösungen für das Unternehmen wie Telefonie, Verarbeiten von Nachrichten, IP-Routing sowie die Funktionalität als Firewall. Sogar als komplettes Multimedia-Call-Center kann der BCM verwendet werden. Dank intelligenter Kontaktfunktion können sich Menschen untereinander innerhalb kurzer Zeit verbinden. So ist der BCM die perfekte Lösung, um IP-Telefonie sowie zahlrei-che andere Funktionen in einem Gerät zu vereinen.

BGP:

BGP bezeichnet das Border Gateway Protokoll, welches auch als Routing Protokoll des Internets bekannt ist. Das Protokoll dient dem Austausch von Informationen zwischen autonomen Systemen. Mittels des BGP erfolgt eine stetige Anpassung der Pfade für den Transport von Datenpaketen. Beim Ausfall von Routen wird durch das BGP schnellstmöglich ein neuer Weg bereitgestellt. Unabhängig davon hat das Border Gateway Protokoll zum Ziel alle möglichen Routen permanent zu optimieren und alle zeitlichen Verzögerungen auf ein Minimum zu reduzieren.

Bit:

Bit steht für „binary digit“ und ist im Computerumfeld die kleinste binäre Informationseinheit. Damit ist sie die Basis für alle größeren Dateneinheiten der Digitaltechnik und kann den Binärwert 1 oder 0 annehmen. Binärzahlen bilden genau zwei Zustände ab: 1 für „An/Wahr“ und 0 für „Aus/Falsch“. Computer nutzen diese binären Zahlen, um zu kommunizieren. In erster Linie begegnen Bits uns bei Datenverbrauch und Übertragungsgeschwindigkeiten von Internet-, Telefon- oder Streamingdiensten. So zeigt die Bitrate an, wie viele Bits, also Dateneinheiten, pro Sekunde übertragen werden. Zur Anzeige von Dateneinheiten und -mengen bei Übertragung und Speicherung gibt es verschiedene Bit-Vielfache z.B. das Kilobit, das Megabit und auch das Gigabit.

Bulk Ware: 

Bulk ist ein englisches Wort und bedeutet so viel wie „Masse“. Mit Bulk Ware ist daher in der IT ein Produkt wie ein Gerät oder eine Software gemeint, die in der Masse verkauft wird. Dabei fehlen allerdings (in den meisten Fällen) die Verpackung, Handbücher und sonstige Extras. Hardware ist beispielsweise häufig in einer nicht-statischen Tasche verpackt und enthält maximal noch eine Treiber-CD. Bei Software-CDs fehlen zum Beispiel die Umverpackung und das Handbuch in gedruckter Form. Zudem fehlt bei Bulk Ware oftmals der Hersteller-Support. Im Gegensatz zu Retail, fehlen bei Bulk Ware häufig auch die gewohnten Lables und die Kartonage ist meist nicht in dem Umfang wie man es gewohnt ist. Bulk Ware in Form von Multi-Packs zeichnet sich bspw. auch dadurch aus, dass Hersteller Einzelstücke nicht separat verpacken, sondern diese in 10er Sammlungen verkaufen. Der Vorteil von Bulk Ware ist der günstigere Anschaffungspreis gegenüber den „normalen“ Verkaufsversionen. Wenn der Endkunde Handbücher, Umverpackungen und Co. nicht benötigt, ist dies eine günstige Alternative.

Byte:

Ein Byte ist in der Computertechnologie die kleinste adressierbare Speichereinheit. Ein Byte besteht aus acht zusammengesetzten Bits. Durch die Zusammensetzung von acht Bits lassen sich in einem Byte 256 unterschiedliche Zustände (0 oder 1) darstellen. Dadurch ist es möglich in einem Byte Zahlen oder Buchstaben zu kodieren und in Computersystemen darzustellen. Wachsen die Speichereinheiten weiter und kommen weitere Bytes zu einem Byte hinzu, so entsteht aus 1000 Bytes ein Kilobyte, als nächstgrößere Speichereinheit. In den meisten heutigen Computersystemen wird die Speichergröße in Kilobyte, Megabyte oder Gigabyte angegeben.


C


CCM:

Kleine und große Unternehmen haben längst erkannt, dass es wichtig ist, (potenzielle) Kunden am Telefon oder per E-Mail zu betreuen und zu beraten. Daher nutzen immer mehr Unternehmen Call- oder Contact Center für diese Aufgabe. Call- sowie Contact Center benötigen eine Person, die Mitarbeiter führt, die Abläufe organisiert und steuert, Kunden akquiriert und sich mit Controlling auskennt. Außerdem ist es wichtig, rechtliche Grundlagen für das Direktmarketing sowie die technischen Voraussetzungen für ein Call- bzw. Contact Center zu kennen. Um all diese vielfältigen Aufgaben kümmert sich der Call- bzw. Contact Center Manager.

CGI:

Eine der ältesten Schnittstellentechnologien des Internets ist das CGI (Common Gateway Interface). Es wird häufig noch als Schnittstelle zwischen verschiedenen Webservern für einen standardisierten Datenaustausch angewandt. Wird eine Eingabe auf einer Webseite getätigt, wird diese umgewandelt, um übertragen zu werden. Die Verarbeitung von dieser Eingabe erfolgt im CGI über das CGI Skript. Das Programm übermittelt dann die Daten über standardisierten CGI Schnittstellen an den Server, der die Daten in HTML wieder reproduziert. Der Vorteil von CGI liegt darin, dass das CGI Skript in verschiedenen Programmiersprachen verfasst werden kann. Das Common Gateway Interface ist flexibel und sorgt dafür, dass Webserver und Skript miteinander kommunizieren können.

Client-Management:

Client-Management Systeme oder auch Client Lifecycle-Management genannt, sind moderne Systeme, die der zentralen Verwaltung der gesamten Infrastruktur dienen. Das Client Management berücksichtigt dabei sämtliche Aspekte der IT wie beispielsweise die verwendete Software, den aktuellen Stand, die Funktionalität sowie mögliche Schwachstellen aller Geräte im Netzwerk. Das Angebot an Client Management Software ist vielfältig und auf unterschiedliche Unternehmensstrukturen und Schwerpunkte zugeschnitten. Doch haben alle Client Management Lösungen eins gemeinsam: sie reduzieren den administrativen Aufwand für die IT-Abteilung und helfen dabei, das Leistungsniveau zu halten und gleichzeitig die Produktivität zu steigern.

Client-Server-Technologie:

Die Client-Server-Technologie sorgt dafür, dass Aufgaben und Dienstleistungen in einem Netzwerk geordnet ablaufen. Dabei kümmern sich Computerprogramme um die Verteilung der Aufgaben. Es wird zwischen Clients und Server unterschieden. Der Client ist ein Computerprogramm (bzw. Gerät), das auf dem Gerät des Zielrechners läuft und mit dem Server kommuniziert. Der Server ist ein Gerät bzw. Programm, welches auf eine Aufforderung vom Client wartet, um dann eine bestimmte Anfrage des Clients auszuführen. Wenn beispielsweise eine Website-URL im Browser aufgerufen wird, kommuniziert der Client mit dem Webserver, schickt diesem eine Anfrage und bekommt vom Server im Erfolgsfall eine Antwort und somit die Daten der angefragten Website zurück. Auf dem Client-PC wird dann die angefragte Website angezeigt.

Cloud Networking:

Als Cloud Networking bezeichnet man eine Infrastruktur, bei der Drittanbieter bestimmte Ressourcen und Netzwerkfunktionalitäten über die sogenannte Cloud-Plattform zur Verfügung stellen. Das Netzwerkmanagement, die Datenverbindung sowie die Kontrolle werden auf Cloud-Services verlagert. Netzwerkressourcen beinhalten virtuelle Router, Firewalls und Netzwerkmanagementsoftware. Anwender sowie interne und externe Computing-Ressourcen greifen dabei auf das Netzwerk zu, um untereinander zu kommunizieren. Durch das Cloud Networking können Managementgeräte auf ein Minimum reduziert und somit Kosten gesenkt werden. Zudem sind die externen Serviceanbieter dafür zuständig, das Netzwerk zu verwalten und zu schützen.

Cloud-Telefonie:

Bei der Cloud-Telefonie ist es nicht mehr nötig, herkömmliche Telefonanlagen zu benutzen. Dafür nutzt die Cloud-Telefonie den internetbasierten Sprachkommunikationsdienst Voice over IP (VoIP). Dies ist eine softwarebasierte Lösung, bei der sich sämtliche Funktionalitäten, für die ansonsten Telefonanlagen zuständig wären, im Rechenzentrum des externen Hosters befinden. Es entfallen lästige Verkabelungen und (teils riesige) Telefonanlagen. Die Endkunden benutzen somit zum Telefonieren das Internet. Dabei kann die Telefonie entweder über den PC, das Smartphone oder via IP-Telefon stattfinden.

Controller:

Bei Controllern (zu Deutsch Steuergerät bzw. Steuereinheit) handelt es sich in der Informatik um elektronische Bauteile, die verschiedene Prozesse steuern. Controller unterstützen dabei die zentrale Prozessoreinheit CPU. Sofern diese Bauteile aus einem integrierten Schaltkreis bestehen, bezeichnet man sie als Microcontroller. Controller sind unter anderem für Befehle, die über die Tastatur eingegeben wurden, oder den Zugriff auf Speichermedien wie die Festplatte, zuständig. Diese Steuergeräte bezeichnet man auch häufig als Adapter. Hierzu gehören beispielsweise Netzwerkadapter wie WLAN-Controller, die den Rechner mit einem Netzwerk verbinden. Ein Grafik-Controller ist beispielsweise dafür zuständig, Rechner und Anzeigegerät miteinander zu verbinden.

CPU:

CPU bedeutet „Central Processing Unit“, zu Deutsch „zentrale Prozessoreinheit“. Hierbei handelt es sich um den Hauptprozessor, das „Herz“ des Computers. Die zentrale Prozessoreinheit interpretiert und führt die meisten Computerbefehle aus. Zu diesen Befehlen gehören arithmetische und logische Operationen. Die CPU leitet diese Befehle dann an weitere Einheiten (beispielsweise andere Computer-chips) weiter. Sie befindet sich auf einem Sockel, der am Mainboard befestigt ist. Je nach Aufgabe, die die CPU abarbeiten muss, erhitzt sie sich sehr stark. Deshalb muss der Prozessor von einem Lüfter gekühlt werden. Mathematische Berechnungen sowie logische Operationen führt die zentrale Prozessoreinheit im sogenannten binären System mit den Ziffern 0 und 1 durch.

Cyberkriminalität:

Cyberkriminalität ist als Straftat, die auf Computersysteme und Netzwerke abzielt, zu verstehen. Hinter diesen Verbrechen stehen oft Einzelpersonen oder Organisationen, bestehend aus Cyberkriminellen oder Hackern. Die Liste der Arten von Cyberkriminalität ist lang und umfasst neben E-Mail-, Internet- oder Identitätsbetrug auch den Diebstahl von finanziellen oder anderen sensiblen Daten. Das Cyberkriminalität Darknet wird daher in zwei Hauptkategorien gegliedert - kriminelle Aktivitäten, die auf Computer/Netzwerke abzielen sowie kriminelle Aktivitäten, die Computer/Netzwerke benutzen, um weitere Verbrechen zu begehen. Um Cyberkriminalität zu melden, stehen den Betroffenen entsprechende Ansprechstellen der Polizeien der Länder und des Bundes zur Verfügung.


D


Data Literacy:

Bei der Data Literacy handelt es sich um eine grundlegende Kompetenz, mit Daten umzugehen und diese planvoll und sachgerecht einzusetzen. Sie wird auch als Datenkompetenz bezeichnet. Für die weitere Interpretation sowie Präsentation der Daten sind wiederum verschiedene Kompetenzen, wie unter anderem die Mathematik, Programmierung und Statistik, zuständig. Je mehr Daten verarbeitet und ausgewertet werden müssen, desto größer wird die Datenmenge. In diesem Zusammenhang spricht man von Big Data. Die Data Literacy ist einer der wichtigsten Bausteine für die digitale Transformation. Personen wie Datenspezialisten, -wissenschaftler sowie -analysten verfügen über die notwendige Data Literacy, um mit (großen) Daten sachgerecht umzugehen.

Data Loss Prevention:

Die Data Loss Prevention (DLP) ist eine Strategie, die sowohl auf Hardware als auch auf Software bezogen, angewandt wird, um sensible Daten sowie kritische Informationen zu schützen bzw. deren ungewollten Abfluss zu verhindern. Data Loss Prevention, als Teil der Informationssicherheit, überwacht alle Datenflüsse auf Wechseldatenträgern, Netzwerken, E-Mail, auf mobilen Geräten, etc. Auch Mitarbeiter, welche durch falsches Verhalten, sei es mutwillig oder versehentlich, zum Datenabfluss von Unternehmensdaten beitragen, werden mit DLP-Lösungen berücksichtigt.

Datensicherheit:

Zur Datensicherheit gehören allgemein alle technischen Begebenheiten, die den Schutz der Daten gewährleisten. Datensicherheit gehört mit dem Datenschutz und IT-Sicherheit zum Bereich der Informationssicherheit. Die Datensicherheit verfolgt das Ziel, Vertraulichkeit, Verfügbarkeit sowie Integrität der Daten, unabhängig von ihrer Art, zu gewährleisten. Vertraulichkeit impliziert, dass Daten nur von denjenigen eingesehen werden können, die dafür die Rechte haben bzw. dazu autorisiert sind. Die Verfügbarkeit sorgt dafür, dass die entsprechenden Daten den Benutzern, Prozessen sowie Anwendungen immer zur Verfügung stehen. Integrität bedeutet, dass Daten vor Manipulationen geschützt sind und somit nicht unerlaubt geändert werden können. Sollte einer dieser Bereiche fehlen, dann ist die Datensicherheit nicht mehr gewährleistet.

DCU:

In optischen Netzwerken können Dispersionskompensationseinheiten (DCU) zur Kompensation der Verbreiterung eines Lichtimpulses in Lichtwellenleitern (LwL) verwendet werden. Diese Verbreiterung wird als Dispersion bezeichnet und führt zu einer Begrenzung der Übertragungsbandbreite. In der Regel bietet ein DCU-Modul einen festen Dispersionswert, obwohl auch Kompensationseinheiten mit variablem Wert erhältlich sind. Eine solche Einheit kann leicht in eine Glasfaserverbindung eingefügt werden, da es über Glasfaseranschlüsse für den Eingang und den Ausgang verfügt. Die Einfüge-Verluste können beträchtlich sein, aber mit einem Faserverstärker verbessert werden. Solche Einheiten werden häufig zwischen zwei Faserverstärkern angeordnet. Für eine effektive Kompensation wurde die DCU so hergestellt, dass sie über die gesamte Bandbreite von 1525 bis 1565 nm funktioniert.

Device Control:

Device Control ist die Möglichkeit, Datenverlusten vorzubeugen. Mit Device Control wird auf Wechseldatenträgern, optischen Laufwerken und drahtlosen Netzwerkprotokollen verhindert, dass auf diese zugegriffen wird. Mit dieser Sicherheitsmethode kann verhindert werden, dass sich Malware beispielsweise über einen USB-Stick auf dem Zielgerät (z.B. ein Rechner) weiterverbreitet. In vielen Unternehmen gehört Device Control zur Sicherheitsstrategie, sodass beispielsweise nur bestimmte Wechseldatenträger an ein Zielgerät angeschlossen werden können. Sogar eine Filterung der Dateitypen ist möglich. So können auch nur bestimmte Dateitypen auf das Zielgerät übertragen werden.

DHCP:

Beim Dynamic Host Configuration Protocol (DHCP) handelt es sich um ein Client-/Server-Protokoll aus der Computertechnik. Clients werden in Computernetzwerken durch einen Server zugewiesen. Das DHCP-Protokoll erleichtert die Zuweisung eines Gerätes innerhalb eines Netzwerkes ungemein. In einem Netzwerk, welches auf TCP/IP aufgebaut ist, muss jedes Gerät eine eindeutige IP-Adresse besitzen. Nur so ist es dem Gerät möglich, auf die Daten innerhalb des Netzwerkes zuzugreifen. Wenn das DHCP-Protokoll nicht zum Einsatz kommen würde, müsste die IP-Adresse jedes einzelnen Gerätes, welches von einem Subnetz in ein anderes verschoben wird, manuell zugewiesen werden. Aus dem Netzwerk entfernte Geräte müssten dann ebenfalls wieder manuell konfiguriert werden. Das DHCP-Protokoll automatisiert diesen gesamten Vorgang.

DHCP Snooping:

Bei DHCP-Snooping handelt es sich um eine Layer-2-Sicherheitsschicht, die im Betriebssystem von einem Netzwerk-Switch integriert ist. Dabei blockiert diese Sicherheitsschicht jeden Netzwerkverkehr über DHCP (Dynamic Host Configuration Protocol), welcher als gefährlich bzw. nicht akzeptabel erkannt wird. DHCP-Snooping verhindert, dass nicht autorisierte DHCP-Server IP-Adressen an DHCP-Clients anbieten können. Dabei klärt DHCP-Snooping ab, ob die einkommenden DHCP-Nachrichten aus autorisierten Quellen stammen oder nicht und fängt diese entsprechend ab. Um zu überprüfen, ob es sich bei den Nachrichten um jene aus autorisierten Quellen handelt, bedient sich diese Sicherheitstechnologie der DHCP-Snooping-Datenbank. In der Datenbank sind die Hosts aufgelistet, die nicht vertrauenswürdig bzw. nicht sicher sind.

DIMM:

Ein Dual Inline-Speichermodul ist ein Speicher, der dem Arbeitsspeicher (RAM) ähnelt. Das DIMM Modul, ein doppelreihiger Speicherbaustein, besteht aus einem oder auch mehreren RAM-Chips sowie einer Platine. Diese sind mit dem Motherboard vom Computer verbunden. Die integrierten Schaltkreise eines Dual Inline-Speichermoduls bieten Recheneinheiten, wie bspw. Servern, die Möglichkeit, dynamisch Informationen in kürzester Zeit zu lesen und zu schreiben. Sie haben zwischen 72 und 240 Pins. DIMM-Module werden in Servern, in PCs mit Motherboard und in anderen Recheneinheiten verwendet. Dual Inline-Speichermodule verfügen über Kerben an unterschiedlichen Stellen. So können sie leicht installiert werden und ein falscher Einbau ist so gut wie ausgeschlossen.

Disaster Recovery:

Disaster Recovery bedeutet auf Deutsch Notfallwiederherstellung bzw. Datenrettung. Die Disaster Recovery ist Teil der Sicherheitsplanung in der IT und impliziert, dass Dateien wie Fotos, Video, etc. und andere IT-Dienste beispielsweise durch höhere Gewalt (Brand, Überschwemmungen, Stromausfälle) gelöscht wurden oder unbrauchbar geworden sind. Mit der Datenrettung soll das Ausfallrisiko von Servern, Datenspeichern, Telefonanlagen und Netzwerken in Organisationen und Unternehmen so gering wie möglich gehalten werden. Der Disaster Recovery Plan (DRP) stellt Maßnahmen und Regeln auf, wie das Unternehmen im Fall einer Störung reagieren muss.

DMP:

Bei einem Digital Media Player (DMP) handelt es sich um ein Gerät, welches ideal als interaktives Multimedia-Komplettgerät für gewerbliche Zwecke geeignet ist. Die Administration eines Digital Media Players erfolgt in der Regel über eine übersichtliche Weboberfläche. Diese ist über eine fest vergebene IP-Adresse über das Firmennetzwerk aufrufbar. Der DMP ist in der Lage, multimediale Inhalte live zu übertragen, On-Demand Videos abzuspielen, Grafiken sowie Ticker in Textform darzustellen. Außerdem können Updates für einzelne Personen oder im gesamten Firmennetzwerk zur Verfügung gestellt werden. Der Administrator ist ebenso in der Lage, die Häufigkeit und Dauer der Wiedergabe von Inhalten zu steuern und zu planen. Ein weiterer Vorteil des Digital Media Players ist der geringe Wartungs- und Implementierungsaufwand für die IT-Abteilungen. Dadurch entstehen lediglich geringe zusätzliche Netzwerkkosten.

DNS:

Vereinfacht ausgedrückt handelt es sich beim Domain Name System (kurz DNS) um das „Telefonbuch“ für das Internet. Jeder Computer bzw. Server verfügt über eine eindeutige IP-Adresse, ähnlich dem menschlichen Fingerabdruck. Um die Telefonnummer von jemanden in Erfahrung zu bringen, sucht man in einem Telefonbuch nach dessen Namen. Das DNS schaut ebenso nach dem Computernamen, um in diesem Fall die eindeutige IP-Adresse des Computers bzw. Servers, herauszufinden. Mittels der IP-Adresse wird anschließend eine Verbindung zum Server hergestellt. Das Domain Name System löst Computernamen in IP-Adressen auf und umgekehrt. Dazu greift das DNS auf eine zentrale Datenbank zu. Die Informationen in dieser zentralen Datenbank sind auf Tausende von Nameservern (sogenannten DNS-Servern) verteilt.

DOS:

Bei einem Disk Operating System (DOS) handelt es sich um das Betriebssystem eines Computers. Die Hauptaufgabe des Betriebssystems ist es, Daten zu lesen und zu speichern. IBM hat in der Vergangenheit seine Business-Computer mit dem Betriebssystem DOS ausgeliefert. Berühmtheit erlangte dieser Begriff aber durch Microsoft und Bill Gates, welcher die Microsoft-Version dieses Betriebssystems als MS-DOS vermarktete. DOS bedient sich einer einfachen Kommandozeile und besitzt keine eigene grafische Benutzeroberfläche. Dies machte die Bedienung für den normalen Computerbenutzer sehr umständlich. Die heutigen Windows-Betriebssysteme unterstützen nach wie vor DOS bzw. die Kommandozeile, mit deren Hilfe man verschiedene Computerbefehle ausführen kann.

DRaaS:

Ein Disaster Recovery as a Service (DRaaS) ist ein Service, der von Cloud-Anbietern zur Verfügung gestellt wird. Kommt es zu einem Zwischenfall, beispielsweise durch Cyberangriffe, Stromausfälle, Naturkatastrophen, etc. haben die Unternehmen die Möglichkeit, ihre vorab in der Cloud gesicherten Daten bei einem DRaaS-Anbieter wiederherzustellen. Bei einem „as-a-Service“-Modell braucht das Unternehmen seine Daten nicht selber zu sichern (wenn es beispielsweise über nicht genügend Ressourcen verfügt), sondern der Drittanbieter übernimmt die komplette Sicherung und Wiederherstellung im Katastrophenfall. Das Unternehmen braucht sich daher nicht um das (häufig aufwendige) Sichern und Wiederherstellen der Daten zu kümmern.


E


EGP:

Das Exterior Gateway Protokoll (EGP) steuert die Kommunikation zwischen Routern verschiedener autonomer Systeme (eigenständiger Netzwerke). Mittels des EGP erfolgt der Austausch von Routing-Tabellen an benachbarte Router - auch Edge Router genannt. Jedes autonome Netzwerksystem verfügt über mindestens einen Edge-Router, welcher als letztes intern verwaltetes Gerät von einem AS angesehen wird. Der gegenseitige Austausch der sogenannten Routing-Tabellen erfolgt über diese Edge-Router in Intervallen von bis zu 480 Sekunden. Die Routing-Tabellen übermitteln dabei Informationen zu den erreichbaren IP-Adressen, einer Liste aller bekannten Router, sowie Pfadinformationen, um stets die bestmögliche Route für den Transfer von Netzwerkdaten zu jedem Router auswählen zu können. 

Endpoint Security:

Endpoint Security schützt Geräte, die in ein Netzwerk eingebunden sind, vor verschiedenen Angriffen. Neben dem Begriff Endpoint Security werden die Synonyme Endpunktsicherheit, Endgerätesicherheit und Endpunktschutz verwendet. Verschiedene technische und organisatorische Maßnahmen sorgen dafür, dass Unbefugte auf die Geräte nicht zugreifen und somit keinen Schaden anrichten können. Geräte, die mit der Endpoint Security geschützt werden können, sind beispielsweise PCs und Notebooks, Tablets, Smartphones, Drucker, etc. Die Endpunktsicherheit schützt u.a. vor Gefahren wie Viren und Ransomware. Zur Absicherung benutzt man beispielsweise Firewalls und Zugriffssteuerungen sowie weitere Sicherheitsmaßnahmen.

Ethernet:

Ein Ethernet ist ein kabelgebundenes Datennetz, welches Hardware/Software miteinander verbindet. In den meisten Fällen wird die Verbindung über ein LAN-Kabel hergestellt, weshalb ein Ethernet auch als LAN-Technik bezeichnet wird. Das Ethernet ermöglicht es, dass Endgeräte Daten untereinander austauschen können. Zu Endgeräten gehören z.B. Drucker, Server, Computer, etc. Diese untereinander verbundenen Geräte bilden ein lokales Netzwerk, welches über das sogenannte Ethernet-Protokoll Datenpakete zwischen den einzelnen Geräten hin und her sendet. Das Protokoll, welches aktuell am häufigsten verwendet wird, ist das IEEE 802.3.-Protokoll. In früheren Zeiten konnten mit dem Ethernet-Protokoll bis zu 3 Megabit pro Sekunde übertragen werden, wohingegen heutzutage bis zu 1000 Megabit pro Sekunde möglich sind.

Ethernet-Anschlussdose:

Die Ethernet-Anschlussdose, kurz EAD, wurde für Ethernet-Verbindungen genutzt. Anfang der 80er Jahre unterstützten EAD’s IT-Administratoren bei ihrer Arbeit. Davor fand die Datenübertragung per Koaxialkabel statt. Zu diesem Zeitpunkt war die gesamte Abschaltung des Netzwerks notwendig, sobald es zum Anschluss oder zur Reparatur eines neuen Gerätes kam. Grund dafür war das Prinzip der Reihenschaltung, dem die Netze folgten. Dadurch konnten etliche Aufgaben der IT-Administratoren erst nach dem Büroschluss erledigt werden. EAD’s stellten die Lösung dar, so dass das Ein- oder Ausstöpseln von Geräten möglich wurde, ohne das gesamte Netzwerk lahmzulegen. In den 90er Jahren verringerte sich der Gebrauch von EAD, so dass diese heute als veraltet gelten.

Exploit:

Bei einem Exploit (zu Deutsch „ausnutzen“) werden Schwachstellen in einem Computerprogramm systematisch ausgenutzt. Dabei versuchen Cyberkriminelle mit Hilfe von Exploits Schwachstellen in Programmen zu finden und Schaden anzurichten. Bei Exploits handelt es sich um Programme, welche die Sicherheitslücken in den installierten Programmen ausfindig machen und diese Lücken zum Angriff nutzen. Dazu zählen etwa Viren und Ransomware. Sie sind z.B. in einem Word-Dokument versteckt oder schleichen sich unbemerkt über den Besuch auf einer virenverseuchten Website auf den eigenen Rechner. Anschließend wird der Schadcode im Arbeitsspeicher des Rechners abgelegt. Die Exploits ändern nun den Programmcode in der Sicherheitslücke des betroffenen Programms. Der eingeschleuste Schadcode wird nun an der entsprechenden Stelle im Programm ausgeführt. Exploits können unter anderem durch aktuelle Software- und Sicherheitsupdates vermieden werden.


F


Festplatte:

Die Festplatte, auch Hard Disk bzw. Hard Disk Drive (HDD) genannt, ist ein Speichermedium, welches auf Magnetbasis funktioniert und auf dessen Oberfläche Daten rotierend gelesen und geschrieben werden. Die Oberfläche der Festplatte ist magnetisch beschichtet. Beim Schreiben von Informationen bzw. Daten auf die Festplatte wird diese ohne Berührung magnetisiert. Verbleibende Magnetisierung (Remanenz) sorgt dafür, dass die Informationen gespeichert werden. Beim Lesevorgang tastet die Hard Disk die Plattenoberfläche der Magnetisierung ab und liest somit die Informationen aus. Hard Disks haben heutzutage eine Speicherkapazität von bis zu 10 Terrabyte (TB).

Festplattenverschlüsselung:

Die Festplattenverschlüsselung (auch Full-Disk Encryption FDE genannt) sorgt dafür, dass die Daten, die auf einer Festplatte gespeichert sind, vor unbefugten Zugriffen geschützt sind. Um dies zu ermöglichen, werden die Daten zum Teil oder ganz verschlüsselt. Beim Booten ist es notwendig, dass die Daten auf der Festplatte entweder unverschlüsselt vorliegen oder ein spezieller Bootmanager vorhanden ist, welcher die Daten entschlüsselt. Um die Daten auslesen zu können, wird ein Schlüssel benötigt. Den Schlüssel erhält man durch Authentifizierung, indem beispielsweise Benutzername und Passwort eingegeben wird. Ist der Schlüssel freigeschaltet, werden die Daten automatisch ver- bzw. entschlüsselt.

Fiber Distributed Data Interface: 

FDDI (Fiber Distributed Data Interface) ist eine “veraltete” Glasfasertechnologie, welche insbesondere in der Zeit des Kalten Krieges den Hochpunkt erreichte. Mit Datenraten von bis zu 100Mbit/s war es möglich, mittels des neuen Standards FDDI komplexe und weit verzweigte Hochgeschwindigkeitsnetze aufzubauen. Diese wurden beispielsweise in Forschungseinrichtungen oder Großunternehmen verwendet. Bis heute ist die Nutzung von FDDI stark gesunken und kommt eher bei kleineren Netzwerken, die zu einem großen Hochleistungs-Verbund zu verknüpfen sind, zum Einsatz.

Filesharing:

Beim Filesharing werden Dateien untereinander ausgetauscht bzw. geteilt. Meistens erfolgt der Austausch der Dateien zwischen Benutzern im Internet. Dazu wird ein Filesharing-Netzwerk genutzt. Die Dateien an sich befinden sich entweder direkt auf den Computern der verschiedenen Benutzer oder auf verteilten Servern, an denen sich die Benutzer bedienen. Um Filesharing zu nutzen, wird ein spezielles Programm benötigt. Filesharing-Lösungen für Unternehmen sind beispielsweise Dropbox, Dracoon, IBM, GlobalScape und MOVEit.

Firewall:

Eine Firewall ist eine Netzwerksicherheitsvorrichtung, die den ein- und ausgehenden Netzwerkverkehr überwacht. Auf Grundlage einer Reihe von definierten Sicherheitsregeln entscheidet die Firewall, ob bestimmter Datenverkehr zugelassen oder blockiert wird. Firewalls bilden bereits seit über 25 Jahren die erste Verteidigungslinie beim Schutz von Netzwerken. Sie fungieren als Barriere zwischen geschützten und kontrollierten Bereichen des internen, vertrauenswürdigen Netzwerkes und nicht vertrauenswürdigen, äußeren Netzwerken. Eine Firewall basiert entweder auf Hardware, Software oder auf einer Kombination aus beidem. Dabei gibt es verschiedene Firewall Systeme, die je nach Netzwerk zum Einsatz kommen können. 

Firmware:

Als Firmware bezeichnet man Programme, die von Herstellern auf die von ihnen vertriebene Hardware gespielt werden - also um eine Betriebssoftware für das jeweilige Gerät. Die Firmware einer Hardware bzw. eines Gerätes sorgt dafür, dass das Netzwerkgerät überhaupt nutzbar ist. Die Firmware ist auf dem Flash-Speicher der Hardware installiert und kann vom Endkunden in der Regel nicht verändert werden. Mit bestimmten Hilfsmitteln kann ein Endkunde die Firmware zwar anpassen, doch erlischt dann die Garantie und im schlimmsten Fall ist bei unsachgemäßer Änderung das Netzwerkgerät nicht mehr nutzbar. Hardware-Hersteller aktualisieren die Firmware auf ihren Geräten häufig in regelmäßigen Abständen, um die Hardware noch leistungsfähiger zu machen, Sicherheits-Updates aufzuspielen und neue Funktionalitäten zur Verfügung zu stellen.

Flash Core Module:

Flash Core Module, kurz FCM, sind Computer-Datenspeicher-Module mit Solid-State-Technologie. Die Module basieren auf dem bekannten NAND-Speicher und weisen ergänzende Funktionen zu den bereits gegebenen Möglichkeiten von Flash auf. Zu diesen Funktionen gehören die Datenreduktion, die Langlebigkeit und auch die Non-Volatile Memory Express (NVMe) - Schnittstelle. Beispielsweise erhöhen sich, aufgrund der Datenkomprimierung, die Rohspeicherkapazitäten auf 4,8 TB 9,6 TB, 19,2 TB und 38,4 TB.

Flash Speicher:

Beim Flash-Speicher handelt es sich um einen Speicher, der intern in die Hardware verbaut ist. Dabei kommt der Flash-Speicher ohne eigene Spannungsversorgung aus und ist nicht abhängig von beweglichen Teilen. Flash-Speicher sind aus dem EEPROM (Electrical Erasable and Programmable Read Only Memory) entstanden und heutzutage in den meisten Geräten fest verbaut. Wie auch bei Festplatten üblich, behält der Flash-Speicher die Daten, die auf ihm gespeichert sind, dauerhaft. Dabei werden beim Flash-Memory Daten in Datenblöcken in je 64, 128, etc. Bytes ausgelesen, beschrieben und wieder gelöscht.

FTP:

Ein File Transfer Protocol (FTP) ist ein sogenanntes „Dateiübertragungsprotokoll“. Dabei handelt es sich um ein Netzwerkprotokoll, welches Dateien über verschiedene IP-Netzwerke vom Server zum Client und umgekehrt überträgt. Es gibt bestimmte FTP-Programme, welche für diesen Zweck entwickelt wurden. Wenn beispielsweise eine Website online gestellt werden soll, werden die Dateien für die Website in der Regel lokal fertiggestellt und per FTP-Programm auf den Server übertragen, wo die Website gehostet ist. Das File Transfer Protocol befindet sich in Schicht 7 des OSI-Schichtenmodells. Mithilfe des Protokolls werden auch Verzeichnisse erstellt, Dateien umbenannt, erstellt, verschoben und gelöscht.


G


Gateway:

Der Begriff „Gateway“ stammt aus der Informatik bzw. der Informations- und Kommunikationstechnik und ist eine Art Vermittler. Er vermittelt zwischen unterschiedlichen Protokollen, die von zwei Systemen verwendet werden. Gateways machen es möglich, dass zwei Systeme, die nicht unbedingt untereinander kompatibel sind, trotzdem miteinander kommunizieren können. Dabei werden beispielsweise Computer, Netzwerke oder Programme, welche auf den Computern installiert sind als System angesehen. Gateways werden verwendet, um die Kommunikation unter IP-Geräte herzustellen, welche lediglich über ältere Funkprotokolle miteinander kommunizieren können. Gateways konvertieren dabei die einkommenden Daten in die entsprechend benötigten Zieldaten.

Gbyte:

Gigabyte (GB) ist eine Größeneinheit, welche in der Informatik und Digitaltechnik verwendet wird. Diese Größeneinheit kommt in vielen Speichermedien wie Festplatten etc. zur Anwendung und gibt Aufschluss darüber, wie viele Daten auf das Speichermedium passen. Ebenso ist Gigabyte die Größeneinheit, die anzeigt, wie große eine Datei ist. Umgerechnet in Bytes ergibt ein Gigabyte 1.000.000.000 Bytes. In der Informatik ist die kleinste Einheit das Bit (Binary Bit). Als Basis für Gigabytes wird daher die kleinste Einheit, das Bit, verwendet. Computer kennen aber nur zwei Zustände: 0 und 1. Dies bezeichnet man auch als Binärsystem (auch Dualsystem).

GHz:

Gigahertz (GHz) ist ein Vielfaches der Basiseinheit Hertz (Hz). Hertz gibt an, wie viele Schwingungen pro Sekunde abgegeben werden. Der deutsche Physiker Rudolf Hertz hat den Begriff geprägt. In der Computertechnik bezeichnet Gigahertz die Taktfrequenz des Prozessors. Hat ein Prozessor beispielsweise einen 2 GHz Prozessor, dann schafft dieser pro Sekunde 2 Milliarden Zyklen. In der Funktechnik (beispielsweise WLAN) gibt es die 2,4 GHz oder 5 GHz (bzw. 5,8 GHz) Frequenz. Meistens sind 2,4 GHz-Netze gegen Störungen besser geeignet als 5-GHz-Netze, doch das 5 GHz-Band schafft viel höhere Übertragungsraten und Distanzen. Mithilfe von Antennen kann man die Funkreichweite des WLAN-Netzwerkes erweitern.

GitHub:

Bei GitHub handelt es sich um eine webbasierte Anwendung, die Softwareentwicklern nutzen, um ihren Quellcode zu verwalten. Dabei haben sowohl die Entwickler als auch Anwender der jeweiligen Software die Möglichkeit, Änderungen am Quellcode einzusehen und erhalten somit einen genauen Überblick, was wann genau im Quellcode geändert wurde. GitHub ist eine Kombination aus Versionskontrolle und Git. Wenn Softwareentwickler Software erstellen, wird diese regelmäßig mit neuen Funktionen versehen und Fehler (Bugs) werden beseitigt. Eine Versionskontrolle bietet nun die Möglichkeit, dass mehrere Entwickler an einem Softwareprojekt arbeiten.

Glasfaser:

Glasfasern bestehen aus Quarzglas bzw. Quarzsand, welches zum Übertragen benutzt wird. Ein Glasfaserkabel beispielsweise, welches aus verschiedenen Glasfasern besteht, ist ein Kabel, mit dem Signale übertragen werden. Dank Glasfaserkabel werden durch Lichtwellenleiter Lichtsignale in Lichtgeschwindigkeit über eine große Strecke zurückgelegt. Dabei können Glasfaserkabel eine riesige Menge an Daten übertragen. Mehrere Glasfasern ergeben ein Bündel und bilden das Glasfaserkabel. Eine einzige Glasfaser ist dabei fast genauso dünn wie ein einzelnes Haar eines Menschen. Es besteht aus einem Kern, Mantel sowie einem Außenmantel.

Global System for Mobile Communications:

Das GSM-Mobilfunknetz ist auch als 2G-Netz bekannt. 2G wird das GSM-Netz deshalb genannt, weil es die zweite Generation nach dem analogen Standard der ersten Generation war, zu dem in Deutschland das A-, B- und C-Netz gehörten. Ursprünglich war geplant, dass das GSM-Netz analoge Mobilfunknetze ersetzen sollte. GSM wurde 1990 als neuer Mobilfunkstandard veröffentlicht und diente Mobilfunknetzen, die vollkommen digital tauglich waren. Schnell wurde GSM weltweit zum neuen Mobilfunkstandard. Das GSM-Netz wurde neben dem Telefonieren auch für Kurzmitteilungen und zur paketweisen Datenübertragung genutzt. Mittlerweile gab es bereits mit dem 3G (UMTS) einen Nachfolger, der aber ebenfalls bereits von dem 4G- (LTE) und aktuell von der fünften Generation, dem 5G-Standard abgelöst wurde, wobei die früheren Generationen teilweise noch in Betrieb sind.


H


Hacker: 

Der Begriff Hacker leitet sich aus dem englischen "to hack" ab und bedeutet so viel wie in Systeme eindringen. Ein Hacker ist eine Person, die in Computer/IT-Systeme eindringt. In den 1980er-Jahren entwickelte sich daraus eine Szene. Teile der Hacker-Szene sehen ihre Mission darin, Sicherheitslücken aufzuzeigen und zu beseitigen. Im öffentlichen Kontext wird der Begriff "Hacker" seit 1983 jedoch vermehrt mit negativen und kriminellen Aktivitäten wie das explizite Ausnutzen von Sicherheitslücken und das Erbeuten von Datensätzen (bspw. Passwörter) assoziiert. 

Hardware: 

Zur Hardware (deutsch: Eisenware) gehören alle technischen Bestandteile eines Computers, Tablets oder Smartphones. Weiterhin zählen auch Peripheriegeräte wie externe Festplatten, Router, Beamer, Switches, Server und viele andere Geräte zum Begriff Hardware dazu. Zu den technischen Bestandteilen eines Computers gehören unter anderem Mainboard, Prozessor, Grafikkarte, Arbeitsspeicher, optische Laufwerke sowie Ein- und Ausgabegeräte. Im Gegensatz zur Software, die immateriell ist, handelt es sich bei Hardware um Komponenten, die mit den Händen angefasst werden können. 

HDD: 

Das Hard Disk Drive (HDD) zählt auch heute (neben der SSD) zu einem wichtigen magnetischen Speichermedium der Computertechnik. Auf der HDD werden mittels der Technik des Magnetisierens auf Scheiben, die rotieren, verschiedenste Daten gespeichert. Dabei liegen die Scheiben in der HDD direkt übereinander. Wie der Arm bei einem Schallplattenspieler besitzt auch das Hard Disk Drive einen kleinen Arm. Dieser ist ein Teil des Schreib- und Lesekopfes. Beim Lesen und Schreiben der Daten auf der HDD bewegt sich dieser Arm jedoch, im Gegensatz zum Schalplattenarm, hin und her und springt zu der benötigten Speicherstelle auf der HDD. Die HDD ist zwar langsamer als eine SSD, hat aber in der Regel eine weitaus höhere Lebensdauer als eine SSD. 

HIDS: 

Beim IDS im Allgemeinen handelt es ich um das Intrusion Detection System. Das Intrusion Detection System ist ein System, welches Angriffe von Eindringlingen erkennt, die Computersysteme und Rechnernetze angreifen. Entweder wird das IDS neben einer Firewall als Ergänzung oder als eigenständiges System genutzt, welches die Netzwerke überwacht. Das Militär hat das Host-basierte IDS (HIDS) entworfen. Daher zählt das HIDS zu den am längsten genutzten Erkennungssystemen gegen Eindringlinge. Wenn ein HIDS eingesetzt wird, muss es auf jedem Rechner, der überwacht werden soll, eigenständig installiert und konfiguriert werden.

Hosted IP-Telefonie: 

VoIP-Telefonie (Voice over IP) gehört heutzutage zum gängigen Standard als Mittel der Telefonie über das Internet. Für Unternehmen ist daher von entscheidender Bedeutung, ob IP-basierte Telefonie lieber lokal installiert und somit vor Ort betrieben werden soll oder ob ein Hosting-Anbieter in Form eines Cloud-Services die bessere Alternative ist. Bei der gehosteten IP-Telefonie ist die Telefonanlage lediglich virtuell, was teure und lästige Hardware-Anschaffungen erspart. Ein externer Dienstleister (Managed Service) kümmert sich dabei um alles, was zum Betrieb der software-basierten IP-Telefonie benötigt wird. Der externe Anbieter kümmert sich sowohl um die Installation und Konfiguration als auch um die fortlaufende Betreuung. 

Hub: 

Ein Hub ist ein Gerät, welches mittels eines Kabels eine Verbindung zu mehreren Netzwerkgeräten herstellt. Ein Hub besitzt in der Regel zwischen 4 und 16 Ports, an denen je ein Netzwerkgerät über ein Patchkabel mit dem Hub verbunden ist. Die Funktionalität von Hubs beschränkt sich ausschließlich auf das Verteilen von Informationen. Dabei erfolgt keine Sortierung der empfangenen Datenpakete. Das bedeutet, dass die vom Hub empfangenen Informationen an alle angeschlossenen Geräte transferiert werden, auch wenn diese eigentlich gar nicht die Empfänger sind. Aufgrund dessen erhöht sich die Belastung der Bandbreite des gesamten Netzwerks. Deshalb und wegen den hohen Sicherheitslücken eines Hubs, finden diese heutzutage nur noch selten Verwendung. 

Hybrid Cloud: 

Eine Hybrid Cloud ist eine Kombination aus einer privaten Cloud und einer bzw. mehreren Public Clouds. Mithilfe einer speziellen Software ist der Kommunikationsaustausch zwischen der privaten und der bzw. den öffentlichen Clouds möglich. Unternehmen sind mit der Hybrid Cloud-Lösung flexibler unterwegs als mit einer herkömmlichen Cloud-Lösung. Sie können, je nachdem, wie die Anforderungen aussehen, Arbeitslasten zwischen den beiden Cloud-Varianten hin- und herschieben. Ebenso kontrollieren Unternehmen ihre privaten Daten mit der hybriden Lösung wesentlich effektiver. Private Daten sind in der privaten Cloud abgelegt und die Daten, die für die Öffentlichkeit bestimmt sind, in der öffentlichen Cloud. 


I


IaaS: 

Infrastructure as a Service (IaaS) ist ein Dienst, welcher gegen Bezahlung Ressourcen für Computer, Speicher und Netzwerk zur Verfügung stellt. Der Zugriff auf die Ressourcen entspricht dabei dem Bedarf und der Nutzung. Für Unternehmen reduziert die IaaS-Lösung den Wartungsaufwand innerhalb der Rechenzentren. Außerdem spart das Unternehmen Kosten ein und erhält geschäftliche Daten in Echtzeit. Der IaaS hilft dabei, neue Applikationen fix bereitzustellen. Verwendet ein Unternehmen den Infrastructure as a Service, erspart es sich den Kauf und das Verwalten von Rechenzentren und physisch vorhandenen Servern. Das Unternehmen bezahlt nur für das, was es auch tatsächlich an Ressourcen benötigt und verbraucht. 

IANA: 

Die Internet Assigned Numbers Authority, kurz IANA, ist zuständig für Namen und Nummernsysteme im Internet. Diese bilden die Grundlage für die Adressierung von Webseiten. Insgesamt verfolgt die IANA 3 große Aufgabenbereiche. Dazu gehören die Domainnamen, die Vergabe und Zuteilung von IP-Adressblöcken, sowie die Verwaltung von Namen und Bezeichnungen für Internet-Protokolle. Bereits 1988 gegründet, gehört die IANA zu den ältesten Institutionen des Internets. Die 10 Jahre später gebildete gemeinnützige Organisation ICANN (Internet Corporation for Assigned Names and Numbers) wurde geradewegs mit der Durchführung der IANA-Funktion beauftragt. Erst seit Herbst 2016 hat die ICANN die vollständige Kontrolle über die Funktionen der IANA. Vorher wurde die IANA stets von der US-Regierung beaufsichtigt. 

ICANN: 

Die Internet Corporation for Assigned Names and Numbers (ICANN) ist die oberste Internet-Behörde. Ziel und Zweck der gemeinnützigen Organisation besteht in der Einhaltung der operativen Stabilität des Internets. Mit der Gründung 1998 stand besonders die Verwaltung der IANA und deren Funktionen im Vordergrund. Heute bildet die IANA nur ein Aufgabengebiet der ICANN. Das US-Handelsministerium war bis 2009 mit der Kontrolle der ICANN beauftragt. Heute steht die ICANN unter internationaler Aufsicht. 

Identity Services Engine: 

Eine Identity Services Engine (ISE) ist eine von Cisco zur Verfügung gestellte Lösung dessen Fokus auf dem Schutz des gesamten Arbeitsplatzes liegt. Dabei ermöglicht ISE flexibelste Mobilität bei gleichzeitig kontrollierbarem Zugriff auf Geräte und Benutzer und gewährleistet volle Transparenz der Benutzer und Geräte, die involviert sind. Für IT-Abteilungen bietet die Identity Services Engine über das gesamte Netzwerk erfolgreichen Schutz gegen sämtliche Angriffe. Für Gäste, die sowohl mobil aus auch per Desktop-PC unterwegs sind, bietet die ISE die Möglichkeit, innerhalb kürzester Zeit in das Netzwerk eingebunden zu werden. Von zentraler Stelle aus werden Netzwerkrichtlinien erstellt und verwaltet. Für den Endbenutzer bedeutet dies maximalen Sicherheitskomfort. 

IDS: 

Ein Intrusion Detection System (kurz IDS) ist ein System, welches Angriffe, die auf Server, Netzwerke und Computer abzielen, frühzeitig erfasst. Das Intrusion Detection System ist häufig eine Ergänzung zur Firewall. Wird ein Angriff vom IDS erkannt, informiert das System den oder die zuständigen Mitarbeiter über den Angriff. Ein Angriff läuft dabei nach einem bestimmten Schema ab, welches das System erkennt. Das IDS läuft in vielen Fällen als selbstlaufende Hardware oder als Software, welche auf einem Computersystem installiert ist. Das IDS unterscheidet sich vom Intrusion Prevention System (IPS) dahingehend, dass es lediglich informativen Charakter bei einem Angriff hat, während das IPS auch Angriffe zu verhindern weiß. 

IEEE 802: 

Das Institute of Electrical and Electronics Engineers (kurz IEEE) ist ein Berufsverband, welcher die Standardisierung von Computerprogrammen und -techniken zur Aufgabe hat. Damit einhergehend startete 1980 das Projekt IEEE 802, in dem Netzwerkstandards definiert werden. Mit Hilfe der Standardisierung von Netzwerkprotokollen wird sichergestellt, dass eine Verbindung von unterschiedlichen Gerätetypen mit verschiedensten Netzwerktypen möglich, sowie dessen problemlose Zusammenarbeit garantiert ist. Durch die IEEE 802-Standards sind Internetdienste und -technologien dazu angehalten, den empfohlenen Verfahren zu folgen. Ohne diese Standards könnten Hersteller Netzwerkhardware einführen, welche nur für spezielle Computer bestimmt sind. Daher könnten Schwierigkeiten bei der Verbindung mit anderen Systemen, welche andere Networking-Komponenten verwenden, entstehen. 

IEEE 802.1aq: 

IEEE 802.1aq ist ein Protokollstandard, welcher den Datenfluss positiv beeinflusst. Durch den Shortest Path Bridging, kurz SPB, werden vorhandene Ressourcen besser ausgenutzt. Beim SPB gilt es den kürzesten Weg zu nutzen, um Netzwerkknoten miteinander zu verbinden. Dazu sollen vorhandene Netzwerkverbindunge naktiv genutzt und nciht für mögliche Komplikationen freigehalten werden. Durch das Ziel, stets den kürzesten Weg für den Verbindungsaufbau zu nutzen, sorgt das SPB insbesondere innerhalb von Rechenzentren für eine schnellere Verbindung.

IEEE 802.3ae: 

Das IEEE 802.3ae ist eine Ethernet-Norm, die vom Institute of Electrical and Electronics Engineers verfasst wurde. In dieser Norm wurden die technischen Standards für Ethernet-Verbindung mit Übertragungsraten von bis zu 10 Gigabyte pro Sekunde festgeschrieben. Zu Beginn umfasste die Norm ausschließlich die Datenübertragung mittels Glasfaserkabel. Eine Anpassung erfolgt jedoch, da heute ebenfalls 10 Gigabyte Verbindungen auf Kupferbasis ihren Einsatz finden. Diese sind in der Regel preiswerter als Glasfaserkabel und werden somit häufig eingesetzt, um örtliche Netzwerkkomponenten, wie beispielsweise Switches, zu verbinden. 

IGP: 

Das Interne Gateway Protokoll (kurz IGP) dient der Förderung des Austauschs von Routing-Informationen zwischen Routern innerhalb eines autonomen Systems. Mittels des IGP können zum einen Informationen zur Erreichbarkeit von Routern verbreitet und zum anderen die möglichen Pfade für Datenpakete geprüft werden. Dieser Informationsaustausch besteht dauerhaft innerhalb eines autonomen Systems. Die gewonnenen Informationen nutzen anschließend das Internet Protokoll (IP) oder andere Netzwerkprotokolle zur Festlegung des bestmöglichen Weges für Datenpakete.

IOPS: 

IOPS ist die Abkürzung für Input/Output Operations per Second. Die IOPS zeigt somit eine Anzahl an durchführbaren Ein- und Ausgabebefehlen pro Sekunde durch die SSD (Solid State Drive). Die SSD ist eine Art nichtflüchtiges Speichermedium. Der IOPS-Wert zeigt die Geschwindigkeit der Kommunikation zwischen dem Prozessor eines Computers und den Ein- bzw. Ausgabeeinheiten. Das heißt, je höher der IOPS-Wert liegt, desto schneller ist der Datenträger. Im Verlauf sinkt der Wert aufgrund eines vollen Caches bei vielen SSDs. 

IP: 

Beim Internetprotokoll (IP - Internet Protocol) handelt es sich um einen Netzwerkstandard, welcher weltweit verwendet wird. Zwei oder mehrere Geräte kommunizieren dank des Internetprotokolls miteinander. Die Geräte können somit untereinander Daten problemlos austauschen. Geräte, die über das Internetprotokoll miteinander kommunizieren verfügen über eine einzigartige IP-Adresse. Damit ist jedes Gerät eindeutig identifizierbar. Die einzigartigen IP-Adressen sorgen dafür, dass die Datenpakete auch bei dem Empfänger ankommen, für den sie bestimmt sind. Das Internetprotokoll findet in privaten Netzwerken, Unternehmensnetzwerken und im Intranet Anwendung. 

IPS: 

Das Intrusion Prevention System (kurz IPS) erkennt frühzeitig, ob Netzwerke und ganze Systeme an Computern angegriffen werden und wehrt diese Angriffe automatisiert ab. Das IPS ist zudem auch als zusätzlicher Schutz zur normalen Firewall zu sehen. Das Intrusion Prevention System muss aber vom Intrusion Detection System (IDS) unterschieden werden. Das IDS nimmt dabei eine passive Rolle ein. Es erfasst und erkennt Angriffe, informiert aber lediglich die Nutzer und Admins über den Angriff. Das IPS erkennt ebenfalls Angriffe, greift aber selbstständig aktiv ein, um die Angriffe abzuwehren. Hierbei kann das IPS beispielsweise bestimmte Datenpakete bei einem Angriff blockieren. Auch unterbindet das Intrusion Prevention System im Angriffsfall direkt bestimmte Verbindungen.

IPsec:

Beim Internet Protocol Security (IPsec) handelt es sich um eine Reihe von Erweiterungen zum herkömmlichen Internet Protocol (IP). IPsec sorgt dafür, dass die Kommunikation in IP-Netzwerken gesichert ist. Die von IPsec zur Verfügung gestellten Erweiterungen verschlüsseln und authentifizieren die Daten, die über das Internet Protocol übertragen werden. Da das IP-Netzwerk für sich allein genommen unsicher ist, sorgt IPsec in einem weiteren Schritt für Schutz innerhalb des IP-Netzwerkes. Mit dem Transportmodus und einem Tunnelmodus verfügt Internet Protocol Security über zwei effektive Mechanismen. Beim Transportmodus wird eine Point-to-Point-Verbindung direkt hergestellt, während beim Tunnelmodus über zwei Gateways eine sichere Tunnel-Verbindung hergestellt wird.

IT: 

Der Begriff IT (Informationstechnik) hat sich im Deutschen weitestgehend etabliert und bezeichnet ein breites Band an Begrifflichkeiten, die unter anderem Hardware, Software und Services umfassen. Hardware sind dabei beispielsweise mobile Geräte, Drucker, PCs, Monitore, etc. Zur Software zählen Applikationen (Anwendungsprogramme) und Betriebssysteme. IT-Services sind in diesem Bereich Beratungsleistungen, Wartungen von Hardware und Software, Installation von Software, Programmierung sowie Test der Software. Zum IT-Bereich gehören unter anderem Business Analytics, Systemadministration, IT-Security, Netzwerk, Anwendungsentwicklung, Digitalisierung und Helpdesk. 

IT-Remarketing: 

Beim IT-Remarketing wird gebrauchte IT-Hardware eingekauft, wiederaufbereitet (Geräte werden gesäubert und technisch aufbereitet) und anschließend als generalüberholt weiterverkauft. Dieser ganze Prozess wird auch als „Refurbishment“ bezeichnet. Der Weiterverkauf gebrauchter Hardware ist nachhaltig und umweltschonend, da die alte Hardware recycelt aufbereitet wird. Beim Ankauf von gebrauchter Hardware muss sichergestellt werden, dass die Daten auf den gebrauchten Geräten vollständig und absolut sicher gelöscht werden. Ansonsten besteht die Gefahr, dass sensible Daten von den neuen Käufern wiederhergestellt werden können. 

IT-Sicherheit:

IT-Sicherheit wird auch als Cyber Security oder Internet Security bezeichnet und impliziert IT-Systeme vor Bedrohungen und Angriffen zu schützen. Dabei können Dateien, Computer oder ganze Netzwerke angegriffen werden. Die IT-Sicherheit umfasst sowohl organisatorische als auch technische Maßnahmen, welche IT-Systeme vor Bedrohungen schützen sollen. Unter den Begriff der Cyber Security fallen Schutzmaßnahmen wie Firewalls, Proxy-Server, Virenscanner, Rechtemanagement und Zugriffskontrollen. Die IT-Sicherheit unterscheidet sich zudem von der Informationssicherheit. Während sich die Informationssicherheit mit dem Schutz von Informationen befasst, beinhaltet die IT-Sicherheit hingegen den Schutz technischer Geräte bzw. IT-Systeme. 



Jitter: 

Jitter beschreibt das Schwanken des Taktes (sogenanntes Taktzittern) bei der Übertragung von digitalen Signalen. Zu einem Taktzittern kann es beispielsweise kommen, wenn es zu elektromagnetischen Störungen kommt oder die Taktuhr fehlerhaft synchronisiert ist. Im Netzwerkbereich wird Jitter verwendet, um die Variationen bei der Laufzeit von Datenpaketen zu beschreiben. Schwankt die Laufzeit, ist dies für die Datenübertragung äußerst problematisch. Laufzeitschwankungen wirken sich besonders kritisch auf Anwendungen in Echtzeit aus, wie das etwa bei der Voice over IP (VoIP) Telefonie der Fall ist. Solche Anwendungen haben dann bei Laufzeitschwankungen hohe Jitterwerte. Ein Jitterbuffer hilft dabei, die Laufzeitschwankungen und somit die Verzögerungen bei Übertragungen zu minimieren.



Konferenzsystem: 

Konferenzsysteme sind eine Form der elektronischen Nachrichtenübermittlung. Unabhängig von dem Gerät oder dem Standort ist eine Kommunikation in Echtzeit möglich. Je nachdem, was untereinander ausgetauscht werden soll, lassen sich verschiedene Formen definieren. Die textbasierten Konferenzsysteme, die auf den Austausch von Textnachrichten abzielen, die Audiokonferenzsysteme, die für die verbale Kommunikation ausgelegt sind, sowie die Videokonferenzsysteme. Videobasierte Konferenzsysteme ermöglichen sogenannte Face to Face Meetings und gehören mittlerweile zu einer der am häufigsten genutzten Form der Unternehmenskommunikation. 



LAN: 

LAN ist die Abkürzung für Local Area Network und bedeutet „lokales Netzwerk“. Das LAN erstreckt sich als Netzwerk nur über einen begrenzten Raum. Dazu gehört beispielsweise ein einzelnes Gebäude. An ein LAN sind in der Regel mehrere Geräte wie Drucker, PCs und Server angeschlossen. Über das lokale Netzwerk können, die mit dem Netzwerk verbundenen Geräte miteinander in Verbindung treten und Dienste benutzen, die über das LAN zur Verfügung gestellt werden. LAN-Netzwerke werden meistens durch Twisted-Pair-Kabel miteinander verbunden. Das LAN unterscheidet sich vom WAN (Wide Area Network) in der Hinsicht, dass das Wide Area Network Geräte über eine größere räumliche Strecke miteinander verbindet. 

Layer: 

Ein Layer, zu deutsch Schicht, bekommt im Zusammenhang mit dem OSI-Modell in der IT die größte Bedeutung zugeschrieben. Schichten bedeuten im Sinne des OSI-Modells die Unterscheidung der verschiedenen Protokollebenen. Beispielsweise erfolgt die Übertragung von Daten mittels eines Netzwerkkabels durch elektrische Impulse. Die Datenübermittlung eines Web-Servers findet über Protokolle wie http oder https statt. Diese befinden sich auf einem deutlich höheren Layer. Innerhalb des OSI-Modells bestehen 7 Layer, welche eine hierarchische Kommunikation miteinander pflegen. 

Link-local Multicast Name Resolution: 

Die Link-local Multicast Name Resolution, kurz LLMNR, ist ein Protokoll zur Namensauflösung von IPv4- und IPv6- Adressen in lokalen Netzwerken. Das Protokoll dient somit auch zur Identifizierung von benachbarten Computern. Vorrangig findet sich dieses Protokoll in Betriebssystemen von Microsoft wieder. LLMNR ist eine Art Erweiterung für das NetBOIS Protokoll, welches allerdings ausschließlich auf IPv4-Adressen ausgelegt ist. NetBOIS wurde ebenfalls eigens für den Hersteller Microsoft entwickelt. Die Ergänzung durch LLMNR war außerdem notwendig, da NetBOIS Systeminformationen unverschlüsselt über das Netzwerk verteilt. LLMNR erhöht dementsprechend die Datensicherheit. Beide Protokolle arbeiten daher im System parallel zueinander. 

Locally Administered Address: 

Locally Administered Address, kurz LAA, bezeichnet eine MAC-Adresse einer Netzwerkkarte. Diese MAC-Adresse wurde lokal per Software zugewiesen und überschreibt die vom Hersteller ursprünglich vergebene Universally Administered Address. Mittels der Locally Administered Address kann somit die vorgegebene MAC-Adresse einer Netzwerkkomponente individuell verändert werden. Dennoch wird die Möglichkeit der frei zuordenbaren MAC-Adressen oft genutzt, um Identitäten zu verschleiern und unerlaubt Netzwerkzugang zu erhalten. 

LoRaWAN: 

Das Long Range Wide Area Network (LoRaWAN) ermöglicht das Senden von Daten über große Entfernungen - auch von abgelegenen und schwer zugänglichen Orten. Die Besonderheit des LoRaWAN liegt in der energieeffizienten, sicheren und kostengünstigen Informations- und Datenübertragung. Hierbei ist die Verwendung der Schmalband-Technologie zusammen mit batteriebetriebenen und drahtlosen Sensoren ausreichend. Die Übertragung der Daten erfolgt durch 3 essentielle Komponenten des LoRaWAN. Dazu gehört der bereits genannte Sensor, der zuständig für die Ermittlung und die Verschlüsselung von Daten ist. Diese sendet der Sensor anschließend energiesparend an alle Gateways in seiner Umgebung. Gateways bilden die 2. Komponente und nehmen die Daten auf, um sie anschließend an den Server weiterzuleiten. Im LoRa-Server, der letzten Komponente, werden anschließend die eingetroffenen Daten verarbeitet, visualisiert und bei Bedarf gespeichert. 



Malware: 

Als Malware wird eine bösartige Software bezeichnet, die vom Benutzer unabsichtlich heruntergeladen und installiert wird. Dadurch unterscheidet sich Malware von Computerviren, die über das Netzwerk oder andere Computer verbreitet werden. Es gibt verschiedene Arten von Malware wie beispielsweise Adware, Spyware, Trojaner oder Ransomware. Diese unterscheiden sich in der Form, wie der Nutzer von einer Infektion erfährt. Während bei Ransomware der Nutzer direkt über die Anwesenheit aufgeklärt wird und sich diese Malware angeblich nur durch eine Zahlung wieder entfernen lässt, arbeiten andere Typen im Hintergrund und werden oft vom Nutzer nicht bemerkt. Häufig wird Malware über E-Mails verteilt, wo ein Nutzer über den Klick auf einen Link diese auf dem Gerät installiert. Oft erkennen hierbei Anti-Viren-Systemen die Malware und sperren den Download.

MAN: 

Bei einem Metropolitan Area Network (kurz MAN) handelt es sich um ein Netzwerk, welches mehrere LANs miteinander verbindet. Das Metropolitan Area Network ist auch unter den Namen Campusnetz oder Stadtnetz bekannt. In vielen Fällen verbinden sich Städte untereinander mit einem MAN. Das MAN wird vor allem für das Übertragen von Daten und Videos benutzt, für die eine hohe Geschwindigkeit vonnöten ist. MAN Backbone-Leitungen verwenden für die hohen Übertragungsraten Glasfaser. Zum Übertragen der Daten bedient man sich dem Metro Ethernet. Durch das Metro Ethernet sind hohe Geschwindigkeiten möglich, die deutlich über den Geschwindigkeiten des Internets liegen. Damit sind sie von der Geschwindigkeit mit LAN-Netzwerken vergleichbar.

Managed: 

Für den Aufbau eines privaten- oder Firmennetzwerks über Netzwerk-Switches, besteht die Wahl zwischen unmanaged und managed Switches. Managed Switches sind zwar preisintensiver, aber durch die Anzahl der erweiterten Features eher für den Businessbereich und große Netzwerke geeignet. Durch beispielsweise den Fernzugriff und der Verschlüsselung der Kommunikation bieten managed Switches eine deutlich höhere Sicherheit als unmanaged Switches. Aufgrund der Anpassungsmöglichkeiten an das Netzwerk und den zusätzlichen Features, ist jedoch eine komplexe Konfiguration bei der ersten Inbetriebnahme notwendig. 

Managed Service Provider: 

Bei Managed Service Providers (MSP) handelt es sich um externe Dienstleister, welche eine breite Palette an (IT) Dienstleistungen bedienen. Sie sind unter anderem dafür zuständig, bei ihrem Auftraggeber die Software auf den aktuellen Stand zu halten, die Systeme zu überwachen, Störungen im Vorfeld zu erkennen und zu beseitigen und die gesamte Systemlandschaft des Auftraggebers funktionstüchtig zu halten. Die meisten Dienstleistungen, die ein Managed Service Provider anbietet, sind regelmäßige Dienstleistungen. 

Medium Dependent Interface: 

Das Medium Dependent Interface, kurz MDI, ist oberflächlich betrachtet eine Steckdose für Netzwerkkabel.Genauer sind Mediumabhängige Schnittstellen Anschlüsse von Netzwerkkarten für Netzwerkkabel. Durch Mediumabhängige Schnittstellen können beliebige Netzwerkgeräte direkt und indirekt miteinander verbunden werden. Grund dafür ist die besondere Anordnung der einzelnen Leitungsadern im Netzwerkkabel. Um den Datenaustausch nicht zu blockieren, findet eine Verknüpfung des Signalausgangs eines Gerätes mit dem Signaleingang einer weiteren Komponente statt. 

Metro Ethernet: 

Das Metro Ethernet verfügt über Netzwerkverbindungen, welche auf Ethernet-Standard zurückgreifen. Im Gegensatz zu herkömmlichen LAN-Verbindungen kann das Metro Ethernet längere Strecken bzw. Entfernungen zurücklegen. Dabei bedient sich das Metro Ethernet der sogenannten Carrier Ethernet Technik, damit qualitativ hochwertige Verbindungen zustande kommen können. Das Carrier Ethernet kann beispielsweise verschiedene Unternehmensstandorte miteinander vernetzen. Das Metro Ethernet wird auch genutzt, um Übertragungen über das Metropolitan Area Network (MAN) oder das Wide Area Network (WAN) herzustellen. 

Modul: 

Über ein Netzwerkmodul bzw. eine Netzwerkkarte werden mehrere Geräte wie beispielsweise Computer oder Notebooks miteinander in einem Netzwerk verbunden. Aktuelle Geräte unterstützen in der heutigen Zeit in den meisten Fällen Ethernet-Anschlüsse. Das Netzwerkmodul ist dafür zuständig, dass mehrere Geräte innerhalb eines Netzwerkes miteinander kommunizieren können. Die Netzwerkkarte ist auch in der Lage, das Betriebssystem innerhalb des Netzwerkes nachzuladen oder die Rechner im Netzwerk neu zu booten. Netzwerkmodule sind in verschiedenen Ausführungen erhältlich. Hierzu zählen unter anderem integrierte Netzwerkmodule, die direkt im Rechner, in Routern oder in anderen Endgeräten verbaut sind, PCI- und PCIe-Netzwerkmodule, PCMCIA-Netzwerkadapter, USB-Netzwerkmodule oder auch eine Fibre Channel (FC)-Karte. 

Multiprotocol Label Switching: 

Das Multiprotocol Label Switching (MPLS) ist eine Netztechnologie, die den Weg der Daten bestimmt, die innerhalb eines Netzwerkes übertragen werden sollen. MPLS als Netzwerkprotokoll gibt einen konkreten Pfad für die Datenübertragung in verbindungslosen MPLS Netzen, also zwischen zwei Standorten, vor. Im Gegensatz zu den klassischen IP-Netzen müssen die Geräte im MPLS-Netzwerk bspw. Router, keine einzelnen Weiterleitungsentscheidungen treffen, sondern die Weiterleitung wird von dem Gerät bereits vor Beginn des Datentransfers anhand eines Labels festgelegt. Somit kann das Multiprotocol Label Switching Daten schneller weiterleiten als andere Systeme. 



NAS: 

NAS ist die Abkürzung für Network Attached Storages und ist ein System, welches dazu dient, die Speicherkapazität in Netzwerken zu erhöhen. NAS Server werden in Unternehmen verschiedenster Branchen immer beliebter, da sie eine effektive und kostengünstige Lösung für die Datenspeicherung bieten. Die Funktion eines NAS Servers ist sehr vielseitig, so stellt der Server dem User PC unter anderem ein lokales Netz zur Verfügung. Auf dieses Netz können Nutzer oder andere Netzwerkbenutzer zugreifen, um Dateien abzulegen oder zu speichern. Mit NAS-Systemen sind Daten jederzeit zugänglich. Dabei kann das NAS Storage den jeweiligen Anforderungen der Nutzer flexibel angepasst werden bspw. durch Hinzufügen weiterer Speicherkapazität.

Netflow: 

Netflow ist ein von Cisco entwickeltes Protokoll, welches inzwischen als Standardprotokoll verwendet wird, um die Daten als sogenannte IP-Flows zwischen Router und Layer-3-Switches zu protokollieren und anschließend auszuwerten. Die Informationen für die Flows werden direkt von den Geräten ausgewertet, indem die Informationen innerhalb des Netzwerkes an verschiedene Kollektoren übertragen werden. Anschließend können die gesammelten Daten anhand spezifischer Software analysiert und weiterverarbeitet werden. Der Zweck des Protokolls ist es, Datenverkehr im Netzwerk zu überwachen und zu analysieren. Das Netflow-Protokoll gibt dabei viel detailliertere Einblicke in die IP-Datenströme als beispielsweise das Simple Network Management Protocol (SNMP). 

Netzwerkkabel: 

Ein Netzwerkkabel verbindet Teilnehmer, die sich in einem Netzwerk befinden, physikalisch. Netzwerkkabel sind in verschiedenen Sorten erhältlich und können anhand ihres Aufbaus und dem verbauten Material unterschieden werden. Das Kupferkabel gibt es entweder als Koaxialkabel oder als Twisted-Pair-Kabel. Die Lichtwellenleiter beinhalten dagegen als Basisstoffe Glas oder Kunststoff. Netzwerkkabel unterschieden sich innerhalb verschiedener Kategorien (CAT). Es gibt die Kategorien 1 bis 7 (CAT 1 bis CAT 7). Die Kategorien geben an, wie leistungsfähig ein Netzwerkkabel ist. Die Übertragungsrate des Netzwerkkabels gibt Aufschluss darüber, wie schnell das Netzwerkkabel Daten überträgt. Je höher ein Netzwerkkabel in einer Kategorie angesiedelt ist, desto besser ist das Kabel, da es neben dem Leistungsumfang von Kabeln in niedrigeren Kategorien zusätzlichen Leistungsumfang mit sich bringt. 

Netzwerkkarte: 

Eine Netzwerkkarte wird auch Netzwerkadapter oder NIC (Network Interface Controller) genannt. Bei einer Netzwerkkarte kann es sich beispielsweise um einen Ethernet-Adapter oder einen WLAN-Adapter handeln. Die Netzwerkkarte ist notwendig, um einen Computer mit einem Netzwerk zu verbinden. Ein Netzwerk besteht schon, wenn bereits zwei Computer miteinander verbunden sind bzw. miteinander kommunizieren. Es gibt verschiedene Arten von Netzwerken, wie zum Beispiel Arcnet, Ethernet und Token Ring. Für jede dieser Arten von Netzwerken wird die entsprechende Netzwerkkarte benötigt. Am meisten verbreitet sind die WLAN- sowie die Ethernet-Netzwerkkarte. 

Netzwerklizenz: 

Bei Netzwerklizenzen erfolgt der Lizenzschutz über einen speziellen Netzwerk-Schlüssel, welcher an einen beliebigen im Netzwerk erreichbaren Rechner angebracht oder installiert werden kann. Eine Netzwerklizenz befindet sich im Gegensatz zu einer Softwarelizenz meistens auf einem Lizenzserver und ist somit nicht fest an einen Rechner gebunden. Deshalb handelt es sich nicht um eine Einzellizenz für einen lokalen Rechner. Der Lizenzserver vergibt dynamisch Lizenzen an die einzelnen Rechner des Netzwerkes für einen bestimmten Zeitraum. Ist dieser Zeitraum abgelaufen, wird dem betroffenen Rechner im Netzwerk die Lizenz wieder entzogen. 

NIDS: 

Das Network-based Intrusion Detection System ist dafür zuständig, den Datenverkehr in einem Netz zu überwachen. Damit ein NIDS nicht überstrapaziert wird, ist es sinnvoll, es in kleinere Segmente einzuteilen. Sobald das System im Netzwerk registriert ist, wird der in ihrem zuständigen Segment durchlaufende Datenverkehr bewacht und festgehalten. Hat das NIDS die Daten untersucht, kann anhand der Signatur der Daten überprüft werden, ob die Daten einwandfrei sind oder es sich um einen Angriff handelt. Das NIDS greift dabei auf eine bestimmte Liste zurück, in welcher schadhafter Datenverkehr beschrieben ist und was mit diesen Daten passieren soll. NIDS müssen im Netzwerk wohldosiert platziert werden, da ansonsten das Netzwerk überlastet wird und die Netzwerkleistung deutlich abnimmt. 



Open Source: 

Open Source (zu Deutsch „offene Quelle“) wurde ursprünglich auf sogenannte Open-Source-Software zurückgeführt, in welcher der Quelltext öffentlich zugänglich gemacht wird. Dabei können Dritte, beispielsweise andere Entwickler, den Quellcode einsehen, verändern und die entsprechende Open-Source-Software verbessern bzw. anpassen. In der Regel ist Software mit einer Open-Source-Lizenz kostenlos. Bei Open-Source-Software wird die Software innerhalb einer Community meistens von mehreren Entwicklern entwickelt und per Peer-Reviews unter anderem auf Fehler kontrolliert. Open-Source-Software ist meistens günstiger, deutlich flexibler und hat einen höheren Lebenszyklus als kommerzielle Software von Unternehmen bzw. Einzelpersonen. Die meisten Open-Source-Softwareprojekte nutzen als Veröffentlichungsplattform GitHub. Bei GitHub bedient man sich sogenannter Repositories. Eines der beliebtesten Open-Source-Softwareprojekte ist Linux. 

OSI-Modell: 

Das Open Systems Interconnection-Modell (OSI-Modell) wird aufgrund 7 einzelner Schichten oft auch als 7-Schichtenmodell bezeichnet. Das Modell dient der Beschreibung und Definierung der Kommunikation zwischen Systemen. Mittels des OSI-Modells soll Kompatibilitäten geschaffen werden, um die Kommunikation zu erleichtern. Innerhalb des Modells haben 7 Schichten klar voneinander abgegrenzte Aufgaben. Während die ersten 4 Schichten transportorientiert sind, arbeiten die Schichten 5 bis 7 anwendungsorientiert. Durch die hierarchisch geprägte Kommunikation zwischen den Schichten erfolgt diese jeweils mit der direkt darunter oder darüberliegenden Schicht. 



PaaS: 

Platform as a Service (PaaS) stellt eine Plattform innerhalb einer Cloud bereit, in welcher Anwendungen programmiert bzw. entwickelt werden können. Es besteht eine enge Verwandtschaft zu ähnlichen Services wie Software as a Service (SaaS) oder Infrastructure as a Service (IaaS). Dabei orientiert sich Platform as a Service an dem Infrastructure as a Service, stellt aber zusätzliche Eigenschaften, wie das Bereitstellen von Hardware, zur Verfügung. Auch eine Entwicklungsumgebung ist in der Regel integriert und kann von den Anwendern des PaaS verwendet werden. Anpassungen an Hard- und Software entfallen, da der Dienst über eine Cloud läuft und somit auch keine zusätzliche Hard- und Software gekauft werden muss. 

Patch Management: 

Bei Patches (zu Deutsch Flicken) handelt es sich um Sicherheitslücken oder andere Fehler im Quellcode von Software. Eine Software ist in der Regel nie fehlerfrei und wird immer wieder per Patches verbessert. Das Patch-Management steuert strategisch das Einspielen der Patches in die jeweilige Software und ist bei den meisten IT-Dienstleistern mittlerweile Standard im Angebot. Die Hauptaufgaben des Patch-Managements sind es, Patches zu überwachen und zur Verfügung gestellte Patches innerhalb kurzer Zeit an die Zielgeräte auszuliefern bzw. zu installieren. Zum Patch-Management gehören demnach das Planen, Beschaffen und Prüfen von Patches. 

PCI: 

PCI (Peripheral Component Interconnect) gilt als ein Standard bei einem Kommunikationsbus, über welchen ein umfangreicher Austausch von Daten statt findet. Der Bus verbindet verschiedene Peripheriehardware wie beispielsweise Steckkarten mit dem Chip des Computers. Der Vorgänger von Peripheral Component Interconnect war bis in die 90er-Jahre der ISA-Bus oder Vesa-Local-Bus. Der PCI-Bus ermöglicht es, dass angeschlossene Steckkarten automatisch erkannt und vom System konfiguriert werden. Zu den Steckkarten gehören unter anderem Netzwerkkarten, Grafikkarten oder Modemkarten. Da im Laufe der Jahre die Übertragungsgeschwindigkeiten immer höher wurden, erschien im Jahre 2005 PCI Express, welches das normale PCI ablöste und höhere Übertragungsgeschwindigkeiten ermöglicht. 

PoE: 

Mittels PoE (Power over Ethernet) können Netzwerkkabel Geräte über eine bestehende Datenverbindung mit Daten und Strom versorgen. PoE bringt vor allem dort Vorteile, wo die Installation von Stromleitung zu umständlich oder teuer ist, da für den Gebrauch von PoE-fähigen Geräten nur ein PoE-Kabel zur Verbindung notwendig ist. Geräte die PoE-fähig sind, sind sogenannte PSE-Geräte (Power Sourcing Equipment) oder PD-Geräte (Powered Device). PSE-Geräte, wie Netzwerk-Switches oder PoE-Adapter zur Verwendung von Nicht-PoE-Switches übertragen Strom. PD-Geräten, wie VoIP-Telefone, WLAN-Accesspoints und statische IP-Überwachungskameras dagegen nutzen ausschließlich den Strom. Für die Power-over-Ethernet-Übertragung von Daten oder Strom müssen zudem bestimmte Standards eingehalten werden. 

Portfast: 

Portfast bezeichnet ein Feature für die Konfiguration von Switchports. Bei der Aktivierung des Switchport oder auch bei Verbindungsausfällen startet in der Regel das Spanning Tree Protocol (STP). Das STP beinhaltet Phasen, um den Port in den STP-Weiterleitungsstatus zu versetzen. Die Phasen des STP lauten: Blocking, Listening, Learning und Forwarding. Bis der Port dann jedoch Nutzerdaten transportiert dauert es bis zu 30 Sekunden. Mit Hilfe der Erweiterung des STP durch Portfast erfolgt der Wechsel von Blocking direkt zur letzten Phase, dem Forwarding. Die Staten Listening und Learning werden dadurch übergangen und der Port wechselt somit schneller in den Weiterleitungsstatus. 

Ports: 

Ein Port ist Teil der IP-Adresse, wodurch die Kommunikation zwischen 2 oder mehreren Computern mit dem Internet erfolgt. Dazu werden Datenpakete an einer IP-Adresse versendet und durch bestimmte Ports gezielt einer Anwendung oder einem Dienst zugeordnet. Die Ports, mit fortlaufender Nummerierung von 0 bis 65535, sind zudem in 3 Gruppen unterteilt. Die Standard- Ports von 0 bis 1023 gehören zu den wichtigsten Ports und sind alle an bestimmte Dienste, wie zum Beispiel Webseiten gebunden. Die Vergabe dieser Portnummern erfolgt bei dieser Gruppe durch die IANA. Die Port-Nummern 1024 bis 49151 gehören der User Port Gruppe an und sind ebenfalls bestimmten Diensten zugeordnet (z.B. für das Management von Netzwerken). Die dynamischen Ports bilden die letzten Portnummern bis 65535. Die Vergabe der Portnummern ist vom Betriebssystem abhängig. Ungenutzte Ports werden automatisch durch eine Firewall auf dem Computer geschlossen, um den Computer vor Viren zu schützen.

PPPoA: 

PPPoA ist ein Netzwerkprotokoll, in dem PPP für "Point to Point Protocol" und damit der Angleichung der Datenübertragung zwischen zwei beliebigen Computern steht. "oA" bedeutet, dass die Computerverbindung auf einer Seite mindestens über klassisches Telefonnetz aufgebaut wird (ADSL). Der Datenaustausch erfolgt hier in kleinen Paketen ("fragmentiert"). Das moderne Protokoll "PPPoE" (PPP over Ethernet) hingegen verschickt Daten bzw. Informationen immer in standardisierten Blöcken zu je 1.500 Bytes. PPPoE erfolgt über schnelle ISDN-Leitungen. 

PPPoE: 

Beim PPPoE (Point-to-Point Protocol over Ethernet) handelt sich um ein Protokoll, mit dessen Hilfe eine Punkt-zu-Punkt-Verbindung über das Ethernet hergestellt wird. Dabei greift PPPoE sowohl auf den Standard PPP (Point-to-Point-Protokoll) als auch auf das Ethernet zurück. PPPoE wird meistens bei Providern verwendet, um die Einwahl in das Internet per DSL zu gewährleisten. Das Ethernet ermöglicht es, dass sich mehrere Geräte gleichzeitig über das PPPoE verbinden können. Bei Verwendung eines Routers ist dieser dafür verantwortlich, dass eine Verbindung zum Internet erfolgreich zustande kommt. 

Proxy: 

Ein Proxy dient als Server und hat in einem Netzwerk die Rolle des Vermittlers. Er nimmt Anfragen im Netzwerk entgegen und leitet diese entsprechend weiter. Wenn ein Proxy-Server Anfragen entgegennimmt, benutzt er bei der Weiterleitung seine eigene Identität. Der Proxy dient also dazu, Verbindungen bzw. die Kommunikation zu sichern und zu verschleiern. Der Proxy führt also die Netzwerkkommunikation selber aus, sodass die Identitäten von Client und Server dem jeweils anderen Kommunikationspartner verborgen bleiben. Für die Funktionalität eines Proxy-Servers wird eine Software benötigt, welche entweder auf dem eigenen Rechner oder dem Server installiert wird. Meistens werden HTTP-Proxys eingesetzt. 



QoS: 

QoS bzw. Quality of Service wird im Deutschen als Dienstgüte bezeichnet. Quality of Service beschreibt aus Anwendersicht die Qualität eines Kommunikationsdienstes. Die Qualität eines Dienstes wird dahingehend gemessen, inwiefern diese den Anforderungen entspricht, die die Nutzer an diesen Dienst haben. Besonders bei der VoIP-Telefonie spielt die Dienstgüte eine große Rolle. Anforderungen an die Dienstgüte bzw. den Quality of Service sind unter anderem, dass Verbindungen schnell und zuverlässig zustande kommen, die Verbindungen an sich stabil sind, die Qualität der Übertragung hoch und dass die Übertragung störungsfrei läuft. 

Q-Bus: 

Der Q-Bus ist auch als LSI-11 Bus bekannt und ist eine von mehreren Bus-Technologien, welche früher bei PDP- und MicroVAX-Computersystemen verwendet wurden. Der Q-Bus ist günstiger als der Unibus. Er setzt Multiplexing ein und kann somit Adress- und Datensignale, welche auf derselben Leitung laufen, teilen. Anfangs hatte der Q-Bus einen Adressbereich von 16 Bit, welcher inzwischen auf 22 Bit erweitert wurde. Zudem verfügt er inzwischen über sogenannte Blockübertragungsmodi. Ähnlich wie beim Unibus, greift der Q-Bus auf Memory-mapped IO, Byte-Adressierung, asynchronen Signalaustausch sowie eine strikt getrennte Master-Slave-Beziehung zwischen den einzelnen Geräten, die am Bus angeschlossen sind, zurück. 

QIC: 

QIC (Quarter Inch Cartridge) ist ein Magnetbandsystem, welches früher verwendet wurde, um Sicherungen von Daten zu erstellen. In den 80er-Jahren wurden die QIC-Laufwerke vor allem bei UNIX-Servern sowie bei PCs verwendet. Bei den Datenträgern handelt es sich um Kassetten (Mini-QIC oder Mini-DC), deren Magnetbänder bis zu 460 mm lang und bis zu 6,5 mm breit waren. Die Speicherkapazität war auf bis zu 20 GB begrenzt. Später entwickelte Tandberg Data das sogenannte Multichannel Linear Recording (MLR), welches die Speicherkapazität auf bis zu 50 GB erhöhte. Es gab über 40 verschiedene Kassettentypen mit einer Speicherkapazität zwischen 15 MB und 50 GB. 



RAID: 

Bei dem RAID-Prinzip ( zu Deutsch „Redundante Anordnung unabhängiger Festplatten“) werden mehrere Festplatten zu einem Laufwerk (dem sogenannten logischen Laufwerk) zusammengefasst. Dieses logische Laufwerk sorgt dafür, dass eine bessere Datensicherheit gewährleistet ist, die durch Redundanz entsteht. Die Festplatten werden dabei in einem Festplattenverbund zusammengefasst, dass etwa bei einem Stromausfall oder beim Ausfall einer der Festplatten die anderen noch funktionieren. So kann bei einem Datenverlust auf einer Festplatte auf dieselben Daten trotzdem noch zurückgegriffen werden, sofern alle Festplatten die Daten der Datensicherung beinhalten. Alle Festplatten im RAID-Festplattenverbund sollten möglichst die gleiche Speichergröße sowie über die gleichen Leistungsmerkmale verfügen, um Komplikationen beim Betrieb des RAID zu vermeiden. 

RAM: 

Ein RAM-Speicher („Read Access Memory“) ist ein Direktzugriffsspeicher. Dieser Speichertyp ist meistens als Arbeitsspeicher bekannt. Die RAM-Speichermodule werden hauptsächlich in Computern verwendet. Es handelt sich beim RAM-Speicher um einen flüchtigen Speicher, der als das Kurzzeitgedächtnis des Rechners dient. Nach dem Ausschalten des Computers sind somit die im RAM vorhandenen Daten gelöscht und stehen beim nächsten Start des Computers nicht mehr zur Verfügung. Der RAM wird vom Rechner daher für Daten verwendet, die kurzfristig bzw. schnell vom Rechner benötigt werden. Die Festplatten werden vom RAM unterstützt, da sie sonst die Daten, die der RAM verarbeitet, noch zusätzlich verarbeiten müssten. 

Ransomware: 

Der deutsche Begriff für Ransom bedeutet Lösegeld. Ransomware ist daher eine sogenannte "Erpressungssoftware", die das betreffende Endgerät sperrt und den Nutzer dazu auffordert ein Lösegeld zu bezahlen, damit der Zugriff auf den Rechner wieder gewährt wird. Mit Ransomware werden die Daten auf dem Gerät verschlüsselt. Ohne den entsprechenden Schlüssel, können die Daten nicht mehr entschlüsselt werden. Der erste bekannte Versuch, Ransomware über das Internet zu verbreiten, wurde im Jahr 2005 registriert. Vorher war es üblich, dass Ransomware über andere Speichermedien verbreitet wurde. Dabei reiht sich Ransomware in die Familie der Malware mit ein und ist dementsprechend verwandt mit Viren, Spyware, Trojanern oder Cryptolockern. 

Rechenzentrum: 

Bei einem Rechenzentrum handelt es sich um einen real vorhandenen Standort, der aus einem (großen) Netzwerk von Rechnern bzw. Speicherressourcen besteht. Dazu gehören neben den Rechnern, die als Server fungieren, auch Router. In einem Rechenzentrum werden in der Regel große Speichermengen von Daten und Anwendungen gespeichert. Rechenzentren werden meistens von Unternehmen in Anspruch genommen, die ihre Web-Auftritte, Onlineshops, Cloud-Anwendungen, etc. von dort aus laufen lassen. Die Betreiber der Rechenzentren müssen dafür Sorge tragen, dass die Seiten bzw. Dienste rund um die Uhr funktionieren. Von einem Rechenzentrum aus läuft die gesamte IT-Infrastruktur. Entweder betreibt das Unternehmen selbst ein Rechenzentrum oder es nimmt die Dienste externe Rechenzentrum-Anbieter in Anspruch. 

Redundanz: 

Redundanz bedeutet, dass Daten, Informationen oder Dinge, die miteinander vergleichbar sind, mehrfach (mindestens zwei Mal) vorhanden sind. Der Begriff Redundanz stammt vom lateinischen „redundare“ ab und bedeutet, dass Dinge im Überfluss vorhanden sind. In der IT-Technik ist Redundanz von Vorteil, da so sichergestellt werden kann, dass Daten, Netzwerke und Systeme auch dann erreichbar sind, wenn es zu einem Störungsfall kommt. Komponenten werden also mit der gleichen Installation mehrfach verwendet, um gegen Störungsfälle, wie etwa Stromausfällen, gewappnet zu sein. Redundanz wirkt sich jedoch beispielsweise bei Datenbanken negativ aus. Wenn in Datenbanken Daten mehrfach (redundant) vorkommen, führt dies zu fehlerhaften Datenbankabfragen und verlangsamt die Datenbank. Daher gilt es bei Datenbanken, redundante Daten zu vermeiden. 

Refurbishment: 

Beim Refurbishment werden gebrauchte Komponenten generalüberholt bzw. instandgesetzt und dann wiederverkauft bzw. weiterverwendet. Im Netzwerkbereich bedeutet Refurbishment, dass Router, Switches, Server, Module, Transceiver und weitere Komponenten generalüberholt und weitergenutzt oder weiterverkauft werden. Refurbishment trägt dazu bei, umweltschonend zu handeln, da gebrauchte Geräte nicht entsorgt, sondern weiter benutzt werden können. Dies vermeidet unnötigen Abfall und schont Ressourcen, die ansonsten für den Bau neuer Komponenten benötigt würden. Kennzeichnend für generalüberholte Geräte ist, dass es sich um Geräte in einwandfreiem technischem Zustand handelt, nur leichte Gebrauchsspuren vorhanden und diese Geräte beim Kauf um bis zu 50 Prozent gegenüber dem Neupreis günstiger sind. 

Repeater: 

Repeater sind Geräte bzw. Komponenten, die beispielsweise WLAN-Übertragungsstrecken erweitern. So ist es möglich, dass die Reichweite eines Netzwerkes viel länger reicht, als es im ursprünglichen Zustand, ohne den Repeater, möglich wäre. Repeater empfangen zum Beispiel vom Router die Signale und senden diese weiter. Ein Repeater wird als HUB bezeichnet, wenn er mehr als einen Port (Eingang und Ausgang) besitzt. Repeater kann man für das WLAN, Ethernet, Mobilfunknetz und viele andere Übertragungsarten nutzen und sie entweder per Kabel oder drahtlos verbinden. Ebenso lassen sich mehrere Repeater hintereinanderschalten. So kann zum Beispiel durch bestimmte Repeater ein sogenanntes WLAN-Mesh hergestellt werden. Beim WLAN-Mesh erzeugen mehrere Repeater aus mehreren WLAN-Netzen ein einziges WLAN-Netz. 

Root-Exploit: 

Das Exploit (zu Deutsch „ausnutzen“) im Zusammenhang mit der IT bedeutet, dass Schwachstellen im Quellcode eines Programms ausgenutzt werden, um Schaden anzurichten. Der Angreifer nutzt Exploit Programmfehler und Sicherheitslücken im Quellcode von Programmen aus, um Zugriff auf die Daten des Computers oder ganzer Computersysteme zu bekommen. Vor allem auf Systemen, die mit dem Android-Betriebssystem ausgestattet sind, kommen sogenannte Root-Exploits häufig von Hackern zum Einsatz. Ein Root Exploit gehört zur Kategorie der Malware und ist eine der gefährlichsten Malware-Typen. Mittels des Root-Exploits verschafft sich der Hacker über den Betriebssystemkern die sogenannten Root-Zugriffsrechte, um damit die kompletten Sicherheitssysteme außer Kraft zu setzen und vollen Zugriff auf das System zu haben. 

Router: 

Ein maßgeblicher Grundstein für den Fortschritt der Digitalisierung ist ein zuverlässig funktionierendes Netzwerk. Elementare Bausteine eines solchen Netzwerks sind unter anderem Router. Netzwerkrouter leiten die Datenpakete anhand einer Routing-Tabelle über ausgewählte Schnittstellen weiter und machen somit den Datenaustausch, das sogenannte Routing, überhaupt erst möglich. Sie sind mit dem Gehirn des Netzwerkes zu vergleichen, dass dafür sorgt, dass alles an den richtigen Platz kommt. Die wichtigsten Funktionen eines Routers sind das Modem und WLAN, wobei das integrierte Modem die Verbindung zum Internet sicherstellt. Sogenannte WLAN-Router ermöglichen zudem, dass neben Desktop-PCs auch Laptops, Smartphones und Tablets Zugang zum Internet bekommen. 

RPL: 

Das Routing Protocol for Low Power and Lossy Networks, kurz RPL, ist ein IPv6 Routing Protokoll. Das Protokoll ist speziell für drahtlose Netze ausgelegt, deren allgemeine Schwachstelle der Verlust von Datenpaketen ist. Mittels des Protokolls werden zügig Netzwerkrouten bestimmt und schnell Routing-Wissen ausgetauscht. Die Aufgabe des RPLs besteht somit in der stetigen Funktionsfähigkeit der Kommunikation. Das Routing Protokoll hält diese auch aufrecht, wenn einzelne Bestandteile aufgrund von extremen Umgebungsbedingungen (Hitze, Kälte) nicht mehr funktionstüchtig sind. 



SaaS: 

Die Abkürzung SaaS steht für Software as a Service und ist ein Teilbereich des Cloud Computings. Ein SaaS-Modell sieht vor, dass die vom Anwender genutzte Software und dazugehörige Infrastruktur von einem externen IT-Dienstleister bereitgestellt wird und nicht beim Anwender selbst liegt. In diesem Fall nutzt der Anwender die Software als eine Dienstleistung und bezahlt ein Nutzungs- und Wartungsentgelt. Der Vorteil eines SaaS-Modells liegt darin, dass einerseits kostenintensive Anschaffungen von Serverstrukturen für den Anwender entfallen und andererseits die komplette Administration, Wartung und Aktualisierung beim Anbieter liegt. Der Anwender kann sich somit allein auf die Nutzung der Software konzentrieren. 

SAN: 

In einem Storage Area Network (SAN) lassen sich unterschiedliche Speicherkomponenten, wie zum Beispiel Festplatten und Tape-Systeme, miteinander verbinden. Der dann zur Verfügung stehende Speicherplatz kann variabel über einen einzelnen oder mehrere Server verteilt werden. Diese Vorgehensweise macht das Storage Area Network zu einem äußerst flexiblen und leistungsfähigen Netzwerk mit hoher Performance. Auf die Daten in einem SAN wird, wie bei direkt an das System angeschlossenen Festplatten, blockbasiert zugegriffen. Der Aufbau eines SAN-Netzwerks ähnelt dem eines normalen LAN-Netzwerkes. Ein SAN läuft parallel zu einem LAN und ist für die Datenübertragung der Speichermedien zuständig. 

SATA: 

SATA ist auch als Serial ATA, oder S-ATA bekannt und steht für „Serial Advanced Technology Attachement“. SATA ist für die Übertragung von Daten von Festplatten und Wechselspeichermedien zuständig. Der Vorgänger von SATA war ATA (AT Attachement) und bot, im Gegensatz zu SATA, keine parallele, sondern nur eine serielle Übertragung von Daten. Im Jahre 2000 löste SATA den Vorgänger ATA als Standard ab. Intel war zum größten Teil an der Entwicklung des SATA-Standards beteiligt. SATA gibt es in verschiedenen Datenraten. Mit der Version 3 von SATA können Übertragungsgeschwindigkeiten von bis zu 6 Gigabit in der Sekunde erreicht werden. Mit eSata (external SATA) können zudem externe Speichermedien angeschlossen werden. 

SCM: 

Das Storage Class Memory (SCM) ist eine neue Art von Speicher. Das SCM ist eine Speicherschicht in Rechensystemen. Diese fungiert als Zwischenschicht zwischen einem Memory, das heißt einem flüchtigen Arbeitsspeicher und einem nichtflüchtigen Festplattenspeicher, dem Storage. Die Speicherschicht dient der Steigerung von Effizienz und Geschwindigkeit der Systeme. Gleichzeitig sollen mittels des SCM die Kosten für den Speicher reduziert werden. Ein wichtiges Merkmal des SCM ist, dass die Daten nach dem Abschalten des Systems gespeichert werden. Im Gegensatz zu herkömmlichen Festplatten oder SSDs sind mit dem SCM schnellere Zugriffszeiten und höhere Datentransferraten möglich. SCM sind jedoch eher als Zusatzspeicher für SSDs geeignet, um die Leistung von Anwendungen zu erhöhen. Somit sind SCM-Laufwerke kein Ersatz für SSDs. 

SD-WAN: 

Ein SD-WAN ist ein auf Software basierendes Wide-Area-Network (Software-defined Wide Area Network) und somit ein virtuelles WAN-Netzwerk. Unternehmen sind mit dem SD-WAN äußerst flexibel, denn sie können beispielsweise über LTE und andere Breitbanddienste Anwender mit verschiedenen Applikationen sicher verbinden. Das SD-WAN steuert zentral und sicher den Datenverkehr innerhalb des WANs. Die wichtigsten Vorteile eines SD-WANs sind, dass es anhand einer unabhängigen Datenübertragung die Kosten senkt, für eine hohe Flexibilität zwischen den Nutzern und Applikationen sorgt, benutzerfreundlich in Bezug auf verschiedene Cloud-Anwendungen ist und Cloud-basiertes Management wesentlich vereinfacht. SD-WANs unterstützen Anwendungen von lokalen Rechenzentren, Cloud-Dienste bzw. SaaS-Dienste wie Dropbox oder Office 365 vollständig und sorgen zudem für eine hohe Performance der Anwendungen. 

Server: 

Der Begriff Server hat das englische Wort „to serve“ als Ursprung, was so viel wie „dienen“ bedeutet. Der Server ist also ein Diener, der Dienste und Ressourcen bereitstellt. Die Dienste und Ressourcen stellt er dabei den sogenannten Clients zur Verfügung. Dabei handelt es sich um Programme, wie zum Beispiel dem Browser oder aber auch Geräten. Ein Server kann unterschiedliche Aufgaben wahrnehmen. So dient er beispielsweise als Mail-Server in Bezug auf E-Mail-Dienste. Es gibt zwei Arten von Servern: hardwarebasierte Server sowie softwarebasierte Server. Ein hardwarebasierter Server ist ein Rechner, der an ein physisches Netzwerk angeschlossen ist. Auf ihm läuft als Betriebssystem ein virtueller Server. Bei einem softwarebasierten Server kommuniziert dieses Programm mit dem Client-Programm. Softwarebasierte Server laufen demnach auch auf hardwarebasierten Servern. 

SFP: 

SFP steht als Abkürzung für Small Form-factor Pluggable. Dabei handelt es sich um einen Anschluss-Port, an den sich bestimmte Komponenten anschließen lassen, um eine Netzwerkverbindung herzustellen. Bei diesen Komponenten bzw. Modulen handelt es sich um SFP-Transceiver, die an Gigabit-Ethernetverbindungen oder Fiber Channel angeschlossen werden. SFP-Ports sind vor allem in Routern und Switches zu finden. Der SFP-Port hat (relativ) kleine Maße, die es ermöglichen, dass er in Netzwerkgeräten mit vielen Ports verbaut werden kann. SFP-Ports sind flexibel und zukunftssicher und können bei Bedarf schnell ausgewechselt werden. Netzwerkgeräte mit SFP-Ports können zudem auch andere Arten der Übertragungen nutzen. 

Sicherheitslücke: 

Als Sicherheitslücke werden Schwachstellen bezeichnet, die in IT-Hardware, wie u.a. Netzwerkgeräten und Servern, vorkommen. Dabei handelt es sich um Fehler im Quellcode eines Programms, die durch den bzw. die Programmierer des Programms verursacht wurden. Sicherheitslücken können zudem auch entstehen, wenn eine Software unsachgemäß um zusätzliche Funktionen erweitert wurde oder wenn die Software nicht regelmäßig auf die neuste Version aktualisiert wird. Diese Fehler erlauben es Hackern, schadhaften Code an den Stellen des Quellcodes einzuschleusen, an denen der Quellcode fehlerhaft programmiert wurde. Damit können Sicherheitslücken in jeder Art von Software entstehen; angefangen beim Betriebssystem über diverse Software bis hin zur Firmware. Mit der Sicherheitslücke können Hacker (vertrauliche) Daten erbeuten, das Gerät kontrollieren, den Nutzer ausspionieren oder das komplette System zerstören. 

Skalierbarkeit: 

Mit Skalierbarkeit wird bei einem System erreicht, dass dieses System wächst. Werden dem System weitere Ressourcen zur Verfügung gestellt, wächst auch die Leistung des Systems. Es muss zwischen horizontaler und vertikaler Skalierbarkeit unterschieden werden. Mit Skalierbarkeit einer Software ist gemeint, dass diese mit einer leistungsstarken Anlage wächst. Wenn sich demnach die Hardware verbessert, sollte sich auch die skalierbare Software verbessern. Dabei passt sich skalierbare Software automatisch an, ohne dass sich der Quellcode ändert. Vertikale Skalierbarkeit meint entsprechend, dass das System die zurzeit beste Hardware benutzt. Horizontale Skalierbarkeit bedeutet, dass mehrere Rechner aneinander geschaltet sind und der Hardware-Erweiterbarkeit keine Grenzen gesetzt sind. Hier liegen die Grenzen dann bei der Software. 

Smart Lighting: 

Mit Smart Lighting werden Lichtquellen mittels eines drahtlosen Netzwerkssystems miteinander vernetzt. Genauer, führt die intelligente Beleuchtung smarte Leuchtmittel zu einer Gruppe per WLAN zusammen. Smart Lighting reagiert auf Veränderungen der Umgebung oder Nutzerwünsche und unterstützt so eine effektivere und energieeffizientere Ausleuchtung von Räumen. Die intelligente Beleuchtung verfügt zudem über Funktionen, wie das Dimmen, den Farbwechsel oder das Human Centric Lighting. Die Steuerung erfolgt per App, Smartphone, Tablet oder auch durch einen Sprachbefehl. 

SMTP: 

Beim SMTP handelt es sich um das Simple Mail Transfer Protocol. Das SMTP-Protokoll ist ein Übertragungsprotokoll im IP-Netz, welches E-Mails übermittelt. Die ebenfalls bekannten Protokolle IMAP und POP3 holen Mails ab und verwalten diese. Das SMTP-Protokoll hingegen kann nur zum Versenden von Mails benutzt werden. Anfangs verstand das SMTP-Protokoll nur ASCII-Zeichen. Seitdem es jedoch den MIME-Standard (Multipurpose Internet Mail Extensions) gibt, kann das Protokoll Binärdateien verarbeiten und verwenden. Das Simple Mail Transfer Protocol ist ein Client-Server-Protokoll. Dabei ist der Client dafür zuständig, zum Server eine Verbindung herzustellen und die Kommandos zu senden. Der Server führt die Kommandos anschließend aus und gibt dem Client dann das Ergebnis bekannt. 

SNMP: 

Das Simple Network Management Protokoll (SNMP) dient der Überwachung, Steuerung und Verwaltung von Netzwerkelementen. Diese Netzwerkgeräte können Router, Switches, Computer oder Drucker mit einem Netzwerkmanagementsystem (NSM) sein. Mittels des SNMP soll die Kommunikation für den Informationsaustausch von Netzwerkgeräten vereinfacht werden. Das erfolgt durch Agenten und Manager, die eine Push-und Pull-Kommunikation führen. Der Manager, wie eine Software auf einem Rechner, fordert von dem Agenten, in regelmäßigen Intervallen, Informationen. Der Agent, oft eine Software auf dem zu überwachenden Hardwareprodukt, sendet eine Antwort zurück. Der Agent erhält die zu weiterleitenden Informationen durch die MIB (Management Informationsbasis), welche als Datenbank fungiert. Außerhalb der regelmäßigen Abfragen meldet sich der Agent ebenfalls bei Fehlermeldungen und überschrittenem Schwellenwerten bei dem Manager, welcher dies wiederum an den Administrator weiter leitet. 

Softwarelizenz: 

Die Softwarelizenz ist eine rechtsgültige Vereinbarung, die zwischen dem Softwarehersteller und seinen Endbenutzern getroffen wird. Die Softwarelizenz regelt dabei die Nutzungsbedingungen der jeweiligen Software. Besitzen die Endkunden keine gültige Lizenz, dürfen sie die Software nicht benutzen. Egal, ob die verwendete Software für den privaten oder gewerblichen Bereich bestimmt ist, sie muss legal lizenziert sein, damit sie installiert und genutzt werden darf. Es gibt verschiedene Arten von Softwarelizenzen, wie beispielsweise Freeware, Open Source und kommerzielle Lizenzen. Zu den bekannten, kommerziellen Lizenzen gehören zum Beispiel diverse Produkte aus der Microsoft-Familie wie Windows und Office oder die Grafikprogramme von Adobe.

Spam: 

Bei Spam handelt es sich unter anderem um unerwünschte E-Mails bzw. Junk-Mails. Spam-Mails überfluten heutzutage regelrecht die E-Mail-Postfächer der Nutzer. Ein Spamfilter schafft Abhilfe gegen unerwünschte Spam-Mails. Die meisten E-Mail-Provider verfügen über eine praktische Funktion, um Spam-Mails zu melden. Dadurch wird der E-Mail-Client angelernt, diese Spam-Mails zu erkennen und gar nicht erst durchzulassen. In öffentlichen Foren, Chaträumen, etc., also überall dort, wo öffentlich Kontaktinformationen hinterlegt werden können, sollte nie die Haupt-E-Mail-Adresse verwendet werden, sondern lediglich eine Ersatz-E-Mail-Adresse. Zudem solle nie auf Spam-Mails reagiert werden und keine Anhänge in Spam-Mails heruntergeladen werden. 

SSD: 

Die Solid State Drive (SSD) ist keine normale Festplatte im eigentlichen Sinne, sondern ein Speichermedium, welches Halbleiterspeicher benutzt, um Daten zu speichern. SSD Speichermedien können sowohl extern als auch intern an bzw. in einem Rechner verwendet werden. SSD-Speichermedien sind sehr robust, haben wenig Verschleiß und verfügen über eine hohe Geschwindigkeit beim Lesen und Schreiben der Daten. Im Gegensatz zu normalen Festplatten verfügen SSDs über keine beweglichen Teile. SSDs werden beispielsweise über die SATA-Schnittstelle ausgelesen. Es gibt auch SSDs, die über eine PCIe-Schnittstelle verfügen und sich dann als Steckkarte nutzen lassen. 

SSH: 

Mit der Secure Shell (SSH) ist es möglich, auf Kommandozeile – der sogenannten Shell – eine sichere Verbindung zu einem Webserver bzw. einem anderen Rechner herzustellen. Unter Windows ist die Shell als die DOS-Eingabeaufforderung bekannt. Die Shell ist unter Linux- und Mac-Systemen auch als Terminal oder Konsole bekannt. Eine Shell kann aber auch über eine grafische Benutzeroberfläche verfügen. Bevor es die Secure Shell gab, wurden unsichere Verbindungen beispielsweise über Telnet, Remote Shell oder rlogin hergestellt. SSH wird dazu verwendet, um Server zu verwalten, Dateien sicher zu übertragen, sichere Back-ups zu erstellen und Computer fernzuwarten. Auch das FTP-Protokoll wurde dank SSH zum „SSH File Transfer Protocol“ (SFTP) weiterentwickelt. 

Storage-Router: 

Mit einem Storage-Router werden Daten in kleineren Unternehmen über ein Netzwerk untereinander versendet. Der Router kann dabei selbst als Speichermedium benutzt oder über ein externes Speichermedium mit Speicherkapazität, welches im Bedarfsfall gewechselt werden kann, erweitert werden. Der Storage-Router und das Speichermedium sind meistens über USB verbunden. Storage-Router verfügen in der Regel über eine schnelle Ethernet-Verbindung von bis 1.000 Gigabit für schnelle Zugriffs- und Übertragungsraten. In Unternehmen werden Storage-Router häufig in sämtlichen Büros verwendet, um einfach, schnell und effektiv Daten zu sichern. Bei einem Defekt an der Hardware können allerdings die Daten, die auf dem Storage-Router gespeichert sind, verloren gehen. 

Switch: 

Der Begriff Switch stammt aus der Netzwerktechnik und ist ein Netzwerkgerät, welches Datenströme in Netzwerken verteilt. Damit dies geschieht, müssen an den Switch mindestens zwei Rechner angeschlossen werden. Der Switch verfügt über eine intelligente Weiterleitung der Daten an die angeschlossenen Rechner, da er diese identifizieren und zuordnen kann. So können die Daten gezielt untereinander ausgetauscht werden. In kleineren Unternehmen werden meist nur wenige Switches eingesetzt. In größeren Unternehmen dagegen kommen viele Switches mit bis zu 50 Ports zum Einsatz. Diese werden dann in sogenannten Racks verwendet, da dadurch sichergestellt ist, dass die Netzwerkkabel sauber untergebracht sind. 



TCP/IP: 

TCP/IP steht für Transmission Control Protocol / Internet Protocol und fasst eine Reihe von Netzwerkprotokollen zusammen. Das komplette Internet verwendet das TCP/IP-Protokoll. Über das TCP/IP-Protokoll werden Datenpakete in unterschiedlichen Größen sowohl im LAN als auch im WAN verschickt. Da das TPC/IP-Protokoll nicht von einer bestimmten Hard- oder Software abhängig ist, kann das Protokoll auf allen Betriebssystemen zum Einsatz kommen. TCP/IP ist im sogenannten OSI-Schichtenmodell in den Schichten 3 und 4 zu finden. Diese Schichten sind für die Vermittlung und den Transport der Daten verantwortlich. 

Telekommunikation: 

Telekommunikation wird auch als Fernmeldewesen bezeichnet. Darunter versteht man jegliche Art von Kommunikation, die über eine (größere) Entfernung stattfindet. Dazu zählt jede Kommunikation, die nicht im selben Raum stattfindet. Das Telekommunikationsgesetz in Deutschland definiert Telekommunikation in §3 Nr.22 als technischen Vorgang für das Aussenden, Übermitteln sowie Empfangen von Signalen über Telekommunikationsgeräte. Zu einer technischen Kommunikation benötigen sowohl der Sender als auch der Empfänger technische Geräte. Informationen werden dabei in Text, Video, Sprache, Bild und anderen Arten von Daten übertragen. Zu Kommunikationsmitteln aus der Gegenwart und Vergangenheit gehören beispielsweise Briefpost, Brieftauben, Kuriere, Telefonie und das Internet. 

Transceiver: 

Transceiver-Module kommen im Gigabit-Ethernet zum Einsatz. Dabei handelt es sich um kleine Module, die in Netzwerkadaptern dafür zuständig sind, Signale zu senden und zu empfangen. Transceiver-Module werden in Switches und Router verwendet. Bei unterschiedlichen Entfernungen werden verschiedene Kabel verwendet. Zudem bestimmt das Übertragungsmedium, ob Licht, elektrische Impulse oder elektromagnetische Wellen verwendet werden. Transceiver-Module sind von der Baugröße klein, um auf kleinem Raum möglichst viele Ports zur Verfügung zu haben. Sie sind nicht nur für das Senden und Empfangen zuständig, sondern auch für die Kollisionserkennung die Autonegation, damit eine hohe Datenrate erreicht wird. 



UDP: 

UDP steht für User Datagram Protocol und ist ein Kommunikationsprotokoll aus dem TCP/IP-Bereich. Im OSI-Schichtenmodell ist das UDP-Protokoll in der vierten Schicht, der Transportschicht, zu finden. Das UDP-Protokoll ist verbindungslos und nicht sicher. Es wird daher vor allem für Anwendungen verwendet, die eine große Fehlertoleranz haben und Daten auf einer niedrigen Latenz erhalten und versenden. Das Protokoll ist vor allem dafür zuständig, Daten zu transportieren. Das DNS-System (Domain Name Service) sowie VPNs und andere Protokolle bedienen sich dem UDP-Protokoll, welches Ports für die Unterscheidung zwischen unterschiedlichen Anwendungen und Anfragen von Benutzern verwendet . Damit das Protokoll überprüfen kann, ob Daten korrekt empfangen wurden, bedient es sich verschiedener Prüfsummen. 

Unicast: 

Unicast bezeichnet die direkte Kommunikation zwischen einem einzigen Sender und einem einzigen direkten Empfänger. Der Informationsfluss erfolgt bei Unicast ausschließlich zwischen zwei Netzteilnehmern. Gegenteilig dienen die Protokolle Multicast oder Anycast dazu, dass viele Empfänger gleichzeitig adressiert werden. Der Großteil des Datenverkehrs im Internet erfolgt jedoch über das Unicast-Prinzip. Beispielsweise wird jedes Mal eine direkte Verbindung zwischen Client und Server bei dem Aufrufen einer Webseite vom Nutzer geschaffen. 

Unmanaged: 

Für den Aufbau eines privaten- oder Firmennetzwerks über Netzwerk-Switches, besteht die Wahl zwischen managed und unmanaged Switches. Managed Switches sind verwaltbare und unmanaged Switches nicht verwaltbare Switches. Unmanaged Switches sind meistens dank Plug-and-Play ohne viel Aufwand einfach einzurichten und im Unternehmensbereich beispielsweise zum Vernetzen von IP-basierten Überwachungskameras geeignet. Wenn es sich um kleinere Netzwerke handelt, bei denen der Nutzerkreis im kleinen Rahmen bleibt und Konfiguration und Verwaltung weniger beachtet werden müssen, sind unmanaged Switches eine ideale und kostengünstige Lösung. 

USV: 

Sollte es zu einem Stromausfall kommen, sorgt die USV (Unterbrechungsfreie Stromversorgung) dafür, dass IT-Systeme in Unternehmen für einen begrenzten Zeitraum trotzdem Strom zur Verfügung haben. Gerade in der heutigen Zeit der Automatisierung ist es für Unternehmen unerlässlich, dass die gesamte IT-Infrastruktur jederzeit ohne Unterbrechung funktioniert. Die USV hat deshalb zum Ziel, den Betriebsablauf am Laufen zu halten (auch Business Continuity genannt). Auch im Bereich Datenschutz ist die USV wichtig, da im Falle eines Stromausfalls Daten verloren gehen könnten, die nicht wieder herstellbar sind. Meistens werden USV-Anlagen in Verbindung mit Netzersatzanlagen eingesetzt. 



VoIP: 

Voice over IP (VoIP) oder auch VoIP-Telefonie, IP-Telefonie oder Internettelefonie genannt, beschreibt die Übertragung von Telefongesprächen über das Internet. VoIP macht die Telefonie zwischen Computern, Tablets und Smartphones mit Internetzugang möglich, ohne dass ein stationäres Telefon oder eine spezielle Telefonanlage als Ausgangspunkt benötigt wird. Über einen Breitband-Internetanschluss können mehrere Gespräche und deren Sprachsignale parallel über ein IP-Netzwerk übertragen, sowie die Telefonanlagen von mehreren Standorten miteinander verknüpft werden. So ist es beispielsweise möglich, dass ein Mitarbeiter, der in Magdeburg im Homeoffice arbeitet mit einer Festnetznummer vom Sitz des Unternehmens, bspw. eine Berliner-Festnetznummer, telefonieren kann. 

Virtueller Server: 

Der virtuelle Server ist auch unter dem Namen virtuelle Maschine (VM) bekannt. Der virtuelle Server ist eine Software, die auf einem physischen Server läuft und sich wie dieser verhält, dabei jedoch nur virtuell vorhanden ist. Der physisch vorhandene Server kann über mehrere, virtuelle Server verfügen. Virtuelle Server stellen Ressourcen wie Arbeitsspeicher, Festplatten und die CPU bereit und werden meistens für das Testen von neuen Betriebssystemen, Software oder anderen nicht bekannten Dateien eingesetzt, da virtuelle Server eine abgesicherte Umgebung bereitstellen. Sie sind eine kostengünstige Alternative für Unternehmen, da sie nicht gewartet werden müssen und Strom sparen. 

Virus: 

Ein Virus bzw. Computervirus sorgt dafür, dass Software manipuliert und somit großer Schaden angerichtet wird. Dabei stammt der Begriff Computervirus vom Virus der Medizin ab. Das Computervirus verhält sich wie das medizinische Virus, indem er schadhafte Teile – in diesem Fall schädliche Software – auf dem betroffenen System installiert und dieses beschädigt oder im schlimmsten Fall zerstört. Dabei kann sich das Computervirus ebenfalls weiterverbreiten und somit auch weitere Systeme beschädigen bzw. infizieren. Die Computerviren schleusen sich in Software, Betriebssystemen, Arbeitsspeichern (RAM) oder in Bootsektoren ein, um ihre zerstörerische Wirkung anzurichten. Unter dem Begriff Computervirus fallen auch Malware, Trojaner und Computerwürmer. 

VPN: 

Der Begriff VPN bedeutet „virtuelles privates Netzwerk“ (Virtual Private Network). Mithilfe einer VPN-Verbindung kann eine sichere Verbindung zwischen dem eigenen Rechner und dem Internet hergestellt werden. Die sichere Verbindung sorgt dafür, dass der Datenverkehr über das VPN anonymisiert verläuft und die Online-Identität verschleiert wird. Dazu wird die eigene IP-Adresse verborgen. Vorteilhaft ist dies unter anderem, wenn öffentliche WLAN-Hotspots verwendet werden. In Unternehmen wird ein VPN beispielsweise verwendet, wenn Mitarbeiter im Homeoffice sicher mit dem Firmennetzwerk verbunden sein sollen. Ohne ein VPN werden Daten über den jeweiligen Internetdienstanbieter verarbeitet. Das VPN ist eine Art Tunnel, bei dem der Datenverkehr über einen VPN-Server fließt. Das VPN ändert dabei die IP-Adresse, verschleiert den Standort, verschlüsselt die Daten und schützt somit vor unbefugtem Zu- bzw. Abgriff der Daten. 

VRRP: 

Das Virtual Router Redundancy Protocol, kurz VRRP, bezeichnet ein in 1998 entwickeltes Verfahren. In diesem Verfahren werden redundante Router genutzt, um die Verfügbarkeit von wichtigen Gateways in lokalen Netzen zu steigern. Die redundanten Gateway-Router schließen sich folglich zu einer Gruppe zusammen und es erfolgt die Einrichtung eines virtuellen Routers. Dieser ist mit einer eigenen IP- bzw. MAC-Adresse ausgestattet. Über den imaginären Router laufen sämtliche Daten. Bei starker Auslastung des Netzwerks werden durch VRRP Backup-Router als Lastverteiler eingesetzt. Diese verhindern den Ausfall des Master-Routers. Falls dennoch ein Verbindungsabbruch oder Ausfall bevorsteht, werden die ein- und ausgehenden Datenströme auf die übrigen Backup-Router neu verteilt. Das VRRP bietet somit eine Ausfallsicherheit von Datenwegen. 



WAN: 

WAN, ein Wide Area Network, ist ein großes Netzwerk, welches mehrere LANs oder Computersysteme miteinander verbindet. Die Verbindung kann sich dabei über eine große geografische Distanz hinweg erstrecken, beispielsweise über Länder oder Kontinente. Das WAN unterscheidet sich damit vom WLAN, LAN oder MAN, welche alle für eine kleinere geografische Distanz vorgesehen sind. Häufig werden Wide Area Networks von Internetprovidern verwendet, um Benutzern einen Zugang zum Internet zu ermöglichen. Innerhalb von Unternehmen werden WANs eingesetzt, um beispielsweise hauseigene Cloud-Systeme anzubieten oder um die Netzwerke von verschiedenen Standorten miteinander zu verbinden. 

WLAN: 

Die Abkürzung WLAN steht für Wireless Local Area Network und bezeichnet eine kabellose, lokale Verbindungsmöglichkeit mit dem Internet. Das sogenannte Drahtlosnetzwerk bildet oft die Grundlage eines Heimnetzwerkes im Privat- sowie Geschäftsbereich und stellt den darin eingebundenen Geräten, vereinfacht gesagt, ein Internetzugang bereit. Um ein WLAN einrichten zu können wird ein WLAN-Router benötigt, der das lokale Internet in ein kabelloses Netzwerk umwandelt. Das WLAN ist auf eine kleine lokale Fläche begrenzt, kann aber beliebig mit Access Points oder WLAN-Repeatern erweitert werden. 

Web Application Control: 

Web application control controls what end users can and cannot do on a server or in enterprise applications. Web application control can reduce the risk of malware, or zero-day exploits being introduced. While blocking access can ensure that productivity is reduced, it conversely provides greater security and thus keeps the risk of downtime low. In addition, web application control can prevent license compliance regulations from being ignored. For example, Web application control can be used to specify that users can only use a single Web browser. 



XFP: 

Bei einem XFP-Modul handelt es sich um ein 10 Gigabit Small Form-Factor Pluggable Modul. XFP ist ein Standard für Transceiver und in High-Speed-Netzwerken sowie bei Telekommunikationsverbindungen. Dabei werden optische Fasern bzw. Glasfaserkabel verwendet. XFP besitzt einen etwas größeren Formfaktor als die beliebten Smallform-Factor-Pluggable-Transceiver SFP sowie SFP+. XFP-Module können während des laufenden Betriebs getauscht werden. Am meisten arbeiten die XFP-Module in Nahinfrarot-Wellenlängen zwischen 850 nm und 1550 nm. Da XFP-Module einen LC-Fasersteckertyp verwenden, erreichen sie eine höhere Dichte. Unter anderem nutzen 10-Gigabit-Ethernet-Anwendungen XFP-Module. 



YaST: 

YaST („Yet another Setup Tool“) ist das Installations- und Konfigurationstool für openSUSE sowie SUSE Linux Enterprise-Distributionen. Mit dem YaST-Tool wird das Linux-System administriert. Es besteht aus verschiedenen YaST-Modulen. YaST besteht neben dem Installtions-Assistenten aus dem YaST-Kontrollzentrum. Somit ist YaST der zentrale Angelpunkt, um unter Linux Software zu installieren, Hardware einzurichten, den Internet-Zugang zu konfigurieren sowie andere wichtige Aufgaben zu verwalten. Normalerweise steht das YaST-Tool als grafische Benutzeroberfläche zur Verfügung. Alternativ kann auch über einen Textmodus bzw. die Kommandozeile per SSH-Verbindung administriert werden. Für den Zugriff auf die einzelnen Konfigurationsmodule des YaST-Tools werden Adminrechte benötigt. 



Zero Day Exploit: 

Ein Zero Day Exploit ist ein Fehler in Soft- oder Hardware, der zu großen Problemen führen kann. Problematisch beim Zero Day Exploit ist, dass er nur schwer entdeckt werden kann. Der Begriff Zero-Day selbst bedeutet, dass Hacker neue Sicherheitslücken entdecken und die betroffenen Systeme dann angreifen. Dabei bezieht sich der Zero-Day auf den Tag, an welchem der Hersteller bzw. Entwickler erfährt, dass ein Fehler vorhanden ist und er null Tage Zeit hat, den Fehler zu beseitigen. Der Zero-Day-Angriff ist daher der Tag des Angriffs von Hackern, da Hersteller bzw. Entwickler noch keine Zeit hatten, die Schwachstelle zu beheben. Zero-Day-Exploits betreffen daher unter anderem Betriebssysteme, Webbrowser, Office-Anwendungen und Hard- und Firmware.