INDUSTRIE 4.0 IN SICHTWEITE
26.04.2019 - Wie die Q-DAS Software bei TCG UNITECH zur Prüfplandynamisierung eingesetzt wird
Name | Verwendung | Laufzeit |
---|---|---|
privacylayer | Statusvereinbarung Cookie-Hinweis | 1 Jahr |
Name | Verwendung | Laufzeit |
---|---|---|
_ga | Google Analytics | 2 Jahre |
_gid | Google Analytics | 1 Tag |
_gat | Google Analytics | 1 Minute |
_gali | Google Analytics | 30 Sekunden |
07.04.2014: Edgar Dietrich
Zurzeit werden immer häufiger die Themen wie Big Data, Big Smart Data, Smart Data, Predictive Analytics, Industrie 4.0 oder Smart Factory diskutiert. Was bedeuten diese Begriffe und die damit verbundenen Entwicklungen für das Qualitätsmanagement? Gibt es konsequenterweise auch Qualität 4.0? Die Antwort darauf ist bei Q-DAS: „quality4industry“!
Hinter den Begriffen verbergen sich Themenbereiche, die unzertrennlich miteinander verbunden sind. Um diese Zusammenhänge besser aufzeigen zu können, soll zunächst die Bedeutung der Begriffe und deren Relevanz unter Qualitätsaspekten für die industrielle Produktion näher beleuchtet werden. Es ist auch nachvollziehbar, dass wir bei diesen Themen erst am Anfang stehen und die Auswirkungen heute nicht vollständig vorhersehbar sind. Oder wer hätte vor zwanzig Jahren mit dem Aufkommen des Internet vorhergesehen, welche Konsequenzen das heute für uns alle hat? Auch bei den angesprochenen Themen werden sich die Auswirkungen aufgrund der sich neu ergebenden Möglichkeiten mit der Zeit entwickeln. Erst dann wird man den Nutzen, die Vor- und Nachteile bewerten können. Nichtsdestotrotz muss man sich bereits heute mit dem bekannten Wissen auseinander setzen und einen Blick in die Zukunft wagen, mögliche Szenarien entwickeln und deren Eintrittswahrscheinlichkeit beurteilen. So können die Weichen rechtzeitig und richtig gestellt werden.
Dieser Beitrag ist ein Versuch, die Begrifflichkeiten und Sachverhalte aus Q-DAS Sicht zu klären und Antworten bzw. Anregungen auf diese Fragen zu geben. Gerne diskutieren wir diese Themenfelder auch persönlich mit Ihnen.
In einem Beitrag von Bitkom [1] wird Big Data folgendermaßen definiert: „Big Data bezeichnet die wirtschaftlich sinnvolle Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus qualitativ vielfältigen und
unterschiedlich strukturierten Informationen, die einem schnellen Wandel unterliegen und in bisher ungekanntem Umfang anfallen.“ Big Data bedeutet demnach, dass Unternehmen versuchen zu messen, zu analysieren, zu berechnen, zu beurteilen und zu bewerten, was sie irgendwie bisher erraten mussten.
Die grundlegende Voraussetzung ist die Möglichkeit, viele Informationen kostengünstig auf kleinem Raum abzuspeichern. Weitere Gründe sind die vielen automatisierten Sensoren und Erfassungssysteme sowie die
hohe Übertragungs- und Verarbeitungsgeschwindigkeit, um die Informationen realtime im Wesentlichen ohne manuelle Eingabe bereitstellen und über tragen zu können. Dadurch entstehen Datenvolumina von bisher
unbe kanntem Ausmaß. So dauerte beispielsweise die Generierung von fünf Exabyte bis 2003 [2]:
Dieser Trend wird sich weiter fortsetzen und ein Ende ist nicht in Sicht. Die Abbildung 1 zeigt beispielhaft das Datenaufkommen über der Zeit in Verbindung mit der jeweiligen Technologie. Dieses wird alleine bis 2020 fünfzig Mal höher sein als heute...