
Manufacturing Analytics für reaktive Qualitätsprozesse
Literaturanalyse und Beispiele aus der Praxis
Der Beitrag beschreibt die Anwendung von Manufacturing Analytics im Rahmen des reaktiven Qualitätsmanagements. Dazu wird zuerst eine allgemeine Definition des Begriffs Manufacturing Analytics gegeben. Anhand einer Literaturanalyse und der Auswertung bestehender Anwendungsfälle werden Erkenntnisse bezüglich der Potenziale für reaktive Qualitätsprozesse abgeleitet. Dabei zeigt sich, dass Manufacturing Analytics besonders in der Ursachenanalyse, der Fehlererkennung und –vermeidung erfolgsversprechend ist und eingesetzt wird. Abschließend werden praktische Einblicke in die Anwendung von Manufacturing Analytics gegeben.
Die zunehmende Digitalisierung der Produktion führt zu einer umfangreichen Verfügbarkeit von Daten. Eine Analyse großer Datenmengen durch den Menschen selbst, wie sie im Produktionskontext häufig vorzufinden ist, stößt schnell an ihre Grenzen. Im Umgang mit großen Datenmengen müssen geeignete Verfahren eingesetzt werden. Dazu bieten sich Methoden des Manufacturing Analytics (MA) an, die bei der Datenaufbereitung und -auswertung unterstützen, um Erkenntnisse über Zusammenhänge in der Produktion abzuleiten. Über die Analyse bereits eingetretener Abweichungen hinaus, sind in Einzelfällen Vorhersagen über zukünftige Ereignisse oder das Ableiten von Handlungsempfehlungen möglich [1, 2]. Damit MA seine volle Wirksamkeit in der Verbesserung von Produktionsprozessen entfalten kann, ist eine Integration in die traditionellen Methoden des Produktionsmanagements notwendig. Diese Integration kann durch eine interdisziplinäre Zusammenarbeit der Disziplinen Informatik, Wirtschaftswissenschaften, Mathematik und Ingenieurwissenschaften erfolgreich realisiert werden [3].

Gegenüberstellung von reaktiven Aufgaben und verwendeter Analyseverfahren.
Insbesondere für das Qualitätsmanagement ergeben sich Chancen durch den Einsatz von MA [4]. Die wissenschaftliche und praktische Auseinandersetzung zeigt jedoch, dass relevante Arbeiten selten über eine Erwähnung der Potenziale für das Qualitätsmanagement hinausgehen [5]. Der vorliegende Beitrag leistet einen Beitrag zur Präzisierung, indem zunächst Grundlagen von MA dargestellt, Anwendungsfälle für reaktive Qualitätsprozesse systematisiert und anschließend Beispiele aus der Praxis erläutert werden.
Grundlagen „Manufacturing Analytics“
MA kann als regelbasierte Analyse großer Datenmengen in der Produktion verstanden werden, die sich v. a. multivariater Methoden der Statistik bedient und vermehrt Methoden des maschinellen Lernens einsetzt. Ziel ist es, Zusammenhänge zwischen Abweichungen und Prozesszuständen zu erkennen, um anschließend Produktionsprozesse zu verbessern. Darüber hinaus sollen durch eine laufende Datenanalyse Prozessabweichungen schnell erkannt bzw. prognostiziert werden, bevor es zu Auswirkungen auf Qualität, Durchlaufzeit oder Kosten kommt [6].
Analyseverfahren im Rahmen von MA können in Abhängigkeit von Entwicklungsstufen bzw. dem Informationsgehalt der Datenanalyse abgegrenzt werden. Es kann zwischen deskriptiven, diagnostischen, prädiktiven und präskriptiven Verfahren unterschieden werden [7]. Verfahren im Bereich deskriptiver Analytik erkennen Anomalien in Prozessen und zielen darauf ab, diese Abweichungen aufzuzeigen. Die diagnostische Analytik soll darüber hinaus Zusammenhänge zwischen Prozessdaten und Abweichungen aufzeigen, um schneller zum Punkt der Fehlerentstehung zu gelangen und die Ursachenanalyse zu unterstützen. Diese beiden Stufen sind rein retrospektiv ausgerichtet und beziehen sich auf bereits aufgetretene Abweichungen. Die prädiktive und präskriptive Analyse sind auf das Erkennen und Beherrschen zukünftiger Ereignisse ausgerichtet. Prädiktive Verfahren prognostizieren Abweichungen und helfen dabei zu beantworten, was geschehen wird. In der letzten Stufe, den präskriptiven Verfahren, wird darüber hinaus eine Handlung zur Vermeidung von unerwünschten Ereignissen vorgeschlagen. Somit wird die Frage beantwortet, was getan werden sollte. Mit einem zunehmenden Informationsgehalt der Analytik steigt auch der Wert der Aussage von reiner Information bis hin zur gezielten Verbesserung. Gleichzeitig steigt auch die Komplexität der verwendeten Methoden und der Anteil des Menschen an Auswertung und Interpretation der Daten nimmt von Stufe zu Stufe ab [7].
Manufacturing Analytics für reaktive Qualitätsprozesse
Die Aktivitäten des Qualitätsmanagements lassen sich u. a. in reaktive und proaktive unterteilen. Proaktive Aktivitäten zielen primär auf die Vermeidung zukünftiger Fehler und Probleme ab [8]. Im vorliegenden Beitrag wird die Nutzung von MA für reaktive Qualitätsprozesse untersucht. Hier gilt es, für bereits aufgetretene Abweichungen:
- eine möglichst schnelle Erkennung sicherzustellen, um Sofortmaßnahmen zur Schadensbegrenzung ergreifen zu können (bspw. zum Schutz von Mitarbeiter, Maschine, Produkt und Kunden).
- den Entstehungsort einer Abweichung präzise einzugrenzen und zu identifizieren, um an der richtigen Stelle mit der Suche der wahren Ursache zu beginnen.
- die Suche nach der Ursache mit geeigneten Auswertungen zu unterstützen, um Fehler und Probleme an ihrem Entstehungsort abstellen zu können.
- die Vorgehens- und Verhaltensweisen in die bestehenden Abläufe des operativen Qualitätsmanagements dauerhaft zu verankern [4, 9, 10].
Im Kontext der Ausführung reaktiver Aufgaben werden in der wissenschaftlichen Literatur zahlreiche Problemlösungsprozesse beschrieben, deren Kernaktivitäten mittels des weit verbreiteten PDCA (Plan-Do-Check-Act)-Zyklus strukturiert werden können. Erfolgsfaktoren des Problemlösungsprozesses müssen ganzheitlich in den Dimensionen Mensch, Technik und Organisation (MTO) berücksichtigt werden. Dabei verspricht die Nutzung von MA große Potenziale [11].

Zur Untersuchung der tatsächlichen Einsatzpotenziale von MA im Rahmen reaktiver Qualitätsprozesse dient eine strukturierende, qualitative Inhaltsanalyse wissenschaftlicher Publikationen. Die qualitative Inhaltsanalyse ist eine verbreitete, empirische Methode, die systematisch, intersubjektiv und nachvollziehbar der Beschreibung von inhaltlichen und formalen Merkmalen von Texten dient. Sie umfasst die Definition der Problemstellung, die Erstellung des Datensatzes, die Kategorienbildung und den Codierungsprozess [12]. Der betrachtete Datensatz umfasst wissenschaftliche Publikationen bis einschließlich des Jahres 2004 (Basis sind Google Scholar und wiso-net). Folgende Filter-Kriterien wurden zur Identifikation geeigneter Publikationen definiert:
- Thematisierung einer Datenanalyse
- Konkrete Darstellung des verwendeten Analyseverfahrens
- Nachweis über die Machbarkeit der beschriebenen Datenanalyse
- Verwendung von Daten aus der Produktion (Maschinen-, Produkt-, oder Prozessdaten) für die Datenanalyse
- Nutzung der Analyseergebnisse zur Verbesserung des Produktionsprozesses im weitesten Sinne
- Ausführung einer reaktiven Aktivität durch die beschriebene Analyse
Der finale Datensatz umfasst 22 Anwendungsfälle, die nach der inhaltlichen Filterung alle Kriterien erfüllen. Bild 1 zeigt eine Übersicht mit den Autoren und dem Jahr der Veröffentlichung sowie den Kategorien der qualitativen Inhaltsanalyse. Aus der Ergebnisdarstellung lassen sich durch Häufigkeitsanalyse Erkenntnisse über den Einsatz von MA in reaktiven Qualitätsprozessen ableiten.
Ergebnis 1: Zur Datenanalyse im Rahmen reaktiver Qualitätsprozesse werden vor allem Klassifikationsverfahren und Abweichungsanalysen eingesetzt.
Die Kategorie „Analyseverfahren“ geht der Frage nach, wie konkret bei der Datenanalyse vorgegangen wurde. Die meistgenutzten Analyseverfahren im betrachteten Datensatz sind Klassifikationsverfahren (in 59,1 % der untersuchten Anwendungsfälle), bei denen Objekte anhand ihrer Attribute vordefinierten Klassen zugeordnet werden. Darüber hinaus wurden insgesamt sieben Fälle identifiziert, bei denen Abweichungsanalysen genutzt werden.
Ergebnis 2: MA wird im Bereich reaktiver Qualitätsaufgaben vor allem für die Ursachenanalyse und die Fehlervorhersage eingesetzt.
Die Kategorie „reaktive Aufgabe“ zeigt, dass der häufigste Anwendungsfall für den Einsatz von MA in reaktiven Qualitätsprozessen in der Ursachenanalyse liegt. In zwölf Anwendungsfällen wurde in Datensätzen nach Ursachen für Probleme und Fehler in Produktionsprozessen und Produkten gesucht. Bei mehr als der Hälfte (n = 7) fungierte die Analyse gleichzeitig als Fehlersensor und/oder diente der Fehlervorhersage. Ursachenanalysen und Fehlervorhersagen werden jeweils in 50 % oder mehr der Anwendungsfälle durchgeführt.
Ergebnis 3: Für Ursachenanalysen (diagnostisch) und zukünftige Prävention von Fehlern (prädiktiv) werden insbesondere Klassifikationsverfahren genutzt. Für die Fehleridentifikation (deskriptiv) werden Abweichungsanalysen eingesetzt.
Bei 61,5 % aller Ursachenanalysen wurden Klassifikationsverfahren verwendet. Diese dienen ebenfalls in 54,5 % der Fälle der prädiktiven Fehlervorhersage. Bei Fehlersensoren, also der reinen Identifikation bestehender Fehler, werden in zwei Dritteln der Fälle Abweichungsanalysen rein deskriptiv verwendet (in 4 von 6 Anwendungsfällen).
Beispiele aus der Praxis: Problemlösung unterstützt durch MA
Das folgende Kapitel beschreibt beispielhaft die Anwendung von MA im Rahmen des Problemlösungsprozesses im reaktiven Qualitätsmanagement. Im Fokus stehen die elementaren Phasen „Problembeschreibung“, „Ursachenanalyse“ und „Maßnahmenumsetzung“.
Um eine Problemstellung zu durchdringen, muss diese richtig verstanden und im Detail beschrieben werden (Phase „Problembeschreibung“). Ein detailliertes und umfassendes Abbild des zu untersuchenden Fehlers ermöglicht eine Eingrenzung der potenziellen Ursachen. Digitale Lösungen können eine entscheidende Hilfestellung leisten, indem z. B. attributive (qualitative) Defekte in der Zeichnung oder im Bild eingetragen („Defect Mapping“) und direkt mit Prozessparametern verknüpft werden, sodass eine analytische Untersuchung möglich ist. Im Beispiel wird eine Pixelauszählung dargestellt, die ein klares Fehlerbild aufzeigt. Die Analyse wird mit der Identifikationsnummer verknüpft und kann im zeitlichen Zusammenhang analysiert werden (Bild 2).
Eine exakte Analyse lenkt den Blick auf offensichtliche Prozessunterschiede und grenzt den Ort der Fehlerentstehung ein. Liegt z. B. ein prozessuales Problem vor, so ist die Prozesstransparenz von großer Bedeutung. Einer der wichtigsten Erfolgsfaktoren im Rahmen eines modernen Problemlösungsprozesses ist die Kombination von Domänenwissen der Disziplinen Informatik und Ingenieurwissenschaften mit einem geeigneten methodischen Vorgehen. Der Einsatz einer auf Problemlösung ausgelegten Softwareplattform zur Unterstützung des Problemlösungsprozesses kann diesen Erfolgsfaktor für einen Ingenieur realisieren [11]. Dies soll hier am Beispiel der Softwareplattform RTM von AppliedIT dargestellt werden. Die CTT-Analyse (Cycle Time vs. Time) ermöglicht Prozesstransparenz und zeigt Prozessunterschiede auf (Bild 3). Im Beispiel werden Zykluszeiten an einer Arbeitsstation (y-Achse) im zeitlichen Verlauf (x-Achse) als rote Punkte dargestellt. Die Datenpunkte streuen vor 12 Uhr um die Zykluszeit von 88 Sekunden und nach 12 Uhr um die Zykluszeit von 83 Sekunden. Dabei wird ein Prozessunterschied anhand einer Mittelwertverschiebung ersichtlich. Ein Histogramm an der rechten Seite gibt die entsprechende Häufigkeitsverteilung an. In der rechten unteren Ecke sind die 5 %, 10 %, 20 % und 50 %-Perzentile dargestellt. Beispielsweise liegen 10 % der Datenpunkte unterhalb einer Zykluszeit von 83 Sekunden. Im Diagramm wird diese Information zur Berechnung eines Benchmarks genutzt. Würden alle Teile der Arbeitsstation mit einer Zykluszeit von 83 Sekunden produziert, könnten sie bereits um 17:47 Uhr (vertikale grün gestrichelte Linie) statt um 23:59 Uhr (vertikale rot gestrichelte Linie) fertiggestellt werden. Die im Vergleich dazu resultierenden Verluste werden anhand des rot markierten Bereichs visualisiert und haben ihre Ursache in langsameren Zykluszeiten und Stillständen, die auf der x-Achse in Boxen dargestellt sind. Am oberen Rand der Abbildung werden die stündlich erreichten Outputzahlen ausgewiesen (unterstrichen in blau). Der beste erreichte Output wird in Grün markiert. Die mit den Datenpunkten korrespondierenden Prozessparameter können auf Basis der Analyse im Detail untersucht werden (Phase „Ursachenanalyse“).

Im Gegensatz zur gängigen Brute-Force-Methode, z. B. dem schrittweisen Testen aller gesammelten Ursachenmöglichkeiten eines Ishikawa-Diagramms, ermöglichen spezielle Analyse-Algorithmen die Verarbeitung großer Datenmengen, um in kürzester Zeit Unterschiede in Prozessparametern der zugehörigen Gut- bzw. Schlechtteilen zu erkennen. So ermöglicht eine Multilineare-Analyse (im Beispiel: WormholeTM Multilineare Analyse und Darstellung mit RTM data imagingTM Technologie) eine sehr schnelle und parallele Regressionsanalyse einer großen Anzahl an Prozessparametern. Im Beispiel wird jeder Parameter mit jedem anderen Parameter auf lineare Regression untersucht – daraus ergeben sich 1.225 (35 X 35) mögliche Kombinationen und somit 1.225 Y = f(X) Graphen. Alle Kombinationen werden in einem Bild dargestellt. Die Ergebnisse können zum einen in einer Matrix visualisiert werden, wobei die Farbintensität die Höhe der Parameterkorrelation anzeigt (Bild 4, links). Außerdem können Parameter mittels linearer Regression analysiert werden (Bild 4, rechts).
Dieses Bild ist gleichzeitig ein digitaler Fingerabdruck aller Parameter-Wirkbeziehungen, die die Funktionsweise eines Systems beschreiben. Das Verfahren im Kontext von MA ermöglicht potenzielle Ursachen schnell und aufwandsarm zu ermitteln und zu überprüfen. Liegt bereits ein Kontrast innerhalb eines Parameters vor, z. B. eine Mittelwertverschiebung zwischen zwei Produktionspopulationen, so ermöglicht ein Gruppenvergleich mit allen in der Datenbank vorhandenen Prozessparametern die Identifizierung der treibenden Faktoren für diese Abweichung. Dabei werden die Variablen nach verschiedenen Verfahren bzgl. ihrer statistischen Signifikanz (P-Wert) gelistet, sodass die Parameter identifiziert werden, in denen sich der anfängliche Kontrast fortsetzt. Nach dem Prinzip des Ausschlussverfahrens grenzt dies die möglichen Ursache-Wirkungsbeziehungen drastisch ein und beschleunigt die Ursachenanalyse.

Regressionsanalyse aller Prozessparameter (Quelle: Eigene Darstellung).
In der Phase „Maßnahmenumsetzung“ werden präventive Maßnahmen zur Vermeidung zukünftiger Fehler und Probleme implementiert, sofern die Problemstellung gelöst wurde. Diese ist dann gelöst, wenn der Ursachen-Wirkungszusammenhang so verstanden ist, dass das Problem ein- und ausgeschaltet werden kann. Hierzu ist es wichtig, die Ursachenanalyse sauber durchzuführen, um das Problem nachhaltig abzustellen anstatt die Symptome zu bekämpfen. Eine saubere Ursachenanalyse ermöglicht neben der gezielten Problemlösung auch eine erfolgreiche Umsetzung prädiktiver Maßnahmen. Für ein Problem gibt es in der Praxis oft mehre Lösungsszenarien, die an Umsetzungsfähigkeit bzw. Umsetzungskriterien (wie z. B. die technische Machbarkeit oder notwendige finanzielle Investitionen) gemessenen und bewertet werden. Hier können prädiktive Verfahren der Datenanalyse im industriellen Umfeld sinnvoll sein. So können „Machine Learning“ Algorithmen zur automatisierten Prozessüberwachung und -regelung eingesetzt werden.
Fazit und Ausblick
Der Beitrag beschreibt das Themenfeld Manufacturing Analytics im Rahmen des reaktiven Qualitätsmanagements und zeigt die beispielhafte Umsetzung. Aus der qualitativen Inhaltsanalyse geht hervor, dass die Potenziale primär in den Anwendungsbereichen Ursachenanalyse und Fehlervorhersage liegen. Darüber hinaus kann abgeleitet werden, dass zur Datenanalyse vor allem Klassifikationsverfahren und Abweichungsanalysen eingesetzt werden. In zukünftigen Forschungsarbeiten müssen die Ergebnisse der qualitativen Inhaltsanalyse in einer umfangreichen, quantitativen Studie vertiefend untersucht werden. Dabei gilt es, u. a. mögliche Gründe für die noch große Diskrepanz zwischen der Vision von Industrie 4.0 und der aktuellen Praxis von Datenanalysen in den produzierenden Unternehmen zu erforschen und Lösungsvorschläge zu erarbeiten.
Schlüsselwörter:
Problemlösungsprozess, Datenanalyse, QualitätsmanagementLiteratur:
[1] Bauernhansl, T.; Krüger, J.; Reinhart, G.; Schuh, G.: WGP-Standpunkt Industrie 4.0. 2016. URL: http://publica.fraunhofer.de/eprints/urn_nbn_de_0011-n-4024512.pdf, Abrufdatum 15.09.2017.
[2] Gölzer, P.: Big Data in Industrie 4.0 - Eine strukturierte Aufarbeitung von Anforderungen, Anwendungsfällen und deren Umsetzung. Dissertation, Erlangen 2017.
[3] Gröger, C.: Building an Industry 4.0 analytics platform. Datenbank Spektrum 109 (2018) 2, S. 9.
[4] Schmitt, R.; Pfeifer, T.: Qualitätsmanagement: Strategien - Methoden - Techniken, 5., aktualisierte Auflage, München 2015, S.14.
[5] Mortenson, M. J.; Doherty, N. F.; Robinson, S.: Operational research from Taylorism to terabytes: A research agenda for the analytics age. European Journal of Operational Research 241 (2015) 3, S. 583–595.
[6] Halvorsen, L.: A comprehensive model for manufacturing analytics. 2006. URL: www.controlglobal.com/assets/Media/MediaManager/wp_06_041_wbf_halvorsen.pdf, Abrufdatum 01.11.2018.
[7] Schuh, G.; Anderl, R.; Gausemeier, J.; Hompel, M. ten; Wahlster, W.: Industrie 4.0 Maturity Index: Die digitale Transformation von Unternehmen gestalten. 2017. URL: www.acatech.de/fileadmin/user_upload/Baumstruktur_nach_Website/Acatech/r..., Abrufdatum 07.11.2017.
[8] Abele, E.; Brungs, F.; Cachay, J.: KVP auf breiter Basis: Reaktive und proaktive Produktionsoptimierung durch tägliche Verbesserungsroutinen. VDI-Z Integrierte Produktion 153 (2011) 3, 68–70.
[9] Beaujean, P.: Modular gestaltetes reaktives Qualitätsmanagement auf Grundlage regelungstechnischer Analogien zur Nutzung qualitätsrelevanter Daten, 1. Auflage. Aachen 2011.
[10] Geisinger, D.; Hoepfner, I.: Fehler verstehen: Mit Lean-Quality-Management zum Erfolg. Stuttgart 2008.
[11] Meister, M.; Böing, T.; Batz, S.; Metternich, J.: Problem-solving process design in production: Current progress and action required. CIRPe 2018 (im Veröffentlichungsprozess).
[12] Früh, W.: Inhaltsanalyse: Theorie und Praxis, 7., überarb. Auflage. Konstanz 2011.
[13] Hou, T.-H.; Huang, C.-C.: Application of fuzzy logic and variable precision rough set approach in a remote monitoring manufacturing process for diagnosis rule induction. Journal of Intelligent Manufacturing 15 (2004), S. 395.
[14] Tseng, T.-L.B.; Jothishankar, M. C.; Wu, T. T.: Quality control problem in printed circuit board manufacturing—An extended rough set theory approach. Journal of Manufacturing Systems 23 (2004), S. 56.
[15] Holden, T.; Serearuno, M.: A hybrid artificial intelligence approach for improving yield in precious stone manufacturing. Journal of Intelligent Manufacturing 16 (2005), S. 21.
[16] Huang, C. L.; Li, T. S.; Peng, T. K.: A hybrid approach of rough set theory and genetic algorithm for fault diagnosis. The International Journal of Advanced Manufacturing Technology 27 (2005), S. 119.
[17] Tseng, T.-L.; Kwon, Y.; Ertekin, Y. M.: Feature-based rule induction in machining operation using rough set theory for quality assurance. Robotics and Computer-Integrated Manufacturing 21 (2005), S. 559.
[18] Zhou, J.; Li, X.; Andernroomer, A. J. R.; Zeng, H. u. a,: Intelligent prediction monitoring system for predictive maintenance in manufacturing. In: IECON 2005: 31st annual conference of IEEE Industrial Electronics Society ; [Sheraton Capital Center, Raleigh, North Carolina, USA, 6 - 10 November 2005], IEEE Operations Center, Piscataway, NJ, S. 6.
[19] Chen, R.-S.; Yeh, K.-C.; Chang, C.-C.; Chien, H. H.: Using Data Mining Technology to improve Manufacturing Quality - A Case Study of LCD Driver IC Packaging Industry, in Seventh ACIS International Conference on Software Engineering, Artificial Intelligence, Networking, and Parallel/Distributed Computing, IEEE Computer Society. Los Alamitos, USA 2006.
[20] Rokach, L.; Maimon, O.: Data Mining for Improving the Quality of Manufacturing: A Feature Set Decomposition Approach. Journal of Intelligent Manufacturing 17 (2006), S. 285.
[21] He, Q. P.; Wang, J.: Fault Detection Using the k-Nearest Neighbor Rule for Semiconductor Manufacturing Processes. IEEE Transactions on Semiconductor Manufacturing 20 (2007), S. 345.
[22] Fakharudin, A. S.; Embong, A.; Hamid, R. A.; Hamza, M. u. a.: Optimisation of fermentation process using data mining techniques for small-medium industry, in International Conference on Intelligent and Advanced Systems ICIAS. IEEE. Piscataway, NJ 2007.
[23] Hsu, S.-C.; Chien, C.-F.: Hybrid data mining approach for pattern extraction from wafer bin map to improve yield in semiconductor manufacturing. International Journal of Production Economics 107 (2007), S. 88.
[24] Sassenberg, C.; Weber, C.; Fathi, M.; Montino, R.: A Data Mining based Knowledge Management approach for the semiconductor industry. In: IEEE International Conference on Electro/Information Technology. IEEE. Piscataway, NJ 2009.
[25] Bennane, A.; Yacout, S.: LAD-CBM; new data processing tool for diagnosis and prognosis in condition-based maintenance. Journal of Intelligent Manufacturing 23 (2012), S. 265-275.
[26] Liu, C.-W.; Chien, C.-F.: An intelligent system for wafer bin map defect diagnosis: An empirical study for semiconductor manufacturing. Engineering Applications of Artificial Intelligence 26 (2013), S. 1479-1486.
[27] Chien, C.-F.; Chuang, S.-C.: A Framework for Root Cause Detection of Sub-Batch Processing System for Semiconductor Manufacturing Big Data Analytics. IEEE Transactions on Semiconductor Manufacturing 27 (2014), S. 475-488.
[28] Krumeich, J.; Jacobi, S.; Werth, D.; Loos, P.: Big Data Analytics for Predictive Manufacturing Control - A Case Study from Process Industry. In: IEEE International Congress on Big Data (BigData Congress) 2014, S. 530.
[29] Sequeira, H.; Carreira, P.; Goldschmidt, T.; Vorst, P.: Energy Cloud: Real-Time Cloud-Native Energy Management System to Monitor and Analyze Energy Consumption in Multiple Industrial Sites. In: IEEE/ACM 7th International Conference on Utility and Cloud Computing (UCC): 8 - 11 Dec. 2014, London, England, United Kingdom, IEEE, Piscataway, NJ, S. 529.
[30] Zheng, J.; Dagnino, A.: An initial study of predictive machine learning analytics on large volumes of historical data for power system applications. In: IEEE International Conference on Big Data (Big Data). IEEE. Piscataway, NJ 2014.
[31] Künzel, R.: Manufacturing Analytics: Ursachendetektion bei stochastisch auftretenden Produktionsfehlern unter Verwendung der Assoziationsanalyse. Productivity 21 (2016), S. 38-40.
[32] Arnu, D.; Yaqub, E.; Mocci, C.; Colla, V. u. a.: A Reference Architecture for Quality Improvement in Steel Production, in Data Science – Analytics and Applications. Wiesbaden 2017.
[33] Atzmueller, M.; Arnu, D.; Schmidt, A.: Anomaly Detection and Structural Analysis in Industrial Production Environments, in Data Science – Analytics and Applications. Wiesbaden 2017.
[34] Schabus, S.; Scholz, J.: Semantically Annotated Manufacturing Data to support Decision Making in Industry 4.0: A Use-Case Driven Approach, in Data Science – Analytics and Applications. Wiesbaden 2017.