For Free

Minitab® Schulung - TABTRAINER®

TABTRAINER®
WEITER ZUM EINSCHREIBPROZESS TABTRAINER® PROFESSIONAL
  • KEIN RISIKO: 30-TAGE-GELD-ZURÜCK-GARANTIE.
  • LEHRUMFANG (>33h) und TRAININGSINHALTE entsprechen 5-6 klassischen Präsenzschulungstagen im Wert von 5000€ – 6000€.
  • Im Rahmen einer bei Prof. Dr. Mola gebuchten TÜV CERT® SIX SIGMA PRO Ausbildung wird der TABTRAINER® Invest zu 100% angerechnet.

Kontakt für Mengenrabatte: info@sixsigmapro.de

 

TABTRAINER® - Trainingsinhalte:

01 BENUTZEROBERFLÄCHE VON MINITAB®

Bevor wir in die eigentlichen Datenanalysen einsteigen, werden wir uns in der ersten Minitab Schulung zunächst einmal mit der Benutzeroberfläche von Minitab® vertraut machen und erleben, wie wir Minitab® fremde Dateitypen importieren, exportieren und auch sicher abspeichern können. Nachdem wir die Oberflächenbereiche wie zum Beispiel Navigation, Ausgabe und Verlauf kennengelernt haben, werden wir uns anhand eines typischen Minitab® Datensatzes anschauen, wie ein typisches Minitab® Projekt aufgebaut sein kann. Auch werden wir uns die Struktur der Arbeitsblätter genauer anschauen und lernen, wie Daten-Arbeitsblätter strukturell aufgebaut sind und verstehen, wie unterschiedlich Datentypen in den Arbeitsblättern indiziert werden. Wir erlernen auch, wie wir eigene Kommentare und Texthinweise in die Arbeitsblätter integrieren können.

Themenschwerpunkte:

• Arbeiten im Navigations-, Ausgabe- und Verlaufsfenster
• Datenimport aus unterschiedlichen Quellen
• Spezifische Standardspeicherorte für Projekte festlegen
• Indizierung von Datentypen
• Oberflächenansicht individuell anpassen
• Kommentare und Hinweise in Textform hinzufügen
• Arbeitsblätter und Projekte speichern und schließen

Trailer

02 ZEITREIHENANALYSE

In der 2. Minitab Schulung begleiten wir das Team des Qualitätsmanagements der Smartboard AG und werden erleben, wie mithilfe einer Zeitreihenanalyse die Schrottquote der letzten Geschäftsjahre Schritt für Schritt analysiert wird. Wir werden in dieser Minitab Schulung erleben, wie die Datenaufbereitung und -analyse am Beispiel einer Zeitreihenanalyse durchgeführt wird und die unterschiedlichen Typen von Zeitreihendiagrammen kennenlernen. Wir werden die nützliche Funktion Zeitstempel kennenlernen und wie wir Teilmengen aus einem Arbeitsblatt extrahieren können. Mit der sogenannten nützlichen Pinselfunktion werden wir wissen, wie wir im Bearbeitungsmodus einer Grafik gezielt einzelne Datencluster analysieren können. Im Rahmen unserer Datenaufbereitung wird die nützliche Kalenderfunktion ebenfalls Thema sein. Wir werden auch verstehen, was sogenannte Identifikationsvariablen sind und welchen Nutzen diese für unsere Datenanalyse haben. Wir werden erleben, wie wir zum Beispiel für eine Teambesprechung unsere Analyseergebnissen mit wenig Aufwand nach PowerPoint oder Word exportieren können.

Themenschwerpunkte:

  • Zeitreihenanalyse, Grundlagen
  • Zeilen und Spaltenkapazität von Minitab-Arbeitsblättern
  • Import-Vorschaufenster interpretieren
  • Dateinamen aktualisieren
  • Datumsangaben extrahieren
  • Aufbau und Struktur von Zeitreihendiagrammen
  • Arbeiten mit dem Zeitstempel
  • Extrahieren von Daten
  • Teilmenge von Arbeitsblättern bilden
  • Wochentage aus Datumsangaben extrahieren
  • Hervorheben von Datenpunkten im Bearbeitungsmodus einer Grafik
  • Untersuchung von Datencluster mithilfe der Pinselfunktion
  • Festlegen von Identifikationsvariablen
  • Export von Minitab-Analyseergebnissen nach MS Office Anwendungen

Trailer

03 BOXPLOT-ANALYSE

In der 3. Minitab Schulung begleiten wir das Qualitätsverbesserungsprojekt der Smartboard AG, um die Schrottquote der letzten Geschäftsjahre mithilfe einer Boxplot- Analyse zu untersuchen. Wir werden in dieser Minitab Schulung verstehen, wie das Team unterschiedliche Datengruppen vergleicht um zum Beispiel herauszufinden, ob an bestimmten Produktionstagen mehr oder weniger Schrottmengen angefallen sind als an den übrigen Produktionstagen. In diesem Zusammenhang werden wir lernen, was ein Boxplot ist, wie er prinzipiell aufgebaut ist und welche nützlichen Informationen dieses Werkzeug bereitstellt. In dieser Minitab Schulung werden wir auch feststellen, dass der besondere Vorteil einer Boxplot- Analyse darin liegt, dass wir durch diese grafische Darstellungsform sehr übersichtlich die Lage- und Streuparameter wie Median, arithmetische Mittelwerte sowie Minimum-/ Maximum-Werte unterschiedlicher Datensätze kompakt und übersichtlich miteinander vergleichen können. Auch werden wir lernen, zusätzliche Informationselemente in die Datenanzeige einzubauen, einen Hypothesentest auf Datenausreißer durchzuführen und ein Einzelwertediagramm zu erstellen und zu interpretieren. Auch die insbesondere im Tagesgeschäft sehr nützliche Automatisierung von wiederkehrenden Analysen  mithilfe von sogenannten Makros wird vorgestellt werden. Abschließend erzeugen wir eine personalisierte Schaltfläche in der Menüleiste, um im turbulenten Tagesgeschäft mit einem einfachen Klick täglich wiederkehrende Analyseroutinen- zum Beispiel für den täglichen Qualitätsbericht- zeitsparend durchzuführen.

Themenschwerpunkte:

  • Boxplot-Analyse, Grundlagen
  • Prinzipieller Aufbau und Interpretation von Boxplots
  • Quartile, Mediane und arithmetische Mittelwerte in Boxplots
  • Darstellung von Datenausreißern im Boxplot
  • Boxplots für einen geraden Datensatz
  • Boxplots für einen ungeraden Datensatz
  • Boxplot- Typen im Vergleich
  • Boxplot erzeugen und interpretieren
  • Arbeiten im Boxplot-Bearbeitungsmodus
  • Hypothesentest auf Ausreißer nach Grubbs
  • Einzelwertediagramm erzeugen und interpretieren
  • Automatisierung von Analysen mithilfe von Makros
  • Erzeugen einer individuellen Schaltfläche im Menüband

Trailer

04 PARETO-ANALYSE

In der 4. Minitab Schulung werden wir erleben, wie das Qualitätsteam der Smartboard AG mithilfe einer Pareto- Analyse ihre Lieferperformance untersucht. Hierbei werden wir in dieser Minitab Schulung zunächst einmal verstehen, wie ein Pareto- Diagramm grundsätzlich aufgebaut ist und welche Informationen es uns bereitstellt. Im Rahmen unserer Pareto- Analyse werden wir dann eine Reihe weiterer nützlicher Möglichkeiten kennenlernen, um zum Beispiel Streu- und Lageparameter schnell abrufen zu können oder wie wir mithilfe der Rechnerfunktion Rechenoperationen durchführen können. Wir werden lernen, wie ein Tortendiagramm und ein Histogramm erzeugt werden kann und zum Beispiel auch verstehen, wie die Klassenbildung im Histogramm berechnet wird. Im Rahmen der Pareto- Analyse werden wir zur Erstellung des Pareto Diagramms auch lernen, stetig skalierte Daten in kategoriale Wertebereiche zuzuweisen und wie wir diese Wertebereiche individuell kodieren können. Neben der nützlichen sogenannten Übersichtstabelle werden wir auch die Datenextraktion mithilfe entsprechender Funktionsbefehle kennenlernen.

Themenschwerpunkte:

  • Pareto-Analyse
  • Abrufen und Interpretieren von Arbeitsblattinformationen
  • Arbeiten mit der Rechnerfunktion
  • Darstellung von fehlenden Werten im Datensatz
  • Abrufen von Lage- und Streuparameter mithilfe der deskriptiven Statistik
  • Histogrammtypen im Vergleich
  • Histogramm und Tortendiagramm erzeugen und interpretieren
  • Berechnung der Balkenanzahl und-Breite im Histogramm
  • Pareto Diagramm erzeugen und interpretieren
  • Erzeugen spezifischer Wertebereiche im Pareto Diagramm
  • Neukodierung von stetig skalierten Pareto-Wertebereichen in kategoriale Wertebereiche
  • gezielte Extraktion von Einzelinformationen aus Datenzellen
  • Erzeugung von Pareto Diagrammen auf Basis unterschiedlicher kategorialer Variablen

Trailer

5.1 t-TEST 1 STICHPROBE, TEIL 1

In der 5. Minitab Schulung begleiten wir die Wärmebehandlung und werden erleben, wie mithilfe des Hypothesentests t-Test eine Stichprobe herausgefunden werden kann, ob der Wärmebehandlungsprozess so eingestellt ist, dass die Skateboardachsen die geforderte Druckfestigkeiten erreichen. Um diese zu erreichen, durchlaufen die Skateboardachsen einen mehrstufigen Wärmebehandlungsprozess. Unsere Aufgabe in dieser Minitab Schulung besteht darin, anhand von Stichprobendaten und dem Hypothesentest t-Test für eine Stichprobe eine zuverlässige Handlungsempfehlung an die Produktionsleitung abzugeben, ob der aktuelle Wärmebehandlungsprozess ausreichend gut eingestellt ist. Oder ob der aktuell laufende Prozess eventuell sogar gestoppt und optimiert werden müsste, falls unser Hypothesentest aufzeigt, dass der geforderte mittlere Sollwert nicht erreicht wird. Im Kern dieser Trainingseinheit werden wir erleben, wie ein Hypothesentest eine Stichprobe ordnungsgemäß durchgeführt wird und vorab durch mittels Prüfung sicherstellen, ob unser Datensatz den Gesetzen der Normalverteilung folgt. Mithilfe einer sogenannten Trennschärfeanalyse werden wir herausarbeiten, ob der vorliegende Stichprobenumfang ausreichend groß genug ist.  Anhand der Dichtefunktion und Wahrscheinlichkeitsverteilungen werden wir lernen, wie der t-Wert im t-Test einzuordnen ist und auch verstehen, welche Fehlentscheidung im Rahmen eines Hypothesentests möglich sind. Mithilfe entsprechender Einzelwertdiagramme entwickelt sich ein Verständnis dafür, wie das Konfidenzintervall im Rahmen des ein Stichproben t-Testes einzuordnen ist.

Themenschwerpunkte 05, Teil 1:

  • t-Test, eine Stichprobe, Grundlagen
  • Abrufen und Interpretation von Arbeitsblattinformationen
  • Abrufen und Interpretation der deskriptiven Statistik
  • Die Trennschärfe „Power“ eines Hypothesentests
  • Anderson- Darling- Test als Vorstufe zum t-Test
  • Herleitung des Wahrscheinlichkeitsnetzes auf Basis der Dichtefunktion
  • Interpretation des Wahrscheinlichkeitsnetzes
  • Durchführung des Hypothesentests t-Test für den Mittelwert, 1 Stichprobe
  • Aufstellen der Nullhypothese und Alternativhypothese
  • Test auf Normalverteilung nach Anderson-Darling
  • Das Wahrscheinlichkeitsnetz der Normalverteilung

Themenschwerpunkte 05, Teil 2:

  • Erzeugung und Interpretation von Einzelwertediagrammen im Rahmen des t-Tests
  • Konfidenzniveau und Irrtumswahrscheinlichkeit
  • Testprüfgröße und Signifikanzwert
  • Fehler 1. Art und Fehler 2. Art im Rahmen der Hypothesenentscheidung

Themenschwerpunkte 05, Teil 3:

  • Trennschärfenanalyse und Stichprobenumfang im Rahmen des t-Tests
  • Einfluss des Stichprobenumfangs auf das Hypothesenergebnis
  • Grafische Konstruktion der Wahrscheinlichkeitsverteilung
  • Interpretation der Trennschärfekurve
  • Bestimmung des Stichprobenumfangs auf Basis der Trennschärfengüte
  • Einfluss unterschiedlicher Stichprobenumfänge auf die Hypothesenentscheidung

Trailer

5.2 t-TEST 1 STICHPROBE, TEIL 2

Themenschwerpunkte Minitab Schulung 05, Teil 2:

  • Erzeugung und Interpretation von Einzelwertediagrammen im Rahmen des t-Tests
  • Konfidenzniveau und Irrtumswahrscheinlichkeit
  • Testprüfgröße und Signifikanzwert
  • Fehler 1. Art und Fehler 2. Art im Rahmen der Hypothesenentscheidung

Trailer: siehe 5.1

5.3 t-TEST 1 STICHPROBE, TEIL 3

Themenschwerpunkte Minitab Schulung 05, Teil 3:

  • Trennschärfenanalyse und Stichprobenumfang im Rahmen des t-Tests
  • Einfluss des Stichprobenumfangs auf das Hypothesenergebnis
  • Grafische Konstruktion der Wahrscheinlichkeitsverteilung
  • Interpretation der Trennschärfekurve
  • Bestimmung des Stichprobenumfangs auf Basis der Trennschärfengüte
  • Einfluss unterschiedlicher Stichprobenumfänge auf die Hypothesenentscheidung

Trailer: siehe 5.1

06 t-TEST 2 STICHPROBEN

In der 6. Minitab Schulung befinden wir uns in der Auftragsabwicklung der Smartboard AG und werden in dieser Minitab Schulung erleben, wie das Team mithilfe des zwei Stichproben t-Testes die Lieferqualität verschiedener Schraubenlieferanten bewertet. Die Smartboard AG bezog bisher ihre Schrauben von nur einem Schraubenlieferanten. Hierzu müssen wir wissen, dass aufgrund der aktuell gestiegenen Nachfrage es immer wieder zu Lieferengpässen bei dem Schraubenlieferanten gekommen ist, was zur Folge hatte, dass die Skateboardproduktion aufgrund fehlender Schrauben gestoppt werden musste. Aus diesem Grund lässt sich die Smartboard AG seit kurzem zusätzlich zum bisherigen Lieferanten noch von einem weiteren Schraubenhersteller beliefern, um zukünftige Produktionsengpässe zu vermeiden. Aus qualitativer Sicht ist es deshalb sehr wichtig, dass die mechanischen Eigenschaften der Schrauben des neuen Lieferanten sich nicht signifikant von denen des bisherigen unterscheiden. Unsere Aufgabe wird es in dieser Trainingseinheit sein, mit dem sogenannten t-Test für zwei Stichproben herauszuarbeiten, ob zwischen den zwei Lieferanten signifikante Unterschiede in den Festigkeitseigenschaften vorliegen. Wir werden im Rahmen unseres t-Tests für zwei Stichproben zusätzlich eine Reihe weiterer nützlicher Funktionen und Themen besprechen sowie Punktdiagramme und Boxplots einsetzen und in diesem Zusammenhang die nützliche Funktion „grafische Zusammensetzung“ kennenlernen. Wir werden verstehen, was mit den statistischen Güteparametern Kurtosis und Schiefe einer Datenlandschaft gemeint ist. Dabei werden wir einen Varianztest für zwei Stichproben durchführen, um neben dem Mittelwertsvergleich auch einen Varianzvergleich unserer Datensätze durchzuführen. Für den Varianztest werden wir dabei die Verfahren nach Bonett & Levene kennenlernen, um zu verstehen, wie wir die entsprechenden Hypothesen im Rahmen des Varianztestes ordnungsgemäß durchführen und verständlich interpretieren. Abschließend werden wir mit dem sogenannten Layout Tool wieder eine weitere nützliche Funktion für das Tagesgeschäft kennenlernen, um die wichtigsten Analyseergebnisse in einer Abbildung komprimiert zusammenzufassen.

  • t-Test, 2 Stichproben
  • Durchführung der Trennschärfeanalyse zur Ermittlung des Stichprobenumfangs
  • Mathematischer Grundgedanke der Freiheitsgrade
  • Durchführung und Interpretation des t-Tests für zwei Stichproben
  • Aufstellung der Nullhypothese und Alternativhypothese
  • Punktdiagramm und Boxplot „Mehrere Y, einfach“ im Rahmen des t-Tests
  • Neuskalierung von Punktdiagrammen
  • Erstellung und Interpretation Boxplots des t-Tests
  • Arbeiten mit der Option „Grafische Zusammenfassung“
  • Güteparameter Kurtosis und Schiefe der Datenverteilung
  • Test auf Varianzen, 2 Stichproben
  • Signifikanzwerte im Varianztest danach Bonett & Levene
  • Arbeiten mit dem „Layout Tool“

Trailer

07 t-TEST, VERBUNDENE STICHPROBEN

07 t-TEST, VERBUNDENE STICHPROBEN

In der 7. Minitab Schulung befinden wir uns in der Entwicklungsabteilung der Smartboard AG. Im Rahmen der Entstehung von Prototypen hat die Smartboard AG zwei neue Hochleistungswerkstoffe aus Edelstahlpulver entwickelt. Die Pulverform ist deshalb erforderlich, weil die Skateboardachsen für den professionellen Bereich zukünftig nicht mehr wie bisher aus Aluminiumdruckguss hergestellt werden sollen, sondern über den Fertigungsweg SLM. SLM steht für „selektives Laserschmelzen“ und gehört zu den zurzeit innovativsten Rapid Prototyping- Verfahren. Hierbei wird das Edelstahlpulver mithilfe eines Laserstrahls vollständig umgeschmolzen und computergesteuert dreidimensional schichtweise aufgebracht. Das schichtweise Aufbringen erfolgt in mehreren Zyklen, indem nach jeder erstarrten Schicht die nächste Pulverschicht umgeschmolzen und aufgebracht wird, solange bis der 3-D Druck der Achse abgeschlossen ist. Im Rahmen der Prototypenentwicklung hat das Team intensiv daran gearbeitet, das für den 3-D Druck verwendete Edelstahlpulver zu optimieren. Dementsprechend wird unsere Kernaufgabe in dieser Trainingseinheit darin liegen, auf Basis einer Stichprobe und einem passenden Hypothesentest herauszufinden, welcher dieser beiden Edelstahlpulvertypen die besseren, also höheren Zähigkeitseigenschaften aufweist. Die technologische Kerngröße Zähigkeit wird in der Einheit Joule ermittelt und ist ein Maß für die Widerstandsfähigkeit gegen Achsenbruch  bzw. Rissausbreitung in den Skateboardachsen bei stoßartiger, also schlagartiger Belastung. Laut Vorgabe des Forschungsleiters sollen wir auf Basis einer Stichprobe einen indirekten Schluss auf die Produktionsgrundgesamtheit ziehen und eine 95%ig sichere Handlungsempfehlung abgeben, ob sich die mittleren Zähigkeiten um mindestens 10 Joule voneinander unterscheiden. Wir werden im Zuge dieser Trainingseinheit das Qualitätsteam dabei begleiten, wie mithilfe des sogenannten Hypothesentestes „t-Test für verbundene Stichproben“ herausgefunden werden kann, welches Material für die Skateboardachsen die besseren Zähigkeitseigenschaften aufweist. Und im weiteren Verlauf dieser Minitab Schulung werden wir auch erleben, dass wir es diesmal mit mehr als zwei Produktionsgrundgesamtheiten zu tun haben. Wir lernen, warum in derartigen Fällen der t-Test für verbundene Stichproben das Mittel der Wahl ist und nicht der klassische t-Test für zwei Stichproben. Wir werden uns hierbei die Formel für den t-Wert im t-Test für verbundene Stichproben genauer anschauen, die wichtigsten Parameter berechnen und mit den Werten im Ausgabefenster vergleichen. In diesem Zusammenhang werden wir wieder mit der nützlichen Rechnerfunktion arbeiten, um die entsprechenden Parameter zu bestimmen. Abschließend wird der t-Test mithilfe des Minitab Assistenten durchgeführt, der sich insbesondere im turbulenten Tagesgeschäft anbietet, um unter Vorgaben nützlicher Entscheidungsfragen die richtigen Berechnungen durchzuführen.

  • t-Test, verbundene Stichproben
  • Herleitung der Teststatistik im t-Test für verbundene Stichproben
  • Aufstellung der Nullhypothese und Alternativhypothese
  • t-Test, verbundene Stichproben versus t-Test, 2 Stichproben
  • Interpretation der Hypothesentestergebnisse
  • Arbeiten mit der Rechnerfunktion
  • Arbeiten mit dem „Minitab-Assistenten“

Trailer

08 TEST AUF ANTEILE, 1 STICHPROBE; BINOMIALVERTEILUNG

08 TEST AUF ANTEILE, 1 STICHPROBE; BINOMIALVERTEILUNG

In der 8. Minitab Schulung befinden wir uns in der Produktion des Skateboarddecks der Smartboard AG. Hier werden in einem vollautomatisiertem Fertigungsprozess mehrere Holzlagen mit wasserbasiertem Leim und speziellem Epoxidharz unter hohem Druck zu einem Skateboarddeck zusammengepresst. Unsere Aufgabe in dieser Minitab Schulung wird es sein, mithilfe des sogenannten Hypothesentests „Test auf Anteile für eine Stichprobe“ einen statistisch indirekten Schluss auf die Produktionsgrundgesamtheit zu ziehen, um so mit einer 95%-igen Sicherheit auf Basis der Stichprobe eine Aussage auf  die Fehlerquote der Produktionsgrundgesamtheit treffen zu können. Hierzu werden wir eine bestimmte Menge an zufällig ausgewählten Skateboarddecks einer visuellen Oberflächeninspektion unterziehen und je nach optischem Erscheinungsbild die Skateboarddecks als Gutteil oder Schlechtteil im Sinne der Kundenansprüche beurteilen. Gutteile wären Skateboarddecks, die alle optischen Kundenansprüche erfüllen und entsprechend sin Schlechtteile Skateboarddecks, die nicht die optischen Kundenansprüche erfüllen und entweder nachträglich kostenintensiv ausgebessert oder verschrottet werden müssten. Unsere Aufgabe im ersten Schritt wird es sein, die Randbedingungen für die entsprechende wöchentliche Stichprobe zu definieren, um im zweiten Schritt mithilfe des richtigen Hypothesentests einen indirekten Schluss auf Basis der Fehlerquote unserer Stichprobe auf die Fehlerquote in der Grundgesamtheit zu ziehen. Die Besonderheit in dieser Trainingseinheit wird es hierbei sein, dass wir es mit den kategorialen Qualitätsurteilen zu tun haben werden, bei denen nicht mehr die Gesetze der Gauß‘schen Normalverteilung, sondern die Gesetze der sogenannten Binomialverteilung zur Anwendung kommen. Daher werden wir im Rahmen dieser Trainingseinheit diese Binomialverteilung grundsätzlich näher kennenlernen und auch die zugehörige Trennschärfeanalyse für binomialverteilte Daten durchführen, um den angemessenen Stichprobenumfang festzulegen. Mit diesen erforderlichen Vorarbeiten können wir dann den eigentlichen Hypothesentest Test auf Anteile für eine Stichprobe ordnungsgemäß durchführen, um auf Basis unserer Stichprobe-Testergebnisse, eine 95% sichere Handlungsempfehlung an die Geschäftsführung der Smartboard AG abgeben zu können, die sich auf die Produktionsgrundgesamtheit bezieht.

  • Test von Anteilen, 1 Stichprobe
  • Binomialverteilung verstehen
  • Wahrscheinlichkeitsverteilung der Binomialverteilung herleiten
  • Trennschärfeanalyse für binominal verteilte Daten durchführen
  • Normalapproximation im Zusammenhang mit der Binomialverteilung
  • Arbeiten mit der Funktion „einzelne Variablen auszählen“
  • Stichprobenumfang in Abhängigkeit der Trennschärfengüte
  • Aufstellung der Nullhypothese und Alternativhypothese

Trailer

09 TEST AUF ANTEILE CHI-QUADRAT-TEST

09 TEST AUF ANTEILE CHI-QUADRAT-TEST

In der 9. Minitab Schulung befinden wir uns in der Spritzgussproduktion der Smartboard AG  zur Herstellung der Skateboardrollen. Die Herstellung der Skateboardrollen erfolgt hierbei im sogenannten Spritzgussverfahren, wofür als Material der technische Kunststoff Polyurethan verwendet wird. Im ersten Schritt wird in der Spritzgussanlage das Ausgangsmaterial in Form von Polyurethangranulat thermisch verflüssigt, im zweiten Schritt das flüssige Polyurethan anschließend mit hohem Druck in die entsprechende Gussform injiziert bis die Form vollständig befüllt ist. Im dritten Schritt wird das flüssige Polyurethan durch eine Hochdruckwasserkühlung abgekühlt. Nach der Abkühlung und Erstarrung werden dann im vierten Schritt die gefertigten Skateboardrollen automatisch aus der Spritzgussform ausgeworfen und die Gussform freigemacht für die nächste Rollenherstellung. Die Spritzgroßproduktion erfolgt in der Smartboard AG im Dreischichtbetrieb, so dass im Früh-, Spät- und Nachtschichtbetrieb die erforderlichen hohen Stückzahlen hergestellt und an die Kunden termingerecht ausgeliefert werden können. Seit einiger Zeit fallen allerdings vermehrt Skateboardrollen auf, die aufgrund unterschiedlicher Oberflächenfehler verschrottet werden müssen. Daher wurde beschlossen, ein Qualitätsverbesserungsprojekt zu starten, um die Ursachen der angestiegenen Fehlerquoten zu identifizieren. Unsere zentrale Aufgabe in dieser Minitab Schulung wird es sein, auf Basis einer Stichprobe folgende zwei zentrale Fragestellungen zu beantworten: Gibt es einen grundsätzlichen Zusammenhang zwischen der hohen Fehlerquote und der jeweiligen Produktionsschicht und gibt es in den jeweiligen Produktionsschichten bestimmte Fehlertypen, die signifikant häufiger erzeugt werden als andere Fehlertypen? Die Besonderheit in dieser Aufgabenstellung liegt darin, dass wir es mit mehr als zwei Kategorien zu tun haben, bei denen die Gesetze der sogenannten Chi-Quadrat- Verteilung greifen. Wir werden in dieser Trainingseinheit erlernen, wie der entsprechenden Hypothesentest für Chiquadrat verteilte Daten ordnungsgemäß durchgeführt und interpretiert wird.

  • Vorbereitung der Daten mithilfe der Funktion „Neukodierung in Text“
  • Variablenauszählung mithilfe der Funktion „Tabellenauszählung“
  • Verwendung von Balkendiagrammen im Chi-Quadrat- Test
  • Wechselwirkungseffekte mithilfe gruppierter Balkendiagramme identifizieren
  • Benutzerspezifische Balkendiagramme im Rahmen des Chi-Quadrat- Tests
  • Hypothesendefinition im Chi-Quadrat-Test
  • Ableitung der Chi-Quadrat- Verteilung aus einer Standardnormalverteilung
  • Anzahl der Freiheitsgrade im Chi-Quadrat- Test
  • Interpretation der Kreuztabelle im Rahmen der Chi-Quadrat- Tests
  • Chi-Quadrat- Wert nach Pearson und dem Likelihood-Quotienten

Trailer

10 TEST AUF EREIGNISRATE, Poisson

10 TEST AUF EREIGNISRATE, Poisson

In der 10. Minitab Schulung befinden wir uns in der Shockpad-Produktion der Smartboard AG. Shockpads sind Kunststoffplatten, die zwischen Skateboarddeck und den Achsen verbaut werden. Sie dienen in erster Linie dazu, Vibrationen und Erschütterungen während der Fahrt abzufangen. Für einen sehr anspruchsvollen Kunden werden aktuell hochpreisige Designershockpads hergestellt. Die rechteckigen Shockpads werden hierbei in einem Stanzprozess aus speziell für den Kunden hergestellten hochpreisigen Polyurethanplatten in Serienfertigung hergestellt. Ein Stanzcharge besteht immer aus 500 Shockpads und entspricht einer Liefercharge. Im Gegensatz zu anderen Kunden legt der Kunde auch sehr großen Wert auf das optische Erscheinungsbild der Shockpads. Daher sind die im Stanzprozess möglichen Fehler, Kratzer, Aufbrüche, unebenen Schnittkanten und Stanzrisse weitgehend zu vermeiden, da laut der vertraglichen Kunden-Lieferanten- Vereinbarung Oberflächenfehler nur bis zu einer bestimmten Anzahl erlaubt sind. Konkret liegt gemäß vertraglicher Reklamationsvereinbarung für die Smartboard AG die Restriktion vor, dass in jeder Packungseinheit bestehend aus 500 Shockpads höchstens in Summe 25 Fehler vorliegen dürfen. Hierbei spielt es keine Rolle, wie die Fehlerverteilung in der Lieferung vorliegt. Die grundsätzliche Fehlerquote pro Lieferung, die nicht überschritten werden darf, liegt bei 5%. Das zentrale Thema in dieser Minitab Schulung wird es daher sein, auf Basis eines vorliegenden Stichprobendatensatzes eine 95% belastbare Aussage bezüglich der tatsächlichen Fehlerquote in der Grundgesamtheit der Shockpad- Produktion zu treffen. Wir werden hierbei lernen, dass in derartigen Fällen Hypothesentests infrage kommen, die den Gesetzen der sogenannten Poissonverteilung folgen. Wir werden in der Lage sein, den Unterschied zwischen Ereignishäufigkeit und Fehlerrate zu unterscheiden und auch die Poisson- Verteilung mithilfe der zugehörigen Dichtefunktion besser kennenlernen, um einen Einblick in die Normalapproximation im Zusammenhang mit der Poisson- Verteilung zu erhalten. Darüber hinaus lernen wir auch nützliche Optionen wie zum Beispiel  die Summen- und Tabellenfunktion kennen. Mit dem erlernten Wissen werden wir dann in der Lage sein, den entsprechenden Hypothesentest auf Ereignisrate poissonverteilter Daten ordnungsgemäß durchzuführen, um so in der Lage zu sein, 95% sichere Aussagen über die Ereignishäufigkeiten respektive Fehlerraten in der Grundgesamtheit des Stanzprozesses treffen zu können.

  • Ereignishäufigkeiten und Fehlerraten poissonverteilter Daten
  • Grafische Herleitung der Poissonverteilung
  • Wahrscheinlichkeitsdichte der Poissonverteilung interpretieren
  • Normalapproximation im Zusammenhang mit der Poissonverteilung
  • Ereignisrate in Poissonverteilung bei einer Stichprobe bestimmen
  • Hypothesendefinitionen bei poissonverteilten Daten
  • Arbeiten mit der Summenfunktion im Rahmen der Poissonverteilung
  • Arbeiten mit der Tabellenfunktion im Rahmen der Poissonverteilung

Trailer

11 EINFACHE VARIANZANALYSE ANOVA

In der 11. Minitab Schulung geht es um die von der Smartboard AG verwendeten Kugellager für die Skateboardrollen. Ein wichtiges Kriterium für die Passform ist der Außendurchmesser der Kugellager. Die Smartboard AG vergleicht hierfür drei neue Kugellagerlieferanten.
Im Fokus dieser Trainingseinheit steht die Fragestellung, ob sich die Kugellager-Außendurchmesser der drei Lieferanten voneinander signifikant unterscheiden. Wir werden sehen, dass die Besonderheit in dieser Aufgabenstellung darin liegt, dass wir es nun mit mehr als zwei Prozessen bzw. mit mehr als zwei Stichprobenmittelwerten zu tun haben und somit auch die bisher kennengelernten Hypothesentests nicht weiterhelfen werden. Vor dem Einstieg in die eigentliche Varianzanalyse – häufig abgekürzt mit dem Akronym ANOVA – werden wir uns in dieser Minitab Schulung zunächst mithilfe der deskriptiven Statistik einen Überblick über die Lage- und Streuparameter unserer drei Lieferanten-Datensätze verschaffen. Vor dem Einstieg in die eigentliche Varianzanalyse muss noch eine Trennschärfeanalyse durchgeführt werden, um den angemessenen Stichprobenumfang zu bestimmen. Um das Prinzip der Varianzanalyse zu verstehen, werden wir aus didaktischen Gründen zunächst einmal an einem allgemein kleinen Datensatz die relativ komplexe Varianzanalyse Schritt für Schritt näher kennenlernen und werden dann mit diesen Vorarbeiten und Informationen in die sogenannte einfaktorielle Varianzanalyse einsteigen, die im Tagesgeschäft häufig auch nur „einfache Varianzanalyse“ bezeichnet wird, so dass wir über diesen Analyseansatz die entsprechenden Streuanteile bestimmen, die die jeweilige Gesamtstreuung ausmachen. Das Verhältnis dieser Streuanteile werden wir mit dem sogenannten Streuverhältnis-Verteilungs-Diagramm genauer anschauen, das, in Anlehnung an seinen Entwickler Fisher, als F- Verteilung bezeichnet wird. Wir lernen, auf Basis der F-Verteilung die Wahrscheinlichkeit für das Auftreten eines Streuverhältnisses, einfach F- Wert genannt, in Form eines p-Wertes ermitteln zu können. Zum besseren Verständnis werden wir auch über den grafischen Weg den p-Wert zum jeweiligen F-Wert herleiten. Im letzten Schritt wird mittels der zugehörigen Hypothesentests ordnungsgemäß ermittelt, ob signifikante Unterschiede zwischen den Kugellagerlieferanten vorliegen. Interessant und sehr nützlich im Rahmen dieser einfaktoriellen Varianzanalyse werden dann die mithilfe des Vergleichstests nach Fisher erzeugten sogenannten Gruppierungsbuchstaben, die uns im Tagesgeschäft immer sehr schnell helfen werden zu erkennen, welche Kugellagerhersteller sich signifikant voneinander unterscheiden.

Themenschwerpunkte:

  • Aufstellung der Hypothesentests im Rahmen der einfaktoriellen ANOVA
  • Kor(SS)- und Kor(MS) – Werte im Rahmen der einfaktoriellen ANOVA
  • Herleitung des F-Wertes im Rahmen der einfaktoriellen ANOVA
  • Herleitung der F-Verteilung im Rahmen der einfaktoriellen ANOVA
  • Fehlerbalkendiagramm im Rahmen der einfaktoriellen ANOVA
  • Paardifferenztest nach Fisher
  • Gruppierungsinformationen anhand der Fisher Grenzdifferenz
  • Individuelle Fisher-Tests für Mittelwertdifferenzen

Trailer

12 ZWEIFAKTORIELLE ANOVA

In der 12. Minitab Schulung begleiten wir das Qualitätsteam der Smartboard AG bei der Untersuchung der Materialfestigkeit der Skateboarddecks mithilfe der sogenannten zweifaktoriellen Varianzanalyse. Als Grundmaterial für hochqualitative Skateboarddecks wird im Übrigen immer nordamerikanisches Ahornholz verwendet, da diese Holzart aufgrund ihres langsamen Wachstums besonders stabil und widerstandsfähig ist. Für die Herstellung der Skateboarddecks werden in einem automatisierten Laminierprozess zunächst zwei Lagen aus Ahornholz mit wasserbasiertem Leim und einem speziellen Epoxidharzgemisch unter Druck  zusammengepresst. Ausschlaggebend für den Zusammenhalt des gesamten Laminierverbundes ist hierbei insbesondere die Verbindung der ersten zwei Holzschichten im Kern. Die Güte dieser Kernlaminierung wird stichprobenartig in einem Zugscherversuch geprüft, indem die zwei miteinander laminierten Holzschichten durch eine Krafteinleitung parallel zur Verbindungsfläche auseinandergezogen werden bis die Laminatverbindung aufreißt. Hierbei gilt grundsätzlich: Je höher die im Laborversuch erreichte maximale Zugscherfestigkeit der Laminatverbindung umso besser. Wir werden es in dieser Minitab Schulung zum ersten Mal mit zwei kategorialen Faktoren zu tun haben, die in jeweils drei kategorialen Faktorstufen vorliegen. Das Kernziel dieser Trainingseinheit wird sein, auf Basis einer Stichprobe einen statistisch indirekten Schluss auf die Produktionsgrundgesamtheit zu ziehen, ob die entsprechenden Faktoren einen signifikanten Einfluss auf die Laminatverbindung ausüben. Wir werden auch analysieren, ob eventuell sogenannte Wechselwirkungseffekte zwischen den Einflussfaktoren vorliegen, die sich vielleicht indirekt gegenseitig beeinflussen und somit auch unsere Antwortvariable, in diesem Fall die Haftfestigkeit des Laminats, indirekt signifikant beeinflussen. Im Vorfeld müssen wir jedoch etwas Datenmanagement betreiben, da die Struktur des Messprotokoll es zunächst erforderlich macht, eine Daten-Neustrukturierung durchzuführen. Ziel des Datenmanagements ist, die sehr nützliche Funktion „Spaltenblöcke stapeln“ kennenzulernen. Nach der Daten- Neustrukturierung werden wir vor der eigentlichen Varianzanalyse auch noch mit Boxplots arbeiten, um uns einen  ersten Eindruck über die Trends und Tendenzen unserer Daten zu verschaffen. Wir werden hierbei wieder einige neue redaktionelle Funktionen kennenlernen und so schon vor der eigentlichen zweifaktoriellen Varianzanalyse anhand der Boxplot- Verläufe eine Reihe offensichtlicher Trends und Tendenzen aufdecken. So gut vorbereitet steigen wir dann in die eigentliche zweifaktorielle Varianzanalyse ein, um die auch in den Boxplots festgestellten Trends und Tendenzen auf Signifikanz zu beurteilen. In diesem Zusammenhang werden wir auch  die sehr nützlichen „Faktordiagramme“ kennenlernen und erleben, wie Haupteffektdiagramme und Wechselwirkungsdiagramme zu interpretieren sind. Abschließend werden wir in der Lage sein, mit dem sogenannten Signifikanztest nach Tukey und den zugehörigen Gruppierungsbuchstaben differenziert herauszuarbeiten, welche der Parameterkonstellationen auch tatsächlich als signifikant unterschiedlich zu deklarieren sind.

Themenschwerpunkte:

  • Zweifaktorielle ANOVA
  • Datenmanagement im Vorschaufenster zum Datenimport
  • Stapeln von Spaltenblöcken im Rahmen der ANOVA
  • Boxplot- Analyse im Rahmen der ANOVA
  • Interquartil-Bereiche grafisch anpassen
  • Referenzlinien im Rahmen der Boxplot- Analyse einbauen
  • Definition des „allgemeinen linearen Modells (ALM, GLM)“
  • Interpretation und Auswertung der Varianz- und Residuenanalyse
  • Arbeiten mit der „Markierungspalette“ im Rahmen der Residuenanalyse
  • Test der Varianzresiduen auf Normalverteilung
  • Arbeiten mit dem Histogramm im Rahmen der Residuenanalyse
  • Faktordiagramme im Rahmen der ANOVA
  • Redaktionelle Bearbeitung von Wechselwirkungsdiagrammen
  • Paarweiser Mehrfachvergleichstest nach Tukey

Trailer

13 GEBLOCKTE ANOVA

In der 13. Minitab Schulung befinden wir uns in der Instandhaltungs- und Wartungsabteilung der Smartboard AG.  Diese ist zuständig für alle Verbesserungsmaßnahmen zur Sicherstellung der bestmöglichen Anlagenverfügbarkeit, Anlageneffizienz und Qualitätsausbringung entlang der gesamten Skateboardherstellung. Um die Anlagenverfügbarkeit, Anlageneffizienz und Qualitätsausbringung der Skateboardproduktion mit nur einer Kennzahl bewerten zu können, verwendet die Smartboard AG die in der Industrie bewährte Leistungskennzahl OEE als Maß für die Gesamtanlageneffektivität. Hierbei gilt: Je höher die OEE-Kennzahl umso besser die Gesamtanlageneffektivität der Skateboardproduktion. Die Instandhaltung und Wartungsabteilung hat anhand der OEE-Kennzahl Leistungsschwankungen in der Skateboardproduktion festgestellt und vermutet, dass diese Schwankungen eventuell auf die unterschiedlichen Produktvarianten zurückzuführen sind. Das Ziel dieser Minitab Schulung ist herauszufinden, ob die unterschiedlichen Produktvarianten, wie zum Beispiel Longboard, E-Board oder Mountainboard, einen statistisch signifikanten Einfluss auf die OEE-Kennzahl ausüben. Die sogenannten Güteparameter unseres Varianzmodell werden in dieser Trainingseinheit sehr wichtig sein, da sie uns eine Aussage darüber liefern werden, wie gut unser Varianzmodell den Anteil der Gesamtstreuung erklären kann. Wir werden in diesem Zusammenhang insbesondere mit dem Güteparameter „Korrigierter R-Quadrat-Wert“ arbeiten, um zu beurteilen, ob unserer geblocktes Varianzmodell auch tatsächlich eine hohe Modellgüte besitzt. Und wir werden bei der Gelegenheit die nützliche Tabelle „Anpassungen und Bewertungen für ungewöhnliche Beobachtungen“ kennenlernen, die uns eine kompakte Zusammenstellung von auffälligen nicht beschreibbaren Streuanteilen, auch Residuen genannt, bereitstellt. Um diese Residuenstreuung auch grafisch gut beurteilen zu können, werden wir die sehr nützliche Grafikoption mit der Bezeichnung „4 in 1 Diagramm“ kennenlernen. Außerdem werden wir mit den sehr hilfreichen Faktoridagrammen und mithilfe des Signifikanz-Vergleichstests nach Tukey konkret identifizieren, welche Faktorstufen signifikante bzw. nicht signifikante Effekte auf die Gesamtanlageneffektivität ausüben. Anhand der entsprechenden Gruppierungsbuchstaben und der zugehörigen Grafik „Simultane 95 %ige Konfidenzintervalle nach Tukey“ werden wir final in der Lage sein, eine 95 % sichere Handlungsempfehlung an die Geschäftsführung der Smartboard AG abzugeben, welche gezielten Optimierungsmaßnahmen in Abhängigkeit der jeweiligen Produktvarianten umzusetzen sind.

Themenschwerpunkte:

  • Geblockte ANOVA
  • Gütemaße R-QD und R-QD(Kor) im Rahmen der geblockten ANOVA
  • Residuenanalyse im Rahmen der geblockten ANOVA
  • Anpassungen und Bewertungen für „ungewöhnliche Beobachtungen“
  • Faktordiagramme im Rahmen der geblockten ANOVA
  • Paarweise Mehrfachvergleichstest nach Tukey
  • Fehlerbalkendiagramm im Rahmen der geblockten ANOVA
  • Simultane 95 %-Konfidenzintervall nach Tukey

Trailer

14 EINFACHE KORRELATION UND REGRESSION

In der 14. Minitab Schulung besuchen wir die Wärmebehandlung der Smartboard AG. Hier werden die Skateboardachsen einer Wärmebehandlung unterzogen, um die vom Kunden geforderte Materialfestigkeit zu erreichen. Einen Einfluss auf die Materialfestigkeit hat neben den Wärmebehandlungsparametern auch der Kupferanteil in den Skateboardachsen. Vor diesem Hintergrund soll in dieser Trainingseinheit auf Basis von vorhandenen historischen Prozessdaten der Zusammenhang zwischen Kupferanteil und Materialfestigkeit untersucht werden. Hierfür werden wir in dieser Minitab Schulung zunächst mithilfe einer einfachen Korrelationsanalyse untersuchen, ob eine wechselseitige Beziehung zwischen der Höhe des Kupferanteils im Material und der Materialfestigkeit nachzuweisen ist. Sollte das der Fall sein, werden wir mit einer einfachen Regressionsanalyse zeigen, welcher Kupferanteil schlussendlich erforderlich ist, um die vom Kunden gewünschte Materialfestigkeit zu erreichen. Im Rahmen unserer Korrelationsanalyse werden wir den wichtigen Korrelationsfaktor nach Pearson kennenlernen, um eine quantitative Aussage darüber zu erhalten, ob die entsprechenden Einflussfaktoren schwach, stark, oder gar nicht miteinander korrelieren. In diesem Zusammenhang werden wir das Grundprinzip der Korrelationsanalyse auf Basis der „Methode der kleinsten Fehlerquadrate“ ausführlich erlernen, indem wir anhand eines vereinfachten Datensatzes eine vollständige Korrelationsanalyse Schritt für Schritt aktiv durchrechnen, um zu verstehen, wie die Ergebnisse im Ausgabefenster entstanden sind. Final können wir mit einer einfachen Regressionsanalyse unsere technische Problemstellung mit einer mathematischen Regressionsgleichung beschreiben, um zukünftige Materialfestigkeiten in Abhängigkeit des Einflussfaktors Kupferanteil mit einer hohen Prognosegüte vorhersagen zu können.

Themenschwerpunkte:

  • Korrelationsanalyse nach Pearson
  • Korrelationsmatrix
  • Tabelle der „paarweisen Korrelationen“
  • Hypothesentest zur paarweisen Korrelation nach Pearson
  • Arbeiten mit „Zeichentools“ im Rahmen des Matrixplots
  • Regressionsanalyse
  • Regressionsmodell anpassen
  • Methode der kleinsten Fehlerquadrate
  • Darstellung der Anpassungslinie
  • Residuenanalyse im Rahmen der Regression
  • Konfidenzintervalle und Prognoseintervalle
  • Antwortvariable anhand des Regressionsmodells prognostizieren

Trailer

15 MULTIPLE KORRELATION, MATRIXPLOT

In der 15. Minitab Schulung befinden wir uns auf der Hochgeschwindigkeits-Teststrecke der Smartboard AG. Auf dieser Outdoor-Teststrecke, die sich bergab über mehrere Kilometer erstreckt, werden die für Geschwindigkeitsrekorde entwickelten Skateboards getestet. Die Erfassung der maximal erreichten Geschwindigkeit auf der Teststrecke erfolgt mithilfe von Lichtschranken entlang der Rennstrecke. Als Testfahrer stehen zehn Skateboardpiloten mit unterschiedlichen Fahrqualitäten zur Verfügung, die das unterschiedliche Fahrverhalten der gesamten Kundschaft repräsentieren. Um zukünftig die sehr hohen Personalkosten für die zehn Testpiloten zu reduzieren, werden wir in dieser Minitab Schulung das Team dabei begleiten, wie es mithilfe einer multiplen Korrelationsanalyse herausarbeitet, welche der zehn Testpiloten identische Geschwindigkeitsprofile aufweisen. Das Kernziel in dieser Trainingseinheit wird sein, mithilfe einer paarweisen Korrelationsanalyse mögliche starke Korrelationen zwischen quantitativen Faktoren zu identifizieren. Wir werden hierbei die nützliche Korrelationsmatrix kennenlernen, die im Tagesgeschäft häufig auch einfach nur Matrixplot bezeichnet wird. Und wir erleben, wie wir mit dem Matrixplot einen effizienten qualitativen Überblick bezüglich der potentiellen Korrelationstrends zwischen den Testpiloten erhalten. Darauf aufbauend steigen wir in die eigentliche Korrelationsanalyse nach Pearson ein, um unsere Erkenntnisse aus der Korrelationsmatrix zu untermauern. Final werden wir mit den entsprechenden Signifikanzwerten aus dem Hypothesentest „Paarweise Korrelation nach Pearson“ die statistische Signifikanz der Korrelationen auch nochmal mit einer 95-prozentigen Sicherheit beurteilen.

Themenschwerpunkte:

  • Multiple Korrelationsanalyse nach Pearson
  • Korrelationsmatrix interpretieren
  • Tabelle der „paarweisen Korrelationen“ analysieren
  • Hypothesentest aufstellen
  • Korrelationsanalyse (paarweise) nach Pearson

Trailer

16 POLYNOMIALE REGRESSION

In der 16. Minitab Schulung befinden wir uns nochmal in der Wärmebehandlungsabteilung der Smartboard AG. Aufgrund der aktuell hohen Auftragslage bildet die Wärmebehandlungsanlage zurzeit ein Engpassaggregat und das Qualitätsteam soll daher untersuchen, ob es möglich ist, die von der Kundschaft bisher geforderte Achsenfestigkeit auch bei kürzeren Glühzeiten zu erreichen, indem die Glühtemperatur erhöht wird. Durch eine Erhöhung der Glühtemperatur könnten die Verweilzeiten der Skateboardachsen in der Wärmebehandlungsanlage verkürzt werden, um so mehr Achsen in kürzerer Zeit wärmebehandeln zu können. Hierfür werden wir in dieser Minitab Schulung zunächst einmal mithilfe einer einfachen Korrelationsanalyse die entsprechenden Korrelationsfaktoren nach Pearson ermitteln. Aufbauend auf diesen Erkenntnissen wenden wir die nützliche sogenannte polynomiale Regressionsanalyse an, um die wechselseitigen Beziehungen zwischen Einflussgrößen und der Antwortvariablen mathematisch zu modellieren. Hierbei werden wir ausgehend von einem linearen Modell zunächst ein quadratisches und anschließend ein kubisches Modell erzeugen und miteinander vergleichen. Mit den entsprechenden Residuendiagrammen wird untersucht, warum in dieser Trainingseinheit eine kubische Regressionsgleichung einer linearen, respektive quadratischen Regressionsgleichung vorzuziehen ist. Abschließend werden wir in die sehr nützliche Zielgrößenoptimierung einsteigen, und mit unserer im Vorfeld ermittelten Regressionsgleichung im Rahmen der Zielgrößenoptimierung die geforderten bestmöglichen Parametereinstellungen mit einer 95-prozentigen Sicherheit festlegen können.

Themenschwerpunkte:

  • Polynomiale Regression
  • Korrelationsanalyse
  • Korrelationsmatrix
  • Tabelle der „paarweisen Korrelationen“
  • Hypothesentest im Rahmen der paarweisen Korrelationsanalyse nach Pearson
  • Referenzlinien im Matrixplot
  • Polynomiale Regression
  • „4 in 1“ – Residuendiagramm
  • Quadratische und kubische Regressionsmodelle
  • Zielgrößenoptimierung im Rahmen der Regressionsanalyse
  • Konfidenz- und Prognoseintervalle im Rahmen der Regressionsanalyse

Trailer

17 POLYNOMIALE REGRESSION MIT RÜCKWÄRTSELIMINATION

In der 17. Minitab Schulung besuchen wir nochmal die Hochgeschwindigkeits-Teststrecke der Smartboard AG. Auf dieser Outdoor-Teststrecke, die sich bergab über mehrere Kilometer erstreckt, soll der Einfluss folgender Parameter auf die maximal zu erreichende Geschwindigkeit eines Skateboard Prototyps getestet werden: Die Deckbreite in Millimeter, der sogenannte Deckflex als Maß für die Elastizität der Skateboarddecks in den zwei Stufen Medium und Hart sowie die Rollenhärte. Die Rollenhärte wird hierbei nach dem genormten Härteprüfverfahren nach Shore ermittelt. Hierbei wird ein Metallstift mit einer geometrisch genormten Kegelstumpfspitze und einer genormten Federkraft und Einwirkzeit in die Rollenoberfläche eingedrückt. Je größer der Widerstand der Skateboardrolle gegenüber dem Eindringen des Metallstiftes ist, umso größer ist entsprechend der erreichte Härtewert. Das zentrale Ziel für uns in dieser Minitab Schulung soll sein, herauszufinden, welche der drei genannten Einflussgrößen, auch als Prädiktoren bezeichnet, unsere Antwortvariable- in diesem Fall die Rollenhärte- signifikant beeinflussen. Wir werden hierzu zunächst mit dem sogenannten Matrixplot arbeiten, um vorab einen visuellen Überblick über mögliche Trends und Tendenzen zu schaffen. Wir werden dann mithilfe des Korrelationsfaktors nach Pearson die Ausprägung der festgestellten Trends und Tendenzen zahlenmäßig beurteilen und mithilfe der polynomialen Regressionsanalyse unser entsprechendes Varianzmodell herleiten. Im Rahmen der Auswertung unseres Varianzmodells auf Basis der klassischen Güteparameter werden wir in diesem Zusammenhang weitere Güteparameter kennenlernen, wie zum Beispiel den PRESS-Wert oder den Mallow cp-Wert. Anschließend werden wir die für eine Modellanpassung sehr wichtige Methode „Rückwärtselimination“ kennenlernen, um nicht signifikante Terme aus unserem Varianzmodell zu entfernen. Abschließend erlernen wir die im Tagesgeschäft sehr hilfreiche und effiziente Option der automatisierten Rückwärtselimination und die „Regression der besten Teilmengen“, so dass wir abschließend mit den vorliegenden Ergebnissen eine Aussage darüber treffen können, wie stark die jeweiligen Einflussgrößen die Rollenhärte beeinflussen.

Themenschwerpunkte:

  • Polynomiale Regression mit Rückwärtselimination
  • Korrelationsmatrix
  • Redaktionelle Bearbeitung der Korrelationsmatrix
  • Korrelationsanalyse nach Pearson
  • Tabelle der „paarweisen Korrelationen“
  • Analyse der Residuenstreuung
  • Automatisierte Rückwärtselimination
  • Regression der besten Teilmengen
  • Güteparameter PRESS, Mallows-Cp, AICc, BIC, BED

Trailer

18.1 GEKREUZTE MSA, TEIL 1

In der 18. Minitab Schulung betrachten wir die Endmontage der Smartboard AG und werden das Qualitätsteam dabei begleiten, wie es eine sogenannte gekreuzte Messsystemanalyse durchführt. Vorab werden wir im ersten Teil unserer mehrteiligen Minitab Schulung in die Grundlagen einarbeiten, um die wichtigsten Definitionen, wie zum Beispiel Messgenauigkeit, Wiederhol- und  Vergleichspräzision oder auch Linearität, Stabilität und Auflösevermögen zu verstehen. Gut gerüstet mit den Grundlagen werden wir dann im zweiten Teil in die praktische Umsetzung der gekreuzten Messsystemanalyse einsteigen und bei der Gelegenheit auch den Unterschied zwischen einer gekreuzten und geschachtelten Messsystemanalyse kennenlernen. Wir werden erfahren, dass es grundsätzlich zwei mathematische Ansätze gibt, um die gekreuzte Messsystemanalyse durchzuführen: Zum einen die ARM- Methode und zum anderen die ANOVA- Methode. Um beide Methoden besser zu verstehen, werden wir im zweiten Teil dieser Trainingseinheit unsere gekreuzte Messsystemanalyse zunächst anhand der ARM- Methode durchführen und zum Vergleich im dritten Teil dieser Trainingseinheit auf Basis desselben Datensatzes eine gekreuzte Messsystemanalyse anhand der ANOVA- Methode durchführen. Hierbei werden wir beide Methoden ausführlich manuell Schritt für Schritt aktiv berechnen und die entsprechenden Messsystemkenngrößen herleiten, um zu verstehen, wie die Ergebnisse im Ausgabefenster erzeugt wurden.

Themenschwerpunkte 18, Teil 1:

  • Nationale und internationale MSA Normregelwerke im Vergleich
  • Prozessvariation versus Messsystemvariation
  • Messgenauigkeit
  • Wiederhol- und Vergleichspräzision
  • Linearität, Stabilität, Bias
  • Ansprechschwelle, Toleranzauflösung

Themenschwerpunkte 18, Teil 2:

  • ARM- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse
  • Unterschied zwischen gekreuzter, geschachtelter und erweiterter MSA
  • Manuelle Herleitung aller Streukomponenten gemäß ARM- Methode
  • Manuelle Herleitung der Toleranzauflösung auf Basis des ndc- Parameters
  • Balkendiagramm, Streukomponenten
  • Prüferbezogene R-Karten-Analyse
  • Manuelle Herleitung der Eingriffsgrenzen in der R-Karte
  • Prüferbezogene X-quer-Karten-Analyse
  • Manuelle Herleitung der Eingriffsgrenzen in der X-quer-Karte
  • Einzelwertediagramm zur Analyse der Datenstreuung
  • Prüferabhängige Boxplot- Analyse
  • Arbeiten mit der Markierungspalette im Bericht der Messsystemanalyse
  • Arbeiten mit Identifikationsvariablen im Bericht der Messsystemanalyse

Themenschwerpunkte 18, Teil 3:

  • ANOVA- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse
  • 2-fache ANOVA-Tabelle mit Wechselwirkungen
  • Manuelle Herleitung aller Streukomponenten gemäß ANOVA- Methode
  • Manuelle Herleitung der Toleranzauflösung auf Basis des ndc-Parameters
  • Hypothesentest im Rahmen der ANOVA-Methode
  • Hypothesentest bezüglich Wechselwirkungseffekte

Trailer

18.2 GEKREUZTE MSA, TEIL 2

Themenschwerpunkte Minitab Schulung 18, Teil 2:

  • ARM- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse
  • Unterschied zwischen gekreuzter, geschachtelter und erweiterter MSA
  • Manuelle Herleitung aller Streukomponenten gemäß ARM- Methode
  • Manuelle Herleitung der Toleranzauflösung auf Basis des ndc- Parameters
  • Balkendiagramm, Streukomponenten
  • Prüferbezogene R-Karten-Analyse
  • Manuelle Herleitung der Eingriffsgrenzen in der R-Karte
  • Prüferbezogene X-quer-Karten-Analyse
  • Manuelle Herleitung der Eingriffsgrenzen in der X-quer-Karte
  • Einzelwertediagramm zur Analyse der Datenstreuung
  • Prüferabhängige Boxplot- Analyse
  • Arbeiten mit der Markierungspalette im Bericht der Messsystemanalyse
  • Arbeiten mit Identifikationsvariablen im Bericht der Messsystemanalyse

Trailer: siehe 18.1

18.3 GEKREUZTE MSA, TEIL 3

Themenschwerpunkte Minitab Schulung 18, Teil 3:

  • ANOVA- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse
  • 2-fache ANOVA-Tabelle mit Wechselwirkungen
  • Manuelle Herleitung aller Streukomponenten gemäß ANOVA- Methode
  • Manuelle Herleitung der Toleranzauflösung auf Basis des ndc-Parameters
  • Hypothesentest im Rahmen der ANOVA-Methode
  • Hypothesentest bezüglich Wechselwirkungseffekte

Trailer: siehe 18.1

19 GEKREUZTE MESSSYSTEMANALYSE, INVALIDES MESSSYSTEM

In der 19. Minitab Schulung befinden wir uns wieder in der Endmontage der Smartboard AG. Auch soll analog zur vorangegangenen Trainingseinheit ebenfalls eine gekreuzte Messsystemanalyse durchgeführt werden, jedoch mit dem Unterschied, dass wir in diesem Fall ein Messsystem kennenlernen werden, das im Sinne der Normvorgaben als nicht akzeptables Messsystem einzustufen ist. Das Kernziel in dieser Minitab Schulung wird es sein, auf Basis der vorliegenden mangelhaften Gütekriterien die angemessene Vorgehensweise zu erarbeiten, um die Ursachen für das mangelhafte Messsystem zu identifizieren. Wir werden in diesem Zusammenhang auch weitere nützliche Funktionen für das Tagesgeschäft kennenlernen, wie zum Beispiel die Erstellung des Messprotokoll- Layouts für die eigentliche Datenaufnahme im Rahmen der Messsystemanalyse oder die sehr nützliche Grafik „Messverlaufsdiagramm“, die nicht standardmäßig im Rahmen einer Messsystemanalyse automatisch erzeugt wird. Wir werden sehen, dass wir dieses Messverlaufsdiagramm sehr einfach erzeugen können und damit weitere zusätzliche Information erhalten, um konkrete Verbesserungsmaßnahmen für das nicht valide Messsystem  ableiten zu können.

Themenschwerpunkte:

  • Gekreuzte Messsystemanalyse
  • Messprotokoll-Layout erstellen
  • Messsystemstreuung bezogen auf die Kundenspezifikationsgrenzen
  • Herleitung der Signifikanzwerte mithilfe der Wahrscheinlichkeitsverteilung
  • Analyse der Wechselwirkungseffekte mithilfe des Wechselwirkungsdiagramms
  • Analyse von Fehlerklassifikationen
  • Spannweitenkarte im Rahmen der Messsystemanalyse
  • x-quer- Karte im Rahmen der Messsystemanalyse
  • Einzelwertediagramm im Rahmen der Messsystemanalyse
  • Boxplots im Rahmen der Messsystemanalyse
  • Arbeiten mit Identifikationsvariablen und Markierungspalette
  • Wechselwirkungsdiagramm zwischen Prüfobjekt und Prüfer
  • Messverlaufsdiagramm

Trailer

20.1 GESCHACHTELTE MSA, TEIL 1

In der zweiteiligen 20. Minitab Schulung befinden wir uns am Achsenprüfstand der Smartboard AG. Hier werden die dynamischen Belastungseigenschaften der produzierten Skateboardachsen untersucht. Hierbei werden die Skateboardachsen am Achsenprüfstand so lange einer dynamisch ansteigenden Schwingspannung ausgesetzt, bis die Belastungsgrenze erreicht wird und es zum Achsenbruch kommt. Was für uns bedeutet, dass wir es dieses Mal mit einer zerstörenden Werkstoffprüfung zu tun haben und somit die jeweiligen Prüfteile nicht mehrmals geprüft werden können und somit zum Beispiel für die Ermittlung der wichtigen Messsystemkenngrößen Wiederhol- oder Vergleichspräzision nicht mehrmals geprüft werden können. Wir werden daher im Rahmen dieser Minitab Schulung die sogenannte geschachtelte Messsystemanalyse als Mittel der Wahl kennenlernen, um zu verstehen, welche Bedingungen als Grundvoraussetzung gegeben sein müssen, damit eine geschachtelte Messsystemanalyse funktioniert. Wir werden in diesem Zusammenhang die in der Industrie bewährte 40:4- Regel anwenden, um einen ausreichenden Stichprobenumfang für eine geschachtelte Messsystemanalyse sicherzustellen. Und mithilfe entsprechender Hypothesentests im Rahmen der geschachtelten Messsystemanalyse bewerten, ob gegebenenfalls die Prüfer oder auch die Produktionschargen das Streuverhalten unserer Messergebnisse signifikant beeinflussen. Wir werden außerdem den wichtigen ndc-Parameter kennenlernen als Gütemaß für das Auflösevermögen unseres Messsystems. Wir lernen zu verstehen, wie wir mithilfe dieser Kerngröße beurteilen können, ob das Auflösevermögen unseres Messsystems im Sinne der Norm ausreichend hoch ist, um im Rahmen von Prozessoptimierungen eingesetzt werden zu können. Anhand der entsprechenden Varianzkomponenten werden wir dann herausarbeiten, ob die Messsystemstreuung einen unzulässig hohen Anteil der Gesamtstreuung ausmacht und somit eventuell über der zulässigen Gesamtstreuung gemäß Normvorgabe liegt. Wir werden das Streuverhalten der Prüfer dahingehend untersuchen, ob und gegebenenfalls welcher der Prüfer den stärksten Beitrag zur Messsystemstreuung liefert. In diesem Zusammenhang werden wir die nützlichen grafischen Darstellungen wie zum Beispiel Qualitätsregelkarten, Boxplots und Streudiagramme einsetzen, um auch visuell Auffälligkeiten im Streuverhalten zu identifizieren. Auf Basis der herausgearbeiteten Ursachen werden wir final in der Lage sein, zuverlässige Handlungsempfehlungen abzuleiten, um das Messsystem zu verbessern und werden auch nach den empfohlenen Verbesserungsmaßnahmen anschließend eine erneute Messsystemanalyse durchführen. Die Ergebnisse unseres verbesserten Messsystems werden abschließend mit den Ergebnissen des ursprünglichen Messsystems verglichen.

Themenschwerpunkte 20, Teil 1:

  • Geschachtelte Messsystemanalyse
  • Randbedingungen für eine geschachtelte Messsystemanalyse
  • Prinzip der Homogenität im Rahmen einer geschachtelte Messsystemanalyse
  • Wiederholpräzision im Rahmen einer geschachtelten Messsystemanalyse
  • Vergleichspräzision im Rahmen einer geschachtelten Messsystemanalyse

Themenschwerpunkte 20, Teil 2:

  • Schwachstellenanalyse eines Invaliden Messsystems mithilfe der:
  • Varianzkomponenten
  • R-Karte und x-quer Karte
  • Einzelwertediagramme
  • Boxplot und Streudiagramm
  • Durchführung einer zweiten geschachtelten Messsystemanalyse

Trailer

20.2 GESCHACHTELTE MSA, TEIL 2

Themenschwerpunkte Minitab Schulung 20, Teil 2:

  • Schwachstellenanalyse eines Invaliden Messsystems mithilfe der:
  • Varianzkomponenten
  • R-Karte und x-quer Karte
  • Einzelwertediagramme
  • Boxplot und Streudiagramm
  • Durchführung einer zweiten geschachtelten Messsystemanalyse

Trailer: siehe 20.1

21 MESSSYSTEM-STABILITÄT UND  -LINEARITÄT

In der 21. Minitab Schulung begleiten wir die Ultraschallprüfungen der Smartboard AG. In dieser Abteilung werden die hergestellten Skateboardachsen einer Ultraschallprüfung unterzogen, um sicherzustellen, dass im Achsenmaterial keine unerwünschten Hohlräume während der Achsenherstellung entstanden sind. Mit Hohlräumen werden in der Werkstoffkunde mikroskopisch kleine, materialfreie Bereiche bezeichnet, die ab einer bestimmten Größe zu einer Materialschwächung und hierdurch schon bei geringsten Belastungen zu einem frühzeitigen Achsenbruch führen können. Die von der Smartboard AG für diese Achsenprüfung eingesetzte Ultraschallprüfung gehört zu den klassischen zerstörungsfreien, akustischen Prüfmethoden in der Materialprüfung und basiert auf dem akustischen Prinzip, dass Schallwellen in unterschiedlichen Materialumgebungen unterschiedlich stark reflektiert werden. In Abhängigkeit der vorliegenden Hohlraumgröße im Achsenmaterial werden diese Schallwellen dann entsprechend unterschiedlich stark zurück an die Ultraschallsonde reflektiert. Aus der benötigten Laufzeit, die das ausgesandte Ultraschallecho benötigt hat, um wieder an die Prüfsonde reflektiert zu werden, wird die Größe und Lage des Hohlraums in Mikrometer berechnet. Der Fokus in dieser Minitab Schulung liegt hierbei darin, das Ultraschall- Prüfgerät hinsichtlich der Messsystemkriterien Linearität und Stabilität zu bewerten, um eventuell vorhandene systematische Messabweichungen aufzudecken. Im Konkreten werden wir lernen, wie mithilfe der Kenngrößen Stabilität und Linearität herausgefunden werden kann, wie genau das Ultraschallgerät im gesamten Messbereich messen kann. Hierfür wählt das Team der Ultraschallprüfung in Anlehnung an die Empfehlungen der AIAG Normregelwerke zehn repräsentative Skateboardachsen nach dem Zufallsprinzip aus und unterzieht diese der Ultraschallprüfung, um die Größe eventuell vorhandener Hohlräume im Achsenmaterial zu bestimmen. Bevor wir in die Stabilität zum Linearitätsuntersuchung einsteigen, werden wir vorab im Rahmen eines Datenmanagements die nützliche Funktion der Variablen-Auszählung kennenlernen. Und anschließend entsprechende Hypothesentests anwenden, um signifikante Auffälligkeiten in Bezug auf Linearität und Stabilität zu identifizieren. Wir werden hierzu die nützliche Grafik Streudiagramm einsetzen, um uns auch einen visuellen Eindruck über die Trends und Tendenzen bezüglich Linearität und Stabilität zu verschaffen, so dass wir auf Basis der entsprechenden Gütekriterien und der Regressionsgleichung eine Aussage über die vorliegende  Messsystemstabilität und Messsystemlinearität treffen können. Abschließend werden wir auf Basis unsere Analyseergebnisse eine Optimierung des Messsystems durchführen und anschließend erneut beurteilen, ob die umgesetzten Optimierungsmaßnahmen unsere Messsystem-Stabilität und Linearität verbessern konnten.

Themenschwerpunkte:

  • Messystemstabilität und -linearität, Grundlagen
  • Analyse der Messsystemstabilität
  • Analyse der Messsystemlinearität
  • Funktion „Einzelne Variablen auszählen“
  • Linearitätsanalyse mithilfe der Regressionsgleichung
  • Korrektur der systematischen Messabweichung

Trailer

22.1 ATTRIBUTIVE MSA (GUT/ SCHLECHT), TEIL 1

In der dreiteiligen 22. Minitab Schulung begleiten wir die Endkontrolle der Smartboard AG. Hier werden die in der Früh-, Spät- und Nachtschicht zusammengebauten Skateboards vor dem Versand an die Kunde einer abschließenden visuellen Oberflächeninspektion unterzogen und je nach Menge von Oberflächenkratzern als Gutteil oder Schlechtteil deklariert. Die Skateboards mit dem Prädikat „GUT“ werden an die Kunden versendet, die Skateboards mit dem Prädikat „SCHLECHT“ müssen hingegen kostenintensiv verschrottet werden. Für die visuelle Oberflächeninspektion steht in jeder Produktionsschicht jeweils ein Mitarbeiter zur Verfügung, so dass bei drei Produktionsschichten insgesamt drei unterschiedliche Oberflächenprüfer die Skateboards in „GUT“ und „SCHLECHT“ einordnen. Unsere Aufgabe in dieser Minitab Schulung wird es sein zu überprüfen, ob alle drei Prüfer in ihren Qualitätsurteilen ein identisches Qualitätsverständnis hinsichtlich Wiederholbarkeit und Reproduzierbarkeit haben. Im Unterschied zu den vorherigen Trainingseinheiten haben wir es jedoch in dieser Trainingseinheit nicht mehr mit stetig skalierten Qualitätsurteilen zu tun, sondern mit den attributiven Qualitätsurteilen „Gutteil“ und „Schlechtteil“.  Bevor wir in die hierfür erforderliche Messsystemanalyse einsteigen, werden wir uns zum besseren Verständnis zunächst einen Überblick über die wichtigen drei Skalenniveaus Nominal-, Ordinal- und Kardinalskala verschaffen sowie die nützliche Funktion Messprotokoll-Layout für unsere Übereinstimmungsprüfung erstellen. Wir werden dann mit dem vollständigen Datensatz in die Analyse der Prüferübereinstimmungen einsteigen und mithilfe der sogenannten Fleiß- Kappa- Statistik und den zugehörigen Kappawerten die entsprechenden Übereinstimmungsquoten auswerten. Wir werden das Prinzip der sogenannten Kappa- Statistik respektive Cohen- Kappa- Statistik anhand eines einfachen Datensatzes aktiv berechnen und verstehen, wie sich die entsprechenden Ergebnisse im Ausgabefenster ergeben. Wir werden lernen, wie uns die Kappa- Statistik dabei unterstützt, eine Aussage zum Beispiel darüber zu erhalten, wie groß die Wahrscheinlichkeit ist, das eine vom Prüfer erreichte Übereinstimmungsquote auch hätte nach dem Zufallsprinzip entstehen können. Wir werden zunächst einmal lernen die Übereinstimmungsquote innerhalb der Prüfer anhand der Kappa- Statistik auszuwerten und anschließend erleben, wie das Team der Endkontrolle mithilfe der Kappa- Statistik auch die Übereinstimmung der Prüferurteile gegenüber der Kundenanforderung auswertet. Und wir werden herausfinden können, ob ein Prüfer eher dazu neigt, tatsächliche Schlechtteile als Gutteile zu deklarieren oder umgekehrt. Nach den Übereinstimmungsprüfungen in Bezug auf den Kundenstandard werden wir dann anschließend untersuchen, wie häufig sich nicht nur die Prüfer untereinander einig waren, sondern wie gut die Übereinstimmungsquote des Prüferteams insgesamt gegenüber dem Kundenstandard einzuordnen ist. Mit diesen Erkenntnissen werden wir dann in der Lage sein, entsprechende Handlungsempfehlungen abzugeben, um zum Beispiel im Rahmen von Prüferschulungen ein einheitliches Qualitätsverständnis im Sinne der Kundenansprüche zu erreichen. Wir werden in diesem Zusammenhang auch die zwei sehr nützlichen grafischen Darstellungsformen „Übereinstimmung der Bewertungen innerhalb der Prüfer“ und „Prüfer im Vergleich zum Standard“ kennenlernen. Wir können verifizieren, dass diese  Grafiken insbesondere im Tagesgeschäft immer dann sehr hilfreich sind, um zum Beispiel gemeinsam mit den beteiligten Prüfern einen schnellen visuellen Eindruck über die wichtigsten Informationen aus unserer Prüferübereinstimmungsprüfung zu erhalten.

Themenschwerpunkte Teil 1

  • Skalenniveaus, Grundlagen
  • Nominal-, ordinal-, kardinalskalierte Datentypen
  • Diskrete versus stetige Daten

Themenschwerpunkte Teil 2

  • Stichprobenumfang bei attributiven MSA gemäß AIAG
  • Prüferübereinstimmung bei attributiven Daten, Prinzip
  • Messprotokoll-Layout für Prüferübereinstimmung erstellen
  • Durchführung der Prüferübereinstimmungsanalyse bei attributiven Daten
  • Analyse der Übereinstimmung innerhalb der Prüfer
  • Fleiß-Kappa- und Cohen-Kappa- Statistik, Grundlagen

Themenschwerpunkte Teil 3

  • Analyse der Übereinstimmung Prüfer versus Standard
  • Beurteilung der Prüferübereinstimmung auf Basis der Fleiß-Kappa- Statistik
  • Kappa- Statistik zur Beurteilung der zufallsbedingten Übereinstimmungsquote
  • Analyse der Nichtübereinstimmung der Bewertungen
  • Grafische MS-Analyse innerhalb der Prüfer
  • Grafische MS-Prüferanalyse im Vergleich zum Kundenstandard

Trailer

22.2 ATTRIBUTIVE MSA (GUT/ SCHLECHT), TEIL 2

Themenschwerpunkte Minitab Schulung 22, Teil 2:

  • Stichprobenumfang bei attributiven MSA gemäß AIAG
  • Prüferübereinstimmung bei attributiven Daten, Prinzip
  • Messprotokoll-Layout für Prüferübereinstimmung erstellen
  • Durchführung der Prüferübereinstimmungsanalyse bei attributiven Daten
  • Analyse der Übereinstimmung innerhalb der Prüfer
  • Fleiß-Kappa- und Cohen-Kappa- Statistik, Grundlage

Trailer: siehe 22.1

22.3 ATTRIBUTIVE MSA (GUT/ SCHLECHT), TEIL 3

Themenschwerpunkte Minitab Schulung 22, Teil 3:

  • Analyse der Übereinstimmung Prüfer versus Standard
  • Beurteilung der Prüferübereinstimmung auf Basis der Fleiß-Kappa- Statistik
  • Kappa- Statistik zur Beurteilung der zufallsbedingten Übereinstimmungsquote
  • Analyse der Nichtübereinstimmung der Bewertungen
  • Grafische MS-Analyse innerhalb der Prüfer
  • Grafische MS-Prüferanalyse im Vergleich zum Kundenstandard

Trailer: siehe 22.1

23.1 ATTRIBUTIVE MSA (Qualitätsnoten), TEIL 1

In der dreiteiligen 23. Minitab Schulung befinden wir uns in der Endmontage der Smartboard AG. Hier werden in der Früh-, Spät-, und Nachtschicht alle einzelnen Skateboard-Komponenten zu einem fertigen Skateboard zusammengesetzt und vor dem Versand an den Kunden einer abschließenden visuellen Oberflächeninspektion unterzogen. Je nach optischem Erscheinungsbild erhalten die Skateboards entsprechende ganzzahlige Qualitätsnoten 1 bis 5 ohne Zwischennoten. Note 1 kennzeichnet ein fehlerfreies, sehr gutes Skateboard, bis Note 5 für Skateboards mit sehr starken Oberflächenbeschädigungen. Für die visuelle Qualitätskontrolle steht in jeder Produktionsschicht jeweils ein Oberflächenprüfer zur Verfügung, so dass bei drei Produktionsschichten insgesamt drei unterschiedliche Oberflächenprüfer die Skateboards mit Qualitätsnoten 1-5 bewerten. Im Kern dieser Minitab Schulung wird es darum gehen zu überprüfen, ob zum einen alle drei Prüfer eine hohe Wiederholbeständigkeit in ihren eigenen Urteilen besitzen und zum anderen, ob alle drei Prüfer untereinander ein ausreichend identisches Qualitätsverständnis aufweisen. Und schlussendlich gilt es zu überprüfen, ob das Prüferteam insgesamt das identische Qualitätsverständnis wie der Kunde besitzt. Im Gegensatz zur vorherigen Trainingseinheit, bei der nur die zwei binären Antwortmöglichkeiten „Gut“ und „Schlecht“ möglich waren, haben wir es in dieser Trainingseinheit mit einer Prüferübereinstimmungs- Analyse zu tun, bei der fünf Antworten möglich sind, die dann auch noch eine unterschiedliche Wertigkeit zueinander besitzen. Denn zum Beispiel besitzt die Note 1 für sehr gut eine ganz andere qualitative Wertigkeit als die Note 5 für mangelhaft. Bevor wir in die Eignungsprüfung einsteigen, werden wir zunächst lernen, wie wir ein Messprotokoll erstellen, wenn Merkmalsträger in einer geordneten Wertereihenfolge vorliegen. Wir werden dann mit dem vollständigen Datensatz in die Analyse der Prüferübereinstimmungen einsteigen und lernen, wie wir die Übereinstimmungsprüfung innerhalb der Prüfer bewerten können. Wir werden zur Beurteilung der Übereinstimmungen auch lernen, wie wir neben den klassischen Übereinstimmungsquoten in Prozent auch die sogenannte Fleiss- Kappa- Statistik nutzen können, um bei einer entsprechend definierten Irrtumswahrscheinlichkeit eine Aussage über die zukünftig zu erwartende Übereinstimmungsquote ableiten können. Anschließend werden wir den sehr wichtigen  sogenannten Kendall- Konkordanz- Koeffizienten kennenlernen, der- im Gegensatz zum Kappawert- nicht nur die absolute Aussage liefert, ob eine Übereinstimmung vorliegt, sondern auch durch eine relative Betrachtung der Abweichungen eine Aussage über den Schweregrad der Fehlentscheidungen liefern kann. Mit diesem Wissen werden wir dann auch in der Lage sein, die Übereinstimmungsquote der Prüferurteile im Vergleich zum Kundenstandard zu beurteilen und auch erfahren, wie wir mit den entsprechenden Gütekriterien herausarbeiten können, wie häufig die Prüfer untereinander der gleichen Meinung waren, also ob die Prüfer untereinander auch das gleiche Qualitätsverständnis besitzen. Wir werden neben dem Kendall- Konkordanz- Koeffizienten auch den sogenannten Kendall-Korrelationskoeffizienten kennenlernen, der dabei hilft, eine zusätzliche Information darüber zu erhalten, ob zum Beispiel ein Prüfer eher dazu tendiert, weniger anspruchsvoll zu urteilen und deshalb zum Beispiel ein aus Kundensicht mangelhaftes Skateboard unerwünschter Weise als ein sehr gutes Skateboard einzuordnen.

Themenschwerpunkte 23, Teil 1:

  • Messprotokoll- Layout für Merkmalsträger bei geordneten Wertereihenfolgen
  • Übereinstimmungsanalyse innerhalb der Prüfer mithilfe der Fleiß- Kappa- Statistik
  • Herleitung des Kendall- Koeffizienten der Konkordanz
  • Übereinstimmungsanalyse innerhalb der Prüfer mithilfe der Kendall-Konkordanz

Themenschwerpunkte 23, Teil 2:

  • Herleitung des Kendall-Korrelationskoeffizienten
  • Übereinstimmungsanalyse der Prüfer im Vergleich zum Kundenstandard

Themenschwerpunkte 23, Teil 3:

  • Übereinstimmungsanalyse mithilfe des Kendall-Korrelationskoeffizienten
  • Grafische Auswertung der Wiederhol- und Vergleichspräzision

Trailer

23.2 ATTRIBUTIVE MSA (Qualitätsnoten), TEIL 2

Themenschwerpunkte Minitab Schulung 23, Teil 2:

  • Herleitung des Kendall-Korrelationskoeffizienten
  • Übereinstimmungsanalyse der Prüfer im Vergleich zum Kundenstandard

Trailer: siehe 23.1

23.3 ATTRIBUTIVE MSA (Qualitätsnoten), TEIL 3

Themenschwerpunkte Minitab Schulung 23, Teil 3:

  • Übereinstimmungsanalyse mithilfe des Kendall-Korrelationskoeffizienten
  • Grafische Auswertung der Wiederhol- und Vergleichspräzision

Trailer: siehe 23.1

24.1 PROZESSSTABILITÄT STETIGE DATEN, TEIL 1

In der dreiteiligen 24. Minitab Schulung befinden wir uns in der Druckgussfertigung der Smartboard AG. Hier werden über zwei Druckgussanlagen die Skateboardachsen hergestellt. Das zentrale Qualitätsmerkmal der Skateboardachsen ist hierbei die Achsenfestigkeit. Die Kunden der Smartboard AG fordern eine mittlere Achsenfestigkeit von 400 Megapascal plus/minus fünf Megapascal. Im Rahmen dieser Trainingseinheit werden wir das Qualitätsteam der Smartboard AG begleiten und erleben, wie mithilfe entsprechender Qualitätsregelkarten analysiert wird, ob der Druckgussprozess im Sinne der Kundenspezifikation und AIAG-Norm als stabiler Prozess eingestuft werden kann. Wir werden sehen, wie sich das Qualitätsteam vor der eigentlichen Prozessstabilitätsanalyse zunächst mithilfe der deskriptiven Statistik einen ersten Eindruck über die mittlere Prozesslage und Prozessstreuung verschafft und anschließend mit entsprechenden Qualitätsregelkarten die Güte der Prozessstabilität auswertet. Wir werden hierbei lernen, dass je nach Skalenniveau und Teilgruppengröße unterschiedliche Arten von Qualitätsregelkarten zum Einsatz kommen. Wir werden uns in diesem Zusammenhang zunächst mittels eines einfachen Datensatzes mit dem Streuverhalten von Einzelwerten und Mittelwerten beschäftigen, um den sogenannten statistischen Parameter Standardfehler besser zu verstehen. Wir werden die Qualitätsregelkarten Einzelwert-Karte, auch I- Karte bezeichnet, die Mittelwertkarte x-quer und die Standardabweichungs-Karte, s-quer- Karte bezeichnet, kennenlernen. Hierfür werden wir aus didaktischen Gründen zum besseren Verständnis auch die jeweiligen oberen und unteren Eingriffsgrenzen in den Qualitätsregelkarten Schritt für Schritt manuell berechnen und mit den Ergebnissen im Ausgabefenster vergleichen. Bei der Gelegenheit werden wir auch die Spannweitenkarte R- Karte einsetzen und auch hierfür die entsprechenden Eingriffsgrenzen manuell herleiten. Wir werden dann die in der Industrie etablierten acht wichtigsten Kontrolltests ausführlich erlernen, die uns in Anlehnung an die AIAG Normregelwerke helfen können, eventuelle Prozessinstabilitäten aufzudecken. Wir erleben, dass bei einer falschen Wahl einer Qualitätsregelkarte immer die Gefahr besteht, dass die Kontrolltests weniger sensibel auf vorhandene Prozessinstabilitäten reagieren und in diesem Zusammenhang auch erfahren, wie ein Gesamtprozess in zwei Teilprozesse aufgeteilt werden kann, in dem wir die nützliche Funktion „Teilmenge des Arbeitsblattes bilden“ einsetzen. Mit dem bis dahin erlernten Wissen werden wir die Qualitätsregelkarte mit der Bezeichnung Gleitende Spannweite, im allgemeinen als MR-Karte bezeichnet, kennenlernen und erfahren, dass die sogenannte kombinierte I/MR- Karte immer dann sehr nützlich wird, wenn Einzelwerte miteinander verglichen werden sollen, die nicht in Teilgruppen zusammengefasst vorliegen.

Themenschwerpunkte 24, Teil 1:

  • Einschätzung der Datenlandschaft mithilfe der deskriptiven Statistik
  • Prozessstabilität versus Prozessfähigkeit
  • Aufbau von Qualitätsregelkarten am Beispiel I-Karte und X-quer-Karte
  • Prozessinstabilitäten mithilfe von Tests auf Ausnahmebedingungen identifizieren

Themenschwerpunkte 24, Teil 2:

  • Prozessanalyse mithilfe der kombinierten X-quer/ R- Karte
  • Identifikation von Prozessinstabilitäten mithilfe der Kontrolltests gemäß AIAG
  • Manuelle Herleitung der Eingriffsgrenzen in der S- Karte
  • Manuelle Herleitung der Eingriffsgrenzen in der X- quer- Karte
  • Manuelle Herleitung der Eingriffsgrenzen in der R- Karte
  • Anlagenbezogene Prozessanalyse durch Teilmengenbildung
  • Einbindung von Kundenspezifikationsgrenzen und Prozess- Sollwerten
  • Arbeiten mit dem Zeitstempel in Qualitätsregelkarten
  • Aufteilung eines Gesamtprozesses in mehrere Teilprozesse
  • Ausrichtung der Skalenbeschriftungen in Qualitätsregelkarten

Themenschwerpunkte 24, Teil 3:

  • Einzelwertkarte I- Karte
  • Gleitende Spannweitenkarte MR- Karte
  • Herleitung der Eingriffsgrenzen in der MR- Karte
  • Herleitung der Eingriffsgrenzen in der I- Karte

Trailer

24.2 PROZESSSTABILITÄT STETIGE DATEN, TEIL 2

Themenschwerpunkte Minitab Schulung 24, Teil 2:

  • Prozessanalyse mithilfe der kombinierten X-quer/ R- Karte
  • Identifikation von Prozessinstabilitäten mithilfe der Kontrolltests gemäß AIAG
  • Manuelle Herleitung der Eingriffsgrenzen in der S- Karte
  • Manuelle Herleitung der Eingriffsgrenzen in der X- quer- Karte
  • Manuelle Herleitung der Eingriffsgrenzen in der R- Karte
  • Anlagenbezogene Prozessanalyse durch Teilmengenbildung
  • Einbindung von Kundenspezifikationsgrenzen und Prozess- Sollwerten
  • Arbeiten mit dem Zeitstempel in Qualitätsregelkarten
  • Aufteilung eines Gesamtprozesses in mehrere Teilprozesse
  • Ausrichtung der Skalenbeschriftungen in Qualitätsregelkarten

Trailer: siehe 24.1

24.3 PROZESSSTABILITÄT STETIGE DATEN, TEIL 3

Themenschwerpunkte Minitab Schulung 24, Teil 3:

  • Einzelwertkarte I- Karte
  • Gleitende Spannweitenkarte MR- Karte
  • Herleitung der Eingriffsgrenzen in der MR- Karte
  • Herleitung der Eingriffsgrenzen in der I- Karte

Trailer: siehe 24.1

25 PROZESSSTABILITÄT ATTRIBUTIVE DATEN: P-, NP-, P`- KARTE

In der 25. Minitab Schulung befinden wir uns wieder in der Endmontage der Smartboard AG. Hier werden in der Früh-, Spät- und Nachtschicht alle einzelnen Skateboard-Komponenten zu einem fertigen Skateboard zusammengesetzt und vor dem Versand an den Kunden noch einer abschließenden automatischen Oberflächeninspektion unterzogen. Skateboards ohne Oberflächenbeschädigungen werden in die attributive Kategorie „gut“ eingeteilt und können verkauft werden. Skateboards mit Oberflächenbeschädigungen werden in die attributive Kategorie „schlecht “ eingeteilt und werden entweder kostenintensiv nachbearbeitet oder müssen im schlechtesten Fall verschrottet werden. Das Kernthema in dieser Trainingseinheit wird sein zu erfahren, wie die Prozessstabilität auf Basis dieser kategorialen Daten untersucht werden kann. Hierzu werden wir zunächst lernen, wie mit einer geeigneten Qualitätsregelkarte die Anzahl fehlerhafter Skateboards in Form einer Fehlerquote chronologisch dargestellt werden kann. Anschließend beurteilen wir anhand der richtigen Wahl der Qualitätsregelkarte, ob der Montageprozess der Skateboards aus qualitativer Sicht als stabiler Prozess eingestuft werden kann. Wir werden in diesem Zusammenhang verstehen, dass wenn unsere Prozessdaten in nur zwei attributiven Stufen vorliegen, eben wie in diesem Fall in den attributiven Kategorien Gutteil und Schlechtteil, immer dann Qualitätsregelkarten infrage kommen, die die Gesetze der Binomialverteilung berücksichtigen. In diesem Zusammenhang lernen wir die sogenannte Qualitätsregelkarte P- Karte näher kennen. Bevor wir die P-Karte erstellen können, werden wir vorab eine sogenannte P-Karten- Diagnose durchführen, um sicherzustellen, dass unsere Daten auch ausreichend gut den Gesetzen der Binomialverteilung folgen. Hierbei untersuchen wir die wichtigen Kenngrößen wie zum Beispiel Überdispersion und Unterdispersion, die uns Aussagen darüber liefern, wie stark das Streuverhalten unserer tatsächlich vorliegenden Datenlandschaft vom Streuverhalten einer theoretisch idealen Binomialverteilung abweicht, und ob diese Abweichung dann noch akzeptabel ist. Mit dem bis hierhin erlernten Wissen werden wir im Kontext zu den entsprechenden AIAG Normvorgaben entscheiden können, ob wir tatsächlich mit der P- Karte weiterarbeiten sollten oder aufgrund einer unzulässigen Über- bzw. Unterdispersion eine modifizierte P- Karte, die sogenannte P Strich- Karte nach Laney einsetzen sollten. Ergänzend zur P- Karte werden wir am Ende dieser Trainingseinheit noch die sogenannte nützliche np- Karte kennenlernen, die auch in der Lage ist, anstelle relativer Anteile absolute Anteile an fehlerhaften Einheiten übersichtlich und chronologisch abzubilden.

Themenschwerpunkte:

  • p- Karten: Diagnose
  • p- Karten: Aufbau und Prinzip
  • p- Karten- Analyse
  • Arbeiten mit Identifikationsvariablen
  • Manuelle Herleitung der oberen und unteren Eingriffsgrenzen in der p- Karte
  • np- Karte: Aufbau und Prinzip
  • np- Karten- Analyse
  • p`- Karte nach Laney

Trailer

26 PROZESSSTABILITÄT ATTRIBUTIVE DATEN: U-, C- KARTE

In der 26. Minitab Schulung verbleiben wir in der Endmontage der Smartboard AG. Hier werden aktuell in der Früh-, Spät- und Nachtschicht alle einzelnen Skateboard-Komponenten zu einem fertigen Skateboard zusammengesetzt und vor Versand an den Kunden abschließend einer automatischen Oberflächeninspektion unterzogen, um zu überprüfen, ob während der Montage keine Oberflächenbeschädigungen in Form von z.B. Kratzern erzeugt wurden. In der Vergangenheit wurden Skateboards ohne Oberflächenkratzer in die Qualitätskategorie „gut“ eingeteilt und konnten an die Kunden freigegeben werden. Entsprechend wurden Skateboards mit Oberflächenbeschädigungen in die Qualitätskategorie „schlecht “ eingeteilt und mussten daher entweder kostenintensiv nachbearbeitet oder im schlimmsten Fall verschrottet werden. Um zukünftig auch die Ausprägung der Oberflächenbeschädigungen differenzierter erfassen zu können, wird seit einiger Zeit auch die Anzahl der Oberflächenkratzer durch das automatische Oberflächeninspektionssystem erfasst. In dieser Trainingseinheit werden wir also lernen, die ermittelte Kratzeranzahl auf jedem Produkt mithilfe einer Qualitätsregelkarte abzubilden und zu analysieren, ob der Montageprozess bezogen auf die Kratzeranzahl als stabiler Prozess eingestuft werden kann. Im Gegensatz zur Trainingseinheit, bei der wir mithilfe der p- und np- Karte die Anzahl an Schlechtteilen ins Verhältnis zur jeweiligen Stichprobenteilgruppe gesetzt hatten und mithilfe der statistischen Gesetze der Binomialverteilung unsere Stabilitätsuntersuchung durchführen konnten, geht es in diesem Praxisszenario nun um den Fall, dass die Anzahl an Ereignissen auf einem Produkt, in unserem Fall die Anzahl an Kratzern auf einem Skateboard, im Fokus der Stabilitätsanalyse steht. Wir werden lernen, dass wir es dann mit poissonverteilten Qualitätsdaten zu tun haben. Das zentrale Lernziel soll sein, die Ereignishäufigkeit, in unserem Fall die Anzahl von Kratzern auf den Skateboards, mithilfe einer entsprechenden Qualitätsregelkarte abzubilden und den Montageprozess hinsichtlich seiner Prozessstabilität zu analysieren. Wir werden in diesem Zusammenhang, die sogenannte u- Karte und c- Karte kennenlernen und erfahren, wie wir mit einer entsprechenden u- Kartendiagnose überprüfen können, ob das Streuverhalten unseres Datensatzes auch hinreichend gut den Gesetzen der Poissonverteilung folgt. Auch werden wir verstehen, wie wir die entsprechenden Eingriffsgrenzen gemäß der AIAG Normvorgaben manuell abschätzen können. Auf Basis unserer Analyseergebnisse werden wir dann in der Lage sein, passende Verbesserungsmaßnahmen abzuleiten, um die Prozessstabilität zu verbessern. Anschließend werden wir erneut eine Prozessstabilitätsanalyse nun aber auf Basis des verbesserten Prozesses durchführen und die Prozessstabilität unseres verbesserten Prozesses mit der Prozessstabilität des ursprünglichen, noch nicht verbesserten Prozesses vergleichen. Wir werden hierbei lernen, wie wir mithilfe der nützlichen Option „Abschnitte“ einen vorhandenen Gesamtprozess in Teilprozesse unterteilen können und somit auch die teilprozessbezogenen korrekten Eingriffsgrenzen erhalten. Im letzten Teil dieser Trainingseinheit werden wir an einem weiteren Datensatz, bestehend aus konstanten Teilgruppengrößen, auch die sehr nützliche sogenannte c- Karte kennenlernen und verstehen, dass die c- Karte im Gegensatz zur u- Karte in der Lage ist, die absoluten Ereignishäufigkeiten je Teilgruppe abzubilden.

Themenschwerpunkte:

  • u- Karte: Grundlagen
  • u- Karten- Diagnose
  • u-Karten- Analyse
  • Manuelle Herleitung der Eingriffsgrenzen in der u- Karte
  • Aufteilung des Gesamtprozesses in zwei Teilprozesse mithilfe der u- Karte
  • c- Karte: Prinzip
  • c- Karten- Analyse
  • Manuelle Herleitung der Eingriffsgrenzen in der c- Karte

Trailer

27.1 PROZESSFÄHIGKEIT NORMALVERTEILT, TEIL 1

In der dreiteiligen 27. Minitab Schulung begleiten wir das Qualitätsteam der Smartboard AG, wie im Rahmen eines Qualitätsverbesserungsprozesses die Prozessfähigkeit des Druckgussprozesses für die Herstellung der Skateboardachsen analysiert wird. Bevor wir in die eigentliche Prozessfähigkeitsanalyse einsteigen, werden wir zunächst sehen, welche Arbeitsschritte im Vorfeld dazu erforderlich sind. Wir werden erleben, wie das Qualitätsteam hierfür mithilfe des Wahrscheinlichkeitsnetzes und dem zugehörigen Anderson- Darling- Test erarbeitet, ob der für die Prozessfähigkeit vorliegende Stichprobendatensatz den Gesetzen der Normalverteilung folgt. Wir lernen, wie mit entsprechenden Qualitätsregelkarten überprüft werden kann, ob der Druckgussprozess die nötige Prozessstabilität im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse bereitstellt. Im Kern dieser Trainingseinheit wird es darum gehen, im Rahmen der Prozessfähigkeitsanalyse alle relevanten Fähigkeitskennzahlen kennenzulernen, die sich zum einen auf die Gesamtprozessfähigkeit und zum anderen auf die potentielle Prozessfähigkeit beziehen. Hierbei werden wir insbesondere die zentralen Fähigkeitskennzahlen CP, CPK, PP oder PKK kennenlernen, aber auch den sogenannten Taguchi- Capability- Index CPM erarbeiten, der zu den sogenannten Fähigkeitskennzahlen der zweiten Generation gehört. Wir werden anhand einfacher Rechenbeispiele die wichtigsten Kennzahlen Schritt für Schritt auch manuell berechnen, um zu verstehen, wie Fähigkeitskennzahlen, die im Ausgabefenster dargestellt werden, überhaupt zustande gekommen sind. Und auch verstehen, was die sogenannte Leistungskennzahl z-Benchmark bedeutet und wie diese mit dem Sigma Level zusammenhängt. Anhand weiterer Leistungskennzahlen wie zum Beispiel beobachtete Leistung oder erwartete Leistung werden wir dann auch in der Lage sein, die Prozessfähigkeit sowohl innerhalb wie auch zwischen den Teilgruppen zu beurteilen. Wir werden die sehr nützliche Funktion Capability Six Pack kennenlernen, die uns insbesondere im turbulenten Tagesgeschäft sehr schnell helfen wird, alle erforderlichen Analysen, die auch im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse erforderlich sind, mit wenigen Schritten zu berechnen. Anhand des erlernten Wissens und der vorliegenden Analyseergebnisse werden wir dann in der Lage sein, die Prozessfähigkeit unseres Druckgussprozesses differenziert zu beurteilen und so entsprechende Handlungsmaßnahmen abzuleiten, um die Prozessfähigkeit zu verbessern. Nach der Umsetzung der Verbesserungsmaßnahmen werden wir final eine erneute Prozessfähigkeitsanalyse durchführen und anhand der Fähigkeitskennzahlen den verbesserten Prozess mit dem ursprünglichen noch nicht verbesserten Prozess ausführlich vergleichen.

Themenschwerpunkte 27, Teil 1:

  • Grundlagen der Normregelwerke bezüglich Prozessfähigkeit
  • Grundprinzip und Logik der Prozessfähigkeitsdefinition
  • Prozessausbeute versus Prozessfähigkeit
  • Prozessfähigkeitsindizes: PP, PPL, PPU, PPk
  • Prozessfähigkeit bei zentrierten Prozessen
  • Prozessfähigkeit bei nicht zentrierten Prozessen

Themenschwerpunkte 27, Teil 2:

  • Vorarbeiten zur Prozessfähigkeitsanalyse:
  • Deskriptive Statistik
  • Test auf Normalverteilung: Anderson-Darling Test
  • Herleitung des Wahrscheinlichkeitsnetzes aus der Wahrscheinlichkeitsfunktion
  • Prozessstabilitätsanalyse: X-quer und R-Karte
  • Schätzmethoden zur Ermittlung der Standardabweichung
  • Kennzahlen der Gesamtprozessfähigkeit
  • Kennzahlen der potentiellen Prozessfähigkeit
  • Gesamtstandardabweichung vs. Standardabweichung innerhalb der Teilgruppen
  • Sigma Level vs. Prozessfähigkeitslevel
  • Beobachtete Leistung, erwartete Leistung gesamt, erwartete Leistung innerhalb
  • Manuelle Bestimmung der Standardabweichung für die potentielle Prozessfähigkeit

Themenschwerpunkte 27, Teil 3:

  • Manuelle Herleitung der Leistungskennzahlen
  • Manuelle Herleitung der Standardabweichung innerhalb der R-quer- Methode
  • Manuelle Herleitung der „zusammengefassten Standardabweichung“
  • Benchmark-Z (Sigma-Niveau)
  • Arbeiten mit dem Punktediagramm im Rahmen einer Prozessfähigkeitsanalyse
  • Extraktion von Dateninformationen im Rahmen einer Prozessfähigkeitsanalyse
  • Arbeiten mit der Option „Capability Six Pack“

Trailer

27.2 PROZESSFÄHIGKEIT NORMALVERTEILT, TEIL 2

Themenschwerpunkte Minitab Schulung 27, Teil 2:

  • Vorarbeiten zur Prozessfähigkeitsanalyse
  • Deskriptive Statistik
  • Test auf Normalverteilung: Anderson-Darling Test
  • Herleitung des Wahrscheinlichkeitsnetzes aus der Wahrscheinlichkeitsfunktion
  • Prozessstabilitätsanalyse: X-quer und R-Karte
  • Schätzmethoden zur Ermittlung der Standardabweichung
  • Kennzahlen der Gesamtprozessfähigkeit
  • Kennzahlen der potentiellen Prozessfähigkeit
  • Gesamtstandardabweichung vs. Standardabweichung innerhalb der Teilgruppen
  • Sigma Level vs. Prozessfähigkeitslevel
  • Beobachtete Leistung, erwartete Leistung gesamt, erwartete Leistung innerhalb
  • Manuelle Bestimmung der Standardabweichung für die potentielle Prozessfähigkeit

Trailer: siehe 27.1

27.3 PROZESSFÄHIGKEIT NORMALVERTEILT, TEIL 3

Themenschwerpunkte Minitab Schulung 27, Teil 3:

  • Manuelle Herleitung der Leistungskennzahlen
  • Manuelle Herleitung der Standardabweichung innerhalb der R-quer- Methode
  • Manuelle Herleitung der „zusammengefassten Standardabweichung“
  • Benchmark-Z (Sigma-Niveau)
  • Arbeiten mit dem Punktediagramm im Rahmen einer Prozessfähigkeitsanalyse
  • Extraktion von Dateninformationen im Rahmen einer Prozessfähigkeitsanalyse
  • Arbeiten mit der Option „Capability Six Pack“

Trailer: siehe 27.1

28 PROZESSFÄHIGKEIT NICHT NORMALVERTEILT

In der 28. Minitab Schulung besuchen wir mit dem Qualitätsteam der Smartboard AG den letzten Prozessschritt des Druckgussprozesses zur Herstellung der Skateboardachsen. Aktuell erfolgt die Herstellung der Skateboardachsen bei der Smartboard AG im Druckgussverfahren. Um die vom Kunden geforderten Festigkeitswerte in den Skateboardachsen zu erzielen, werden diese am Ende des Druckgussprozesses einem Wärmebehandlungsprozess unterzogen. Hierfür werden die Skateboardachsen in einem Durchlaufofen auf Wärmebehandlungstemperatur gebracht und anschließend in einem Wasserbad auf Raumtemperatur abgekühlt. Während des schnellen Abkühlprozesses können unerwünschte Formveränderungen an den Skateboardachsen entstehen, die bis zu einem gewissen Grad vom Kunden noch akzeptiert werden und daher gemäß den Kundenanforderungen einen bestimmten Wert nicht überschreiten dürfen. Im Kern dieser Trainingseinheit gilt es, herauszufinden, ob der Wärmewandlungsprozess bezogen auf die maximal zulässige Formänderung eine geforderte Prozessperformance Ppk von mindestens 1,33 besitzt. Aber wir werden schon zu Beginn der Trainingseinheit feststellen, dass unsere Daten im vorliegenden Stichprobendatensatz nicht den Gesetzen der Normalverteilung folgen. Ein zentrales Thema in dieser Trainingseinheit wird es daher sein, zunächst einmal herauszuarbeiten, welchen Verteilungsgesetzen unser nicht normalverteilter Datensatz am ehesten folgt. In diesem Zusammenhang werden wir die sehr hilfreiche Funktion „Identifikation der Verteilung“ kennenlernen, um eine vorliegende nicht normalverteilte Datenlandschaft durch eine entsprechende sogenannte mathematische Datentransformation dennoch anhand der bereits bekannten Leistungskennzahlen beurteilen zu können. Wir werden alle in der Praxis relevanten Transformationsfunktionen kennenlernen und verstehen, nach welcher Systematik und welchen Kriterien die passende Transformationsfunktion für das jeweilige Praxisszenario bestimmt werden kann. Im Rahmen unserer Prozessfähigkeitsanalyse  der nicht normal verteilten Prozessdaten werden wir erleben, wie das Qualitätsteam die nützliche und effiziente Option „Capability Six Pack“ einsetzt, um effizient in einem Arbeitsschritt neben der eigentlichen Fähigkeitsanalyse auch vorab den Test auf Normalverteilung nach Anderson Darling und auch die Stabilitätsanalyse mithilfe der entsprechenden Regelkarten auszuwerten. So dass wir mit den vorliegenden Ergebnissen auf Basis der erforderlich gewordenen Datentransformation des nicht normalverteilten Datensatzes dann auch wieder anhand von Leistungskennzahlen beurteilen können, ob die vom Kunden geforderte Prozessperformance von mindestens 1,33 erreicht wird und wie hoch  die Fehlleistung bzw. Prozessausbeute auf Basis der vorliegenden Prozessperformance ist.

Themenschwerpunkte:

  • Nicht normalverteilte Prozessdaten, Grundlagen
  • Analyse der Prozessdaten mithilfe deskriptiver Statistik
  • Boxplot- Analyse
  • Test auf Normalverteilung nach Anderson Darling
  • Identifikation des Verteilungstyps mithilfe der Datentransformation
  • Überprüfung der Prozessstabilität nicht normalverteilter Daten
  • Verwendung der Option „Capability Six Pack“
  • Prozessfähigkeit auf Basis der Fehlleistung und Prozessausbeute

Trailer

29 PROZESSFÄHIGKEIT BINOMIALVERTEILT

In der 29. Minitab Schulung schauen wir uns den Montageprozess in der Endmontage der Smartboard AG noch mal genauer an. Wie wir bereits wissen, werden in dieser Abteilung alle einzelnen Skateboard-Komponenten zu einem fertigen Skateboard zusammengesetzt und vor dem Versand an den Kunden abschließend einer automatischen Oberflächeninspektion unterzogen. Skateboards ohne Oberflächenbeschädigungen werden in die attributive Kategorie „gut“ eingeteilt und können an die Kunden verkauft werden. Skateboards mit Oberflächenbeschädigungen werden in die attributive Kategorie „schlecht “ eingeteilt und müssen entweder kostenintensiv nachbearbeitet oder im ungünstigsten Fall verschrottet werden. So dass die Besonderheit im Rahmen dieser Prozessfähigkeitsanalyse darin liegt, dass wir es nicht mehr mit normal verteilten Daten zu tun haben, da unser Qualitätsmerkmal in den zwei Kategorien gut und schlecht vorliegt und somit auch die statistischen Gesetze der sogenannten Binomialverteilung berücksichtigt werden müssen. In dieser Trainingseinheit werden wir daher für unsere Prozessfähigkeitsanalyse die Werkzeuge einsetzen, die die Gesetze der Binomialverteilung berücksichtigen. Wir werden lernen, wie wir im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse binomialverteilter Daten die erforderlichen Tests mit unserem Datensatz durchführen, um zu überprüfen, ob die Gesetze der Binomialverteilung auch tatsächlich von unserem Datensatz eingehalten werden. Mit diesen Erkenntnissen können wir dann als nächstes wieder als Vorstufe zur eigentlichen Prozessfähigkeitsanalyse die erforderliche Prozessstabilitätsanalyse durchführen, um sicherzustellen, dass auch tatsächlich die nötige Prozessstabilität gewährleistet ist. Hierfür werden wir die entsprechenden Regelkarten wie zum Beispiel die P- Karte und die np- Karte einsetzen, die eben die Gesetze der Binomialverteilung berücksichtigen. Schlussendlich können wir so auch die Prozessperformance binomialverteilter Prozessdaten beurteilen. Hierbei werden die Kenngrößen, wie zum Beispiel die sogenannten kumulierten Anteile fehlerhafter Einheiten sowie die sogenannte Rate fehlerhafter Einheiten, eine wichtige Rolle spielen. Und wir werden über eine  grafische Herleitung nachvollziehen können, welches Sigma Level in unserer binomialverteilten Prozess-Datenlandschaft vorliegt.

Themenschwerpunkte:

  • Skalenniveaus, Grundlagen
  • Prozessstabilitätsanalyse binomialverteilter Daten
  • Bericht der Prozessfähigkeit binomialverteilter Daten
  • p- Karte und np- Karte im Rahmen binomialverteilter Prozessdaten
  • Kumulierte Anteile fehlerhafter Einheiten
  • Rate fehlerhafter Einheiten
  • Grafische Herleitung des Sigma Levels binomialverteilter Prozessdaten

Trailer

30 PROZESSFÄHIGKEIT POISSONVERTEILT

In der 30. Minitab Schulung befinden wir uns noch immer in der Endmontage der Smartboard AG. Hier werden alle einzelnen Skateboard-Komponenten zu einem fertigen Skateboard zusammengesetzt und vor dem Versand an die Kunden abschließend einer automatischen Oberflächeninspektion unterzogen, um sicherzustellen, dass während der Endmontage keine unerwünschten Oberflächenbeschädigungen z.B. in Form von Kratzern entstanden sind, die gegebenenfalls zu unerwünschten Kundenreklamationen führen könnten. In der Vergangenheit wurden Skateboards ohne Oberflächenkratzer in die attributive Qualitätskategorie „Gutteil“ eingeteilt und konnten an die Kunden ausgeliefert werden. Skateboards mit Oberflächenbeschädigungen dagegen wurden in die attributive Qualitätskategorie „Schlechtteil“ eingeteilt und entweder kostenintensiv nachbearbeitet oder sogar verschrottet. Um den Schweregrad der Oberflächenbeschädigungen an den Skateboards noch detaillierter zu erfassen, wurde seit einiger Zeit auch die Kratzeranzahl je Skateboard durch das automatische Oberflächeninspektionssystem erfasst. Im Kern dieser Trainingseinheit geht es nun darum zu analysieren, ob der Montageprozess bezogen auf die Kratzeranzahl als fähiger Prozess eingestuft werden kann. In einer vorherigen Trainingseinheit, in der das Oberflächeninspektionssystem die Skateboards lediglich in zwei Kategorie- nämlich Gutteil und Schlechtteil- eingeteilt hatte, konnten wir auf Basis der Binomialverteilung alle erforderlichen Analyseschritte durchführen, um die Prozessfähigkeit zu bewerten. In diesem Praxisszenario geht es nun nicht mehr um die Anzahl fehlerhafter Skateboards je Teilgruppe, sondern um die Anzahl an Fehlern je Skateboard und Teilgruppe. Wir werden daher lernen, dass in diesem Fall dann nicht mehr die statistischen Gesetze der Binomialverteilung, sondern die der sogenannten Poissonverteilung greifen. Im Fokus dieser Trainingseinheit steht für uns somit die Prozessfähigkeitsanalyse auf Basis der Gesetze der Poissonverteilung im Fokus. Wir werden erleben, dass auch bei einer Fähigkeitsanalyse auf Basis poissonverteilter Merkmale die Prozessstabilität eine wichtige Voraussetzung ist, um die Prozessfähigkeit richtig bewerten zu können. In diesem Zusammenhang werden wir lernen, wie der Test auf Poissonverteilung durchzuführen ist, um sicherzustellen, dass unsere Daten auch tatsächlich den Gesetzen der Poissonverteilung folgen. Ob der Montageprozess der Smartboard AG unter diesen Bedingungen auch die erforderliche Prozessstabilität als Vorstufe zur Prozessfähigkeit besitzt, werden wir hierbei mit der sogenannten Qualitätsregelkarte u- Karte und den entsprechenden Kontrolltests sehr schnell herausarbeiten. Wir werden neben dem wichtigen sogenannten „Poisson Diagramm“ auch die informative Darstellung „Fehlerrate“ kennenlernen und beides interpretieren. Wir steigen dann in die eigentliche Prozessfähigkeitsanalyse unserer poissonverteilten Daten ein, um die erforderlichen Fähigkeitskennzahlen zur Beurteilung der Prozessfähigkeit zu erhalten. In diesem Zusammenhang werden wir eine Reihe wichtiger Parameter kennenlernen, wie zum Beispiel die Konfidenzintervall Unter- respektive Obergrenze oder auch die Kennzahl DPU, um schlussendlich die Prozessperformance in der nötigen Tiefgründigkeit beurteilen zu können. Im Rahmen unserer Analyse werden wir hierfür auch eine sehr effiziente Option kennenlernen, um in Form eines Prozessfähigkeitsberichtes alle erforderlichen Analyseschritte und Informationen, sowohl für die Beurteilung der Güte der Poissonverteilung, der Prozessstabilität sowie der Prozessfähigkeit in einem Arbeitsschritt zu erzeugen. So dass wir mit allen erforderlichen Informationen aus dem Prozessfähigkeitsbericht zuverlässig ableiten können, ob die Prozessfähigkeit unserer poissonverteilten Daten in Bezug auf die Soll-Vorgabe des Kunden als fähiger oder nicht fähiger Prozess einzustufen ist.

Themenschwerpunkte:

  • Prozessstabilitätsuntersuchungen im Vorfeld zur Fähigkeitsanalyse
  • u- Karte, Prinzip
  • Kumulierte DPU
  • Poisson-Diagramm zur Analyse auf Poissonverteilung
  • Diagramm „Fehlerrate“
  • Statistische Analyse der Prozessfähigkeit poissonverteilter Daten
  • KI- Unter- und Obergrenze
  • DPU: Mittlerer, Min./Max. und Soll

Trailer

31.1 DOE VOLLFAKTORIELL, 3 PRÄDIKTOREN, TEIL 1

In dieser vierteiligen 31. Minitab Schulung befinden wir uns in der Abteilung für Materialentwicklung der Smartboard AG. Wir werden das Entwicklungsteam dabei begleiten, wie es mithilfe der sogenannten statistischen Versuchsplanung die Sprödigkeit in den Skateboardachsen auf ein Minimum reduziert. Hierbei gilt für die Belastbarkeit der Skateboardachsen grundsätzlich, dass je höher die Sprödigkeit der Skateboardachsen, umso größer die Gefahr, dass es schon bei geringsten stoßartigen Belastungen zum Achsenbruch kommen kann. Die möglichen Einflussfaktoren, die einen potentiellen Einfluss auf die Sprödigkeit der Achsen haben können, wurden vom Entwicklungsteam im Rahmen einer Ishikawa- Analyse ermittelt. Hierbei haben sich die Parameter Chromgehalt in den Achsen, Glühtemperatur während der Wärmebehandlung und der Typ des Wärmebehandlungsofens als potentielle Einflussfaktoren herauskristallisiert. Vor dem Hintergrund, dass das Entwicklungsteam unter Zeitdruck steht und auch den Umfang experimenteller Testversuche an der Produktionslinie minimal halten muss, soll die sogenannte statistische Versuchsplanung eingesetzt werden, um mit wenig experimentellem Aufwand die optimalen Einstellungen für die genannten drei Einflussgrößen zu ermitteln, mit dem Ziel, die Achsenversprödung auf ein Minimum  zu reduzieren. Diese statistische Versuchsplanung, häufig auch nur mit dem englischen Akronym DOE für Design of Experiments abgekürzt, ist hierbei ein sehr wichtiges und nützliches Werkzeug in der Six Sigma Methodik, das sich mit der statistischen Planung, Durchführung, Analyse und Interpretation von Ursachen- Wirkungs- Zusammenhängen beschäftigt. Um dieses komplexe Themengebiet in der nötigen Tiefgründigkeit bearbeiten zu können, ist diese Trainingseinheit in vier Teile segmentiert. Im ersten Teil dieser Trainingseinheit werden zunächst einmal die Grundlagen und Grundgedanken der statistischen Versuchsplanung erläutert, um über diesen Weg auch ein gutes Verständnis über die gängigsten Versuchsplantypen zu vermitteln. Wir werden hierbei insbesondere die wichtigen Begrifflichkeiten wie Zentralpunkte, Replikationen und Blockvariablen kennenlernen und nachvollziehen, warum für die Bestimmung der Anzahl der erforderlichen experimentellen Replikationen immer eine Trennschärfeanalyse zu empfehlen ist. Gut gerüstet mit diesem Grundlagenwissen werden wir dann in den zweiten Teil unserer Trainingseinheit einsteigen und den für uns passenden Versuchsplan, in unserem Fall den sogenannten faktoriellen Versuchsplan, kennenlernen, aufstellen und analysieren. Wir werden hierbei sehen, dass es sehr wichtig ist, auch den Test auf Normalverteilung nach Anderson Darling durchzuführen, und werden auch nachvollziehen können, warum die sogenannte Tabelle der Kodierten Koeffizienten im Rahmen der DOE eine sehr nützliche Rolle spielt. Ein weiteres zentrales Thema in diesem Teil werden die sogenannten Haupteffekt- und Wechselwirkungseffekt- Diagramme sein, die wir aus didaktischen Gründen manuell Schritt für Schritt konstruieren werden, um die im Ausgabefenster dargestellten Faktordiagramme ausführlich interpretieren zu können, und bei der Gelegenheit auch die nützliche Funktion Layout Tool, kennenlernen. Mit dem erlernten Wissen aus dem ersten und zweiten Teil unserer Trainingseinheit werden wir dann gut gerüstet im dritten Teil auf die Qualität unseres DOE Modells fokussieren, um zum Beispiel anhand der entsprechenden Bestimmtheitsmaße wie R- Quadrat, R- Quadrat korrigiert und R- Quadrat prognostiziert die Güte unseres Varianzmodell bewerten zu können. In diesem Zusammenhang werden wir auch die zugehörige Regressionsgleichung in nicht kodierten Einheiten anschauen, die im Rahmen der Varianzanalyse für unser DOE Modell erzeugt wurde, und im Grunde das Fundament für die noch anstehende Zielgrößenoptimierung darstellt. In diesem Kontext wird die sogenannte Aliasstruktur eine wichtige Rolle spielen, die wir genau untersuchen und interpretieren werden. Auch das nützliche sogenannte Pareto- Diagramm der standardisierten Effekte werden wir kennenlernen und ausführlich diskutieren, um effizient grafisch signifikante Terme von nicht signifikanten Termen unterscheiden zu können. Wir werden lernen, dass die mit unserem DOE Modell nicht beschreibbare Reststreuung, auch Residuenstreuung genannt, den Gesetzen der Normalverteilung folgen sollte. Hierzu werden wir mit dem Wahrscheinlichkeitsnetz der Normalverteilung arbeiten und im Rahmen der Residuenanalyse alle wichtigen Darstellungen mit den Bezeichnungen wie zum Beispiel Residuen versus Anpassungen, Histogramm der Residuen und Residuen versus Reihenfolge verwenden. So dass wir mit diesen Informationen bezüglich der Güte unseres DOE Modells in den vierten und letzten Teil unsere Trainingseinheit einsteigen können, um mit dem finalen DOE Modell die Zielgrößenoptimierung zu starten. Hierfür werden wir das sehr hilfreiche interaktive Zielgrößen-Optimierungsfensters nutzen, um die drei Parameter so einzustellen, dass die unerwünschten Versprödungsanteile in den Skateboardachsen auf ein Minimum reduziert werden. Im Rahmen dieser Zielgrößenoptimierung werden wir auch zum Beispiel den Unterschied zwischen der sogenannten individuellen und zusammengesetzten Erwünschtheit verstehen. Und insbesondere auch verstehen, wie die entsprechenden Konfidenz- respektive Prognoseintervalle im Rahmen unserer Zielgrößenoptimierung zu interpretieren sind. So dass wir am Ende unserer mehrteiligen Trainingseinheit der Geschäftsführung der Smartboard AG eine 95 % sichere Handlungsempfehlung abgeben können, wie die drei Einflussgrößen Chromgehalt, Temperatur und Ofentyp im Konkreten eingestellt werden sollten, damit die Materialsprödigkeit in den Skateboardachsen nach der Wärmebehandlung so gering wie möglich ist.

Themenschwerpunkte 31, Teil 1:

  • Übersicht der gängigsten Versuchsplantypen
  • Vollfaktorielle, Teilfaktorielle und Wirkungsflächen- Versuchspläne
  • Screening-, Mischungs-, und Taguchi- Versuchspläne
  • Zweistufig faktorieller Versuchsplan mit Standardgeneratoren
  • Auflösungsstufen verfügbarer faktorieller Versuchspläne
  • Zentralpunkte und Replikationen
  • Trennschärfeanalyse zur Ermittlung der Replikationsanzahl
  • Standardreihenfolge vs. Durchlaufreihenfolge
  • Setzen von Blockvariablen

Themenschwerpunkte 31, Teil 2:

  • Analyse faktorieller Versuchspläne
  • Test auf Normalverteilung der DOE Antwortvariable
  • Analyse der nichtbeschreibbaren Reststreuung mithilfe des 4 in1- Residuendiagramms
  • Auswertung der Tabelle „Kodierte Koeffizienten“
  • Faktordiagramme und Würfeldiagramme
  • Zweifach Wechselwirkungsdiagramme
  • Konstruktion von dreifach Wechselwirkungsdiagrammen
  • Antwortvariablen nach Faktorstufen entstapeln
  • Arbeiten mit dem Layouttool

Themenschwerpunkte 31, Teil 3:

  • DOE Modell- Bestimmtheitsmaße R- Qd, R- Qd(kor) und R- Qd (prog)
  • Varianzanalyse im Rahmen der DOE
  • Kodierte Koeffizienten
  • Regressionsgleichung in nicht kodierten Einheiten
  • Aliasstrukturen
  • Pareto- Diagramm der standardisierten Effekte
  • Wahrscheinlichkeitsnetz der Normalverteilung
  • Residuen versus Anpassungen
  • Histogramm der Residuen
  • Residuen versus Reihenfolge

Themenschwerpunkte 31, Teil 4:

  • Zielgrößenoptimierung
  • Analyse der Antwortprognosen
  • Zielgrößenoption: Antwortvariablen minimieren
  • Zielgrößenoption: Zielwert/ Sollwert erreichen
  • Arbeiten mit interaktiven Faktordiagrammen
  • Individuelle Erwünschtheit
  • Zusammengesetzte Erwünschtheit
  • Konfidenzintervall im Rahmen der Zielgrößenoptimierung
  • Prognoseintervall im Rahmen der Zielgrößenoptimierung

Trailer

31.2 DOE VOLLFAKTORIELL, 3 PRÄDIKTOREN, TEIL 2

Themenschwerpunkte Minitab Schulung 31, Teil 2:

  • Analyse faktorieller Versuchspläne
  • Test auf Normalverteilung der DOE Antwortvariable
  • Analyse der nichtbeschreibbaren Reststreuung mithilfe des 4 in1- Residuendiagramms
  • Auswertung der Tabelle „Kodierte Koeffizienten“
  • Faktordiagramme und Würfeldiagramme
  • Zweifach Wechselwirkungsdiagramme
  • Konstruktion von dreifach Wechselwirkungsdiagrammen
  • Antwortvariablen nach Faktorstufen entstapeln
  • Arbeiten mit dem Layouttool

Trailer: siehe 31.1

31.3 DOE VOLLFAKTORIELL, 3 PRÄDIKTOREN, TEIL 3

Themenschwerpunkte Minitab Schulung 31, Teil 3:

  • DOE Modell- Bestimmtheitsmaße R- Qd, R- Qd(kor) und R- Qd (prog)
  • Varianzanalyse im Rahmen der DOE
  • Kodierte Koeffizienten
  • Regressionsgleichung in nicht kodierten Einheiten
  • Aliasstrukturen
  • Pareto- Diagramm der standardisierten Effekte
  • Wahrscheinlichkeitsnetz der Normalverteilung
  • Residuen versus Anpassungen
  • Histogramm der Residuen
  • Residuen versus Reihenfolge

Trailer: siehe 31.1

31.4 DOE VOLLFAKTORIELL, 3 PRÄDIKTOREN, TEIL 4

Themenschwerpunkte Minitab Schulung 31, Teil 4:

  • Zielgrößenoptimierung
  • Analyse der Antwortprognosen
  • Zielgrößenoption: Antwortvariablen minimieren
  • Zielgrößenoption: Zielwert/ Sollwert erreichen
  • Arbeiten mit interaktiven Faktordiagrammen
  • Individuelle Erwünschtheit
  • Zusammengesetzte Erwünschtheit
  • Konfidenzintervall im Rahmen der Zielgrößenoptimierung
  • Prognoseintervall im Rahmen der Zielgrößenoptimierung

Trailer: siehe 31.1

32.1 DOE VOLLFAKTORIELL, ZENTRALPUNKTE, BLÖCKE, TEIL 1

In dieser vierteiligen 32. Minitab Schulung befinden wir uns im Windkanal-Labor der Smartboard AG. Hier werden aktuell die aerodynamischen Eigenschaften neu entwickelter Hochgeschwindigkeits-Rennanzüge getestet. Mit diesen Rennanzügen soll im Rahmen von Hochgeschwindigkeitsmeisterschaften der Luftwiderstand am Skateboardpiloten minimiert werden, um maximale Geschwindigkeiten auf der Rennstrecke zu erreichen. Zur Ermittlung des Luftwiderstandes wird der jeweilige Skateboardpilot im Rennanzug einer definierten Luftströmung im Windkanal ausgesetzt und der Widerstandsbeiwert, der sogenannte cw- Wert, als Maß für das aerodynamische Verhalten des Rennanzuges gemessen. Hierbei gilt: Je niedriger der cw- Wert, desto geringer wünschenswerterweise der Luftwiderstand, was sich wiederum positiv auf die maximal erreichbare Geschwindigkeit auswirkt. Die zu variierenden Parameter am Rennanzug, die einen potentiellen Einfluss auf die Aerodynamik des Rennanzuges ausüben, wurden im Rahmen einer Ishikawa- Analyse ermittelt. Hierbei haben sich die Parameter Oberflächenrauigkeit, Nahtbreite und die Materialdicke am Rennanzug als potentielle Einflussfaktoren herauskristallisiert. Das Ziel dieser Trainingseinheit wird sein, mithilfe einer statistischen Versuchsplanung eine optimale Kombination aus Oberflächenrauigkeit, Nahtbreite und Materialdicke zu ermitteln, damit der Luftwiderstand des Rennanzuges auf ein Minimum reduziert werden kann. Wir werden hierbei erleben, wie das Entwicklungsteam einen vollfaktoriellen Versuchsplan mit sogenannten Zentralpunkten und Versuchsblöcken aufstellt und umsetzt. Im ersten Teil dieser Trainingseinheit werden wir uns schwerpunktmäßig mit der Ermittlung der erforderlichen Replikationsanzahl, der Trennschärfe und dem Fehler erster und zweiter Art beschäftigen. In diesem Zusammenhang werden wir lernen, wie mithilfe einer Trennschärfenanalyse die angemessene Replikationsanzahl für unseren DOE Versuchsplan bestimmt werden kann und wie in diesem Kontext der Zusammenhang zwischen der Trennschärfengüte und Fehler erster bzw. zweiter Art im Rahmen der Hypothesentests gut nachvollziehbar wird. Die Themenschwerpunkte im zweiten Teil konzentrieren sich dann auf die Aufstellung des eigentlichen DOE Versuchsplans. Hierbei werden wir lernen, wie der vollfaktorielle Versuchsplan Schritt für Schritt aufgestellt wird. Und in diesem Zusammenhang auch verstehen, was Zentralpunkte sind und nachvollziehen, warum das Setzen von sogenannten Blockvariablen je nach Aufgabenstellung eine wichtige Rolle spielen kann. Bei der Gelegenheit werden wir die nützliche Funktion Zufallsgenerator zur Randomisierung von Datensätzen kennenlernen, die generell auch für andere Aufgabenstellungen sehr hilfreich sein kann, um Daten nach dem Zufallsprinzip zu ordnen. Darüber hinaus werden wir lernen, mit sogenannten Fehlerbalkendiagrammen im Rahmen der DOE zu arbeiten, und erleben, dass diese Fehlerbalkendiagramme immer sehr nützlich sind, um einen visuellen Eindruck über die Trends und Tendenzen aus den experimentellen Durchläufen zu erhalten. Der Fokus im dritten Teil unserer Trainingseinheit wird dann die Analyse unseres DOE Modells hinsichtlich seiner Qualität und Fähigkeit sein, mit der Fragestellung, wie gut dieses DOE Modell die technischen Ursachen- Wirkungszusammenhänge auch tatsächlich realitätsnah abbilden kann. Hierzu werden wir die Bestimmtheitsmaße R- Quadrat, R- Quadrat korrigiert und R- Quadrat prognostiziert diskutieren und verwenden, um auch die Güte unseres DOE Modells zu bewerten. An dieser Stelle wird dann auch wieder die Tabelle der kodierten Koeffizienten wichtig. Die vormals gesetzten Zentralpunkte werden wir an dieser Stelle dafür nutzen, die Linearität unseres DOE Modells zu überprüfen. Mithilfe der gesetzten Blockvariablen werden wir auch analysieren können, ob signifikante Unterschiede in den geblockten Versuchsdurchläufen vorliegen. Wir werden anschließend lernen, wie mithilfe von Haupteffekt- und Wechselwirkungsdiagrammen die entsprechenden Ursachen- Wirkungszusammenhängen identifiziert werden können. Außerdem auch, wie auf Basis des Pareto- Diagramms der standardisierten Effekte eine  hierarchische Reduzierung des Varianzmodells durchzuführen ist, um die Prognosegüte des DOE Modells zu optimieren. Für diese Optimierung unseres DOE Modells werden wir zum besseren Verständnis die Methode der manuellen Rückwärtselimination kennenlernen und einsetzen. Im Rahmen der Residuenanalyse werden wir die entsprechenden Residuendiagramme auswerten, um zu überprüfen, ob unsere Residuen auch den Gesetzen der Normalverteilung folgen. Hierbei werden wir das Wahrscheinlichkeitsnetz der Residuen sowie die Diagramme Residuen versus Anpassungen, Residuen versus Reihenfolge und das Residuen Histogramm verwenden, um zu überprüfen, ob die mit unserem Modell nicht beschreibbare Reststreuung unerwünschte Trends oder Tendenzen aufweist, die eventuell unsere Ergebnisse schlussendlich in der Zielgrößenoptimierung verfälschen könnten. Mit dem erlernten Wissen bis hierhin werden wir dann in den vierten und letzten Teil dieser Trainingseinheit einsteigen und mit der Zielgrößenoptimierung beginnen. Hierbei werden wir das sehr nützliche interaktive Zielgrößenoptimierungsfenster verwenden, um die drei Einflussgrößen Oberflächenrauigkeit, Nahtbreite und Materialdicke so einzustellen, dass der geforderte Luftwiderstand am Rennanzug erreicht werden kann. Wir werden die wichtigen Grafiken Konturdiagramm, Würfeldiagramm und Wirkungsflächendiagramm kennenlernen und sehen, dass diese Darstellungsformen insbesondere im Tagesgeschäft dafür geeignet sind, die jeweiligen Arbeitsbereiche für Parametereinstellungen zu definieren, damit zum Beispiel auch bei unerwünschten Prozessschwankungen der angestrebte Sollwert dennoch erreicht werden kann. So dass wir am Ende dieser mehrteiligen Trainingseinheit auf Basis der entsprechenden Konfidenz- und Prognoseintervalle der technischen Geschäftsführung der Smartboard AG konkrete Handlungsempfehlungen abgeben können, wie die drei Einflussfaktoren bzw. die Arbeitsbereiche für die Einflussfaktoren eingestellt sein sollten, damit mit einer 95-prozentigen Wahrscheinlichkeit der geforderte Luftwiderstand am Rennanzug erreicht werden kann.

Themenschwerpunkte 32, Teil 1:

  • Ermittlung der erforderlichen Replikationsanzahl
  • Trennschärfeanalyse
  • Trennschärfengüte vs. Fehler 1. Art, Fehler 2. Art

Themenschwerpunkte 32,Teil 2:

  • DOE- Versuchsplan aufstellen
  • Randomisierung mithilfe des Zufallsgenerators
  • Fehlerbalkendiagramm zur Visualisierung von Ursachen- Wirkungszusammenhängen
  • Setzen von Zentralpunkten und Blockvariablen

Themenschwerpunkte 32, Teil 3:

  • Faktoriellen Versuchsplan analysieren
  • Auswertung der Tabelle Kodierte Koeffizienten
  • Auswertung der Linearität mithilfe der Zentralpunkte
  • Auswertung der Blockvariablen
  • Auswertung der Haupteffektdiagramme
  • Auswertung der Wechselwirkungsdiagramme
  • Beurteilung der Modellgüte mithilfe der Bestimmtheitsmaße R- Qd, R- Qd (kor) und R- Qd (prog)
  • Optimierung des DOE Modells
  • Auswertung der Tabelle Varianzanalyse
  • Pareto- Diagramm der standardisierten Effekte
  • Hierarchische Rückwärtselimination
  • Manuelle Rückwärtselimination
  • Residuenanalyse
  • Residuen- Wahrscheinlichkeitsnetz
  • Residuen vs. Anpassungen
  • Residuen vs. Reihenfolge
  • Residuen- Histogramm

Themenschwerpunkte 32, Teil 4:

  • Zielgrößenoptimierung
  • Individueller und zusammengesetzter Erwünschtheitsgrad
  • Arbeiten in interaktiven Faktordiagrammen
  • Konturdiagramm
  • Würfeldiagramm
  • Wirkungsflächendiagramm

Trailer

32.2 DOE VOLLFAKTORIELL, ZENTRALPUNKTE, BLÖCKE, TEIL 2

Themenschwerpunkte Minitab Schulung 32,Teil 2:

  • DOE- Versuchsplan aufstellen
  • Randomisierung mithilfe des Zufallsgenerators
  • Fehlerbalkendiagramm zur Visualisierung von Ursachen- Wirkungszusammenhängen
  • Setzen von Zentralpunkten und Blockvariablen

Trailer: siehe 32.1

32.3 DOE VOLLFAKTORIELL, ZENTRALPUNKTE, BLÖCKE, TEIL 3

Themenschwerpunkte Minitab Schulung 32, Teil 3:

  • Faktoriellen Versuchsplan analysieren
  • Auswertung der Tabelle Kodierte Koeffizienten
  • Auswertung der Linearität mithilfe der Zentralpunkte
  • Auswertung der Blockvariablen
  • Auswertung der Haupteffektdiagramme
  • Auswertung der Wechselwirkungsdiagramme
  • Beurteilung der Modellgüte mithilfe der Bestimmtheitsmaße R- Qd, R- Qd (kor) und R- Qd (prog)
  • Optimierung des DOE Modells
  • Auswertung der Tabelle Varianzanalyse
  • Pareto- Diagramm der standardisierten Effekte
  • Hierarchische Rückwärtselimination
  • Manuelle Rückwärtselimination
  • Residuenanalyse
  • Residuen- Wahrscheinlichkeitsnetz
  • Residuen vs. Anpassungen
  • Residuen vs. Reihenfolge
  • Residuen- Histogramm

Trailer: siehe 32.1

32.4 DOE VOLLFAKTORIELL, ZENTRALPUNKTE, BLÖCKE, TEIL 4

Themenschwerpunkte Minitab Schulung 32, Teil 4:

  • Zielgrößenoptimierung
  • Individueller und zusammengesetzter Erwünschtheitsgrad
  • Arbeiten in interaktiven Faktordiagrammen
  • Konturdiagramm
  • Würfeldiagramm
  • Wirkungsflächendiagramm

Trailer: siehe 32.1

33.1 DOE TEILFAKTORIELL, 6 PRÄDIKTOREN, TEIL 1

In der 33. Minitab Schulung besuchen wir den Rollenprüfstand der Smartboard AG. Hier werden wir das Team der Materialprüfung dabei begleiten, wie sie das Abriebverhalten eines neu entwickelten Materials für die Skateboardrollen aus kevlarfaserverstärktem Kunststoff optimiert. Kevlar wird in der Industrie als Material für kugelsichere Westen und schnittfeste Handschuhe eingesetzt, und es soll überprüft werden, in wie weit Kevlaranteile im Rollenmaterial den Abrieb der Skateboardrollen reduzieren könnten. Die Smartboard AG besitzt hierfür einen speziell konzipierten Verschleißprüfstand, bei dem die zu zu testende Skateboardrolle auf einer Achse, die über einen Elektromotor angetrieben wird, fixiert wird. Die Skateboardrolle wird dann mit einer definierten Drehzahl und einem festgelegten Anpressdruck auf einem Gegenkörper abgerollt. Die Oberflächeneigenschaften des Gegenkörpers entsprechen hierbei den Eigenschaften eines typischen Straßenbelags. Am Ende der Testzeit wird der Materialabrieb in Gramm der Skateboardrolle ermittelt, in dem die Differenz zwischen dem Rollengewicht vor und nach dem Verschleißversuch bestimmt wird. Die Höhe des Abriebs in Gramm ist somit unsere Antwortvariable, die idealerweise so gering wie möglich sein sollte. Somit gilt: Je niedriger der Abrieb, umso höher wünschenswerterweise die Verschleißbeständigkeit der Skateboardrolle und umso höher entsprechend die Kundenzufriedenheit. Da das Forschungsprojekt zeitlich jedoch sehr unter Druck steht, entscheidet sich das DOE Team unter den gegebenen Randbedingungen und der vorliegenden Fachexpertise für eine sogenannte teilfaktorielle  statistische Versuchsplanung, die häufig auch als fraktioneller Versuchsplan bezeichnet wird. Um das Themengebiet der teilfaktoriellen, also der fraktionellen Versuchspläne in der erforderlichen Tiefgründigkeit zu verstehen, ist diese Trainingseinheit in vier Teile gegliedert. Im ersten Teil unserer Trainingseinheit werden wir uns mit den Grundlagen der fraktionelle Versuchsplanung beschäftigen und in diesem Zusammenhang zum Beispiel lernen, was einen teilfaktoriellen Versuchsplan von einem vollfaktoriellen Versuchsplan unterscheidet und wie wir einen teilfaktoriellen Versuchsplan ordnungsgemäß aufstellen. Wir werden erleben, dass bei diesen teilfaktoriellen Versuchsplänen zwangsläufig immer auch bestimmte Vermengungsstrukturen von Einflussfaktoren, auch Aliasstrukturen genannt, in Kauf genommen werden müssen. Wir werden daher auch lernen, warum insbesondere eine hohe Fachexpertise des DOE Teams bezüglich der potentiellen Ursachen- Wirkungszusammenhänge im Rahmen einer fraktionellen Versuchsplanung die entscheidende Rolle spielt, um einen verwertbaren fraktionellen Versuchsplan aufzustellen, der dann auch tatsächlich in der Lage ist, die realen Ursachen- Wirkungszusammenhänge theoretisch-mathematisch zu modellieren. Gut gerüstet mit diesem Wissen werden wir dann im zweiten Teil dieser Trainingseinheit in der Lage sein, einen fraktionellen Versuchsplan ordnungsgemäß aufzustellen und zu analysieren. Indem wir zum Beispiel die Tabelle der Kodierten Koeffizienten auswerten und mit dem Pareto- Diagramm der standardisierten Effekte arbeiten. Wir erlernen, wie der sogenannte PSE Lenth- Parameter im Zusammenhang mit dem Pareto- Diagramm der standardisierten Effekte zu interpretieren ist. Wir werden unser DOE Modell optimieren, indem wir eine hierarchische Rückwärtselimination von nicht signifikanten Termen durchführen werden, indem wir auf Basis der entsprechenden Koeffizienten, Modellgüteparameter, p- Werte und dem Pareto- Diagramm der standardisierten Effekte nicht signifikante Terme durch hierarchische Rückwärtselimination aus unserem Modell entfernen. In diesem Zusammenhang werden wir dann auch nochmal auf die vorliegenden Aliasstruktur im fraktionellen Versuchsplan eingehen, die uns aufzeigt, welche Vermengungsstrukturen wir aufgrund des teilfaktoriellen Versuchsplans in Kauf genommen haben, als Preis dafür die Anzahl der experimentellen Versuche aufgrund der hohen Anzahl an Einflussfaktoren so gering wie möglich zu halten. So dass wir nach der Rückwärtselimination unser optimiertes DOE-Modell dann noch mal mithilfe der entsprechenden Bestimmtheitsmaße wie zum Beispiel R- Quadrat korrigiert und R- Quadrat prognostiziert hinsichtlich seiner finalen Modellgüte beurteilen können. Am Ende des zweiten Teils werden wir abschließend noch die erforderliche entsprechende Analyse der nichtbeschreibbaren Reststreuung, also der Residuenstreuung, auswerten. So dass wir mit dem final optimierten DOE Modell im dritten und letzten Teil unserer Trainingseinheit in die Zielgrößenoptimierung einsteigen können, um die optimalen Parametereinstellungen zu ermitteln, damit der Abrieb an den Skateboardrollen auf ein Minimum reduziert wird. In diesem Zusammenhang werden wir auch auf die entsprechenden Wechselwirkungsdiagramme eingehen. Nachdem wir mithilfe der Zielgrößenoptimierung die optimalen Parametereinstellungen ermittelt haben, werden wir dann noch konkrete Arbeitsbereiche für die Parametereinstellungen festlegen. Hierfür werden wir die nützlichen Darstellungsformen Konturdiagramm und Würfeldiagramm kennenlernen, aktiv erstellen und interpretieren, um die zulässigen Toleranzbereiche für unsere Parametereinstellungen zu definieren, damit zum Beispiel auch bei Prozessschwankungen der angestrebte Sollwert für den Rollenabrieb noch erreicht wird.

Themenschwerpunkte 33, Teil 1:

  • Einführung in die fraktionelle Versuchsplanung
  • Aufstellung eines fraktionellen Versuchsplans
  • Übersicht über mögliche Versuchsplantypen
  • Interpretation der Aliasstrukturen im fraktionellen Versuchsplan

Themenschwerpunkte 33, Teil 2:

  • Analyse eines ¼-fraktionellen Versuchsplans
  • Tabelle der Kodierten Koeffizienten
  • Pareto- Diagramm der standardisierten Effekte
  • Der PSE-Lenth- Parameter
  • Hierarchische Rückwärtselimination nichtsignifikanter Terme
  • Interpretation der Haupteffektdiagramme
  • Bestimmtheitsmaße des DOE-Modells
  • Auswertung der Aliasstrukturen
  • Residuenanalyse

Themenschwerpunkte 33, Teil 3:

  • Interpretation der Wechselwirkungsdiagramme
  • Zielgrößenoptimierung
  • Konturdiagramm zur Definition optimaler Parametereinstellungen
  • Würfeldiagramm auf Basis der DOE Regressionsgleichung
  • Würfeldiagramm auf Basis der experimentell ermittelten Daten

Trailer

33.2 DOE TEILFAKTORIELL, 6 PRÄDIKTOREN, TEIL 2

Themenschwerpunkte Minitab Schulung 33, Teil 2:

  • Analyse eines ¼-fraktionellen Versuchsplans
  • Tabelle der Kodierten Koeffizienten
  • Pareto- Diagramm der standardisierten Effekte
  • Der PSE-Lenth- Parameter
  • Hierarchische Rückwärtselimination nichtsignifikanter Terme
  • Interpretation der Haupteffektdiagramme
  • Bestimmtheitsmaße des DOE-Modells
  • Auswertung der Aliasstrukturen
  • Residuenanalyse

Trailer: siehe 33.1

33.3 DOE TEILFAKTORIELL, 6 PRÄDIKTOREN, TEIL 3

Themenschwerpunkte Minitab Schulung 33, Teil 3:

  • Interpretation der Wechselwirkungsdiagramme
  • Zielgrößenoptimierung
  • Konturdiagramm zur Definition optimaler Parametereinstellungen
  • Würfeldiagramm auf Basis der DOE Regressionsgleichung
  • Würfeldiagramm auf Basis der experimentell ermittelten Daten

Trailer: siehe 33.1

34.1 DOE WIRKUNGSFLÄCHENPLAN, TEIL 1

In dieser zweiteiligen 34. Minitab Schulung befinden wir uns im Lackierzentrum der Smartboard AG. Hier werden in einem automatisierten Lackierprozess die Skateboarddecks gemäß Kundenwunsch mit Flüssiglack beschichtet. Der Lackierprozess muss hierbei so gestaltet sein, dass die aufgebrachte Lackschicht eine Mindesthaftkraft aufweist, um äußeren Beanspruchungen, wie zum Beispiel Stoß- und Schlagbeanspruchungen, zu widerstehen. Die im Lackierprozess erreichte Haftkraft der Lackschicht auf den Skateboarddecks wird im Labor mithilfe eines genormten Ritztests ermittelt. Hierbei wird mit konstant ansteigender Prüfkraft ein Diamantstift vertikal in die Lackschicht eingedrückt und gleichzeitig horizontal über die Lackschicht bewegt. Aus der maximal erreichten Prüfkraft im Ritztest, die zu ersten Abplatzungen der Lackschicht führt, und der vorliegenden Risscharakteristik, die mikroskopisch ausgewertet wird, ergibt sich die Haftkraft der Lackschicht. Der automatisierte Lackierprozess für die Skateboarddecks lässt sich hierbei in die drei Hauptprozessschritte Grundierung, Lackierung und Trocknung einteilen. Im ersten Prozessschritt Grundierung werden die Skateboarddecks in einem Tauchbecken einer kontinuierlichen Tauchgrundierung unterzogen, um Unregelmäßigkeiten und offene Poren auf der Skateboarddeck- Oberfläche zu reduzieren. Als Haupteinflussgröße in diesem Prozessschritt hat das Team im Rahmen von Vorversuchen die Schichtdicke der Grundierung identifiziert. Im zweiten Prozessschritt erfolgt die Aufbringung der endgültigen Farbschicht, indem die Skateboarddecks kontinuierlich durch eine Lackierkabine geführt und robotergesteuert durch Sprühdüsen beschichtet werden.  Als Haupteinflussgröße in diesem Prozessschritt hat das Team im Rahmen von Vorversuchen den Sprühdüsen- Abstand zur Skateboarddeck- Oberfläche identifiziert. In diesen Vorversuchen hat sich aber auch herausgestellt, dass dieser Abstand so hoch wie möglich sein sollte, da sich der Glanzgrad der Lackschicht verbessert, je größer dieser Düsenabstand eingestellt wird. Im anschließenden dritten Prozessschritt Trocknung werden die lackierten Skateboarddecks durch einen kontinuierlich arbeitenden Mehrzonen-Trockner geführt, um die vorhandenen Lösungsmittel- und Wasserdampfgehalte in der Lackschicht zu entfernen. Als Haupteinflussgröße in diesem Prozessschritt hat das Team im Rahmen von Vorversuchen die mittlere Trocknungstemperatur identifiziert. In der letzten Zeit mussten jedoch häufig Skateboarddecks verschrottet werden, weil überdurchschnittlich viele Lackschichten die geforderte Mindesthaftkraft nicht erreichen konnten. Aus diesem Grund wurde ein Qualitätsteam gebildet, das mithilfe einer statistischen Versuchsplanung die Parametereffekte und Wechselwirkungseffekte identifizieren soll, die einen signifikanten Effekt auf die Haftkraft ausüben. Das Kernthema in dieser Trainingseinheit wird also sein, mithilfe einer passenden statistischen Versuchsplanung den Einfluss dieser drei Parameter auf die Haftkraft mathematisch zu modellieren, zu analysieren und mithilfe einer Zielgrößenoptimierung optimal einzustellen, damit die erforderliche Mindesthaftkraft erreicht wird. Da das Team im Rahmen von vollfaktoriellen Vorversuchen bereits herausgefunden hatte, dass nichtlineare Ursachen- Wirkungszusammenhänge vorliegen, wurde beschlossen, die sogenannte Wirkungsflächen- Versuchsplanung einzusetzen. Das zentrale Thema in dieser Trainingseinheit wird daher die Wirkungsflächen- Versuchsplanung sein. Diese wird dann auch angewendet werden, um auch nichtlineare Ursachen- Wirkungszusammenhänge beschreiben zu können. Hierzu werden wir zunächst lernen, was einen Wirkungsflächenversuchsplan von einem faktoriellen oder einem unterschiedlich stark fraktionierten Versuchsplan unterscheidet. Eine zentrale Rolle werden in diesem Zusammenhang auch die wichtigen sogenannten Sternpunkte spielen und wir werden den Unterschied zwischen Sternpunkten und Zentralpunkten kennenlernen und erleben, dass insbesondere der sogenannte Sternpunktabstand Alpha eine sehr wichtige Rolle spielt. Wir werden lernen, was ein zentral zusammengesetzter Wirkungsflächenversuchsplan ist und durch die Konstruktion von 3-D- Streudiagrammen die entsprechenden mathematischen Voraussetzungen hinsichtlich Orthogonalität besprechen, die ein zentralzusammengesetzter Wirkungsflächenversuchsplan idealerweise besitzen sollte. Mithilfe der 3-D- Streudiagramme wird es uns dann auch sehr leicht fallen, den Unterschied zwischen Sternpunkten und Zentralpunkten zu verstehen. Wir werden lernen, wie wir mithilfe der entsprechenden Signifikanzwerte aus den Hypothesentests beurteilen können, ob die entsprechenden Terme falls signifikant sind oder als nichtsignifikante einzustufen sind.  Und wir lernen, wie wir die entsprechenden Effektstärken mit dem Pareto- Diagramm der standardisierten Effekte beurteilen können. Wir werden dann mithilfe der nützlichen entsprechenden Faktordiagramme die entsprechenden Effektstärken sowie die Wirkrichtungen der jeweiligen Effekte diskutieren. Und mit dem Wissen werden wir dann in der Lage sein, im Rahmen der abschließenden Zielgrößenoptimierung die optimalen Parametereinstellungen zu bestimmen. Wir werden in diesem Zusammenhang auch lernen, wie ein Konturdiagramm erstellt wird, um prozesssichere Arbeitsbereiche für die Parametereinstellungen festzulegen, so dass auch bei ungeplanten Prozessschwankungen die erforderliche Mindesthaftkraft der Lackschicht nach wie vor erreicht wird. Auch werden wir das nützliche Grafik- Wirkungsflächendiagramm erzeugen und diskutieren, um auch einen sehr guten dreidimensionalen visuellen Eindruck über den Trend unserer Antwortvariablen in Abhängigkeit der Einflussgrößen zu erhalten. So dass wir am Ende dieser Trainingseinheit mit allen vorliegenden Analyseergebnissen und insbesondere den entsprechenden Konfidenz- und Prognoseintervallen der technischen Geschäftsführung der Smartboard AG konkrete Handlungsempfehlungen abgeben können, wie die optimalen Parametereinstellungen sein sollten, um auch bei diesen vorliegenden nichtlinearen Ursachen- Wirkungszusammenhängen die erforderliche Mindesthaftkraft der Lackschicht auf den Skateboarddecks mit einer 95-prozentigen Sicherheit erreichen zu können.

Themenschwerpunkte 34, Teil 1:

  • Einführung in die Wirkungsflächenversuchsplanung (WFV)
  • Zentral zusammengesetzte Versuchspläne
  • Box- Behnken Versuchspläne
  • 1/2 – zentralzusammengesetzte WFV
  • 1/4 – zentral zusammengesetzte WFV
  • 1/8 – zentral zusammengesetzte WFV
  • Wirkungsflächenversuchsplan erstellen
  • Punkttypen: Würfelpunkte, Zentralpunkte, Sternpunkte
  • Identifikation unterschiedlicher Punkttypen im 3-D- Streudiagramm

Themenschwerpunkte 34, Teil 2:

  • Wirkungsflächenversuchsplan analysieren
  • Kodierte Koeffizienten
  • Haupteffektdiagramme
  • Wechselwirkungsdiagramme
  • Bestimmtheitsmaße des DOE- Modells
  • Interpretation der Varianzanalyse
  • Regressionsgleichung in nicht kodierten Einheiten
  • Pareto- Diagramm der standardisierten Effekte
  • Residuenanalyse
  • Zielgrößenoptimierung
  • Prozessbereiche definieren
  • Konturdiagramm
  • Wirkungsflächendiagramm

Trailer

34.2 DOE WIRKUNGSFLÄCHENPLAN, TEIL 2

Themenschwerpunkte Minitab Schulung 34, Teil 2:

  • Wirkungsflächenversuchsplan analysieren
  • Kodierte Koeffizienten
  • Haupteffektdiagramme
  • Wechselwirkungsdiagramme
  • Bestimmtheitsmaße des DOE- Modells
  • Interpretation der Varianzanalyse
  • Regressionsgleichung in nicht kodierten Einheiten
  • Pareto- Diagramm der standardisierten Effekte
  • Residuenanalyse
  • Zielgrößenoptimierung
  • Prozessbereiche definieren
  • Konturdiagramm
  • Wirkungsflächendiagramm

Trailer: siehe 34.1