Das Kalenderblatt: Erstaunliches und Skurriles für jeden Tag – so informativ wie ein Lexikon, so bunt wie das Leben. Wie pflanzt man Spaghetti an? Und warum war Einstein auf dem Oktoberfest?
…
continue reading
Player FM - Internet Radio Done Right
0-10 subscribers
Checked 1+ y ago
Προστέθηκε πριν από four χρόνια
Content provided by Barbara Bredner. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Barbara Bredner or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
Player FM - Podcast App
Go offline with the Player FM app!
Go offline with the Player FM app!
Podcasts Worth a Listen
SPONSORED
Y
You Can’t Make This Up


At the dawn of the social media era, Belle Gibson became a pioneering wellness influencer - telling the world how she beat cancer with an alternative diet. Her bestselling cookbook and online app provided her success, respect, and a connection to the cancer-battling influencer she admired the most. But a curious journalist with a sick wife began asking questions that even those closest to Belle began to wonder. Was the online star faking her cancer and fooling the world? Kaitlyn Dever stars in the Netflix hit series Apple Cider Vinegar . Inspired by true events, the dramatized story follows Belle’s journey from self-styled wellness thought leader to disgraced con artist. It also explores themes of hope and acceptance - and how far we’ll go to maintain it. In this episode of You Can't Make This Up, host Rebecca Lavoie interviews executive producer Samantha Strauss. SPOILER ALERT! If you haven't watched Apple Cider Vinegar yet, make sure to add it to your watch-list before listening on. Listen to more from Netflix Podcasts .…
Irgendwas mit Daten - Datenanalyse in der Industrie
Mark all (un)played …
Manage series 2924427
Content provided by Barbara Bredner. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Barbara Bredner or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
Auch in Ihren Daten stecken wertvolle Informationen! Möchten Sie mit Daten Ihre Produkte schneller entwickeln? Ihre Versuche effizienter auswerten? Ihre Prozesse besser verstehen und optimieren? Dann ist dieser Podcast für Sie. Barbara Bredner berät und begleitet seit 2003 Menschen in der Industrie bei der Datenauswertung in Forschung und Entwicklung, Prozess Engineering und Qualitätsmanagement. In ihrem Podcast erklärt sie, wie Sie eigene Daten auswerten und gezielt nutzen können. Sie gibt Tipps für solide und nachvollziehbare Analysen, damit Sie mit größerer Sicherheit und Klarheit belastbare Ergebnisse erreichen. Das Ziel sind abgesicherte Entscheidungen auf Grundlage Ihrer Datenanalysen!
…
continue reading
51 episodes
Mark all (un)played …
Manage series 2924427
Content provided by Barbara Bredner. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Barbara Bredner or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
Auch in Ihren Daten stecken wertvolle Informationen! Möchten Sie mit Daten Ihre Produkte schneller entwickeln? Ihre Versuche effizienter auswerten? Ihre Prozesse besser verstehen und optimieren? Dann ist dieser Podcast für Sie. Barbara Bredner berät und begleitet seit 2003 Menschen in der Industrie bei der Datenauswertung in Forschung und Entwicklung, Prozess Engineering und Qualitätsmanagement. In ihrem Podcast erklärt sie, wie Sie eigene Daten auswerten und gezielt nutzen können. Sie gibt Tipps für solide und nachvollziehbare Analysen, damit Sie mit größerer Sicherheit und Klarheit belastbare Ergebnisse erreichen. Das Ziel sind abgesicherte Entscheidungen auf Grundlage Ihrer Datenanalysen!
…
continue reading
51 episodes
Όλα τα επεισόδια
×DIE Verteilung bei Zuverlässigkeit & Lebensdauer-Analysen Die Weibull-Verteilung 👉 Woher kommt die Weibullverteilung? 👉 Wie wird die Weibullverteilung bestimmt? 👉 Was sind typische Kennzahlen der Weibull-Verteilung? Bei der Zuverlässigkeits- und Lebensdauer-Analyse wird die Weibull-Verteilung zur Beschreibung des Ausfallverhaltens eingesetzt. Hierfür werden Kennzahlen wie Ausfallsteilheit und charakterstische Lebensdauer aus den Daten ermittelt. Oft werden auch bestimmte Kenngrößen wie die B10-Lebensdauer gefordert. In dieser Folge erfahren Sie, warum die Weibull-Verteilung gar nicht von Waloddi Weibull stammt. Es geht um Methoden, mit denen die Parameter der Weibull-Verteilung wie charakteristische Lebensdauer und Ausfallsteilheit ermittelt werden können und darum, welche Aussagen mit MTTF, MTBF und B10 gemacht werden können. Links 👉 80 Jahre Rosin-Rammler-Sperling-Bennett-Verteilung Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Wie belastbar sind Komponenten und Produkte? Zuverlässigkeit & Lebensdauer 👉 Was können Verfahren für Zuverlässigkeit & Lebensdauer? 👉 Wie entsteht die Badewannen-Kurve? 👉 Was sind Besonderheiten von Zuverlässigkeits-Tests? Methoden aus dem Bereich Zuverlässigkeit & Lebensdauer sind spezielle Auswertungsverfahren, mit denen die Haltbarkeit von Bauteilen, Produkten oder Systemen bewertet wird. Oft wird hierbei die so genannte Badewannenkurve als Modell für das Ausfallverhalten zu unterschiedlichen Zeitpunkten im Produktlebenszyklus verwendet. Daten aus dem Bereich Zuverlässigkeit und Lebensdauer haben einige Besondernheite wie beispielsweise geringe Anzahl bei gleichzeitig hoher Anforderung an die Aussagekraft der Analysen. Mit dieser Folge beginnt eine Serie zum Thema "Zuverlässigkeit und Lebensdauer". Freuen Sie sich auf Informationen zur Weibull-Verteilung, den Nachweis von Zuverlässigkeits-Anforderungen und der Ermittlung von Prüfmengen sowie der Einfluss-Analyse bei Belastungsprüfungen! Links 👉 Reliability Academy Stuttgart Haben Sie auch Themen-Ideen oder brauchen Sie Unterstützung bei der Datenanalyse? Schreiben Sie mir gerne! Barbara Bredner, post@irgendwas-mit-daten.io…
Von der Problemstellung über die Prozessbeschreibung zur Auswertung & Nutzung Was sind wichtige Schritte in der DoE? 👉 Womit fängt die DoE an? 👉 Welche Vorarbeiten sind notwendig bzw. sinnvoll? 👉 Wann ist ein Versuchsplan zu wenig? Viele Menschen denken bei der statistischen Versuchsplanung und -auswertung (Design of Experiments, DoE) zuerst daran, dass der Versuchsplan gut gewählt sein muss. Das stimmt, doch bevor es um die Auswahl und Erstellung eines geeigneten Versuchsplans geht, sind andere Schritte zur Vorbereitung notwendig. In dieser Folge erhalten Sie Informationen zu den ersten Schritten sowie zu sinnvollen und notwendigen Vorarbeiten bei der DoE. Sie bekommen Entscheidungskriterien dafür, ob ein Versuchsplan ausreichend ist oder weitere Versuche sinnvoll sein können. Links 👉 Statistische Versuchsplanung und -auswertung (DoE) Ablauf Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…

1 #47 In Ordnung oder nicht in Ordnung, das ist hier die Frage! 25:55
25:55
Play Later
Play Later
Lists
Like
Liked25:55
Kennzahlen für die Modell-Quaität bei attributiven Zielgrößen (Klassifizierung) In Ordnung oder nicht in Ordnung, das ist hier die Frage! 👉 Wie funktioniert die Bewertung der Erklär-Qualität bei attributiven Zielgrößen (gut/schlecht)? 👉 Was ist die Konfusionsmatrix? 👉 Welche Kennzahlen werden für die Erklär-Qualität bei der Klassifizierung eingesetzt? Vor der Nutzung von Modellen zum Beispiel für die Optimierung von Versuchs- oder Prozess-Einstellungen sollte immer die Aussagekraft oder Erkär-Qualität bewertet werden. In dieser Folge erfahren Sie, mit welchen Kennzahlen Machine Learning Modelle evaluiert werden, die eine attributive Zielgröße (gut/schlecht, in Ordnung/nicht in Ordnung) haben. Diese Methoden werden eingesetzt, wenn das Versuchs- oder Prozess-Ergebnis eine Klassifizierung ist. Je treffsicherer das ML Modell vorhersagen kann, in welcher Klasse oder Kategorie das Ergebnis landet, desto besser ist es für den produktiven Einsatz geeignet. In dieser Folge bekommen Sie Informationen und Erklärungen zur Konfusionmatrix und den wichtigsten Kennzahlen zur Bewertung der Erklär-Qualität von Modellen mit attributiven Zielgrößen. Darüber hinaus erfahren Sie, wie die ROC-Kurve entsteht und warum die Fläche unter der Kurve (AUC) für ein gutes Modell deutlich größer als 0,5 sein muss. Links 👉 Schwangere Männer Bild 👉 In Ordnung oder nicht in Ordnung - Erklär-Qualität bei attributiven Zielgrößen: Konfusionsmatrix, Accuracy, Precision, Recall, Speficity, F1-Score 👉 Visualisierung von ROC und AUC: What is AUC? Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…

1 #46 Wie gut funktionieren Machine Learning Modelle 25:55
25:55
Play Later
Play Later
Lists
Like
Liked25:55
Kennzahlen für die Modell-Quaität bei messbaren Zielgrößen (Regression) Wie gut funktionieren Machine Learning Modelle? 👉 Welche Qualitäts-Kriterien gibt es für Machine Learning? 👉 Wie wird Erklär-Qualität bei der Regression bewertet? 👉 Wann ist die Anpassungsgüte R² groß genug? Ein Modell mit Methoden des maschinellen Lernens wie z. B. Regression oder Klassifikation zu bauen ist einfach. Solche Modelle können uns beispielsweise optimale Arbeitspunkte liefern oder dabei helfen nachzuweisen, dass die Anforderungen in einem bestimmten Prozessfenster erfüllt werden. Bevor ein Modell produktiv genutzt wird, sollten Sie zuerst prüfen, ob das Modell gut genug ist. In dieser Folge erhalten Sie Informationen dazu, welche Kenngrößen für die Modell- bzw. Erklär-Qualität genutzt werden und warum die beliebteste Kennzahl, die Anpassungsgüte R², allein zu wenig ist. Alternative Kennzahlen wie die Prognosegüte liefern weitere wichtige Erkenntnisse über die Qualität des ML Modells. Links 👉 Barbara Bredner (2021) "NOT Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R" 👉 Anber Arif: Cross Validation in Machine Learning 👉 Shervine Amidi: Machine Learning tips and tricks cheatsheet 👉 Adi Bronshtein: Train/Test Split and Cross Validation in Python Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…

1 #45 Wie funktioniert Einfluss-Analyse bei nicht-normalverteilten Ergebnissen? 21:57
21:57
Play Later
Play Later
Lists
Like
Liked21:57
warum "normal-verteilt" eher nicht normal ist Wie funktioniert Einfluss-Analyse bei nicht-normalverteilten Ergebnissen? 👉 Warum ist das Ergebnis nicht normal-verteilt? 👉 Wie funktionieren verallgemeinerte lineare Modelle (GLM: Generalized Linear Models)? 👉 Sind Machine Learning Modelle auch GLMs? Die Normalverteilung von Messwerten wird für viele Methoden vorausgesetzt und sie scheint oft "das Normalste" von der Welt zu sein - bis echte Messwerte aufgenommen werden. Die sind selten normalverteilt und damit stellt sich schnell die Frage, warum die Messwerte nicht aus einer "normalen" Verteilung kommen. Mögliche Antworten darauf erhalten Sie in der aktuellen Folge. Außerdem geht es darum, wie Auswertungen bei nicht-normalverteilten Messdaten z. B. mit GLMs funktionieren und wie die verallgemeinerten linearen Modelle mit den Methoden des maschinellen Lernens zusammenhängen. Links 👉 Hilbe, S. (2010) "Generalized Linear Models", Encyclopedia of Mathematics 👉 Great Learnings Team (2021) "Generalized Linear Model | What does it mean?" 👉 Clark, M. (2019) "Generalized Additive Models" Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…

1 #44 Korrelation, Regression, ANOVA - Alles das Gleiche? 25:08
25:08
Play Later
Play Later
Lists
Like
Liked25:08
Unterschiede und Gemeinsamkeiten bei der Zusammenhangs- und Einfluss-Analyse Korrelation, Regression und ANOVA - alles das Gleiche? 👉 Woher kommen Korrelation und Regression? 👉 Woher kommt die Varianzanalyse (ANOVA)? 👉 Was sind die Gemeinsamkeiten von ANOVA und Regression? Wenn Korrelation, Regression und Varianzanalyse (ANOVA, Analysis Of Variance) das Gleiche wären, bräuchten wir keine unterschiedlichen Namen für die drei Verfahren - oder? Die Unterschiede sind tatsächlich eher historisch gewachsen und liegen weniger in den Unterschieden zwischen den Verfahren selbst. Klassischerweise wurde die Regression verwendet, wenn die Einflussgrößen messbar oder variabel sind, z. B. Temperatur und Druck. Die Varianzanalyse oder ANOVA bewertete klassischerweise kategoriale oder attributive Einflüsse wie verschiedene Maschinen oder Werkzeuge. In der praktischen Anwendung gab und gibt es häufig beide Arten von Einflüssen, so dass die ursprünglichen Methoden weiterentwickelt wurden. Die Folge gibt einen Einblick in die geschichtliche Entwicklung von Korrelation, Regression und ANOVA und zeigt auf, wie diese Verfahren mit dem allgemeinen linearen Modell (general linear model, GLM) zusammehängen. Links 👉 Kinship & Correlation 👉 Datenanalyse-Methoden & Leben von Ronald A. Fisher 👉 Rutherford, Andres (2000) "Introducing Anova and Ancova: A GLM Approach (Introducing Statistical Methods)" Sage Publications Inc., ISBN 9780761951612 👉 Stigler, Stephen M. (1986) "The History of Statistics: The Measurements of Uncertainity Before 1900" Harvard University Press, ISBN 9780674403406 Ich freue mich über Ihre Ideen & Nachrichten! Barbara Bredner, post@irgendwas-mit-daten.io…
Bunte Bildchen sind super - oder etwa nicht? Datenvisualisierungen & Tools 👉 Warum verwenden wir Visualisierungen? 👉 Wie finde ich die "richtige" Visualisierung? 👉 Was ist das beste Tool für Datenvisualsierungen? "1 Bild sagt mehr als 1000 Worte." Dieser Satz ist absolut abgegriffen und trifft trotzdem den Nagel auf den Kopf: Wir Menschen können Informationen aus Bildern deutlich schneller aufnehmen und länger behalten als Text-Informationen. Alle Informationen in Bilder zu packen ist trotzdem nicht sinnvoll und wie gut eine Daten-Visualisierung funktioniert, hängt von vielen Aspekten ab. Diese Folge liefert Ihnen Informationen dazu, wie Sie die beste Visualisierung für eine bestimmte Situation finden können und wann Visualisierungen eine schlechte Wahl sind. Sie bekommen Kriterien an die Hand, mit denen Sie gezielt ein passendes Visualisierungs-Tool auswählen können. Zum Ausprobieren von Tools finden Sie Links zu Datensätzen und einer Datensatz-Suchmaschine in den Shownotes. Links 👉 Storytelling with Data - Challenges & Exercises 👉 Kaggle Datasets 👉 Open Data on AWS 👉 Datensatz-Suchmaschine von Google 👉 JMP Graph Builder Beispiele 👉 R package esquisse für Grafiken in R über eine Benutzeroberfläche 👉 Gartner Report: Magic Quadrant for Analytics and BI Platforms 2021 Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…

1 #42 Wie sinnvoll sind Digitalisierung & Automatisierung in der Datenanalyse? 23:46
23:46
Play Later
Play Later
Lists
Like
Liked23:46
Wie aus unbegrenzten Möglichkeiten gezielte Aktionen werden Wie sinnvoll sind Digitalisierung & Automatisierung in der Datenanalyse? 👉 Warum ist Digitalisierung & Automatisierung in der Datenanalyse wichtig? 👉 Wie sinnvoll ist die Digitalisierung von Daten? 👉 Wie hilfreich ist die Automatisierung bei der Datenauswertung? Wir schreiben das Jahr 2022. Unendliche Möglichkeiten in der Digitalisierung liegen vor uns. Bei der Automatisierung in der Datenanalyse können wir (fast) alles realisieren. Bald wird jede Analyse auf Knopfdruck, oder noch besser einfach so voll automatisiert da sein. Wir müssen nur noch das auswählen und anschauen, was wir brauchen. So weit sind wir noch lange nicht. (Zum Glück?) Aktuell muss präzise entschieden und ausgewählt werden, welche digitialisiert werden sollen und bei welchen Datenanalysen eine Automatisierung sinnvoll ist. Spoiler: Es kommt darauf an und wie immer gilt: alles gleichzeitig zu machen ist weder möglich noch sinnvoll. Links 👉 Goldratt, Eliyahu M. und Jeff Cox (2013). Das Ziel: Ein Roman über Prozessoptimierung. Campus Verlag. ISBN 978-3593398532 👉 Seven Ways You Interact With AI Before Lunch 👉 Anwendungsfall-Canvas von Datentreiber 👉 Datenstrategie-Canvas von Datentreiber Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…

1 #41 Signifikant gleich - geht das überhaupt? 19:34
19:34
Play Later
Play Later
Lists
Like
Liked19:34
Warum sich Gleichheit nicht beweisen lässt signifikant gleich - geht das überhaupt? 👉 Warum können wir keine Gleichheit beweisen? 👉 Wie funktioniert der Äquivalenz-Nachweis? 👉 Wofür können wir Äquivalenz-Nachweise verwenden? Sie wollen (oder müssen) zeigen, dass etwas gleich ist. Nichts leichter als das, oder? Wir nehmen einen statistischen Test und haben dann signifikante Gleichheit bewiesen. Das geht so aus mehreren Gründen nicht, die in dieser Folge erklärt werden. Außerdem erhalten Sie Hinweise darauf, wie Sie den Nachweis für "gleich genug" oder äquivalent machen können. Literatur 👉 Wellek, Stefan (2010). Testing Statistical Hypotheses of Equivalence and Noninferiority. ed. Chapman und Hall. ISBN 9781439808184. https://www.routledge.com/Testing-Statistical-Hypotheses-of-Equivalence-and-Noninferiority/Wellek/p/book/9781439808184# Ich freue mich auf Ihre Nachricht Barbara Bredner, post@irgendwas-mit-daten.io…
Wie kann die Gleichheit oder Äquivalenz von Messmethoden geprüft werden? Wann sind Messmethoden gleich genug? 👉 Wann vergleichen wir Messmethoden? 👉 Wie funktioniert der Vergleich über die Gage R&R? 👉 Wie wird der Gleichheits-Nachweis über die Deming-Regression geführt? Beim Thema Messunsicherheit gibt es neben den oft genannten Einflüssen Messwiederholung (Repeatability), Streuung durch verschiedene Prüfer:innen und Einfluss der ausgewählten Teile oft auch die Überlegung, die Messgenauigkeit an unterschiedlichen Standorten zu vergleichen. Beispielsweise kann untersucht werden, wie groß die Unterschiede zwischen Labor, Fertigung und Warenausgangskontrolle oder beim Kunden und beim Lieferanten sind. Der zweite große Anwendungsbereich für den Vergleich von Messmethoden liegt im regulierten Bereich. Dort werden neben den Fertigungsmethoden und Materialien auch Messmethoden festgeschrieben. Die Entwicklung neuer Messsysteme wie beispielsweise Sensoren bringt immer wieder neue Optionen auf den Markt, die Messwerte präziser oder wirtschaftlicher aufnehmen können. Bevor solche Messmethoden im regulierten Bereich eingesetzt werden können, muss nachgewiesen werden, dass die Messwerte der beiden Methoden gleich genug ist. Links 👉 VDI: Volumenerfassung für Schüttgut mit Lidar Sensor (2022) 👉 CLSI: EP09c Measurement Procedure Comparison and Bias Estimation Using Patient Samples (2018), 2. Auflage, Clinical and Laboratory Standards Institute (CLSI), ISBN 9781684400072 👉 Biljak, Vanja Radišić: Passing & Bablok and Deming Regression (2019) Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…

1 #39 Wann ist eine MSA nötig und wie wird sie "richtig" gemacht? 20:35
20:35
Play Later
Play Later
Lists
Like
Liked20:35
Was Sie schon immer zur Mess-System-Analyse wissen wollten Wann ist eine MSA sinnvoll und wie wird sie "richtig" gemacht? 👉 Warum ist eine Mess-System-Analyse überhaupt sinnvoll? 👉 Wann sollte eine MSA durchgeführt werden? 👉 Wie wird eine MSA richtig gemacht? Mess-System-Analysen scheinen vor der Durchführung oft ziemlich überflüssiges Futter für den Papiertiger zu sein. In der Auswertung von MSAs zeigt sich oft, dass die Mess-Unsicherheit deutlich größer als angenommen (und vertretbar) ist. In dieser Folge erfahren Sie, wie oft bzw. wann eine Mess-System-Analyse durchgeführt werden sollte und welche Konsequenzen es hat, wenn auf die MSA verzichtet wird. Sie bekommen eine Orientierungshilfe für die Auswahl geeigneter Verfahren und Methoden sowie Hinweise zu Handbüchern. Links 👉 AIAG (2010). Measurement System Analysis (MSA-4). Hrsg. von Automotive Industry Action Group (AIAG). 4. Aufl., ISBN 9781605342115 👉 VDA (2021). Band 5: Mess- und Prüfprozesse. Hrsg. von Verband der Automobilindustrie (VDA). 3. überarbeitete Auflage 2021 👉 ICH (1994). Q2(R1) Validation of Analytical Procedures: Text and Methodology. International Conference on Harmonisation of Technical Requirements for Registration of Pharmaceuticals for Human Use (ICH) Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Warum Boxplots eine meiner Lieblings-Grafiktypen sind Wozu brauche ich Boxplots? 👉 Was sind Boxplots? 👉 Wann helfen mir Boxplots? 👉 Was können Boxplots nicht? Boxplots sind wunderbar. Mit ihnen lassen sich Strukturen und Muster erkennen, die in anderen Grafik-Typen unsichtbar bleiben, deshalb vertieft die heutige Folge Boxplots und ihre Möglichkeiten und zeigt auf, wo die Grenzen von Boxplots liegen. Denn Boxplots sind eher ein Schweizer Taschenmesser als ein statistisches Testverfahren. Links 👉 Sternchen im Boxplot sind keine Ausreißer Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Welche Fähigkeiten und Fertigkeiten braucht ein Data Scientist? Wie werde ich Data Scientist? 👉 Welche Schwerpunkte wünsche ich mir? 👉 Wo brauche ich Ausbildung oder Erfahrung? 👉 Welches Unternehmen passt zu mir? Natürlich können Sie einfach Data Science studieren. Vielleicht kommen Sie auch im Laufe Ihres Berufslebens an den Punkt, dass Sie sich beruflich neu orientieren möchten. In dieser Folge erhalten Sie Tipps und Tricks, wie Sie sich die notwendige Ausbildung und Erfahrung verschaffen können. Daneben geht es um Möglichkeiten, ein passendes Unternehmen zu finden und wie Sie schon vor der Bewerbung einschätzen können, ob ein Unternehmen zu Ihnen passt. Ich freue mich über Ihre Nachricht & Themenwünsche! Barbara Bredner, post@irgendwas-mit-daten.io Fähigkeiten & Ausbildung (Auswahl) 👉 Welche Fähigkeiten brauchen Data Strategy Designer, Data Engineer, Data Analyst, Data Scientist und Machine Learning Engineer? 👉 Gelungene Kommunikation mit aktivem Zuhören 👉 Gordon, Thomas (2005). Managerkonferenz: Effektives Führungstraining. Heyne Verlag. ISBN 9783453600003 👉 Gordon, Thomas (2012). Familienkonferenz: Die Lösung von Konflikten zwischen Eltern und Kind. Heyne Verlag. ISBN 9783453602328 👉 Datenstrategie-Design (DE+EN) 👉 Udemy: Data Science Kurse (DE+EN) 👉 coursera: Data Science Kurse (DE+EN) 👉 Meetup: Data Science (DE+EN) 👉 Youtube: Data Professor (EN) 👉 Youtube: Julia Silge, R (EN) Projekte, Competitions, Erfahrung & Austausch (Auswahl) 👉 Kaggle Competitions (EN) 👉 Kaggle Datasets (EN) 👉 Hackathons in Deutschland 👉 Machine Learning Communities (EN) 👉 Storytelling with Data Community (EN) 👉 Stackoverflow (EN) 👉 DataTalks.Club Slack-Channel Data Scientist Jobs und andere Daten-Jobs finden (Auswahl) 👉 stepstone Data Scientist 👉 indeed Data Scientist 👉 glassdoor Data Scientist 👉 Liste von Startups die Daten-Berufe einstellen mit Zahlen zum Funding (EN) 👉 Meetup: Data Science (DE+EN)…

1 #36 Was macht eigentlich ein Data Scientist? 25:22
25:22
Play Later
Play Later
Lists
Like
Liked25:22
Data Desing Strategy, Data Engineering, Data Analyst, Data Scientist, ML Engineer Was macht eigentlich ein Data Scientist? 👉 Was macht eigentlich ein Data Scientist? 👉 Was muss ein Data Scientist können? 👉 Welche anderen Data xxx Jobs gibt es? Der Spruch "Daten sind das neue Öl" ist mittlerweile etwas abgegriffen. Es ist klar, dass Daten Informationen enthalten. Je komplexer die Daten sind, desto schwieriger ist die "Ölbohrung". Unterschiedliches Wissen und Erfahrungen müssen kombiniert werden, wenn Daten komplexer werden. In dieser Folge geht es darum, was die Aufgaben von Data Scientists ist und welche anderen Daten-Berufe es gibt. Links 👉 Machine Learning Mindmap 👉 Welche Fähigkeiten brauchen Data Strategy Designer, Data Engineer, Data Analyst, Data Scientist und Machine Learning Engineer? 👉 Was ist Data Governance Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

1 #35 Wie viele Werte braucht die Prozessfähigkeit? 18:22
18:22
Play Later
Play Later
Lists
Like
Liked18:22
warum Cp und Cpk gierige Kennzahlen (greedy numbers) sind Wie viele Werte braucht die Prozessfähigkeit? 👉 Wo steht wie viele Werte die Prozessfähigkeit braucht? 👉 Sind Konfidenzintervalle eine Alternative? 👉 Welche Auswege gibt es, wenn zu wenig Messwerte vorliegen? Wenn Prozessfähigkeiten (fast) überall gefordert werden, dann müssen diese Kennzahlen doch auch mit vertretbarem Mess-Aufwand berechnet werden können! In der aktuellen Folge erfahren Sie, warum diese Aussage in der Praxis meist falsch ist und welche Auswege es gibt, wenn Sie zu wenig Messwerte für aussagekräftige Prozessfähigkeitswerte haben. Normen & Literatur Anzahl Messwerte für normale und nicht-normale Verteilungen DIN ISO 22514-1:2016-08 "Statistische Methoden im Prozessmanagement - Fähigkeit und Leistung - Teil 1: Allgemeine Grundsätze und Begriffe (ISO 22514-1:2014)" Deutsches Institut für Normung (DIN) e. V., Beuth Verlag Anzahl Messwerte ohne Vorgabe einer Verteilung (nicht-parametrisch, verteilungsfrei) DIN ISO 22514-2:2019-07 "Statistische Verfahren im Prozessmanagement - Fähigkeit und Leistung - Teil 2: Prozessleistungs- und Prozessfähigkeitskenngrößen von zeitabhängigen Prozessmodellen (ISO 22514-2:2017)" Deutsches Institut für Normung (DIN) e. V., Beuth Verlag Pearn, W. L. und Samuel Kotz (2006). "Encyclopedia And Handbook of Process Capability Indices : A Comprehensive Exposition of Quality Control Measures." World Scientific. ISBN 9789812567598 Wie viele Messwerte nehmen Sie für die Prozessfähigkeit? Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

1 #34 Prüfmengen nach ISO 2859, ISO 3951 und Squeglia 35:50
35:50
Play Later
Play Later
Lists
Like
Liked35:50
Warum Prüfpläne nach Norm ungeeignet für die Absicherung sind Prüfmengen nach ISO 2859, ISO 3951 und Squeglia 👉 Wie funktioniert die Prüfmengen-Ermittlung nach ISO 2859 und ISO 3951? 👉 Was ist bei zero-acceptance-Plänen von Squeglia anders? 👉 Warum sind AQL-Normen und zero-acceptance Pläne ungeeignet für die Absicherung? Mein Lieblingszitat im Zusammenhang mit Prüfplänen nach Norm oder zero-acceptance Plänen (Plänen von Squeglia mit Annahmezahl 0): Für jedes Problem gibt es eine Lösung, die einfach, klar und falsch ist. Henry Louis Mencken Warum Prüfpläne nach Norm in den seltensten Fällen eine gute Wahl für die Absicherung sind und welche Fallstricke sich in den Normen und zero-acceptance-Plänen verstecken, das erfahren Sie in der aktuellen Folge. Für die Absicherung sind diese Pläne gerade bei guter Qualitätslage (z. B. Cpk > 1,33) ungeeignet. Normen und zu-Null-Pläne nach Squeglia DIN ISO 2859-1:2014. "Annahmestichprobenpüfung anhand der Anzahl fehlerhafter Einheiten oder Fehler (Attributprüfung) - Teil 1: Nach der annehmbaren Qualitätsgrenzlage (AQL) geordnete Stichprobenpläne für die Prüfung einer Serie von Losen (ISO 2859-1:1999 + Cor. 1:2001 + Amd.1:2011)." Deutsches Institut für Normung (DIN) e. V., Beuth Verlag DIN ISO 2859-2:2021. "Annahmestichprobenprüfung anhand von Attributen - Teil 2: Nach der zurückzuweisenden Qualitätsgrenzlage (LQ) geordnete Stichprobenanweisungen für die Prüfung einzelner Lose (ISO 2859-2:2020)." Deutsches Institut für Normung (DIN) e. V., Beuth Verlag DIN ISO 3951-1:2016. "Verfahren für die Stichprobenprüfung anhand quantitativer Merkmale (Variablenprüfung) - Teil 1: Spezifikation für Einfach-Stichprobenanweisungen für losweise Prüfung, geordnet nach der annehmbaren Qualitätsgrenzlage (AQL) für ein einfaches Qualitätsmerkmal und einfache AQL (ISO 3951-1:2013)." Deutsches Institut für Normung (DIN) e. V., Beuth Verlag Squeglia, Nicholas L. (2008). "Zero acceptance number sampling plans." Auflage, American Society for Quality (ASQ), ISBN 9780873897396, zero acceptance sampling plan (Squeglia) Verwenden Sie noch Normen? Ich freue mich auf Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

1 #33 Wie viele Messwerte braucht die Absicherung? 21:25
21:25
Play Later
Play Later
Lists
Like
Liked21:25
Stichprobenumfang für variable Merkmale bei der Annahmestichprobenprüfung Wie viele Messwerte braucht die Absicherung? 👉 Was wird bei der variablen Messung über Stichproben abgesichert? 👉 Wie hoch sind typische statistische Risiken? 👉 Welche Prüfmengen werden für typische Anwendungsfälle benötigt? 👉 Was kann ich tun, wenn der berechnete Stichprobenumfang zu groß ist? Messwerte werden oft verwendet um zu entscheiden, ob ein Prozess eine hohe Qualität hat oder ein Merkmal innerhalb der Toleranz liegt. Wenn es darum geht, abgesicherte Entscheidungen mit begrenzten statistischen Risiken alpha und beta zu treffen, werden verschiedene Kenngrößen in der Berechnung verwendet. In der aktuellen Folge erhalten Sie Informationen dazu, welche Kenngrößen für die Berechnung des Stichprobenumfangs bei Messgrößen bzw. variablen Merkmalen wie Länge oder Durchmesser benötigt werden. Sie erfahren, wie groß der Stichprobenumfang für typische Anwendungsfälle ist und was Sie tun können, wenn dieser Stichprobenumfang ökonomisch, zeitlich oder aus anderen Gründen nicht umsetzbar erscheint. DAS Buch zu Stichproben 👉 Mathews, Paul (2010) "Sample Size Calculations: Practical Methods for Engineers and Scientists" Mathews Malnar und Bailey, Inc. ISBN 9780615324616 Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Prüfmengen für attributive Prüfungen Wie viel müssen wir denn jetzt prüfen? 👉 Was wird bei attributiven Prüfmengen abgesichert? 👉 Wie hoch sind typische statistische Risiken? 👉 Welche Prüfmengen werden für typische Anwendungsfälle benötigt? 👉 Was tun, wenn die ermittelte Prüfmenge zu groß ist? Nach den beiden Folgen zu Grundlagen und Kriterien für gute Stichproben beschäftigen wir uns in der aktuellen Folge mit Prüfmengen für attributive Prüfungen. Attributive Prüfungen sind u. a. Dichtigkeitsprüfungen wie der Bubble Test oder Funktionsprüfungen (Licht brennt, Licht brennt nicht). Es geht um die Kenngrößen AQL und LQ und um die statistischen Risiken alpha (Risiko für Fehler 1. Art) und beta (Risiko für Fehler 2. Art). Nach den Erklärungen, was bei der Ermittlung des Prüfumfangs wichtig ist, wird anhand von zwei typischen Beispielen die Prüfmenge ermittelt. Gerade bei hoher Qualität und entsprechend kleiner Ausschussrate oder ppm-Zahl ergeben sich oft riesige Prüfmengen, die nicht umsetzbar sind. Mögliche Auswege aus diesem Dilemma erhalten Sie am Ende der Folge. DAS Buch zu Stichproben 👉 Mathews, Paul (2010) "Sample Size Calculations: Practical Methods for Engineers and Scientists" Mathews Malnar und Bailey, Inc. ISBN 9780615324616 Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Kriterien für Repräsentativität, Verzerrtheit und Eignung Was ist eine gute Stichprobe? Was ist eine repräsentative Stichprobe / Prüfmenge? Wo können Verzerrungen auftreten? Was bedeutet "geeignet"? Stichproben sind die Grundlage für datenbasierte Entscheidungen. Je höher die Stichproben-Qualität ist, desto belastbarer ist das Fundament, auf dem Entscheidungen getroffen werden. In der aktuellen Folge geht es darum, wie über die Bewertung von Repräsentativität, Unverzerrtheit (unbiased) und Eignung einer Stichprobe die Qualität ermittelt und bei Bedarf verbessert werden kann. Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Stichproben-Umfänge und Prüfmengen Darf's ein bisschen weniger sein? Folge 30 ist der Beginn einer weiteren Miniserie, dieses Mal zum Thema Stichproben, Stichprobenumfang und Prüfmenge. Warum berechnen wir Stichprobenumfänge und Prüfmengen? Welche Risiken werden abgesichert? Für welche Anwendungsfälle gibt es Berechnungs-Methoden? Die erste Folge der Miniserie beschäftigt sich mit den Rahmenbedingungen für Stichprobenumfänge und Prüfmengen. Es geht darum, was über Stichproben abgesichert werden kann und wo die Grenzen liegen. Beschrieben werden die statistischen Risiken: Fehlalarmrisiko (alpha) und Risiko zu Übersehen (beta) und erklärt, warum sich damit ein fieser Knoten im Kopf bildet. Abgeschlossen wird die Folge durch typische Anwendungsfälle aus dem industriellen Umfeld. DAS Buch zu Stichproben Mathews, Paul (2010) "Sample Size Calculations: Practical Methods for Engineers and Scientists" Mathews Malnar und Bailey, Inc. ISBN 9780615324616 Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

allgemeine und spezielle Literatur-Empfehlungen Lieblingsbücher zur Datenanalyse 👉 historische Bücher 👉 allgemeine Datenanalyse 👉 spezielle Themen Ich werde oft gefragt, welche Bücher ich für Grundlagen und Vertiefung beim Thema Datenanalyse oder zu speziellen Bereichn empfehlen kann. In dieser Folge stelle ich meine Auswahl an Lieblingsbüchern vor, die Ihnen beim Verständnis und der Umsetzung helfen können. historische Bücher Shewhart, Walter A. (1939). "Statistical Method from the Viewpoint of Quality Control (Dover Books on Mathematics)" Hrsg. von W. Edwards Deming. Dover Publications. ISBN 9780486652320. Nachdruck von 1986. Duncan, Acheson Johnston (1986) "Quality Control and Industrial Statistics" 5. Auflage, Irwin. ISBN 9780256035353 Tukey, John W. 1977 "Exploratory Data Analysis" Pearson. ISBN 9780201076165 Datenanalyse allgemein Ludwig Fahrmeir, Christian Heumann, Rita Künstler, Iris Pigeot und Gerhard Tutz (2012). "Statistik: Der Weg zur Datenanalyse (Springer-Lehrbuch)" 8. Auflage, Springer, ISBN 9783662503713 Wappis, Johann und Berndt Jung (2016) "Null-Fehler-Management - Umsetzung von Six Sigma." 5. Auflage, Hanser. ISBN 9783446446304 Barbara Bredner (2021) "NOT Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R" 2. Auflage, Tredition, ISBN: 9783347004818 NOT-Statistik Spezielle Themen Montgomery, Douglas C. (2020). "Introduction to Statistical Quality Control" 8. Auflage, Wiley. ISBN 9781119657118 Mathews, Paul (2010) "Sample Size Calculations: Practical Methods for Engineers and Scientists" Mathews Malnar und Bailey, Inc. ISBN 9780615324616 Mark J. Anderson und Patrick J. Whitcomb (2015). "DOE Simplified - Practical Tools for Effective Experimentation" 3. Auflage, Productivity Press. ISBN 9781482218947 Mark J. Anderson und Patrick J. Whitcomb (2016). "RSM Simplified - Optimizing Processes Using Response Surface Methods for Design of Experiments" 2. Auflage, Productivity Press. ISBN 9781498745987 Was sind Ihre Lieblingsbücher? Ich freue mich über Ihre Tipps! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Wie wir uns an den eigenen Haaren aus dem Sumpf ziehen Wofür brauchen wir Simulationen? Wofür brauchen wir Simulationen bei der Datenanalyse? Wie funktioniert Simulation mit Funktionen? Was sind Bootstrapping, Jackknife- und Monte Carlo-Simulationen? In der aktuellen Folge geht es um die Unterschiede und Gemeinsamkeiten sowie das allgemeine Vorgehen bei Simulationen in der Datenanalyse. Mit Simulationen können Ergebnisse aus der statistischen Versuchsplanung (DoE), Ursache-Wirkungs-Beziehungen oder allgemein aus dem maschinellen Lernen genutzt werden, um weitere Erkenntnisse über einen Versuch oder Prozess zu erhalten. Dabei werden unterschiedliche Ansätze wie Monte Carlo oder Bootstrap verwendet. Sie erhalten einen Einblick in die Methoden, Techniken und die Umsetzung. Fragen & Anmerkungen? gerne! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

gute & schlechte Grafiken und Tests Messreihen vergleichen Warum vergleichen wir Messreihen? Wie funktioniert der Vergleich mit Grafiken? Welche Signifikanztests gibt es für den Vergleich von Messreihen? "Das neue Werkzeug ist viel besser!" oder "Können wir anderes Material einsetzen und genauso gut produzieren?" sind zwei Fragen, bei denen das solide Bauchgefühl gut durch zahlenbasierte Methoden abgesichert werden kann. Beim Vergleich von Messreihen werden dafür Grafiken und Tests eingesetzt, nachdem das Ziel bzw. die Frage klar formuliert wurde. Sie erhalten in der aktuellen Folge Hinweise zu guten und schlechten Grafiken und Tests für den Vergleich von Messreihen. Links 👉 Messreihen vergleichen mit Grafiken 👉 NIST/SEMATECH e-Handbook of Statistical Methods 8.2.2.3 Likelihood Ratio Test Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Wann sind Messwerte normalverteilt? Wie funktioniert Verteilungsprüfung? Wie funktioniert die grafische Verteilungsprüfung? Welcher Verteilungstest ist der beste? Warum ist es eine ganz schlechte Idee, die Verteilung automatisch auszuwählen? Wir arbeiten gerne mit bekannten Methoden, deshalb werden in der Verteilungsprüfung oft Histogramme mit Verteilungskurven angeschaut oder der Kolmogorov-Smirnov-Test gerechnet. Warum beide Methoden weniger gut geeignet sind und welche besseren Auswertungsverfahren es gibt, darum geht es in der heutigen Folge von "Irgendwas mit Daten". Außerdem wird die Frage beantwortet, warum die automatische Verteilungsauswahl oder Verteilungsidentifikation selten gute Ergebnisse liefert und welche Schritte besser und zuverlässiger zu einer gut gewählten Verteilung führen. Links 👉 NCSS: Probability Plots / Formeln für Wahrscheinlichkeitsnetze 👉 Groß, Jürgen: A Normal Distribution Course Wahrscheinlichkeitsnetz bzw. QQ-Plot S. 98 👉 Bredner, Barbara und Stanger, Karl: Fähigkeit bei technisch begrenzten Merkmalen 👉 Johnson, Norman L.; Kotz, Samuel Kotz; Balakrishnan, Narayanaswamy: Continuous Univariate Distributions, Volume 1 👉 Johnson, Norman L.; Kotz, Samuel Kotz; Balakrishnan, Narayanaswamy: Continuous Univariate Distributions, Volume 2 👉 The American Statistician: The ASA Statement on p-Values: Context, Process and Purpose Wie halten Sie es mit der Verteilungsprüfung? Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Eigentlich ist doch sowieso alles normalverteilt, oder nicht? Wofür brauchen wir Verteilungen? Wofür brauchen wir Verteilungen? Gibt es Alternativen? Wie wird die richtige Verteilung ausgewählt? Warum sind Messwerte oft nicht-normalverteilt? Prozessfähigkeit, statistische Testverfahren und Toleranzermittlung sind nur einige Themenbereiche, in denen Verteilungen eine wichtige Rolle spielen. Oft ist die Auswahl der "richtigen" Verteilung schwierig, weil unklar ist, welche Kriterien für die Verteilungsauswahl verwendet werden sollen. Eine Alternative sind Auswertungsmethoden ohne Verteilungsannahme, doch auch diese haben Tücken. In der aktuellen Folge geht es deshalb um den Nutzen von Verteilungen, die Auswahl und alternative, verteilungsfreie Verfahren. Links 👉 Büning, Herbert und Trenkler, Götz "Nichtparametrische statistische Methoden" 👉 Forbes, Catherine et al. "Statistical Distributions" Wofür brauchen Sie Verteilungen? Schreiben Sie mir gerne an post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Konfidenz-, Prognose- und Toleranzintervalle Buchstabensuppe: KI, PI und TI Was sind KI, PI und TI? Welche Unterschiede und Gemeinsamkeiten gibt es? Wann wird welches Intervall verwendet? Wenn es darum geht, die Unschärfe von Ergebnisse greifbar zu machen, werden Streubereiche verwendet. Die drei häufigsten Formen sind Konfidenz-, Prognose- und Toleranzintervall, kurz KI, PI und TI. In der Folge wird erklärt, wie die Unsicherheit in den Formeln berücksichtigt wird und wann welches Intervall am besten geeignet ist. Über das Beispiel Spritverbrauch bekommen Sie eine verständliche "Übersetzung" der Grenzwerte und damit eine Interpretation dafür, welche Aussagen mit KI, PI und TI möglich sind. Links 👉 Beispiel Spritverbrauch - KI PI TI 👉 Termin für Beratungsgespräch Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

1 #23 Data Science ist viel cooler als Statistik! 17:58
17:58
Play Later
Play Later
Lists
Like
Liked17:58
Warum Menschen bei Data Science fasziniert und bei Statistik abgeschreckt sind Data Science ist viel cooler als Statistik! Warum ist Statistik fragwürdig und langweilig? Was macht Data Science aufregend und anders? Wieso ist Data Science cooler als Statistik? Daten sind genauso wertvoll für ein Unternehmen wie Gebäude und Maschinen! Diese Aussage wirkt fast schon abgegriffen und sie sind trotzdem wahr. Dank Data Science sind wir heute in der Lage, aus Daten wertvolle Informationen zu extrahieren. Aber hat die Statistik nicht ein ähnliches Ziel? In der aktuellen Folge geht es um die Unterschiede und Gemeinsamkeiten von Data Science und Statistik und die Frage, warum Data Science (scheinbar?) so viel cooler als Statistik ist. Links 👉 Unstatistik 👉 50 years of Data Science 👉 PC-Preis im Jahr 1990, verglichen mit 2014 Finden Sie auch, dass Data Science cooler als Statistik ist? Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Wie aus Versuchsergebnissen Nachweise, Optimierung und Toleranzen werden DoE 5/5: Ergebnisse nutzen Was ist das entscheidende Ergebnis der Auswertung? Wofür und wie wird das Auswertungs-Ergebnis genutzt? Was gehört zum Abschluss der DoE? Statistische Versuchsplanung und -auswertung (DoE) ist aufwändig. Im fünften und letzten Teil der DoE-Serie geht es um die Frage, ob sich dieser Aufwand lohnt und welche Ergebnisse sich aus den Versuchen ableiten lassen. Diese Ergebnisse lassen sich für Nachweis Optimierung Toleranzermittlung Qualifizierung Statistische Prozesskontrolle (SPC) nutzen - für ein Ziel oder alle und es sind keine weiteren Versuche notwendig! Am Ende des DoE-Projekts werden die Erkenntnisse und Entscheidungen dokumentiert und präsentiert. Danach wird das Projekt abgeschlossen. Machen Sie Ihre eigene DoE! In den Links unten finden Sie eine Bauanleitung für einen Papier-Rotor und alle anderen Planungstools. Versuchen Sie doch einfach selbst, das Rotor-Design mit DoE-Methoden zu optimieren! ❓Schaffen Sie es, ein besseres Optimum als ich zu erreichen❓ In der 5-teiligen Serie zur DoE geht es um die Folge 18: Grundlagen Folge 19: Planung Folge 20: Versuchspläne Folge 21: Auswertung Folge 22: Nutzung der Ergebnisse Links allgemeine Informationen zum Rotor 👉 Bauplan Rotor 👉 Projektbeschreibung DoE Rotor 👉 Projektdokumentation DoE Rotor 07.10. Ergebnisse und Auswertung 28 Versuche 👉 Versuchsplan mit 28 Versuchen und Ergebnissen (Excel) 👉 Versuchsplan mit 28 Versuchen Auswertung (JMP / zip-Datei) Ergebnisse und Auswertung 24 Versuche 👉 Einfluss- und Zielgrößen DoE Rotor v2 👉 Versuchsplan mit 24 Versuchen und Ergebnissen (Excel) 👉 Versuchsplan mit 24 Versuchen Auswertung (JMP / zip-Datei) Bestätigungsversuche 👉 Bestätigungsversuche optimales Design (Excel) 👉 Bestätigungsversuche Auswertung (JMP) Software für die Auswertung 👉 JMP 👉 Minitab 👉 Design Expert Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
I
Irgendwas mit Daten - Datenanalyse in der Industrie

Wie die relevanten Informationen aus den Versuchsergebnissen geholt werden DoE 4/5: Auswertung Welche Grafiken und Methoden gehören zur Auswertung von Versuchsergebnissen? Wie werden Ursache-Wirkungs-Beziehungen in den Versuchsdaten gefunden? Welche Kriterien gibt es für die Bewertung der Aussagekraft? Die vierte Folge der DoE-Miniserie liefert umsetzbare Methoden für die Auswertung von Versuchsergebnissen. Neben der Plausibilitätsprüfung geht es um die Identifikation relevanter bzw. signifikanter Einflüsse und die Bewertung, wie gut die Versuchsergebnisse statistisch erklärt werden können. Am Ende der Auswertungsphase ist damit klar, ob die Ergebnisse belastbar genug für Nachweis, Optimierung oder Toleranzrechnung sind. Machen Sie Ihre eigene DoE! In den Links unten finden Sie eine Bauanleitung für einen Papier-Rotor und alle anderen Planungstools. Versuchen Sie doch einfach selbst, das Rotor-Design mit DoE-Methoden zu optimieren! ❓Schaffen Sie es, ein besseres Optimum als ich zu erreichen❓ In der 5-teiligen Serie zur DoE geht es um die Folge 18: Grundlagen Folge 19: Planung Folge 20: Versuchspläne Folge 21: Auswertung Folge 22: Nutzung der Ergebnisse Links allgemeine Informationen zum Rotor 👉 Bauplan Rotor 👉 Projektbeschreibung DoE Rotor 👉 Projektdokumentation DoE Rotor 30.09. Ergebnisse und Auswertung 28 Versuche 👉 Versuchsplan mit 28 Versuchen und Ergebnissen (Excel) 👉 Versuchsplan mit 28 Versuchen Auswertung (JMP / zip-Datei) Ergebnisse und Auswertung 24 Versuche 👉 Einfluss- und Zielgrößen DoE Rotor v2 👉 Versuchsplan mit 24 Versuchen und Ergebnissen (Excel) 👉 Versuchsplan mit 24 Versuchen Auswertung (JMP / zip-Datei) Software für die Auswertung 👉 JMP 👉 Minitab 👉 Design Expert Schreiben Sie mir! Ich freue mich über Ihre Nachricht! Barbara Bredner, post@irgendwas-mit-daten.io…
Welcome to Player FM!
Player FM is scanning the web for high-quality podcasts for you to enjoy right now. It's the best podcast app and works on Android, iPhone, and the web. Signup to sync subscriptions across devices.