Seite drucken | Fenster schließen

X/S Regelkarte

Gedruckt aus: Rossmanith QM Forum
URL des Themas: http://www.rossmanith.com/forum/topic.asp?TOPIC_ID=253
Druckdatum: 25/04/2014

Thema:


Autor des Themas: jacky
Betreff: X/S Regelkarte
Verfasst am: 25/03/2004 10:43:43
Nachricht:

Hallo zusammen,

bin neu hier an Bord und würde mich über Formel zum Errechnen von cp und cpk Werten freuen. Hab das Netz schon durchstöbert aber leider nix. Tu mich ein wenig schwer mit dem Thema Regelkarten, aber ich muss sie führen als Zulieferer. Freue mich über alles Infos die ich zu dem Thema erhalten kann.

gruß jacky

Antworten:


Verfasser der Antwort: Ramona
Beantwortet am: 25/03/2004 11:35:00
Nachricht:

Probier mal hier abzusurfen.
http://iso-espc.informatik.uni-oldenburg.de/Kurs/Kapitel_4/04_01.HTML

R.



Verfasser der Antwort: jacky
Beantwortet am: 25/03/2004 12:08:07
Nachricht:

vielen Dank Ramona !

gruß jacky


Verfasser der Antwort: Barbara
Beantwortet am: 25/03/2004 12:09:38
Nachricht:

Hi Jacky,

der C_p- und C_pk-Wert sind sinnvoll, wenn Deine Messwerte (annähernd) normalverteilt sind (symmetrisch um den Mittelwert, glockenförmiger Verlauf, d. h. viele Werte in der Mitte, wenig an den Rändern). Kannst Du in einem Histogramm bzw. Balkendiagramm sehen, noch besser in einem NQQ-Plot (Normal-Quantil-Plot).

Ohne diese Voraussetzungen machen die beiden Werte keinen Sinn, deshalb würd ich als erstes die Verteilung der Messwerte untersuchen und danach die geeignete QCC auswählen (für die Prozesslage, für die Prozessstreuung, für Einzelwerte, für Gruppen, ohne Gedächtnis, mit Gedächtnis, etc.)

Viele Grüße

Barbara


Verfasser der Antwort: jacky
Beantwortet am: 25/03/2004 12:17:12
Nachricht:

ja danke Barbara und genau dort liegt mein Problem, die Streuung, sie liegen eben nicht um den Mittelwert und es ist auch nicht einfach vielleicht garnicht möglich, das abzustellen. ich habe in 5 Wochen TS Zertifizierung und bis dahin muss ich mir was einfallen lassen.

gruß jacky


Verfasser der Antwort: Barbara
Beantwortet am: 25/03/2004 12:21:44
Nachricht:

Hi Jacky,

wie sieht denn die Streuung aus? Ist einfach "nur" die Prozesslage verschoben oder ist die Streuung auch asymmetrisch? Und wie ist der Prozess spezifiziert? Einseitige Kontrolle oder beidseitige? Gibt es Spezifikationen, die eingehalten werden müssen?

Viele Grüße

Barbara


Verfasser der Antwort: jacky
Beantwortet am: 25/03/2004 12:32:15
Nachricht:

ja es gibt Spezifikationen und die Regelkarte ist einem EKG ähnlich. Ich muss Sie auch führen komme nicht herum, es sind 5 Messpunkte an einem Teil und das Teil ist rund. Es handelt sich hier um eine Schichtdickenmessung.

gruß jacky


Verfasser der Antwort: Barbara
Beantwortet am: 25/03/2004 13:20:21
Nachricht:

Hi Jacky,

was meinst Du damit, dass es wie ein EKG aussieht?

Soll die Schichtdicke an jedem Messpunkt gleich sein? Sind es immer die gleichen Stellen, an denen gemessen wird?

Viele Grüße

Barbara


Verfasser der Antwort: QM-Planer
Beantwortet am: 25/03/2004 13:24:59
Nachricht:

Hallo Jacky, hallo Barbara,

Die Prozessfähigkeitsuntersuchungen (Cp- und Cpk- Werte) sind für jede beliebige Verteilung geeignet und auch sinnvoll. Dass dies nur für normalverteilte Merkmale sinnvoll ist, ist definitiv nicht richtig. Die Normalverteilung ist idealisiert und liegt in der Praxis nicht immer vor.
Richtig ist, dass in der Literatur meistens nur die Formeln für Cp und Cpk für Normalverteilungen aufgeführt sind.

Die vorliegenden Messwerte sollten daher zuerst auf Normalverteilung hin überprüft werden.
Auch bei nicht normalverteilten Messwerten wird der Bereich, der 99,73% der Grundgesamtheit repräsentiert, als Prozessstreubreite für die Berechnung der Fähigkeitsindizes herangezogen. Aber 6s entspricht hier nicht 99,73% der Merkmalswerte. Die Grenzen des 99,73% Bereichs werden als 0,135%-Punkt und der 99,865%-Punkt bezeichnet. Generell gilt, dass für die vorhandenen Merkmalswerte die wahre Verteilung und die zugehörigen 0,135%- und der 99,865%-Punkte zu ermitteln sind.

Das ist natürlich ein riesen Aufwand und daher nur mit einer geeigneten Software wie QS-Stat sinnvoll.


Ich hoffe, das hilft mehr als es verwirrt!

mfg

Arne



Verfasser der Antwort: jacky
Beantwortet am: 25/03/2004 13:26:24
Nachricht:

ja es muss an jedem Messpunkt gleich sein,festgelegte Punkte gibt es nicht, bei einem runden Teil schwierig. Die Streuung ist extrem hoch oder niedrig um den Mittelwert.

gruß jacky


Verfasser der Antwort: Barbara
Beantwortet am: 25/03/2004 13:52:25
Nachricht:

Hi Arne,

der C_p- und der C_pk-Wert machen nur für Normalverteilung Sinn, weil sie eben auf dieser basieren. Ich vergleiche mit diesen Indizes, in welchem Verhältnis die gemessene Prozessbreite zu der theoretisch angenommenen Prozessbreite ist (bei C_pk zusätzliche Berücksichtigung der Prozesslage). Wenn jetzt aber theoretisch eine völlig andere Verteilung vorliegt als die Normalverteilung, dann kann ich mir den Vergleich sparen. Beispiele: Poissonverteilung, Gleichverteilung

Und spätestens wenn Du nicht eine Verteilung hast, der der Prozess folgt, sondern Mischverteilungen, dann bringen Dich C_p und C_pk eher an den Rand der Verzweiflung als in die Nähe einer fundierten Entscheidung.

Ich würde nicht versuchen, die Grenzen für die Prozessverteilung zu suchen, sondern (wenn es irgendwie geht) die Messwerte so transformieren, dass sie einer Normalverteilung folgen und dann die Karte berechnen.

Viele Grüße

Barbara


Verfasser der Antwort: jacky
Beantwortet am: 25/03/2004 13:58:38
Nachricht:

Babara du sagst es, es bringt mich an den Rand der Verzweiflung. Man kann es ja auch errechnen, wo die Normalwerte liegen sollten aber auch damit tuh ich mich schwer. Ich hab hin und her gerechnet. Ich brauche eine cpk von 1,33/ cp von 1,66 und die Standartabweichnung darf nicht größer als 1 sein, aber ein so gleichmäßiges Lackierbild ist einfach nicht möglich. Ich muß eine Schichtstärke von 6 - 16 µm haben.

gruß jacky


Verfasser der Antwort: Barbara
Beantwortet am: 25/03/2004 14:03:04
Nachricht:

Hi Jacky,

ist Dein Prozess irgendwann mal dahingehend untersucht worden, ob er überhaupt unter Kontrolle ist? (Es ist schon etwas merkwürdig, wenn die Streuung so unterschiedlich ist, finde ich.)

Mit einer Kontrollkarte kannst Du nur dann Prozesse gut kontrollieren, wenn Du Messwerte aus einer unter-Kontrolle-Situation hast. Ansonsten vergleichst Du eventuell Messwerte aus einem außer-Kontrolle-Prozess mit außer-Kontrolle-Messwerten, was nicht wirklich ergiebig ist.

Wenn Du zuverlässige Werte aus einer unter-Kontrolle-Zeit hast, würde ich in einem ersten Schritt versuchen die Verteilung dieser Messwerte zu charakterisieren, d. h. die Prozesslage und den Zielwert miteinander vergleichen, die Messreihe auf Asymmetrie hin untersuchen und auf Normalverteilung.

Ein FLussdiagramm krieg ich hier nicht unter, vom Ablauf her geht es dann so weiter:

a) Messreihe ist normalverteilt: X-S-Karte berechnen

b)Messreihe ist nicht normalverteilt: Transformation der Werte in Normalverteilung mögliche?
-> Ja: Transformieren und X-S-Karte berechnen
-> Nein: Spezielle Grenzen berechnen

Viele Grüße

Barbara


Verfasser der Antwort: Barbara
Beantwortet am: 25/03/2004 14:09:55
Nachricht:

Hi Jacky,

da haben sich unsere Beiträge überschnitten ;-)

Die Prozesslage soll als bei 11 liegen mit +/- 5 (wie hast Du dieses mü-Zeichen hier hingekriegt?) m?

Mit welcher Sicherheit muss/soll der Prozess innerhalb dieser Grenzen liegen? 95%? 99%? fast 100%?

Wer hat die Standardabweichung von 1 festgesetzt und warum?

Du kannst mir ja mal Messwerte schicken, dann schau ich sie mir an.

Viele Grüße

Barbara


Verfasser der Antwort: jacky
Beantwortet am: 25/03/2004 14:18:58
Nachricht:

Hi Babara,

das ist nett von dir das du das machen willst, ich habe diesen ganzen Wulst so übernommen, es war alles schon so und ich will es irgendwie ändern. Es ist schon schwierig eine gleichmäßige Lackierung auf einen schmalen runden Streifen von ca. 1 cm zu lackieren. Ich habe den S wert mit 1,66 bestimmt und mir wurde gesagt der Mittelwert der Standartabweichung liegt bei 0,5. Den wert 1 hab ich mir auf Grund meiner Werte errechnet. Wenn ich ein S von 0,5 hätte, wäre ja alles super aber das ist es eben nicht. z.B OTG 11,5 UTG 10,4 S 0,84 cpk : 1,74 / cp: 0,87


gruß jacky


Verfasser der Antwort: Barbara
Beantwortet am: 25/03/2004 15:17:19
Nachricht:

Hi Jacky,

der Mittelwert der Standardabweichung liegt bei 0.5? In Eurem Prozess oder generell? Wenn das für Euren Prozess gelten soll: Stimmt das wirklich bzw. wer hat das wann untersucht? Generell: Nein.

S ist Deine Standardabweichung nehme ich an? Ist das bei Dir der Durchschnitt durch die Gruppen-Standardabweichungen ( 1/(n-1) *Summe(x_i - (x quer))^2 ), wenn Du jeweils 5 Messwerte eines Streifens als Gruppe nimmst? Oder hast Du eine andere Gruppeneinteilung bzw. Formel?

Wie groß ist denn der Mittelwert Deiner Messwerte?

Kann es sein, dass Du das C_p und C_pk vertauscht hast? Generell ist C_pk wegen der Formel kleiner oder gleich C_p und bei Dir ist es umgedreht.

Wenn die Spezifikationsgrenzen LSL=6 und USL=16 sind und Deine Standardabweichung S=1 ist, ergibt sich für C_p:
C_p = (USL - LSL) / 6*S = 10 / 6 = 1.67
Und demnach würde Dein Prozess die Vorgaben erfüllen. Mir ist nur nicht so ganz klar, wie Du auf S=1 kommst, wenn Deine geschätzte Standardabweichung S=1,66 ist. (Damit ist C_p=1).

Wie hast Du denn OTG und UTG bestimmt?

Viele Grüße

Barbara




Ich habe den S wert mit 1,66 bestimmt und mir wurde gesagt der Mittelwert der Standartabweichung liegt bei 0,5. Den wert 1 hab ich mir auf Grund meiner Werte errechnet. Wenn ich ein S von 0,5 hätte, wäre ja alles super aber das ist es eben nicht. z.B OTG 11,5 UTG 10,4 S 0,84 cpk : 1,74 / cp: 0,87


gruß jacky
[/quote]


Verfasser der Antwort: jacky
Beantwortet am: 25/03/2004 15:34:17
Nachricht:

tja , ich bin jetzt leicht verunsichert, muss mir das in Ruhe mal ansehen, ich könnte dir so ne Regelkarte mal faxen, wenn du Lust hast, denn ich fürchte ich sollte mir das prinzipiell mal richtig erklären lassen, scheine da gravierende Lücken zu haben. Man gut das es sowas wie ein Forum gibt.

gruß jacky


Verfasser der Antwort: QM-Planer
Beantwortet am: 25/03/2004 16:25:22
Nachricht:

Hallo Jacky,

wie wird die Schichtdicke gemessen und wie sehen Deine Cp- und Cpk-Werte aus?
Wenn man dein Beispiel nimmt (Cp=1,74) heisst das, dass die Prozessstreuung im Vergleich zur Toleranzbreite gut liegt (ca. 57,5%). Anhand des Cpk=0,87 ist zu erkennen, dass ein Teil der Messwerte außerhalb der Toleranz liegt. Kann mann diesen systematischen Einfluß in eurem Prozess korrigieren?


Hallo Barbara,

das wird Jacky jetzt nicht weiter helfen, aber bei deiner Aussage mit der Normalverteilung muss ich dir widersprechen.
Die Formeln für die normalverteilte Merkmale (Cp=T/6s und Cpk=min[(OGW-Xquer)/3s; (Xquer-UGW)/3s)] werden halt häufig erwähnt, weil sie am einfachsten zu behandeln sind.
Es gibt aber auch Merkmale wie Form- und Lagetoleranzen, die eine natürliche Grenze haben. Z.B.: Ein Rundlauf kann nicht kleiner als Null sein; aber man erwartet, dass die meisten Messwerte dicht bei Null liegen. Die Messwerte werden sich hier voraussichtlich linkssteil verteilen. Solch eine Verteilung kann z.B. durch die logarithmische Normalverteilung beschrieben werden. Die logarithmische Normalverteilung wird wegen ihrer leichten Handhabung in der Regel aber nur noch bei manueller Auswertung herangezogen.
Da Auswertungen heute meist mit entsprechender Software erfolgen, werden die o.g. Merkmale vorzugsweise durch eine Betragsverteilung 1.Art oder 2.Art angenähert. Hier rechnet man Cp=T/(99,865%-Punkte - 0,135%Punkt).
Fährt man die Auswertung hier jedoch stur mit der Normalverteilung, sind die Fähigkeitsindizes (Cp und Cpk) kleiner.
Die Mischverteilung gibt in der Regel die besten Ergebnisse für Cp und Cpk. Es handelt sich bei den angesprochenen Merkmalen um stetige Merkmale, die Poissonverteilung ist eine Verteilung für diskrete Merkmale.

Grüße

Arne




Verfasser der Antwort: jacky
Beantwortet am: 26/03/2004 07:16:08
Nachricht:

Hallo Jacky,

wie wird die Schichtdicke gemessen und wie sehen Deine Cp- und Cpk-Werte aus?
Wenn man dein Beispiel nimmt (Cp=1,74) heisst das, dass die Prozessstreuung im Vergleich zur Toleranzbreite gut liegt (ca. 57,5%). Anhand des Cpk=0,87 ist zu erkennen, dass ein Teil der Messwerte außerhalb der Toleranz liegt. Kann mann diesen systematischen Einfluß in eurem Prozess korrigieren?

Hallo Arne,
Die Schichtdicke wird manuelle gemessen an 5 Messpunkten ,mit einem Gerät mit Messfühler,die nicht festgeschrieben werden können. Jeder Mitarbeiter hat eine eigene Art zu messen, was erschwerend hin zu kommt.Das Gerät rechnet Mittelwert und Standardabweichung selbst aus, was die MA nur übertragen müssen. Die Regelkarte muß manuell ausgerechnet werden.
Das Merkwürdige ist, das die Messwerte schon in der Toleranz liegen, wenn ich den Mittelwert sehe, ich vermute das die Messwerte innerhalb des Mittelwertes abweichen.





gruß jacky


Verfasser der Antwort: QM-Planer
Beantwortet am: 26/03/2004 09:27:31
Nachricht:

Hallo Jacky,

ich habe oben gelesen, dass die Teile rund sind. Messt ihr die Schichtdicke mit dem Messfühler genauso wie man den Rundlauf einer Welle misst?
Wenn ja, wie groß ist dann der Einfluß des Grundkörpers?
Du hast in deinem Messprozess scheinbar einige Einflüsse, die das Ergebnis negativ beeinflussen. Versuche diese Einflüsse zu quantifizieren. Sehr auffällig ist scheinbar der signifikante Einfluß der Bediener. Wie groß dieser Einfluß ist, kannst du durch eine Prüfmittelfähigkeit (Verfahren 3) herausfinden.
Dass die Mittelwerte innerhalb der Toleranz liegen kannst du daran erkennen, dass der Cpk-Wert größer Null ist. Das ist nicht ungewöhnlich. Aber wenn du Cpk>1,33 erreichen möchtest, dürfen die Messwerte nicht mehr als 75% der Toleranzbreite streuen und der Mittelwert muss dicht am Sollwert liegen. Vielleicht wäre parallel die Führung einer Ur-Wert-Karte angebracht, dann kannst nämlich sehen wie die einzelnen Schichtdicken liegen, und diese Verteilung der Schichtdicken ist letztendlich entscheidend.
Vielleicht könntest du mir nochmal genau den Messprozessbeschreiben, Toleranzen und Cp und Cpk nennen.

Gruß

Arne


Verfasser der Antwort: Barbara
Beantwortet am: 26/03/2004 23:01:17
Nachricht:

Hi Arne,

wenn Du die 99.85%- und 0.135%-Werte ausschließlich aus Deinen Daten schätzt, dann nimmst Du in Deine Schätzungen auch alle Messfehler auf, sowohl die zufälligen als auch die systematischen. Ganz egal, mit welcher Software Du das rechnest, die Messfehler werden so vernachlässigt. Wenn Du hingegen vorher die Verteilung der Daten untersuchst, kannst Du robustere Schätzer verwenden, wenn Deine Verteilung nicht normal oder kontaminiert ist.

Natürlich muss das alles nicht immer in vollem Umfang analysiert werden, aber wenn es irgendwelche Schwierigkeiten gibt oder ein Prozess grundsätzlich verbessert werden soll, dann hilft Dir eine Kontrollkarte mit empirischen Werten nicht viel weiter, weil sie verrauschte Daten mit verrauschten Daten vergleicht. Und ein Histogramm, ein Boxplot und ein NQQ-Plot sind auch nicht solche riesigen Analyseverfahren (vorausgesetzt, man hat die entsprechende Software dafür). Ein Balkendiagramm kann man allerdings auch mit Excel oder jedem anderen Tabellenprogramm machen und manchmal ist da schon zu erkennen, dass die Werte keiner Normalverteilung folgen (Asymmetrie, keine Glockenform, o. Ä.)

Du hast Recht: Die Poissonverteilung ist eine diskrete Verteilung, lässt sich aber relativ gut durch eine Normalverteilung approximieren.

Um auf Jackys Daten zurück zu kommen: Theoretisch sollte ein Messprozess normalverteilt sein. Spätestens wenn der Faktor Mensch dazu kommt, muss immer mit einem systematischen Fehler gerechnet werden. Wenn Jacky also sagt, dass die Streuungen sehr unterschiedlich sind, macht es für mich Sinn, erstmal die Daten anzuschauen und nach den Ursachen zu suchen als sofort loszurechnen und auf der Basis von ggf. verzerrten Daten Kontrollkarten oder (neue) Grenzen zu konstruieren. Eine Kontrollkarte vergleicht das IST mit dem SOLL, aber sie vergleicht keine Untergruppen wie z. B. Unterschiede zu verschiedenen Messzeitpunkten. Insofern ist sie ein gutes Hilfsmittel, solange ein Prozess unter Kontrolle ist. Für die Prozessanalyse ist sie nur sehr bedingt geeignet, z. B. wenn eine zeitliche Abhängigkeit visualisiert werden kann.

Es ist eben genauso wie im richtigen Leben: Die adäquate Wahl der Mittel ist entscheidend für die Zielerreichung. Eine Kontrollkarte ist für die Kontrolle eines Prozesses sehr hilfreich, aber nicht für die Analyse.

Viele Grüße

Barbara


Verfasser der Antwort: QM-Planer
Beantwortet am: 29/03/2004 09:52:02
Nachricht:

Hallo Barbara,

nichts anderes habe ich geschrieben, nur mit weniger Sätzen. "Es gilt die Einflüsse auf den Messprozess zu quantifizieren.....". Der Hinweis mit der Urwertkarte sollte nur als eine Möglichkeit dazu dienen. Wenn das Messgerät automatisch Mittelwert und Standardab. berechnet, tauchen die Einzelwerte nirgends auf. Und gerade diese sind für eine Anaylse oft wesentlich aussagekräftiger. Z.B. kann man diese dann auch in einem Balkendiagramm (Excel) abbilden.
Eine Prüfmittelfähigkeitsuntersuchung ermöglicht einem, z.B. den Einfluß der Bediener, des Aufstellorts oder des Messzeitpunkts zu ermitteln. Einen zeitlichen Einfluss kann man wiederum auch an den Einzelwerten erkennen.

Für Jacky ist unsere Diskussion wahrscheinlich wenig hilfreich - zu viel Theorie.
Und wie "im richtigen Leben" sollte man auch dieses Problem prakmatisch angehen. Das ist natürlich auf diesem Weg etwas schwierig!
Deswegen hatte ich um die genaue Beschreibung des Messprozesses und der Kennwerte gebeten!

Gruß und eine schöne Woche!

Arne


PS:
Ist der Faktor Mensch zufälliger oder systematischer Natur? Auch darüber streiten sich die Gelehrten.





Verfasser der Antwort: Barbara
Beantwortet am: 29/03/2004 11:58:56
Nachricht:

Hi Arne,

für mich ist der Mensch sowohl ein zufälliger als auch ein systematischer Faktor, weil er z. B. an guten Tagen anders misst als an schechten Tagen (zufällig) und dann auch noch grundsätzliche sprich systematische Unterschiede bestehen (können). Wie siehst Du das?

Viele Grüße

Barbara




Verfasser der Antwort: thomas
Beantwortet am: 29/03/2004 16:17:17
Nachricht:

Hallo zusammen,

obwohl ja irgendwie jeder recht hat, glaube ich Ihr habt Jaccky jetzt noch mehr verunsichert.

Es sollte doch zuerst auf die Reihenfolge geachtet werden in der man an solche dinge heran geht.

1. Prüfprozess qualifizieren (Prüfmittelfähigkeit) wenn das nicht stimmt, stimmt alles danach sowieso nicht.

2. Maschinenfähigkeitsuntersuchung

3. Kurzzeitprozessfähigkeit (inkl. aller Einflüsse, z.B. Bediener)

4. Regelkarte

wenn diese Reihenfolge, wie auch immer berechnet, Normalverteilung oder Mischverteilung nicht eingehalten wird,
dann kommt man nie auf einen Nenner und schon gar nicht auf den richtigen.

Beste Grüße,

Thomas



Verfasser der Antwort: Barbara
Beantwortet am: 30/03/2004 11:29:41
Nachricht:

Hi Thomas,

was genau verstehst Du unter Kurzzeitprozessfähigkeit?

Ansonsten hast Du vollkommen Recht: Das Pferd sollte einfach nicht von hinten aufgezäumt werden.

Viele Grüße

Barbara



Verfasser der Antwort: QM-Planer
Beantwortet am: 30/03/2004 12:08:40
Nachricht:

Hallo Barbara,

den Einflussfaktor Mensch sehe ich genauso wie Du.

Es ist schon richtig, was Thomas sagt. Nur mit Punkt 1 stimme ich nicht überein (Bsp 3D-Messtechnik).

Die Maschinenfähigkeitsuntersuchung (MFU) ist eine Kurzzeitfähigkeitsuntersuchung, deren Ziel es ausschließlich ist, maschinen-oder anlagenbedingte Einflüsse auf den Fertigungsprozess zu ermitteln.

Die Prozessfähigkeitsuntersuchung (PFU) ist eine Langzeitfähigkeitsuntersuchungen, die unter den endgültigen Serienbedingungen durchgeführt wird. Im Laufe des Untersuchungszeitraumes werden alle wesentlichen Einflussgrößen auf den Fertigungsprozess betrachtet (5M).

Zwischen MFU und PFU ist noch eine vorläufige PFU möglich/denkbar. Sie wird mit reduziertem Teileumfang gefahren.

Das ist für Euch wahrscheinlich nichts neues.
Diese Thematik wird im Forum leider viel zu selten diskutiert. In der Praxis gibt es damit immer wieder Probleme, weil sich zu wenige mit der Thematik auskennen.


Gruß

Arne


Verfasser der Antwort: jacky
Beantwortet am: 30/03/2004 13:30:42
Nachricht:

Hallo zusammen,

es freut mich hier so eine rege Diskussion angezettelt zu haben. Sehr interessant muss ich schon sagen. Ich muss euch da recht geben, diese Thematik wird wirklich selten behandelt, weiß der Geier warum. Für alle Statistikschulungen, für die ich mich angemeldet hatte, wurde wegen Teilnehmermangel abgesagt, gut ich gebe zu, hatte mich auch nicht darum gerissen aber ich hatte eben gemerkt das da ne Menge nachgeholt werden muss.

gruß jacky


Verfasser der Antwort: dreichl
Beantwortet am: 30/03/2004 15:10:08
Nachricht:

Hallo Jacky,
wenn ich deine Problematik recht im Kopf habe, d.h. Beschichtungsdicken von 6-16 µm auf rundem Material, würde ich unbedingt beim Punkt 1 von Thomas nämlich der Prüfmittelfähigkeit anfangen. Ich spreche da leider aus Erfahrung. Hast du eine Methode, bei der du mit der nötigen Genauigkeit die Dicke messen kannst. Wenn ja, bitte näheres an mich, bin da noch auf der Suche nach einer Methode für unser Problemkind.
Wenn nein, machen die anderen Punkte (leider) wenig Sinn.

Gruß,
Dieter


Gruß,
Dieter


Verfasser der Antwort: thomas
Beantwortet am: 30/03/2004 16:30:03
Nachricht:

Hallo Jacky,

Wenn Du auf der Suche nach einem SPC Seminar bist kann ich Dir das der InQ / Institut für Qualität ( www.vda-qmc.de ) sehr empfehlen,
ich habe dieses Seminar vor 2 Wochen besucht und war wirklich positiv überrascht in welche Richtung sich das Thema SPC entwickelt.

Wie Arne schon anfangs geschrieben hat ist bei nicht Normal verteilten Werten (z.B. Mischverteilung), was übrigens auf über 80% aller Prozesse zutrifft (Untersuchung Daimler Chrysler) die cpk Berechnung über die Prozessstreubreite zu berechnen.
Das ist natürlich ein Vorteil für den Lieferanten, diese neue Denkweise der Automobilindustrie rührt daher, weil nach o.a. Untersuchung 60% aller untersuchten Prozesse cpk Werte < 1,25 aufwiesen und dennoch gute Teile geliefert wurden. (Angsttoleranzen)


Arne,

Was meinst Du mit keine PMFU bei 3D-Meßtechnik??

Da sich hier einige Spezialisten für Schichtdickenmessung herumtreiben, ich bin seit langem auf der Suche nach einer Kostengünstigen und dennoch funktionierenden Methode zerstörungsfrei die Lackschichtdicke auf Kunststoffgehäusen zu messen. (Hauptproblem ist, das meistens keine plane Fläche vorhanden ist). Wäre dankbar für jede Anregung.

Gruß,

Thomas



Verfasser der Antwort: QM-Planer
Beantwortet am: 30/03/2004 17:43:03
Nachricht:

Hallo Thomas,

Es kommt halt schon mal vor, dass das Wunschverhältnis 1:10 (Toleranz zur Messgenauigkeit) deutlich überschritten wird (ist auch legitim). Das Messgerät kann dann schon für die Prozessregelung geeignet sein. Aber mit den PMFU-Kennwerten wird es schwierig.
Für 3D-Messmaschinen gibt es eigene Verfahren nach VDI/VDE2617 und/oder ISO 10360-2 (Längenunsicherheit, Unsicherheit im Raum usw.).
Grundsätzlich gilt aber, dass die Fähigkeit der Messmittel zu überprüfen ist. Das habe ich Jacky weiter oben auch schon empfohlen.

Gruß

Arne


Verfasser der Antwort: thomas
Beantwortet am: 31/03/2004 07:35:38
Nachricht:

Hallo Arne,

Es gibt natürlich einige Messverfahren bei denen das angestrebte Ziel nicht erreicht wird, aber man sollte dennoch die Fähigkeitsuntersuchung nützen um eventuelle Einflüsse auszuschließen.
Alleine diese Aussage von Jacky,

Die Schichtdicke wird manuelle gemessen an 5 Messpunkten ,mit einem Gerät mit Messfühler,die nicht festgeschrieben werden können. Jeder Mitarbeiter hat eine eigene Art zu messen, was erschwerend hin zu kommt.Das Gerät rechnet Mittelwert und Standardabweichung selbst aus, was die MA nur übertragen müssen. Die Regelkarte muß manuell ausgerechnet werden.
[red][/red]

da braucht man kein Prophet sein, um zu erkennen das die Werte wahrscheinlich nie normalverteilt sein werden und bei einer "üblichen" Toleranz, die ja meistens eher zu eng gewählt sind, diese Regelkarte und der Prozess vermutlich auch nie "fähig" sein wird.

Gruß,

Thomas


Verfasser der Antwort: jacky
Beantwortet am: 31/03/2004 08:08:56
Nachricht:

Guten Morgen ,

das Messmittel ist durchaus geprüft und kalibriert.

gruß jacky


Verfasser der Antwort: thomas
Beantwortet am: 31/03/2004 09:18:35
Nachricht:

Hallo Jacky,

das euer Gerät geprüft und kalibriert ist bezweifle ich nicht, nur alleine deine Aussage, das jeder Anwender seine eigene Technik hat und vermutlich auch seine eigenen Messpunkte, bringt dir so viel Streuung ein, die nur von der Messung kommt und dein Teil gar nicht hat.
Diese Einflüsse sind durch definierte Messpunkte und Prüfverfahren relativ einfach auszuschließen.

Aber allein das Thema Prüfmittelfähigkeit ist so komplex und hat mir schon viele Nerven gekostet, wenn Du in dieser Hinsicht Hilfe brauchst schicke mir ein E-Mail und ich sende Dir meine Tel.Nr., denn das wird in dieser Form zu umfangreich.

thomas.rindberger@ruwido.com

Gruß,

Thomas


Verfasser der Antwort: Barbara
Beantwortet am: 31/03/2004 10:09:45
Nachricht:

Hi Thomas,

kannst Du mir sagen, wo ich die von Dir angesprochene Daimler-Chrysler-Studie finden kann? 80% find ich arg viel.

Und ich bleibe dabei: Erst Verteilungstyp bestimmen, dann schätzen der Parameter, um nicht den gesammelten Fehler inklusive Ausreißer 1:1 in der Streuungsschätzung zu haben. Eine rein empirische Schätzung ist auch wegen der breiteren Verteilung der Schätzer nicht empfehlenswert, z. B. sind die 3s-Intervalle beim Median bis zu 1.34 mal größer als beim Mittelwert. D. h. wenn die Daten normalverteilt sind, dann werfe ich sehr viele Infos weg, wenn ich aus Robustheitsgründen mit dem Median rechne. Wenn die Daten nicht normal sind und ich mit dem Mittelwert rechne, dann passen meine Grenzen nicht gut zu den Daten bzw. dem zu Grunde liegenden Prozess.

Auch wenn es häufig nicht gefordert ist, würde ich immer neben den C_p- und C_pk-Werten auch immer den C_pm und C_pmk-Wert berechnen, weil die Abweichung der Lage vom Soll anders gewichten.

Viele Grüße

Barbara


Verfasser der Antwort: thomas
Beantwortet am: 31/03/2004 14:04:34
Nachricht:

Ich kann Die diese Studie mailen, schick mir einfach ein Mail an obige Adresse.

Thomas


Verfasser der Antwort: Thomas R
Beantwortet am: 31/03/2004 15:48:43
Nachricht:

Hallo zusammen,

super Diskussion, ich hab auch noch einen Ansatz. Berechne mal den Korrelationsfaktor der Einzelwerte d.h. wieviel streuen die Werte um den Mittelwert. Je näher dieser an 1 liegt dann kann NV vorausgesetzt werden.
(Billiger Test für NV).

Tut er es nicht, dann mit Student (t) Verteilung statt NV und für Sigma die Chi² Verteilung nehmen (die ist immer krumm).
Damit bläst du zwar die Grenzen auf, kannst aber mal sehen wo du ungefähr liegst.

Mittelwerte sind immer Normalverteilt. Daher wurde ich den Ansatz über einen Vorlauf z.B. 100 Messwerte dann auf Stichprobe z.B. n=5 wechseln.
Falls ein SPC System vorhenden, dann Vorlauf einstellen, messen, auswerten und interpretieren.



Gruß
Thomas R


Verfasser der Antwort: Barbara
Beantwortet am: 01/04/2004 09:10:49
Nachricht:

Hallo Thomas,

was genau verstehst Du unter "dem Korrelationsfaktor der Einzelwerte"? Nach welcher Formel rechnest Du den?

Viele Grüße

Barbara


Verfasser der Antwort: Thomas R
Beantwortet am: 01/04/2004 13:38:50
Nachricht:

Hallo Barbara,

das ist nicht so trivial. Zuerst etwas Theorie, wenn ich es richtig sehe, dann geht es um Beschichtung.
Was für eine Beschichtung? CVD aus Gasphase (ist gleichmäßiger) oder galvanisch dann hab ich das Problem, dass jede Ecke mehr Schicht aufnimmt.
Diese Prozesse hängen z.T. von den Eigenschaften des Grundwerkstoffes ab, bzw. natürlich vom Medium, welches die Schicht abgibt.

Schichten haben innerhalb eines Zeitraumes ein Wachstum, jetzt unterstelle ich mal in einer Zeiteinheit max. x µm Schichtstärke. Verarmt mein Medium, muss ich länger beschichten um die gewünschte Stärke zu erreichen.

Dagegen würde ich die Werte in einer simplen Korrelation laufen lassen.
Mein Gedankengang ist der, das z.B. pro Stunde 2µm Schicht wachsen können.
Dann kann ich sagen Wachstum von 2, 4, 6, 8... etc, µm Schicht in einer bekannten Zeit.
Mit einem Taschenrechner (oder Exel) kann ich dann die gemessenen Werte gegen die Zeitreihe laufen lassen und den Korrelationsfaktor ermitteln. Dann weis ich zumindest mal welche Verteilungsform vorliegt.

So bis hierhin rede ich von einem Vorlauf, ich nehme möglichst viele Einzelwerte (Prozessidentifikation und Qualifikation).

Erst dann würde ich über Prozessfähigkeit reden. Nehmen wir mal an, die Verteilung ist schief, dann würde ich einseitig gegen einen Minimalwert vorgehen (wenn ein Maximun unbedeutend ist, da es in der Zeit nicht erreicht werden kann).
Ist die Verteilung schief, dann t- und Chi²-Verteilung Schätzung von µ und sigma.
Ist sie normalverteilt, dann direkt über NV.

Ab hier dann (wenn ich weis was vorliegt) Schätzung von Prozessfähigkeit ggf. Rücksprache mit Fachbereich oder Kunde da ggf. Toleranzgrenzen überdacht werden müssen.

Das Problem bei der Statistik ist aus meiner Erfahrung (die Literatur hat es vor mir behauptet), dass ohne Prozesskenntnis die ganze Rechnerei für die Katz ist. Statistische Methoden können erst dann angewendet werden, wenn klar ist worum es geht, sonst rechnet man ins grüne. Den richtigen Ansatz finden, sonst redet alles über cpk, ppk und was es alles sonst noch gibt und keiner redet mehr über den Prozess. Im Nachhinein betrachtet, habe ich das auch getan ohne das ich den Prozess kenne.




Gruß
Thomas R


Verfasser der Antwort: Barbara
Beantwortet am: 01/04/2004 14:19:53
Nachricht:

Hallo Thomas,

ich hab Deinen Testvorschlag noch nicht verstanden. Du nimmst also die Unterschiede zwischen den beobachteten und den vermuteten Werten in einer Zeitreihe. Und dann gewichtest die Differenz womit bzw. teilst die Differenzen durch welchen Wert?

Übrigens sind Mittelwerte never ever immer normalverteilt, s. dazu das neue Thema "Was ist schon normal?" und damit kannst Du auch nicht immer die Chi²-Verteilung für die Varianz unterstellen.

Viele Grüße

Barbara




Verfasser der Antwort: Thomas R
Beantwortet am: 01/04/2004 14:47:20
Nachricht:

Hallo Barbara,
das kann ich hier so schlecht erklären. Nicht das ich mich aus der Affäre ziehen will, aber ohne Kenntniss der Randparameter ist diese Diskussion sinnlos. Schick mir deine Mailadresse, dann sende ich dir die Formel bzw. eine Excel-Tabelle, wie ich korrelieren würde (es ist aber nur ein Gedankenspiel).
Und in einem Punkt bleibe ich dabei, Mittelwerte sind normalverteilt, und da geb ich mir Recht, solange nicht irgend ein Trend eine Messreihe wie z.B. Abnutzung eines Werkzeuges diese beeinflusst, da geb ich dir Recht. Kurzum es führt zum Ausgangspunkt zurück, ohne Prozesskenntnis ist es sinnlos. Wir "fachsimpeln", ohne das wir wissen worüber wie eigentlich reden.

Gruß
Thomas R


Verfasser der Antwort: jacky
Beantwortet am: 02/04/2004 10:29:08
Nachricht:

Hallo zusammen,

ich finde euer Fachsimpeln tatsächlich sehr interessant, wenn Ihr spezielle Fragen habt, bin gern bereit sie beantworten, damit Ihr wißt worüber Ihr sprecht. Ohne das Ihr es vielleicht wißt, habt Ihr mir schon sehr geholfen. Es stimmt schon, das man es nur versteht, wenn man weiß worum es geht, denn genau das Problem hatte ich. Trotz aller Fachsimpelei, konnt ich für mich einiges mitnehmen und vieles ist klarer geworden.



gruß jacky


Rossmanith QM Forum : http://www.rossmanith.com/forum/

© 2001-2013 Rossmanith GmbH

Fenster Schließen